¿La evolución de las máquinas supone un riesgo real para los seres humanos? ¿Los robots se convertirán en los amos y señores de este mundo? ¿Robarán nuestros trabajos? ¿Serán los que lucharán las guerras del futuro?

Mientras el empresario Elon Musk advierte que “hasta que no veamos a los robots matar personas por las calles no entenderemos los peligros”, y el presidente ruso Vladimir Putin sostiene que el país que lidere estas tecnologías “dominará el mundo”; son cada vez más visibles las preocupaciones éticas por el avance de la inteligencia artificial y la robótica.

Un estudio reciente revela la importancia de regular las investigaciones en esa área, un paso que Google procuró dar pero que recientemente se truncó por diferencias internas en el grupo de expertos que reunió la compañía.

IA y ética

Un informe titulado Gente, poder y tecnología: el punto de vista de los trabajadores del sector tecnológico, confirma las inquietudes éticas de los especialistas en inteligencia artificial, vinculadas a los alcances de sus desarrollos. El estudio fue realizado en el Reino Unido, basado en más de mil entrevistas.

Más de la mitad de los investigadores y participantes del área (el 59%) dijo que trabajó con tecnologías potencialmente perjudiciales para la sociedad. Además, el 27% de los encuestados reconoció que renunciaron a sus empleos a causa de estas preocupaciones.

Si se compara el ámbito dedicado a tecnologías de inteligencia artificial con el sector tecnológico global, las diferencias son evidentes. En el primero, uno de cada seis trabajadores renunció a su puesto, mientras que en el segundo uno de cada veinte.

Esa estadística tiene una relación directa con el grado de interés de los involucrados, en los respectivos ámbitos. De acuerdo al estudio, el 81% de los que trabajan en IA advierten la importancia de evaluar el impacto de su trabajo, mientras que en el sector tecnológico global la cifra cae al 63%.

Asimismo, si bien muchos involucrados en proyectos de IA dicen que esas tecnologías ayudarán a abordar problemas de la sociedad, casi el 25% reconoció que esos avances serán los más preocupantes en la próxima década y que el avance de las máquinas implica riesgos como el desempleo.

Finalmente, un 45% de los trabajadores del sector tecnológico opinó que la industria requiere mayores regulaciones.

El tropiezo de Google

Tal como contamos en TN Tecno a comienzos de abril, Google conformó un comité para regular la inteligencia artificial, pero debió disolverlo a una semana de su creación.

La compañía estadounidense había reunido a expertos en robótica, aprendizaje automático, psicología y filosofía, entre otros ámbitos, para crear lo que llamó Consejo Consultivo Externo de Tecnología Avanzada (ATEAC, por sus siglas en inglés). El objetivo era estudiar los avances y alcances de las tecnologías de IA.

La rápida disolución del grupo se debió a la inclusión de algunos miembros, cuyas posturas políticas y sociales, o bien sus influencias, generaron polémica. Muchos integrantes del comité manifestaron su rechazo por la presencia de la republicana Kay Coles James, quien en diferentes circunstancias divulgó posiciones antiimigración y rechazo a la comunidad LGBT.

TN Tecno dialogó con David Dalmazzo, una de las mentes detrás de un sistema que analiza la destreza de músicos expertos, para que los novatos puedan imitarlos. “Lo que se incorpora es una herramienta...

Otro participante en el comité que generó descontento es el ejecutivo de una empresa de drones. Su presencia provocó temores por el eventual uso de la IA para fines militares.

“Quedó claro que en este ambiente el ATEAC no puede funcionar como esperábamos”, dijeron desde Google. Comentaron que el proyecto no se disolvió completamente, y que será replanteado para analizar “los importantes retos que plantea la inteligencia artificial”.