Hace pocos días, un experto del MIT habló del diseño de un software que engaña a ciertos sistemas de inteligencia artificial (IA) para demostrar que los mismos aún son vulnerables y que, en tanto, existen importantes riesgos vinculados a su despliegue.

El documento contiene una serie de ítems para controlar el despliegue irrestricto de la IA

En ese marco, voces autorizadas reclaman que las investigaciones y desarrollos del área sean regulados. Entre ellos el CEO de Alphabet (matriz de Google), Sundar Pichai, quien en una conferencia reciente señaló que “existen preocupaciones reales sobre las posibles consecuencias negativas de la IA” y que “nos esperan desafíos que ninguna empresa o persona podrá afrontar por sí sola”.

Ahora, la Unión Europea publica una guía que contiene una serie de pautas para regular a la inteligencia artificial, advirtiendo que puede “conducir a violaciones de los derechos fundamentales”, por ejemplo la falta de privacidad, la supresión de las disidencias y el establecimiento de sesgos.

Límites para la IA en Europa

El documento presentado por la UE contiene una serie de ítems para controlar el despliegue irrestricto de la IA, que en los últimos años ha maximizado su visibilidad de la mano de desarrollos variopintos, aplicados en sectores tan diversos como la medicina, el arte, el deporte y la defensa militar, entre otros.

Por un lado piden que los investigadores y desarrolladores aseguren de que sus sistemas de IA sean alimentados con datos representativos, eludiendo de este modo eventuales sesgos. En este sentido, exigen que los creadores de dichos mecanismos ofrezcan documentación detallada de cómo se desarrolló la IA.

Además notan la importancia de explicitar cuando las personas interactúan con un sistema de esa especie, que por otra parte deben contar con supervisión humana.

Siguiendo a Technology Review, tras la divulgación de estos nuevos criterios han surgido críticas especialmente de parte de aquellos que consideran que los borradores filtrados en el mes de enero contenían exigencias más estrictas que las ahora publicadas. En concreto, respecto a la implementación de sistemas de reconocimiento facial en las ciudades.

Cabe señalar que las exigencias detalladas sólo aplican a lo que la Unión Europea considera “tecnologías de alto riesgo”, que contempla únicamente a ciertos sectores y/o usos, como la vigilancia o la medicina. Por lo demás, este paper es simplemente un conjunto de pautas y no una legislación, que se espera comience a ser redactada a fines del año en curso.