Un proyecto dirigido por Enzo Ferrante, investigador del CONICET en el Instituto de Investigación en Señales, Sistemas e Inteligencia Computacional (sinc(i),CONICET-UNL), denominado “Descubrimiento de sesgo no supervisado: anticipando problemas de equidad algorítmica en modelos de machine learning para análisis de imágenes médicas sin anotaciones de referencia”, fue seleccionado para el Google Award for Inclusion Research(Google AIR), un reconocimiento internacional que otorga la empresa a investigadores que logran trabajos con impacto positivo en el bien común.
Ferrrante explicó que Google AIR es un programa internacional altamente competitivo que, en esta ocasión, ha premiado grupos de la New York University, de Stanford y de seis instituciones latinoamericanas, entre las que se halla la el equipo que integra Ferrante con Victoria Peterson (co-directora del proyecto galardonado), investigadora del CONICET en el Instituto de Matemática Aplicada del Litoral (IMAL, CONICET-UNL), y los investigadores del CONICET Diego Milone y Rodrigo Echeveste –también del sinc(i)-, y becarios/as con tesis doctorales en temáticas afines.
"La Inteligencia Artificial (IA) es un área dentro de las ciencias de la computación, que se encarga de crear programas de computadoras que en algún sentido tratan de recrear un comportamiento humano. Pero es un sentido súper amplio, puede ser entender textos, mirar, jugar juegos, razonamientos", comentó el entrevistado al aire en Cadena OH!
"Hoy en día hay un sub área dentro de la IA que se conoce como aprendizaje automático. La clave ahí está en que los programas aprenden a partir de las bases de datos, de la experiencia. Se puede "entrenar" un programa de computadora, ese tipo de algorítmos son de aprendizaje automático que es lo que más da que hablar".
Respecto a la IA aclaró que "no es un invento nuevo la inteligencia artificial, hablamos de esto desde la década de 1950. Se vienen desarrollando algoritmos en este área cada año. Ese miedo de que se extinga la humanidad, no es tal, no un riesgo. Lo que sí estaría bueno preguntarse es qué pasa con los puestos laborales. La tarea se empieza a resolver tan eficientemente que se reduce la cantidad de personas que se necesitan para el trabajo. Tenemos que ver qué pasa con esa reconversión laboral. No tiene sentido el desarrollo de tecnología si queda gente afuera", declaró.
Sobre el proyecto premiado
En los últimos años se experimenta a nivel internacional una expansión de la investigación en modelos de inteligencia artificial (IA) aplicados al análisis automatizado de imágenes médicas, con la finalidad de lograr mayor precisión y velocidad en los diagnósticos de numerosas enfermedades, que van del cáncer de mamas a la esclerosis múltiple. La rápida expansión en la implementación de estas técnicas hace que sea muy importante investigar sobre los márgenes de error en los resultados, donde se verifican ciertos “sesgos” que se manifiestan a través de rendimientos dispares en modelos de IA aplicados a poblaciones diversas que, generalmente, están subrepresentadas en las bases de datos utilizadas para su entrenamiento.
En materia de salud, los sistemas basados en IA pueden arrojar resultados diferentes según el grupo al que se aplica, lo que conlleva diferencias que pueden ser muy importantes al momento de diagnosticar y proponer los tratamientos más convenientes. Ante esto, los expertos argentinos alertan sobre el riesgo de reproducir sesgos propios de bases de datos diseñadas en el extranjero, por lo que orientaron sus investigaciones en base a estrategias destinadas a minimizar los efectos nocivos que pueden plantearse a nivel local.
Dentro de las ciencias de la computación ha nacido un campo de estudio denominado “justicia algorítmica en aprendizaje automático”, área novedosa a la que se dedica el grupo de Ferrante, que ya ha logrado publicaciones pioneras en prestigiosas revistas como Proceedings of the National Academy of Sciences (PNAS) y Nature Communications. En cuanto al tema particular del proyecto, en los últimos años se ha demostrado que los sistemas de IA pueden estar sistemáticamente sesgados respecto a subpoblaciones en función de características demográficas como el grupo étnico o el género en una variedad de escenarios.