MADRID.- La Inteligencia Artificial (IA) representa elevados riesgos y los fallos en esa tecnología podrían tener consecuencias catastróficas, advirtieron científicos de numerosos centros de investigación y universidades de varios países en un artículo publicado en la revista Science.
Investigadores señalaron que los sistemas de IA se han puesto a prueba en una amplia gama de aplicaciones, desde el diagnóstico médico hasta la navegación de coches autónomos, pero alertan que éstos son escenarios de alto riesgo en los que los márgenes de error son escasos y las consecuencias de un fallo pueden ser fatales.
La entrada en Science llega apenas 15 días después de que 5.500 expertos de todo el mundo publicaran una carta abierta en la que abogaban por pausar durante un tiempo los experimentos con la IA más potente y avanzada.
Se refieren a la llamada “generativa”, que es capaz de crear textos o imágenes a partir de datos ya existentes, que puede representar riesgos para la sociedad.
Investigadores advierten de graves riesgos de la Inteligencia Artificial
Ahora firmaron en Science investigadores de varias instituciones académicas y científicas, entre las que están las universidades de Cambridge, Harvard, Stanford, Shandong (China), la Politécnica de Valencia, el Imperial College London, el Instituto Tecnológico de Massachusetts (MIT), y varias empresas, entre ellas Google o la británica DeepMind, una de las mayores multinacionales del sector de la Inteligencia Artificial.
Los científicos que suscribieron en la revista afirmaron la necesidad de que todas las publicaciones sobre esta materia incluyan de forma pormenorizada todos los datos que son vitales para comprender y abordar los errores intermedios que pueden conducir a los posibles fallos y estén a disposición de la comunidad científica para evitar que se reproduzcan los mismos errores.
Te puede interesar: Inteligencia Artificial: ¿por qué es una necesidad en el sector empresarial?
Como ejemplo, describieron un escenario hipotético en el que un algoritmo de reconocimiento facial alcanza la impresionante tasa de precisión del 90% al distinguir rostros masculinos de femeninos.
Sin embargo, un examen detallado podría revelar que clasifica erróneamente los rostros de mujeres de piel oscura en el 35 por ciento de los casos y ese porcentaje de error sólo se produce en el 0.8 por ciento de los hombres de piel clara.
“Imposible” poner freno a la investigación sobre IA
Reclamaron por lo tanto informes mucho más detallados y una mayor disponibilidad de todos los datos que se han utilizado para los análisis y consideraron que de esa manera la investigación sobre IA se aproximaría a los protocolos que ya se registran en otras disciplinas, como la medicina o la física.
Entre los firmantes del artículo está el español Fernando Martínez-Plumed, científico y profesor en el Instituto Valenciano de Investigación en Inteligencia Artificial (Universidad Politécnica de Valencia), quien aseguró que tratar de poner freno a la IA “es una tarea muy difícil, si no imposible”.
Y observó que la investigación y el desarrollo implica a la industria, a la academia o a la sociedad y que cada una tiene sus intereses distintos y a veces contrarios.
Te recomendamos: La inteligencia artificial preocupa al papa Francisco
Pero sí es crucial, a su juicio, reducir y mitigar los riesgos, garantizar un uso responsable y seguro, y entre las diferentes estrategias que se deben seguir destacó que los investigadores y desarrolladores trabajen juntos para crear tecnologías más seguras, éticas, transparentes y justas, así como que las empresas y los gobiernos establezcan regulaciones y estándares.
Algunas tecnologías de IA son más riesgosas
Martínez-Plumed precisó que unas tecnologías de IA pueden tener más riesgos que otras, como las que involucran la toma de decisiones críticas o el acceso a información privada, los sistemas de vigilancia o los algoritmos de contratación; o los más modernos, capaces de generar de texto, imágenes, audios o vídeos.
Son capaces de crear obras de arte y textos impresionantes, pero también presentan nuevos riesgos para la sociedad: la creación de contenidos falsos, engañosos o incluso peligrosos, como noticias falsas, contenidos ofensivos, discriminatorios e ilegales.
Pero al final, reflexionó, los sistemas de IA se entrenan y aprenden a partir de conjuntos de datos que reflejan y amplifican los mismos prejuicios y las desigualdades que existen en la sociedad (el machismo, el racismo, el clasismo u otros).
Fallos en tecnología de Inteligencia Artificial
Y citó los ejemplos ya contrastados de sistemas para la contratación de personal que se entrenan con datos históricos de contratación de empleados que muestran sesgos de género o raza, de métodos de detección de rostros que no reconocen a las mujeres negras, algoritmos de búsqueda con estereotipos negativos sobre las niñas negras y hasta prejuicios lingüísticos al mostrar preferencias por determinados acentos o dialectos.
“Los sesgos en los sistemas de IA no son intrínsecos a la tecnología, sino que reflejan los prejuicios en los datos y decisiones humanas utilizados para entrenar los modelos”, aseveró el investigador.
Lee también: ¿Cuáles son los trabajos más afectados por los chatbots de IA?
E incidió en la importancia de identificarlos y tratarlos para avanzar hacia sistemas de IA más equitativos y justos, guiados por valores éticos y sociales, no sólo por consideraciones técnicas o económicas.
Fernando Martínez-Plumed concluyó que la Inteligencia Artificial puede ser una herramienta poderosa para abordar algunos de los problemas más apremiantes de la sociedad, “pero sólo puede ser eficaz si se utiliza de manera responsable y reflexiva”.
