Los algoritmos de inteligencia artificial, en particular los llamados Grandes Modelos de Lenguaje (Large Language Models, LLM por sus siglas en inglés), de los cuales ChatGPT, Gemini y Claude son ejemplos paradigmáticos, han alcanzado tal nivel de sofisticación que compiten con muchas de nuestras capacidades en áreas que antes solo eran de dominio exclusivo de los seres humanos.
Pueden ya establecer una conversación fluida, recibir órdenes y a partir de ellas realizar tareas complejas en las que logran con frecuencia superar a los seres humanos. Ese nivel de excelencia se ha logrado a partir de un entrenamiento incesante que perfecciona los parámetros de un modelo mediante la exposición repetida a datos estructurados. Estos datos se inyectan al entrenamiento a una velocidad de un millón de tokens por segundo para LLM grandes. Esa masa de datos proviene del enorme acervo digital que se encuentra en internet.
Con frecuencia leemos que una IA “alucina” cuando nos ofrece una respuesta o actúa de forma inesperada. Esto se debe en esencia a sesgos en la fase de entrenamiento. La situación puede ser peor si la IA incorpora información falsa a su acervo.
Almira Osmanovic Thunström, investigadora médica de la Universidad de Gotemburgo, Suecia, decidió llevar al cabo el siguiente experimento: inventó una afección cutánea que denominó Bixonimania y luego subió dos artículos falsos al respecto a un servidor de preprints a principios de 2024.
A las pocas semanas de haber subido la información sobre la enfermedad, atribuida a un autor ficticio que nombró Lazljiv Izgubljenovic, los principales sistemas de inteligencia artificial comenzaron a repetir la enfermedad inventada como si fuera real. Los trabajos llevaban insertada una foto del supuesto científico que fue creada con otro algoritmo de IA.
Lo peor de todo el asunto es que otros científicos citaron estos artículos ficticios como si fueran auténticos. Esto debiera encender las alarmas sobre la manera en que las IA son entrenadas, sobre todo en áreas tan sensibles como la salud humana.
Investigador del Cephcis de la UNAM.
