MADRID (EFE).— La explosión de los modelos de inteligencia artificial (IA) generativa, capaces de “conversar” y crear textos, imágenes o música a partir de datos existentes, ha llevado a 5,500 expertos de todo el mundo a pedir una pausa. Pero, ¿por qué ahora?
El ritmo al que avanza esta tecnología es motivo de preocupación y hay que repensarla, opinan.
Encabezados por Yoshua Bengio, premio Turing y profesor de la Universidad de Montreal, en Canadá, y Stuart Russell, de la Universidad de California en Berkeley, los especialistas solicitan en una carta a los laboratorios que suspendan al menos seis meses el entrenamiento de sistemas de inteligencia artificial más potentes que GPT-4 (el más reciente modelo de IA generativa de OpenAI).
Entre los firmantes están Carles Sierra, director del Instituto de Investigación en Inteligencia Artificial del Consejo Superior de Investigaciones Científicas (CSIC) de España, y Pablo Jarillo-Herrero, del Instituto Tecnológico de Massachusetts (MIT). Ambos coinciden en que no se han tomado “las precauciones necesarias” antes de trasladar masivamente la inteligencia artificial a la ciudadanía.
Sierra admite que tiene “una preocupación creciente por esta especie de carrera armamentista” entre las firmas tecnológicas. No solo es OpenIA la que desarrollado los modelos de IA generativa, sino también Google con Bard y Meta con LLaMa.
No se trata de catastrofismo, advierte Sierra, sino que “hay compañías que han invertido mucho dinero, quieren monetizar lo que han hecho y están en la batalla por ver quién se lleva el trozo más grande del pastel”, pero en “este proceso están siendo poco prudentes”.
Falta evaluación y sin ella no sabemos qué consecuencias puede tener esta IA, afirma el experto del CSIC, que lo compara con el proceso de investigación y aprobación de un medicamento: las agencias reguladoras tardan años en autorizarlos y lo hacen solo cuando han superado las tres fases de los ensayos clínicos (hay una cuarta de farmacovigilancia).
“Las empresas están sucediendo sus versiones a un ritmo de una cada mes —OpenIA ya trabaja en ChatGPT-5—, poniendo a disposición de todo el mundo los nuevos modelos, y no de manera sectorial”, lamenta.
Jarillo-Herrero también está preocupado por el ritmo al que está avanzando la IA y recuerda que hace algún tiempo hubo interés en una moratoria sobre el uso de la técnica de edición genética Crispr, que progresaba “mucho más deprisa de lo que la humanidad podía ‘digerir’, y algunas aplicaciones se podían ir de las manos”.
“Con tecnologías tan disruptivas es conveniente entender y anticipar las posibles consecuencias de su uso y regularlo”.
Cautela en privacidad
Ambos expertos coinciden en que la IA, también la generativa, puede ofrecer beneficios, pero Sierra alerta que estos sistemas buscan que el resultado sea verosímil, no necesariamente cierto, y parezca que lo dijo un humano. Ahí el riesgo.
Basados en el aprendizaje automático, estos sistemas, de los que también preocupa la invasión a la privacidad y el uso de datos personales, aprenden de los millones de textos, imágenes y vídeos publicados en internet, y los desarrolladores se quedan con los datos de las miles de “conversaciones” de los usuarios para mejorar los siguientes modelos.
Uso para “fakenews”
Jarillo-Herrero, profesor de Física en el MIT, concentra sus preocupaciones sobre todo en la desinformación. Imágenes hiperrealistas del papa Francisco con una chamarra blanca y de Donald Trump resistiéndose a un arresto son dos ejemplos que han circulado estos días.
“Antes ya había mucha desinformación, pero era bastante fácil darse cuenta y distinguirla por una persona educada. Ahora es mucho más fácil publicar o diseminar información que en una primera lectura parece real pero es falsa”, resume Jarillo-Herrero.
Además, “la información/texto con la que se entrena esta IA contiene muchos ‘biases’ (sesgos), los mismos que los humanos”, con lo cual las respuestas contienen estereotipos.
El investigador reflexiona que la humanidad, en general, nunca ha sido muy efectiva en contener avances científicos y técnicos no deseados, por ejemplo bastantes países han desarrollado bombas atómicas o nucleares.
“Sin embargo, hay una gran diferencia entre la IA y otros avances peligrosos como las bombas nucleares. Para estas últimas se requiere una instrumentación y materiales muy complejos, no fácilmente disponibles incluso para gobiernos”.
En cambio, apunta, cualquiera con unas cuantas computadoras puede hacer uso de la IA. “Por ejemplo, los piratas informáticos deben estar planeando ya miles de ataques utilizando IA, que puede resolver fácilmente puzzles de verificación que antes requerían un humano”.
“Esta moratoria de seis meses, si se produce, quizás ayude a los gobiernos a intentar entender mejor las posibles consecuencias negativas de la IA y a regularizar su uso. Las compañías más avanzadas pueden quizás pausar y pensar en cómo contrarrestar esos efectos negativos”, concluye el científico del MIT.
Sierra, quien alerta del peligro de poner en manos de un adolescente un sistema que puede generar desinformación, también habla de regular su uso y recuerda que la soberanía siempre está en el pueblo: “No estoy de acuerdo en prohibir, pero sí en regular”.
Este experto, también presidente de la Asociación Europea de IA, apuesta por redactar un código deontológico claro. Hay antecedentes de documentos de buenas prácticas de la Unión Europea, de la OCDE o de sociedades e instituciones estadounidenses y británicas, pero ahora es necesario un código mundial, robusto y transparente.
En este sentido, revela que está en contacto con Stuart Russell, uno de los promotores de la carta, para estudiar cómo concretarlo.
A nivel europeo, dice, habría que llevar la ley de inteligencia artificial de nuevo a la mesa de discusión, para especificar los riesgos de la IA generativa y cómo poner límites.
La ley, cuya aplicación se prevé este año, incluye la prohibición de prácticas como el reconocimiento facial en espacios abiertos y clasifica los riesgos de la IA en alto, moderado o de poco riesgo.
Identifica por tanto sectores, como el educativo, en el que hay que tener especial salvaguarda y control (el uso de IA para evaluar alumnos o asignarlos en las escuelas lo califica de alto riesgo).
Sin embargo, cuando se redactó la ley los sistemas de IA generativa estaban aún desarrollándose. Ahora que los hay muy avanzados, habría que volver atrás y adaptar la norma, concluye Sierra.
