OLEIROS, España (EFE).— Carme Artigas, copresidenta del Consejo Asesor de Inteligencia Artificial de Naciones Unidas, ve dos riesgos principales en los modelos de inteligencia artificial (IA): las tecnologías que simulan ser personas y la amenaza vinculada a la comercialización de datos neuronales.
Artigas, quien fue secretaria de Estado de Digitalización e Inteligencia Artificial, participó en Santa Cruz en una de las conferencias internacionales “Women in Data Science” impulsadas por la Universidad de Stanford, que visibilizan el talento femenino en ciencia de datos, inteligencia artificial e innovación tecnológica.
En su intervención quiso combatir la idea de que “Estados Unidos inventa, China copia y Europa regula”, pues aseguró que el país asiático tiene un 40% de las patentes de IA a nivel mundial —el doble que Estados Unidos— y también cuenta con una legislación “muchísimo más dura que la europea”.
En contraparte, la nación estadounidense cuenta con 350 leyes en este ámbito y California y Texas poseen las normas más restrictivas, pero a la vez “son los sitios de mayor innovación”.
Señaló que “la clave para la adopción masiva de cualquier cosa es la confianza” y que lo que ocurre en Europa con la IA es que “las empresas aún no se fían”, por esa razón apostó por trabajar más en ese ámbito.
Sin embargo, también advirtió sobre los riesgos. El primero es la impersonación —la simulación por la IA de que es una persona real—, para lo que Carme Artigas no ve “ni una sola razón”. “Estamos a un paso de la manipulación”, dijo.
En ese sentido, censuró la postura de Mark Zuckerberg, presidente ejecutivo de Meta, quien alertó sobre “una pandemia de soledad en el mundo” que dice que resolverá. “No quieres resolver el problema de la soledad, lo quieres monetizar”, manifestó.
El segundo mayor riesgo está relacionado con los datos cerebrales, que constituyen una cruzada personal, pues considera que no debe ser posible “comercializar datos neuronales”.
“No podría dormir tranquila si mis datos estuvieran en manos ajenas. La única manera de proteger esto es si asumimos que son como un órgano humano, porque en ningún sitio del mundo se puede comerciar con órganos, es la única salvaguarda”, apuntó.
En la actualidad ya es posible extraer información del uso de las redes sociales, de ahí que Artigas sostenga que un acceso al cerebro sería una amenaza crítica.
Como Hiroshima
Por otro lado, la funcionaria de la ONU opinó que la situación actual de desarrollo de la IA sobrepasa límites, de ahí que crea que haga falta “una Hiroshima de la IA” en forma de “una catástrofe controlada”, para llegar a la conclusión: “Nos hemos pasado de vueltas”.
Advirtió igualmente sobre las empresas tecnológicas, que “ya controlaban los medios de comunicación digital, ahora están comprando los medios de comunicación físicos y además son el complejo industrial militar”.
Esta situación la motivó a subrayar que en algún momento habrá “que cortar estos monopolios”.
Sobre la situación en Europa argumentó que “tiene la capacidad de innovar en la IA responsable que es compatible con los derechos fundamentales” y “la clave geoestratégica es que Europa no pierda los datos industriales” porque “todo el mundo va loco por conseguirlos”, pero “la nube debe estar en territorio europeo y las copias de seguridad, también”
