Hace algunos días un video que apareció por sorpresa, acaparó los monitores del Departamento de Vivienda y Desarrollo Urbano (HUD) de Estados Unidos. En él, se veía al presidente Donald Trump besando los pies de Elon Musk, acompañado de un texto que decía “Long Live the Real King” (larga vida al verdadero rey).

El clip que se reproducía en bucle parecía burlarse de la relación entre ambos, haciendo alusión a una publicación reciente de Trump en la red social “Truth Social” con la frase “Long live the King”.

¿Se trataba de un ciberataque o de una broma interna? Independientemente de su origen, lo cierto es que este caso evidenció una vez más el peligro creciente de los deepfakes.

El término deepfake proviene de la combinación de deep learning (aprendizaje profundo) y fake (falso), haciendo referencia a una tecnología que utiliza inteligencia artificial para crear imágenes, videos y audios falsificados con un nivel de realismo sorprendente.

A través del uso de redes neuronales avanzadas, los deepfakes pueden imitar rostros, gestos y voces con gran precisión, hasta el punto de que es imposible distinguir la diferencia entre lo real y lo fabricado.

Aunque esta tecnología tiene aplicaciones que pueden ser muy útiles, su uso malintencionado ha generado serias preocupaciones sobre su impacto en la desinformación y los fraudes digitales.

Entre algunos de los ejemplos más impactantes del poder del deepfake, está la imagen del papa Francisco vestido con un abrigo blanco estilo rapero, que circuló mundialmente y engañó a millones de personas antes de que se revelara que se había elaborado utilizando inteligencia artificial.

La misma tecnología ha sido utilizada en la industria musical, como en el caso de la canción Heart on My Sleeve, que se viralizó en TikTok, Spotify y YouTube, aparentando ser una colaboración entre Drake y The Weeknd.

Sin embargo, la canción había sido creada por un artista anónimo, quien empleó Inteligencia Artificial para imitar sus voces.

Puerta abierta

En el ámbito financiero, el deepfake ha abierto la puerta a fraudes cada vez más sofisticados. En febrero de 2024, un trabajador de la firma multinacional británica de ingeniería y consultoría Arup fue engañado para transferir más de 25 millones de dólares a estafadores. El engaño comenzó con un correo electrónico sospechoso solicitándole al empleado una transacción secreta, de la cual sospechó inicialmente, pero después de que participó en una videollamada con personas que parecían y sonaban exactamente como sus colegas de la sede en Londres, la sofisticación del deepfake logró disipar sus dudas iniciales, llevándolo a ejecutar 15 transferencias millonarias antes de que la estafa fuera detectada.

Los fraudes financieros impulsados por deepfakes no solo afectan a grandes corporaciones, sino también a ciudadanos comunes.

Un pequeño inversionista podría ser víctima de videos fraudulentos en los que algún influencer o figura pública recomienda invertir, como en el caso del video en el que el expresidente AMLO invitaba a invertir en Pemex.

Imagínese recibir una llamada de un familiar, escuchando su voz, con todos los matices que le son familiares, pidiéndole dinero de forma urgente porque acaba de sufrir un accidente. Seguramente su reacción inmediata sería de preocupación y tratar de ayudarlo sin cuestionarlo. Pero ¿y si esa voz no fuera realmente la de su ser querido?

Peligro de mal uso

Casos de fraudes utilizando la tecnología deepfake han comenzado a aparecer en distintos rincones del mundo, revelando el peligro que representa la inteligencia artificial al ser utilizada para diferentes modalidades de engaño.

A lo largo de la historia, como humanidad, hemos aprendido a confiar en lo que vemos y oímos. Incluso hemos adoptado el dicho “hasta no ver, no creer”. Sin embargo, el deepfake ha desafiado esta lógica. Ya no podemos confiar en nuestros propios sentidos, ya que lo que vemos y escuchamos puede ser completamente falso.

Lo que nos queda es vivir en un estado constante de desconfianza, cuestionando todo lo que percibimos y verificando cada información, imagen o sonido, aunque provenga de fuentes aparentemente confiables.

En un mundo donde la realidad se manipula con facilidad, no podemos confiar en nuestros sentidos y ahora debemos vivir bajo el principio de “hasta no verificar dos o más veces, no creer”.— Mérida, Yucatán.

marisol.cen@kookayfinanzas.com

@kookayfinanzas

Profesora Universitaria y Consultora Financiera

Noticias de Mérida, Yucatán, México y el Mundo, además de análisis y artículos editoriales, publicados en la edición impresa de Diario de Yucatán