Estudio concluye que los chatbots no generan ninguna adicción
Estudio concluye que los chatbots no generan ninguna adicción

VALENCIA, España (EFE).— Un estudio internacional realizado por investigadores de España, Francia y Suiza concluye que no hay evidencia científica que respalde la existencia de una adicción a los chatbots de inteligencia artificial (IA), como ChatGPT.

“No existe evidencia científica sólida que respalde la existencia de una adicción a ChatGPT o a otros chatbots de IA”, señalaron los autores en el informe, publicado en la revista “Addictive Behaviors”. El análisis fue desarrollado por Víctor Ciudad-Fernández, de la Universitat de València (UV); Cora von Hammerstein, de Paris Cité University; y Joël Billieux, de la Université de Lausanne.

Los investigadores encontraron que los estudios previos que intentan medir una supuesta adicción a los chatbots han utilizado escalas idénticas a las que se usan para evaluar dependencias a sustancias como el alcohol o la cocaína.

“Se están utilizando criterios como ‘tolerancia’ o ‘síndrome de abstinencia’ para evaluar si alguien usa demasiado un chatbot, lo que es como diagnosticar adicción a bailar con los mismos criterios que la heroína”, expresó Víctor Ciudad.

De acuerdo con el equipo, no se ha demostrado que el uso habitual de herramientas de IA cause un deterioro funcional grave o consecuencias negativas significativas en la vida de los usuarios.

En su lugar, el uso frecuente de ChatGPT “suele estar más relacionado con la curiosidad, el aprendizaje o incluso estrategias de afrontamiento”, subrayaron los investigadores.

Advirtieron que etiquetar como adicción el uso de estos sistemas puede tener efectos adversos: “Podría llevar a la estigmatización de los usuarios, tratamientos innecesarios o regulaciones sin fundamento”. “No se trata de una adicción sino de cómo usamos la tecnología”, señalaron. “Este estudio invita a un cambio de perspectiva”, añadieron.

Para los autores, la clave está en promover un uso responsable. “Lo más importante es entender cuándo y por qué el uso se vuelve problemático, sin caer en discursos alarmistas sin base científica”, aseveraron.

La investigación fue realizada en respuesta a reportajes recientes que señalaban posibles riesgos adictivos de la IA, lo cual motivó a los expertos a revisar y cuestionar el fundamento científico de dichas afirmaciones. El equipo investigador también hizo hincapié en la necesidad de desarrollar herramientas de evaluación específicas para el uso de nuevas tecnologías, en lugar de adaptar escalas pensadas para otras conductas. “Necesitamos instrumentos que realmente capten las particularidades del uso digital, no simples copias de criterios clínicos clásicos”, afirmó Joël Billieux.

Asimismo, los autores proponen que futuras investigaciones se enfoquen en factores contextuales y motivacionales. “No todo uso prolongado implica un problema; hay que analizar qué busca la persona y qué obtiene de ello”, explicó Cora von Hammerstein, quien destacó que el enfoque debe ser funcional, no alarmista. Finalmente, el estudio sugiere que los sistemas educativos y sanitarios fomenten la alfabetización digital como forma de prevención. “Educar sobre el uso saludable de las tecnologías es más efectivo que patologizar conductas sin pruebas”, concluyeron.

Hallazgos ChatGPT

Investigadores de España, Francia y Suiza llevaron al cabo un estudio sobre los chatbots

Inapropiados

Los científicos critican que se usen conceptos de drogadicción para evaluar hábitos tecnológicos que no implican efectos médicos equivalentes.

Curiosidad frecuente

El uso constante de ChatGPT suele deberse al deseo de aprender cosas nuevas o resolver dudas cotidianas, no a dependencia.

Riesgo discursivo

Llamar adicción al uso de IA puede causar pánico moral innecesario, dificultando la comprensión real del comportamiento digital.

Perspectiva diferente

Este estudio invita a un cambio de perspectiva y saber cuando es realmente un problema.

Noticias de Mérida, Yucatán, México y el Mundo, además de análisis y artículos editoriales, publicados en la edición impresa de Diario de Yucatán