En el orden habitual: Javier Matuk, moderador; Jaime Restrepo, Pablo Fredikson, Carlos Santana y Miguel Ángel Durán, panelistas del mesa panel “El Futuro: Predicciones 2030” en la que hablaron sobre la IA
En el orden habitual: Javier Matuk, moderador; Jaime Restrepo, Pablo Fredikson, Carlos Santana y Miguel Ángel Durán, panelistas del mesa panel “El Futuro: Predicciones 2030” en la que hablaron sobre la IA

El futuro dejó de ser una promesa lejana para convertirse en un intercambio de impresiones interesantes, tal como ocurrió en la mesa panel “El Futuro: Predicciones 2030”, moderada por Javier Matuk.

Este ejercicio fue un intercambio ágil de opiniones entre especialistas, aunque provocó tensiones al hablar del empleo frente a automatización, conocimiento frente a dependencia tecnológica, y poder frente a regulación en una carrera global que parece no tener freno.

Acompañado por Jaime Restrepo, Miguel Ángel Durán, Carlos Santana y Pablo Fredikson, todos íconos de la cibertecnología actual; el diálogo avanzó con una premisa compartida donde se plantea que la Inteligencia Artificial (IA) ya no es una curiosidad, sino un factor estructural que está reconfigurando el presente con una velocidad que rebasa la capacidad de adaptación de empresas, instituciones y trabajadores.

El inicio de esta conversación abordó un tema sensible en torno a los despidos en el sector tecnológico, en un contexto donde compañías con ingresos históricos reducen personal mientras invierten en IA.

Lejos de atribuirle a esta tecnología una responsabilidad directa, los panelistas coincidieron en que, por ahora, opera también como una narrativa conveniente para justificar recortes y reordenamientos internos. Sin embargo, reconocieron que la transformación es real, menos contrataciones, mayor productividad por empleado y una redefinición del perfil laboral.

En ese nuevo mapa, el talento junior no desaparece, pero sí enfrenta un umbral más alto de entrada, donde ya no basta con saber programar, sino entender cómo trabajar con sistemas automatizados, cuestionarlos y dirigirlos.

La conversación tomó un giro particularmente revelador cuando se desmontó uno de los mitos más extendidos, acerca de que la IA sustituye el conocimiento. Por el contrario, se insistió en que amplifica tanto la capacidad como el error.

Puede producir soluciones en segundos; sin embargo, también fallas invisibles para quien no tiene criterio técnico para detectarlas.

Una frase clara quedó como advertencia y síntesis; la IA no vuelve inteligente a quien no lo es. En ese sentido, el conocimiento no pierde valor, sino que cambia de lugar; deja de estar en la ejecución y se desplaza hacia la supervisión, la toma de decisiones y el pensamiento crítico.

A medida que el debate avanzó, emergió otra inquietud menos visible, pero también de determinante: la confianza en los propios sistemas. Si las métricas que evalúan modelos pueden ser manipuladas o no reflejan su desempeño real, la decisión tecnológica se vuelve menos objetiva y más estratégica.

Ante ello, la recomendación fue comparar y no depender de una sola solución. El futuro inmediato, se planteó, no será dominado por un modelo único, sino por ecosistemas híbridos donde distintas inteligencias artificiales convivan según su especialidad, costo y nivel de control.

La ciberseguridad apareció entonces como una frontera especialmente frágil. La posibilidad de agentes autónomos capaces de detectar vulnerabilidades, o incluso de explotarlas, introduce una lógica en la que la defensa ya no puede ser exclusivamente humana. Se perfila un escenario donde sistemas de inteligencia artificial auditan a otros sistemas en una dinámica continua, casi circular, que plantea una paradoja, cuanto más se automatiza la seguridad, más se aleja el entendimiento humano de lo que ocurre en el fondo.

La sensación de vértigo se amplificó al abordar la dimensión geopolítica. La competencia entre potencias tecnológicas, particularmente entre Estados Unidos y China, añade presión a un desarrollo que difícilmente puede detenerse. La lógica es simple y, a la vez, preocupante: si uno se frena, otro avanza.

En ese contexto, la regulación queda atrapada entre la prudencia y el riesgo de quedar fuera del juego. La IA, más que una herramienta, se configura como un campo de disputa global donde la ventaja no solo es económica, sino también estratégica.

En el cierre, la conversación se desplazó hacia una pregunta que, más que técnica resultó muy humana: ¿Qué capacidades resistirán este avance? Las respuestas no apelaron a habilidades específicas, sino a experiencias sobre el cuidado, el vínculo, la empatía y el sentido de propósito.

La IA no necesariamente puede imitarlos, sino porque las personas podrían seguir valorando su autenticidad. Se esbozó incluso la posibilidad de que lo humano se convierta en un bien escaso, y por ello más valioso, en medio de una oferta creciente de experiencias generadas por máquinas.

Este panel dejó una impresión persistente, en la que el futuro no está siendo dictado únicamente por la tecnología, sino por las decisiones que se toman en torno a ella. La IA es aún para esta década un terreno en construcción donde conviven intereses económicos, dilemas éticos y aspiraciones sociales. En ese proceso, el verdadero desafío no parece ser qué tanto pueden hacer las máquinas, sino qué están dispuestos a hacer los humanos con ellas.— DARINKA RUIZ MORIMOTO DiariodeYucatán

Comentario contundente

En la mesa panel “El Futuro: Predicciones 2030” se recalcó que la IA no vuelve inteligente a quien no lo es.

Conocimiento

El conocimiento no pierde valor, sino que cambia de lugar; deja de estar en ejecución y se desplaza hacia la supervisión, la toma de decisiones y el pensamiento crítico.

Una respuesta en “Debaten en Mérida sobre los retos de la IA en el campo laboral”

  1. La IA está revolucionando los modelos de negocio y de formación académica. Se debe fortalecer inmediato el acceso y el nivel competitivo de las especialidades en cómputo, comunicación, convergencia y ciberseguridad.

Los comentarios están cerrados.