Por Josefina MontenegroEl incierto rol de la IA en el mercado laboral 2026

Hace algunos días leí un artículo de Gartner, consultora especializada en análisis empresarial y tecnológico, que identifica nueve tendencias sobre el futuro del trabajo en 2026 y los años siguientes. Todas giran en torno al impacto de la inteligencia artificial (IA). Pero lo más relevante no es la lista, sino la forma en que cuestiona varios supuestos que repetimos con convicción –que “la IA reemplazará masivamente empleos”, que “habrá productividad inmediata”, que “hacer más con menos es inevitable”- sin haberlos discutido en serio.
El texto parte con una idea incómoda. Las expectativas de crecimiento impulsado por la IA siguen altas, pero los retornos verificables avanzan más lento. La investigación citada sugiere que solo una fracción mínima de las inversiones produce un impacto realmente transformador, mientras muchas organizaciones toman decisiones internas basadas en eficiencias que aún no existen, o que no se pueden demostrar con claridad. El riesgo no es solo financiero, como cuando se despide para luego recontratar. También es cultural y reputacional. Se erosiona la confianza y se instala la sospecha de que la tecnología opera como coartada para apretar, no como herramienta para mejorar.
Por eso, más que discutir si la IA “va a reemplazarnos” en el trabajo, una pregunta que oscila entre el alarmismo y la ansiedad, conviene observar lo que ya está cambiando dentro de las organizaciones. La IA está empujando a muchas empresas a reescribir, a toda velocidad, el contrato implícito con sus equipos: qué se espera de las personas; cómo se mide el desempeño; qué estándares de calidad se aceptan y quién responde cuando un error se automatiza. En ese plano aparecen tres efectos que vale la pena mirar con más atención.
El primer efecto es cultural. Gartner advierte una “disonancia cultural” en organizaciones que endurecen sus exigencias y promueven una lógica de alta intensidad —a veces presentada como “mentalidad startup”— con jornadas más largas, evaluación del desempeño más agresiva y menor flexibilidad, sin una recompensa equivalente. Cuando esa brecha se instala, la IA no necesariamente alivia. Puede acelerar el ritmo y amplificar la presión, profundizando el desgaste y el desapego.

El segundo efecto es una paradoja de productividad. Gartner lo llama workslop, una versión moderna del desperdicio donde existe mucho contenido producido, pero poco utilizable, y aparece cuando la IA se integra de manera masiva sin rediseñar procesos ni resguardar estándares. Si bien la promesa era liberar capacidad, en la práctica puede multiplicar entregables que requieren más verificación, más corrección y más criterio humano. En vez de eliminar trabajo, lo desplaza hacia la fase más cara: revisar, validar, reescribir y sostener calidad. Por eso, el indicador clave no es el “tiempo ahorrado”, sino cuánto baja el trabajo extra que hoy se agrega al proceso.
El tercer efecto es de gobernanza. A medida que la IA entra en todos los procesos, también se cuela en los puntos ciegos. Un ejemplo claro son los procesos de reclutamiento, donde los candidatos usan IA para optimizar sus currículums y, a su vez, las organizaciones usan IA para filtrar las postulaciones, en una carrera que termina degradando la selección si no se recuperan instancias de evaluación real. Otro ejemplo es el doppelganger digital: si una persona entrena un asistente con su criterio, su voz o su forma de decidir, ¿quién es dueño de ese activo cuando se va? Y, especialmente, quién responde si ese asistente se usa después con información sensible o decisiones críticas.
En Chile, este debate todavía está en ciernes y, por lo mismo, lejos de hacerse cargo de efectos que ya se observan en otros mercados. La discusión suele quedarse en el titular del reemplazo o en la promesa de eficiencia, cuando lo que está en juego es otra cosa. La IA está reordenando cómo se define el buen trabajo y quién responde cuando algo falla.
Por eso, el desafío no es “usar IA”, sino ponerle reglas. Definir en qué procesos se permite, con qué datos, qué resguardos se exigen y qué nivel de revisión humana queda como estándar. Medir impacto no solo en velocidad, sino en calidad, riesgos y confianza.
Y ahí aparecen dos cosas que no se delegan en un software: evidencia y responsabilidad. Antes de automatizar, conviene hacerse una pregunta simple: ¿Qué problema concreto estamos resolviendo y quién responde si la solución falla? Si la respuesta es difusa, vale preguntarse si estamos siendo competentes o solo entusiastas.
COMENTARIOS
Para comentar este artículo debes ser suscriptor.
Lo Último
Lo más leído
Plan digital + LT Beneficios por 3 meses
Comienza el año bien informado y con beneficios para ti ⭐️$3.990/mes SUSCRÍBETE













