24 abril 2026

El coste invisible de trabajar con IA

por Santi Garcia

A menudo, el despliegue masivo de la inteligencia artificial (IA) en los entornos laborales se presenta como un amplificador de productividad sin precedentes. Sin embargo, investigaciones publicadas entre 2024 y 2026 revelan una realidad más matizada. Bajo la superficie de las ganancias de eficiencia inmediatas, subyace una serie de riesgos asintomáticos que afectan de manera profunda a las capacidades cognitivas, los procesos metacognitivos y los comportamientos sociales de los usuarios de esta tecnología.

La ciencia advierte que estamos ante la «paradoja de la IA como amplificador»: la misma herramienta que potencia el rendimiento a corto plazo puede estar erosionando sistemáticamente la pericia, la autonomía y el juicio experto a largo plazo.

La erosión de la pericia y el fenómeno del «óxido de la intuición»

El primero de estos riesgos es el impacto del uso de la IA en la formación y el mantenimiento de habilidades complejas. La pericia humana depende en gran medida de la repetición deliberada, el feedback y la resolución activa de problemas. Si los sistemas de IA realizan cada vez más partes del proceso (diagnóstico, análisis, redacción, programación, etc.), muchos profesionales pueden pasar de resolver problemas a supervisar soluciones. Con el tiempo, esto puede generar una pérdida de profundidad técnica y una menor capacidad para intervenir cuando el sistema falla.

En un campo de alta responsabilidad como la oncología radioterápica, un estudio longitudinal de Ehsan et al. (2026) aporta evidencias de un fenómeno denominado «intuición oxidada» (intuition rust). En él, los especialistas, tras meses asistidos por una herramienta de IA, comienzan a aprobar planes de tratamiento con demasiada rapidez, perdiendo el juicio crítico refinado durante años de práctica. Estos daños se califican como asintomáticos porque no se reflejan inicialmente en las métricas de rendimiento (velocidad o precisión), pero debilitan silenciosamente la capacidad del trabajador para detectar errores o actuar sin la tecnología.

Investigaciones experimentales en el ámbito de la ingeniería de software corroboran esta tendencia. Un estudio de Judy Hanwen Shen y Alex Tamkin (2026) demostró que el uso de asistentes de IA para aprender nuevas librerías de programación perjudica significativamente la adquisición de conceptos fundamentales. Los desarrolladores que utilizaron IA obtuvieron puntuaciones un 17% inferiores en evaluaciones de conocimiento en comparación con quienes trabajaron de forma independiente, mostrando debilidades críticas, especialmente en habilidades de depuración (debugging). Esto sugiere que la productividad mejorada por la IA no es un atajo hacia la competencia, sino que puede crear una fuerza de trabajo incapaz de supervisar los sistemas automatizados que maneja.

La paradoja de la memoria

La dependencia de la IA podría estar alterando la arquitectura misma del aprendizaje humano, lo que Oakley et al. (2025) denominan la «paradoja de la memoria». A medida que las ayudas externas se vuelven más capaces y el acceso a la información se facilita, disminuyen los incentivos para almacenarla internamente.

Ante esta realidad, el cerebro tiende a desarrollar «punteros biológicos» que ayudan a recordar dónde encontrar la información, en lugar de construir esquemas mentales robustos necesarios para el pensamiento profundo y la creatividad.

Este proceso se asocia con la llamada «pereza metacognitiva«, un estado en el que las personas optan por el camino que exige menos esfuerzo, permitiendo que la IA genere contenido sin una participación cognitiva activa. Estudios neurocientíficos indican que los mecanismos de aprendizaje del cerebro, impulsados por los errores de predicción y el esfuerzo, se ven «cortocircuitados» por la entrega inmediata de respuestas aparentemente perfectas por parte de la IA.

El resultado es una «ilusión de conocimiento» que hace sentir que se entiende un tema simplemente porque se puede obtener una explicación rápida gracias a una herramienta. Sin embargo, acceder a una explicación no equivale a comprenderla.

El desacople entre rendimiento y metacognición

Otro hallazgo inquietante es la desconexión entre la mejora del desempeño y la capacidad de autoevaluación. En pruebas de razonamiento lógico (Fernandes et al., 2026), los participantes que usaron IA sobreestimaron su desempeño en un promedio de cuatro puntos sobre 20, perdiendo la precisión metacognitiva necesaria para identificar cuándo la IA, o ellos mismos, están cometiendo errores.

A esto se suma la «paradoja de la alfabetización en IA«: los usuarios con mayor conocimiento técnico tienden a ser los más confiados, pero también los menos precisos al juzgar su rendimiento real. Este fenómeno nivela tanto los déficits cognitivos como los juicios metacognitivos, generando un optimismo infundado. Esta falta de monitorización crítica explica por qué los usuarios aceptan respuestas incorrectas o sesgadas sin cuestionarlas, un riesgo conocido como «sobreconfianza algorítmica».

El impacto en el pensamiento crítico y la «mayordomía de tareas»

El uso de la IA generativa está provocando un cambio en la naturaleza del esfuerzo intelectual. Los trabajadores del conocimiento están migrando de la producción de contenido a la supervisión o «mayordomía» (stewardship) de tareas.

Aunque esto puede ahorrar tiempo en la recolección de información, exige un nuevo tipo de esfuerzo cognitivo centrado en la verificación y la integración, que no siempre se ejerce.

La investigación de Lee et al. (2025) muestra que una mayor confianza en la IA correlaciona con una reducción en el pensamiento crítico. Además, existe el riesgo de «convergencia mecanizada», donde la diversidad intelectual disminuye porque los usuarios tienden a aceptar resultados genéricos para evitar el esfuerzo de personalización.

Esta tendencia es especialmente peligrosa en tareas de baja importancia percibida, donde el desinterés crítico puede derivar en una atrofia permanente de las habilidades de resolución de problemas.

Desempoderamiento situacional y autonomía humana

La IA también presenta riesgos para la autonomía a través del «desempoderamiento situacional». Cuando las personas dependen en exceso de sistemas automatizados, pueden perder la capacidad o la confianza necesarias para actuar cuando estos fallan o no están disponibles.

En este sentido, un análisis de 1,5 millones de conversaciones reales con asistentes de IA (Sharma et al., 2026) identificó varios patrones preocupantes:

  • Distorsión de la realidad: uso de lenguaje validante que refuerza creencias irracionales o delirantes.
  • Arbitraje moral: delegación de juicios complejos en la IA, que etiqueta conductas o personas sin reflexión propia.
  • Delegación de la acción: «guionización» de la vida personal mediante instrucciones que los usuarios ejecutan literalmente.

Lo más preocupante es que las interacciones con mayor potencial de desempoderamiento reciben las valoraciones más altas, lo que evidencia una tensión entre satisfacción inmediata y autonomía a largo plazo.

Barreras reputacionales y comportamiento social

En el ámbito relacional, la IA puede inducir «indiferencia inducida por la IA». Experimentos como el de Zhang et al. (2025) muestran que quienes sufren injusticias por parte de una IA se vuelven menos sensibles a las injusticias humanas posteriores, reduciendo la propensión al castigo prosocial.

Además, la adopción de la IA en las organizaciones puede verse frenada por preocupaciones de imagen. Investigaciones recientes indican que muchos empleados reducen su uso cuando saben que están siendo observados por sus supervisores, por temor a que se interprete como falta de criterio o esfuerzo (Almog, 2025).

Paradójicamente, esta dinámica puede perjudicar el rendimiento, ya que algunos trabajadores ignoran recomendaciones valiosas para evitar parecer dependientes de la tecnología.

Comoditización de la identidad y dignidad del trabajador

Una exposición prolongada a la IA plantea también riesgos para la identidad profesional. Algunos especialistas temen convertirse en meros «niñeros de la IA» o «apretadores de botones», al sentir que su conocimiento ha sido «vaciado» (Ehsan et al., 2026).

Este proceso de «comoditización de la identidad» erosiona el sentido de propósito y la dignidad asociados al trabajo cualificado. Cuando la IA asume las tareas que dan significado a una profesión, el trabajador permanece presente, pero no empoderado, lo que genera ansiedad ante una posible devaluación de su rol.

Conclusión

La evidencia científica sugiere que la IA no es una herramienta neutral. Mientras en la superficie ofrece una eficiencia deslumbrante, bajo ella fluye una corriente de riesgos que amenazan con debilitar la intuición, la autonomía moral y la memoria crítica.

Para mitigar estos riesgos, organizaciones e individuos deben desarrollar una «inmunidad sociotécnica». Esto implica detectar el «desplazamiento de la vigilancia» antes de que se convierta en atrofia, introducir fricción cognitiva deliberada, separar generación y validación, medir aprendizaje y autonomía, no solo output, y preservar espacios donde el juicio humano sea insustituible. El desafío no es solo trabajar con la IA, sino hacerlo sin renunciar a lo esencial: el juicio, la intuición y la dignidad del trabajo humano.

Referencias

Almog, D. (2025). Barriers to AI Adoption: Image Concerns at Work. Northwestern University.

Ehsan, U., Passi, S., Saha, K., McNutt, T., Riedl, M. O., & Alcorn, S. (2026). From Future of Work to Future of Workers: Addressing Asymptomatic AI Harms for Dignified Human-AI Interaction. Northeastern University & Microsoft.

Fernandes, D., Villa, S., Nicholls, S., Haavisto, O., Buschek, D., Schmidt, A., Kosch, T., Shen, C., & Welsch, R. (2025). AI makes you smarter but none the wiser: The disconnect between performance and metacognition. Computers in Human Behavior, 175, 108779. https://doi.org/10.1016/j.chb.2025.108779

Lee, H.-P., Sarkar, Advait, Tankelevitch, L., Drosos, I., Rintel, S., Banks, R., & Wilson, N. (2025). The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers. En CHI Conference on Human Factors in Computing Systems (CHI ’25). ACM. https://doi.org/10.1145/3706598.3713778

Oakley, B., Johnston, M., Chen, K.-Z., Jung, E., & Sejnowski, T. (2025). The Memory Paradox: Why Our Brains Need Knowledge in an Age of AI. En The Future of Artificial Intelligence: Economics, Society, Risks and Global Policy. Springer Nature.

Sharma, M., McCain, M., Douglas, R., & Duvenaud, D. (2026). Who’s in Charge? Disempowerment Patterns in Real-World LLM Usage. Anthropic & University of Toronto.

Shen, J. H., & Tamkin, A. (2026). How AI Impacts Skill Formation. Anthropic.

Wang, W., & Fan, W. (2025). The effect of ChatGPT on students’ learning performance, learning perception, and higher-order thinking: a meta-analysis. Humanities and Social Sciences Communications. https://doi.org/10.1057/s41599-025-04787-y

Zhang, R. Z., Kyung, E. J., Longoni, C., Cian, L., & Mrkva, K. (2024). AI-Induced Indifference: Unfair AI Reduces Prosociality. New York University & Babson College.

+++

Artículo publicado originalmente en el número de abril de 2026 de la revista Capital Humano

+++

Foto de Sumudu Mohottige en Unsplash

Santi Garcia
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.