Tu cerebro fue diseñado para decidir, no para supervisar máquinas
La paradoja invisible de la inteligencia artificial en el trabajo
Enseño inteligencia artificial en la Universidad de Pensilvania. Soy el director académico de programas de IA en la Escuela de Graduados en Educación de Penn. Paso mis días investigando, diseñando currículos y formándome con los modelos más avanzados del mercado. Y, a pesar de todo eso, una parte central de mi trabajo es asegurarme de que las cosas realmente funcionen.
No que funcionen en teoría, sino que funcionen en la vida real de un líder que debe tomar decisiones a las 7 de la mañana, con tres herramientas abiertas y un equipo que espera respuestas.
Y lo que estoy viendo desde adentro me preocupa.
Porque la conversación pública sobre la IA se quedó atrapada en dos polos: los que la celebran como la solución a todo y los que la temen como el fin del trabajo humano. Pero hay una tercera realidad que casi nadie menciona. La IA no te está reemplazando. Te está agotando. Y lo peor: te está haciendo creer que eres más productivo mientras te vuelves más lento.
El cerebro frito no es metáfora
Boston Consulting Group (BCG) acaba de ponerle nombre científico a lo que muchos de mis estudiantes ya describían sin saber cómo llamarlo. En un estudio publicado en Harvard Business Review en marzo de 2026, encuestaron a 1,488 trabajadores de tiempo completo en Estados Unidos. El hallazgo: el 14 % reportó síntomas de lo que los investigadores bautizaron como «AI Brain Fry». Niebla mental, dolores de cabeza y una toma de decisiones significativamente más lenta.
Pero el dato que debiera quitarle el sueño a cualquier líder es este: quienes supervisaban múltiples herramientas de IA reportaron un 14 % más de esfuerzo mental, un 12 % más de fatiga cognitiva y un 19 % más de sobrecarga de información. Y lo que más duele: un 39 % más de errores graves. No son errores de formato, sino errores que alteran los resultados.
Esto lo veo todos los días en mis programas. Ejecutivos brillantes que llegan convencidos de que más herramientas se traducen en más productividad. Y el estudio de BCG confirma exactamente lo contrario: la productividad aumenta cuando usas una, dos o hasta tres herramientas de IA. Cuando llegas a cuatro, colapsa. No es un descenso gradual. Es un precipicio.
Julie Bedard, directora del estudio y socia de BCG, lo dijo con una honestidad inusual para una consultora: es bastante pesimista respecto a que los humanos logren superar esto pronto. La metáfora que usó su colega Matthew Kropp me parece perfecta: le diste un Ferrari a alguien que acaba de aprender a manejar.
La ilusión de velocidad
Si el estudio de BCG mide la fatiga, el de METR mide algo aún más incómodo: el autoengaño.
Investigadores del laboratorio independiente METR diseñaron un experimento aleatorizado con control, en el que 16 desarrolladores experimentados trabajaron en sus propios repositorios de código abierto, proyectos que conocían a fondo, con un promedio de cinco años de experiencia en cada uno. Les asignaron tareas al azar: unas con IA permitida, otras sin ella.
El resultado: cuando usaron IA, tardaron un 19 % más. La IA los hizo más lentos.
Pero aquí está la parte que cambia todo. Antes de empezar, los desarrolladores predijeron que la IA los aceleraría en un 24%. Después de terminar, ya medidos, seguían creyendo que habían trabajado un 20 % más rápido. Una brecha de percepción de casi 40 puntos.
Léelo de nuevo: profesionales expertos, usando herramientas que dominan, en proyectos que conocen como la palma de su mano, creyeron firmemente que iban más rápido cuando, en realidad, iban más lento. Su propio cerebro les mintió.
Como profesor de IA, esto es lo que más me quita el sueño. No me preocupa que la gente no use IA. Me preocupa que la use sin saber que su percepción de rendimiento está distorsionada. Los datos de grabaciones de pantalla revelaron que el trabajo asistido por IA tenía más tiempo muerto. No solo esperas del modelo, sino también periodos de inactividad total. La hipótesis más probable: codificar con IA requiere menos esfuerzo cognitivo, lo que crea la sensación de facilidad. Y el cerebro confunde fácil con rápido.
La trampa perfecta
Ahora imagina que eres un ejecutivo. Tu empresa te presiona para adoptar la IA. Lo haces y resulta que te quema el cerebro, te hace más lento sin que lo notes y, encima, te penaliza socialmente.
Investigadores de la Universidad de Duke publicaron en PNAS un estudio con más de 4,400 participantes que reveló algo que muchos ya sospechaban pero nadie había cuantificado: las personas que usan IA en el trabajo son percibidas sistemáticamente como más perezosas, menos competentes y menos independientes. Sin importar el género, la edad ni el cargo.
La misma organización que te obliga a usar IA te castiga culturalmente por hacerlo.
Los datos muestran que, en simulaciones de contratación, los gerentes que no usaban IA tenían menos probabilidad de contratar a candidatos que sí la usaban. Y los empleados lo saben: reportaron una disposición significativamente menor a revelar su uso de IA a colegas y superiores. Están usando la herramienta que les pidieron usar. En secreto.
En mis clases en Penn, esto ya no es teoría. Lo veo en las caras de ejecutivos que me preguntan en privado si está bien admitir que usan ChatGPT para preparar sus presentaciones. La triple trampa es real: fatiga cognitiva, ilusión de productividad y estigma social. Tres fuerzas invisibles que operan simultáneamente y que ninguna presentación de PowerPoint sobre “transformación digital” menciona.
La paradoja de Stanford: menos IA, mejores decisiones
Investigadores de Stanford HAI descubrieron algo que suena absurdo hasta que lo piensas dos veces: una IA menos precisa puede producir mejores decisiones humanas. En experimentos en los que los usuarios debían tomar decisiones binarias, quienes usaron una IA “descalibrada”, que expresaba alta confianza en sus respuestas en lugar de matizarlas con incertidumbre, cambiaron sus respuestas con mayor frecuencia y terminaron acertando más.
¿Por qué? Porque una IA que suena segura activa tu sistema de evaluación crítica. Te obliga a pensar: “¿Será cierto?” En cambio, una IA calibrada y matizada produce un consejo que el cerebro clasifica como ambiguo. Y lo descarta.
James Zou, profesor de Stanford y autor principal del estudio, lo dijo con claridad: el problema no es cómo entrenamos la IA. Es que la entrenamos completamente aislada de cómo funciona la mente del usuario que va a interactuar con ella. Eso es exactamente lo que intento corregir desde el salón de clases: no enseño a usar IA. Enseño a pensar con IA. Son dos cosas muy distintas.
El principio del Ferrari estacionado
Estos cuatro hallazgos apuntan a la misma verdad: el cuello de botella de la IA no es la tecnología. Es el cerebro humano que intenta usarla.
Le llamo el principio del Ferrari estacionado: tener más capacidad no produce más resultados si el conductor no tiene la pista, el entrenamiento ni el espacio mental para usarla. El Ferrari está encendido. Pero está en un estacionamiento.
La mayoría de las organizaciones hoy invierten millones en el Ferrari. Casi ninguna está construyendo la pista. Y esa pista no se construye con más tecnología. Se construye con un criterio humano más sólido.
Acción del lunes
La ciencia ya habló. Y yo la enseño cada semana. Aquí está lo que les digo a mis estudiantes, a mis ejecutivos, y lo que aplico yo mismo:
Primero, la regla de tres. No uses más de tres herramientas de IA al mismo tiempo. El estudio de BCG mostró que ahí está la frontera entre productividad y colapso cognitivo.
Segundo, secuencia en lugar de simultaneidad. Una herramienta, una tarea, un ciclo de evaluación. Cuando evalúes el output de la IA, cierra todo lo demás. Ese momento es trabajo profundo, no multitasking.
Tercero, mide, no sientas. Tu percepción de velocidad con IA probablemente está equivocada en casi 40 puntos. Pon un cronómetro. Compara resultados reales. Los datos valen más que la sensación de facilidad.
Cuarto, normaliza la transparencia. Si tu equipo usa IA en secreto por miedo al juicio social, tienes un problema de cultura, no de tecnología.
Yo no les digo a mis estudiantes que dejen de usar IA. Les digo que aprendan a usarla sin perder lo que la IA no puede reemplazar: su criterio, su juicio, su capacidad de decidir bien bajo presión.
La IA es la herramienta más poderosa de nuestra generación. Pero ninguna herramienta es más poderosa que el momento humano de decidir cómo usarla. Ese momento no se automatiza. Se diseña.
Y diseñar momentos decisivos, eso sí es ganar.
* * *
Fuentes citadas:
Bedard, J. et al. (2026). “When Using AI Leads to ‘Brain Fry.’” Harvard Business Review / BCG.
Becker, J. et al. (2025). “Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity.” METR.
Reif, J., Larrick, R. & Soll, J. (2025). “Evidence of a Social Evaluation Penalty for Using AI.” PNAS / Duke University.
Vodrahalli, K. et al. (2024). “Uncalibrated Models Can Improve Human-AI Collaboration.” Stanford HAI.