¿Qué aporta mi jefe que no pueda hacer un algoritmo?
Quienes han empezado a ser supervisados por un algoritmo reconocen que al principio se sienten extraños, pero que con el tiempo se acostumbran. En un entorno relativamente acotado, un sistema basado en inteligencia artificial es capaz de tomar decisiones certeras. El resto de las ocupaciones propias de un supervisor resultan triviales para el sistema:
- Asignar tareas a los miembros del equipo en función de su disponibilidad y de su perfil competencial.
- Verificar el cumplimiento de esas instrucciones.
- Evaluar la eficacia de esas acciones para el cumplimiento de los objetivos propuestos. Esta evaluación retroalimenta al sistema y permite que el algoritmo decida con un mayor porcentaje de acierto en lo sucesivo.
Es cierto que un jefe así no genera un alto nivel de conexión a nivel personal, pero ¿cuántos supervisores humanos lo hacen? Por otra parte, entre los beneficios de un sistema de dirección basado en inteligencia artificial se cuenta:
- Un proceso de toma de decisiones basado en datos, incluso aunque la información que se deba manejar sea masiva.
- Reparto de cargas de trabajo por criterios objetivos, sin preferencias ni exclusiones.
- Evaluación del desempeño igualmente objetiva.
Este enfoque rompe drásticamente el modo en el que durante los dos últimos siglos habíamos entendido el rol de la tecnología en entornos laborales. Desde la primera Revolución Industrial, las máquinas habían adoptado un papel instrumental y subordinado: eran algo que utilizábamos para realizar nuestro trabajo de manera más eficiente, cumplidoras estrictas de nuestras instrucciones.
Ahora atisbamos un escenario en el que determinadas tareas pueden ser realizadas preferentemente por humanos, pero bajo supervisión de sistemas de inteligencia artificial. Pensemos en labores que tengan que ver con el servicio, en las que deseamos ser atendidos por un ser humano antes que por un robot: camareros en hostelería, personal de enfermería en un centro hospitalario, etcétera. ¿Qué impide que la asignación de turnos, el reparto de mesas o de camas, las instrucciones sobre dispensación de alimentos o medicamentos, la recogida de datos sobre satisfacción de cliente o paciente, etcétera, sean tareas realizadas por un algoritmo?
De hecho, las sociedades más desarrolladas, donde la población está crecientemente envejecida, crean una fuerte demanda de prestaciones profesionales en el ámbito de la medicina y los cuidados a personas dependientes. Contra una creencia muy extendida, es probable que los perfiles más demandados en los próximos años en esos países no sean los de personas que interactúan con máquinas (ordenadores, sistemas automatizados, etcétera), sino los de personas que interactúan con otras personas. Esto tiene que ver con el tipo de valores y de habilidades que transmitimos a través de los sistemas formales de educación y de la formación orientada al empleo. Con una extraordinaria anticipación, Alvin Toffler predijo hace tiempo: “La sociedad necesita personas que se ocupen de los ancianos y que sepan ser compasivos y honestos. La sociedad necesita gente que trabaje en los hospitales, la sociedad necesita todo tipo de habilidades que no son solo cognitivas, son emocionales, son afectivas. No podemos montar la sociedad solo sobre datos”.
El problema surge cuando analizamos no la eficiencia, sino las cuestiones éticas asociadas a este cambio de roles. Algunos expertos han destacado los riesgos de este cambio. Lasse Rouhiainen, autor de Inteligencia artificial: 101 cosas que debes saber hoy sobre nuestro futuro, al analizar las iniciativas de algunos países asiáticos, comenta: “Mi desconfianza es que quizás sigan la misma ideología que China, es decir, que primero desarrollen aplicaciones y luego ya revisen cuestiones éticas, cuando debería ser al revés”.
Entre las paradojas éticas de esta situación, IESE Business School Insight (otoño 2018) señala las siguientes:
- El debate de la justicia.Decíamos antes que, supuestamente, un sistema automatizado tomará decisiones sin prejuicios ni condicionantes subjetivos. Sin embargo, las primeras experiencias muestran que las decisiones tomadas por algoritmos replican algunos de los sesgos presentes en los decisores humanos, ya que, en último término, somos nosotros quienes los hemos desarrollado. Tal vez el jefe no humano asigne las tareas de más valor añadido o que aportan mayor visibilidad en la empresa preferentemente a hombres (frente a mujeres) o a personas de una determinada etnia. Si utilizan históricos de desempeño contaminados por nuestras actuales estructuras sociales, en la que los hombres en promedio tienen mayor disponibilidad que las mujeres, los patrones de decisión se perpetuarán.
- La rendición de cuentas.Lo propio de un jefe no es solo su capacidad para tomar decisiones, sino para asumir también la responsabilidad sobre esas decisiones. Si un sistema automatizado falla y nos da instrucciones de las que se derivan consecuencias indeseadas, ¿quién responde: el fabricante, el implementador…?
- La transparencia.Un jefe no debe explicar constantemente las razones por las que toma una decisión, pero debe estar en condiciones de hacerlo si, legítimamente, se le solicita. La complejidad inherente a los algoritmos de la inteligencia artificial puede producir que sus decisiones no sean comprendidas ni siquiera por sus desarrolladores. No es cómodo trabajar para un jefe con el que no se pueda “negociar” alguna de las instrucciones que nos da, y ni siquiera entender las razones por las que nos transmite esas órdenes.