Translate

domingo, 9 de febrero de 2020

¿Y si su jefe robot fuera aún peor que el humano?

Costhanzo

Quizá usted pertenece al grupo de profesionales que prefiere que su jefe sea una máquina o un algoritmo. Pero tal vez no ha pensado en los conflictos que puede generar esta peculiar relación laboral que llegará algún día.

Aunque la posibilidad de que los robots nos quiten el trabajo sigue inquietando a mucha (quizá demasiada) gente, se extienden poco a poco los argumentos que hablan de las nuevas oportunidades laborales que traerá la inteligencia artificial y que explican que los empleos en peligro de desaparición serán precisamente aquellos que no aportan valor y en los que no hace falta que el ser humano deje su impronta única e insustituible.

En algunos casos se extiende un optimismo sorprendente acerca de esa nueva relación laboral entre humanos y máquinas. Un reciente estudio de Oracle y Future Workplace revela algo ya sabido: que la inteligencia artificial está cambiando la forma en la que las personas contemplan su lugar de trabajo. Pero añade un dato que llama la atención, y es que el 64% de los encuestados asegura que confiaría más en un robot que en su jefe.

Un estudio de Oracle y Future Workplace muestra que el 64% de profesionales prefiere un jefe robot.

Hasta ahora habíamos analizado la convivencia profesional (lo que se conoce como inteligencia social) entre el hombre y la máquina, que presenta algunos conflictos de relación laboral que habrá que solucionar.

Alejandro Touriño, socio director de Écija, recuerda -sobre el conflicto de reemplazo de los empleados- el reciente y sonado caso en el que un juzgado de Las Palmas de Gran Canaria declaró improcedente la rescisión de contrato de una trabajadora de una empresa que fue despedida, tras 13 años desarrollando labores administrativas, para ser suplida por un programa informático o bot de gestión.

También nos hemos acostumbrado a la presencia de algoritmos y robots en los procesos de selección, y a la posibilidad de sesgos o discriminaciones en el reclutamiento de candidatos. Esto implica un primer estadio de valoración por parte de las máquinas (siempre programadas por humanos).

Y además hay casos en los que la inteligencia artificial actúa ya como jefe-capataz más que como gestor de personas, aunque el superior tome decisiones acerca de los empleados, su rendimiento y eficacia. Hemos llegado a ver compañías en las que los empleados aceptan la implantación de un microchip que tendrá utilidad dentro de las instalaciones de la empresa para los controles de entrada y salida, para conectar los ordenadores e identificarse y también para adquirir productos en las máquinas de vending.

La cuestión es si llegaremos a ver a un verdadero jefe robot con capacidad para tomar decisiones sobre nuestro trabajo y valorar nuestra actividad, hasta el punto de que este juicio tenga consecuencias en la recompensa que recibimos y en el desarrollo de nuestra carrera profesional.

La realidad del mando

Alejandro Touriño no ve posible aún "la forma humanoide de un robot jefe que grita, pero sí la posibilidad de recibir instrucciones automáticas hechas por la inteligencia artificial. Por ejemplo, en un supermercado puede haber un jefe virtual que da instrucciones si en los lineales identifica una escasez de determinado producto. De este modo, no sería necesaria la presencia de multitud de mandos en la cadena".

Felipe Ochoa, socio principal del departamento de Laboral de Garrigues, cree que sí tendremos un jefe robot, aunque "el concepto de androide llegará tarde. La máquina como mando es hoy una realidad en lo que se refiere al control de tiempo u horarios, aunque la inteligencia artificial puede dar el salto de simple asistente hasta servir de ayuda para organizarse y comprobar el cumplimiento de objetivos".

Pedro Diezma, fundador de Acuilae, explica que la participación de la inteligencia artificial en todas estas decisiones que afectan a los profesionales depende de si hablamos de tareas repetitivas y automatizables o si nos referimos a actividades productivas que se puedan medir: "Evidentemente, se puede dar un proceso de supervisión en el que más que de un jefe, hay un asistente de control o supervisión. Podemos convertirlo en un Gran Hermano de las tareas que realizan los trabajadores (ritmos de trabajo) y emitir un informe (juicio, valoración y recompensa), siempre que sea algo que se puede medir".

Para Diezma, "estamos aún muy lejos de tener ese tipo de jefe que analiza tareas desde otras perspectivas y factores que son difíciles de medir. Hoy es posible interactuar con este asistente de inteligencia artificial. Es posible avisarle, por ejemplo, de que hoy llegará más tarde porque tiene una revisión médica. Esto es lo más básico y estándar que se puede dar en estos momentos, pero en el caso de tareas más creativas no resulta fácil".

El humano presente

Diezma añade que la inteligencia artificial necesita datos para evaluar, y asegura que "si éstos son complejos, el sistema será complejo. Un asistente de IA podría lanzar alertas y reportes para felicitar a un empleado por su desempeño, o todo lo contrario. Se trata asimismo de un paso intermedio antes de llegar a ese jefe único de inteligencia artificial".

Diezma subraya que "la inteligencia artificial está creada por un humano, y será tan inteligente como el que la crea. Son importantes los algoritmos, pero también los datos con los que se genera, y todo eso implica sesgos. El algoritmo que trabaja sobre esos datos otorga un peso determinado a unos u otros valores. Puede dar más peso a la experiencia o a la formación que al género o a la edad".

Adrián Todolí, profesor de Derecho del Trabajo en la Universidad de Valencia, cree que los algoritmos pueden sustituir a los mandos intermedios en lo que se refiere a la definición de horarios en función de la experiencia o de la eficiencia.

Añade que los jefes robot pueden tomar decisiones sobre ascensos o despidos, y recuerda que el uso de wearables o localizadores GPS permite situar a los trabajadores en cada momento y tomar decisiones en función de ello. El algoritmo puede medir actividad y eficacia, y toma decisiones que tienen que ver asimismo con cuestiones como quién asciende, o si se amplía o suspende un contrato.

Todolí concluye que "en lo que se refiere a la gestión de personas intervienen también los chatbots: un empleado puede tener acceso al departamento de recursos humanos a través de un chatbot que filtra o soluciona problemas. Si finalmente no lo consigue, el trabajador podrá tener contacto con alguien que gestiona personas".

Nuevos conflictos

La intervención de estos jefes robot o algoritmos pueden generar conflictos en esa nueva relación profesional inevitable entre humanos y máquinas. Todolí explica que los sistemas de inteligencia artificial aprenden, y establecen objetivos diferentes para cada persona. Si alguien puede dar más, el sistema exigirá más.

Uno de los problemas es la falta de empatía. Todolí recuerda que no se le puede explicar a un algoritmo o a una máquina que uno está bajo de ánimo, porque no atiende a razones, incluso aunque éstas sean justificadas. Se refiere también al caso de ciertas empresas en Australia que utilizan riders para repartir productos. Cuando allí suben las temperaturas, los repartidores deciden tomar caminos que estén en sombra, pero el GPS que los localiza no tiene en cuenta ciertas circunstancias personales de los empleados. El algoritmo detecta que los riders que reparten no circulan por la ruta más adecuada y los penaliza, sin reparar en las temperaturas extremas ni en sus condiciones de trabajo.

Felipe Ochoa señala la posibilidad de un cierto deterioro del factor humano en las relaciones laborales: "De la relación entre el jefe y el subordinado nacen los problemas y las soluciones en las organizaciones, y al deteriorarse el factor humano desaparece la empatía o los intereses comunes. En esas circunstancias, al medir parámetros de eficiencia los robots no son capaces de entender ciertas cuestiones: por ejemplo, serían incapaces de identificar situaciones concretas de empleados con cargas familiares".

Todolí coincide en que "la falta de contacto humano genera problemas sociales y de deshumanización. El algoritmo nos trata como trataría a otra máquina". Y habla asimismo del "ensayo y error del algoritmo", que significa que "si un empleado debe tardar 5 minutos en una tarea determinada, la máquina pondrá 4:55 y, si lo consigue, será ese el siguiente objetivo. Irá cambiando la norma y pedirá hacerlo cada vez en menos tiempo. Este nuevo taylorismo se suele denominar el látigo digital".

El profesor de Derecho Laboral de la Universidad de Valencia añade otros problemas, como la falta de autonomía -el algoritmo nos dice cómo hacer las cosas al milímetro-, o de transparencia -con un jefe humano sabemos qué es importante para él, y con el algoritmo no sabemos qué valora realmente-, y también el hecho de que "si es el algoritmo el que toma decisiones y se las da hechas al empleado, las personas tendrán cada vez menos habilidades para tomar decisiones. Esto ya pasa en el caso de los pilotos aéreos. Hay estudios que dicen que el piloto tiende a hacer lo que dice el algoritmo y cada vez identifican menos los problemas reales del avión".

Mireia Sabaté, socia de Laboral de Baker McKenzie, explica que "el derecho a la protección de datos de carácter personal, el derecho a la intimidad y el derecho a la no discriminación van a resultar especialmente afectados en este contexto, planteando un escenario de dificultad a la hora de identificar a la persona, organización u organizaciones responsables"

Sabaté cree que en esta relación laboral inevitable "el control empresarial va a tener que ser más intenso, sutil y difuso, y los derechos de las personas trabajadoras pueden verse fuertemente comprometidos. El procesamiento de una cantidad masiva de datos sobre las personas permite construir patrones de conducta y perfiles laborales que pueden entrañar un atentado contra el derecho a la protección de datos de carácter personal y a la intimidad, pero también discriminaciones, ya que la empresa puede acceder, aunque sea de forma indirecta, a datos sensibles como la ideología, la orientación sexual, la clase social o las responsabilidades familiares. Y al tomar decisiones, el algoritmo matemático nos ofrece la opción más productiva o más eficiente, pero también la más sesgada, en la medida en que se introduzcan factores discriminatorios en la propia construcción del algoritmo".

Tino Fernández
__________________________________________________


No hay comentarios:

Publicar un comentario