Credit: Unsplash

Los detalles del sistema fueron anunciados por primera vez en mayo.

Un sistema de reconocimiento de emociones basado en inteligencia artificial ha sido anunciado por la empresa china Taigusys con el fin de monitorear las expresiones faciales de los empleados y crear reportes acerca de cómo se sienten estos en sus puestos de trabajo.


Los detalles del sistema fueron anunciados por primera vez en mayo gracias a piezas de información obtenidas por el diario británico The Guardian. Los informes revelan que gigantes corporativos como Huawei, China Mobile o PetroChina estarían entre los primeros interesados en adquirir el software, aunque todavía no está claro si ya existen acuerdos formales.

Según el sitio web de Taigusys, su producto ayudaría a “abordar nuevos retos” y “minimizar los conflictos” generados por emociones descontroladas. De acuerdo con la compañía, esto es realizado a través de un sistema de inteligencia artificial que evalúa los movimientos de los músculos faciales de cada individuo y otras señales biométricas para generar informes sobre sus sentimientos.

El programa califica como emociones “buenas” la felicidad, la sorpresa y la emoción por algún evento positivo. Por otro lado, también se rastrean las emociones negativas, como el disgusto, la amargura, la confusión o la ira. Igualmente, emociones que son consideradas “neutras”, como el estar enfocado en una tarea, también son tomadas en cuenta.

La empresa asegura que el sistema ha sido tan perfeccionado que incluso puede detectar si una persona está fingiendo una sonrisa. Asimismo, los reportes generados pueden incluir una recomendación acerca de la búsqueda de apoyo psicológico en caso de que las emociones negativas superen los límites establecidos.

A pesar de las aparentes ventajas que este dispositivo pueda acarrear, investigadores y activistas se han mostrado preocupados por sus implicaciones éticas. Vidushi Marda, programadora y defensora de los derechos humanos británica, aseguró en una entrevista con Insider que esta tecnología representa una violación de los derechos de los empleados.

“Si este tipo de sistemas es implementado, infringiría los derechos éticos y legales de los empleados en el lugar de trabajo. En cualquier empresa existe aunque sea una mínima expectativa de privacidad y dignidad, de pensar y actuar de forma libre,” aseguró la activista. “No existe manera de ‘optimizar’ estas tecnologías para ser usadas éticamente porque las premisas sobre las que están fundadas son esencialmente antiéticas,” expresó.

Por su parte, Daniel Leufer, analista y miembro de la organización Access Now, aseveró que el simple hecho de que las personas se sientan monitoreadas genera un efecto en el comportamiento. “Lo peor de todo es que todas estas violaciones de los derechos humanos ocurren incluso si el reconocimiento de las emociones no fuese posible. El hecho de que las personas crean que sí es posible tiene un efecto real en ellas,” apuntó.