Foto: Unsplash

La iniciativa Data & Trust Alliance ha contratado a importantes empleadores de diversos sectores.

Gracias a la acelerada expansión de la era digital, los departamentos de recursos humanos de diversas corporaciones alrededor del mundo han comenzado a utilizar software de inteligencia artificial para seleccionar candidatos, analizar entrevistas y evaluar la agilidad mental de las personas.

No obstante, a pesar de estos avances, algunas de las corporaciones más grandes de Estados Unidos se están uniendo a un esfuerzo para evitar que esta tecnología produzca resultados sesgados que podrían perpetuar o incluso empeorar la discriminación laboral.

La iniciativa Data & Trust Alliance, anunciada el miércoles, ha contratado a importantes empleadores de diversos sectores, incluyendo a General Motors, IBM, Mastercard, Meta (la empresa matriz de Facebook), Nike y Walmart.

El propósito de esta agrupación no es constituirse en una organización de cabildeo ni un grupo de expertos, sino que procura unir esfuerzos para desarrollar un sistema de evaluación y puntuación para los software de inteligencia artificial.

Data & Trust Alliance ha diseñado una evaluación de 55 preguntas, que cubre 13 temas, con su respectivo sistema de puntuación. El objetivo es detectar y combatir el sesgo algorítmico de la inteligencia artificial.

“No se trata solo de elaborar una lista de principios, sino de implementarlos de manera concreta”, aseguró Kenneth Chenault, miembro de la alianza y ex director ejecutivo de American Express.

Los programas de inteligencia artificial pueden generar resultados sesgados de manera aleatoria. Los datos son la materia prima de la IA, por lo que los datos seleccionados por esta y cómo se emplean para hacer inferencias son elementos cruciales para el análisis.

Por ejemplo, si los datos utilizados para entrenar un algoritmo son mayoritariamente sobre hombres blancos, lo más probable es que los resultados estén sesgados en contra de las personas de color o las mujeres. O si los datos utilizados para predecir el éxito de una iniciativa empresarial se basan en empresas exitosas en el pasado, el resultado puede estar “empañado” por circunstancias pasadas.

Por otro lado, los datos que podrían aparentar ser neutrales, cuando son emparejados con otros, pueden arrojar resultados que tiendan a ser discriminatorios. A fin de evitar esto, el cuestionario elaborado por Data & Trust Alliance contiene preguntas que abarcan diversos ámbitos de la vida, desde el tipo de teléfono celular preferido y los gustos deportivos, hasta las membresías de clubes sociales.

Es importante resaltar que diversos gobiernos alrededor del mundo ya han comenzado a adoptar regulaciones. La Unión Europea, por su parte, ha desarrollado un marco regulatorio para la inteligencia artificial; mientras que la Casa Blanca está trabajando en una “declaración de derechos” sobre la IA.