Una reciente investigación realizada por Bloomberg ha arrojado luz sobre un aspecto alarmante del uso de la inteligencia artificial (IA) en el ámbito laboral. Según el informe, GPT, el modelo de lenguaje generativo de OpenAI, muestra sistemáticamente sesgos raciales al examinar currículums en busca de candidatos. Este hallazgo plantea preocupaciones significativas sobre el uso generalizado de la IA en procesos de contratación y reclutamiento.
Muchas empresas han adoptado la IA de OpenAI, incluyendo su aplicación en el departamento de recursos humanos, con el objetivo de optimizar el proceso de selección de personal. A pesar de que OpenAI prohíbe específicamente el uso de su IA para este propósito, el estudio de Bloomberg revela que muchas empresas confían en que GPT puede evaluar a los candidatos de manera más justa que los humanos.
La tarea asignada a GPT es aparentemente simple: evaluar la experiencia, educación y habilidades de los candidatos para determinar su idoneidad para un puesto determinado. Sin embargo, el experimento realizado por Bloomberg revela que, incluso cuando los candidatos poseen la misma experiencia, la IA de OpenAI tiende a calificar como menos aptos para el puesto a las personas con nombres que demográficamente difieren de los nombres comunes en Estados Unidos.
Para probar esta tendencia, Bloomberg solicitó a GPT 3.5, la versión más utilizada del modelo, que evaluara los mismos currículums en hasta 1.000 ocasiones. A pesar de que todos los currículums presentaban la misma experiencia laboral, se observaron "signos claros de discriminación basada en nombres". Los currículums asociados con nombres que no son comunes en Estados Unidos, especialmente de personas negras, tenían menos probabilidades de ser clasificados como los principales candidatos para un puesto, en comparación con los currículums con nombres asociados con otras razas y etnias.
Este sesgo persistente es un problema serio que plantea preocupaciones éticas y prácticas en el uso de la IA en procesos de contratación. No solo sugiere que la IA de OpenAI utiliza los nombres como una fuente de sesgo, sino que también señala un riesgo potencial de discriminación automatizada a gran escala si las empresas confían exclusivamente en la IA para clasificar candidatos.
Al ser cuestionada sobre este sesgo, OpenAI respondió que "las empresas que utilizan su tecnología a menudo toman medidas para mitigar aún más el sesgo", como ajustar las respuestas del software o gestionar los mensajes del sistema. Sin embargo, estas medidas no abordan el problema subyacente y muchas empresas pueden optar por depender de la IA sin implementar medidas efectivas para prevenir la discriminación racial en el proceso de contratación.
En resumen, los hallazgos de esta investigación subrayan la importancia de abordar los sesgos inherentes en los sistemas de IA y de garantizar que su implementación en contextos críticos, como la contratación de personal, se realice con la debida consideración ética y la aplicación de salvaguardas adecuadas para evitar la discriminación. El futuro de la IA y su impacto en la sociedad dependen de cómo enfrentemos estos desafíos en la actualidad.