Google aclaró que su inteligencia artificial “no siente” después de que se compartieran conversaciones que mantuvo con un ingeniero y lo despidió asegurando que “son planes a largo plazo”.
El ingeniero responsable de esto fue Black Lemoine quien habló de algunos temas con LaMDA (abreviatura de Language Model for Dialogue Applications), cuestión que las personas pensarían fue sacado de un guion de alguna película de ciencia ficción y le preguntó a la máquina si tenía sentimientos, a lo que la máquina respondió que “sí”.
Además, el ingeniero cuestionó las emociones de la máquina, la cual dijo sentir placer, alegría, amor, tristeza, depresión, satisfacción, ira y algunos otros.
Ante este hecho, las y los usuarios pensaron que LaMDA, que se basa en los modelos de lenguaje de Googley billones de palabras de Internet, parece tener la capacidad de pensar sobre su propia existencia y su lugar en el mundo.
“Nuestro equipo, incluidos especialistas en ética y tecnólogos, ha revisado las preocupaciones de Blake según nuestros Principios de IA y le han informado que la evidencia no respalda sus afirmaciones”, dijo el portavoz de Google, Brian Gabriel.
People keep asking me to back up the reason I think LaMDA is sentient. There is no scientific framework in which to make those determinations and Google wouldn't let us build one. My opinions about LaMDA's personhood and sentience are based on my religious beliefs.
— Blake Lemoine (@cajundiscordian) June 14, 2022