OpenAI, la desarrolladora de ChatGPT, está armando un nuevo equipo que tendrá un único objetivo: diseñar maneras de dirigir y controlar una eventual «superinteligencia artificial». Estos sistemas —también conocidos como Inteligencia Artificial Fuerte o Inteligencia Artificial General— serían aquellos que, en teoría, alcancen la capacidad intelectual de un ser humano. Y según la compañía, esto podría pasar en la próxima década.
«Necesitamos avances científicos y técnicos para dirigir y controlar sistemas de inteligencia artificial mucho más inteligentes que nosotros», explicó OpenAI en un comunicado publicado en su blog este miércoles. Informó que el equipo estará dirigido por Ilya Sutskever, científico jefe y uno de los cofundadores de la compañía, y Jan Leike, líder del equipo de alineación.
Se pusieron como objetivo tener lista la tarea para dentro de cuatro años. «Actualmente, no tenemos una solución para dirigir o controlar una inteligencia artificial potencialmente superinteligente y evitar que se vuelva deshonesta», explicó OpenAI. En estos momentos, agregó, solo cuentan con técnicas como el aprendizaje reforzado a partir de la retroalimentación humana. Pero aclara que este tipo de supervisión no será suficiente cuando estos sistemas se vuelvan «mucho más inteligentes que nosotros».
La empresa, socia de Microsoft, informó que está dedicando el 20% del poder de cómputo que ha obtenido hasta el momento para cumplir con este cometido. De esta forma, abrió la convocatoria para encontrar más investigadores e ingenieros de modelos de lenguaje que se sumen al equipo.
La posibilidad de una superinteligencia artificial maligna
OpenAI no solo está diciendo que una superinteligencia artificial podría llegar pronto. «La superinteligencia será la tecnología más impactante que la humanidad jamás haya inventado", dijo en su blog la compañía. Pero, además, advierte que existe la posibilidad de que este tipo de tecnología no sea benévola: «El vasto poder de la superinteligencia también podría ser muy peligroso y podría llevar a la pérdida de poder de la humanidad o incluso a la extinción humana».
Desde que el lanzamiento de ChatGPT impulsó la carrera en el desarrollo de la inteligencia artificial, varios se han pronunciado sobre qué tan cerca estaríamos de un escenario como este. Un grupo de investigadores de Microsoft, por ejemplo, publicó en marzo una investigación en la que señalan que GPT-4, modelo creado por OpenAI, ya mostraba «destellos» de una inteligencia artificial general.
Bill Gates, cofundador de Microsoft, también publicó en marzo una reflexión en la que consideraba que todavía era muy temprano para pronosticar cuándo nacería una superinteligencia artificial. «Esto podría tardar una década o un siglo», dijo entonces. Sin embargo, señaló que algunas preguntas sobre el tema se volverán cada vez más apremiantes. Por ejemplo: ¿cuáles serán los objetivos de estos sistemas?, ¿deberíamos tratar de evitar que alguna vez se desarrolle alguna?
Una inteligencia artificial de este tipo sería capaz de hacer todo lo que puede hacer un cerebro humano y, técnicamente, superarlo. A diferencia de las personas, este sistema no tendría límites prácticos en el tamaño de su memoria o la velocidad a la que opera. Algunos científicos hablan también de la idea de consciencia.
¿Por dónde comenzará OpenAI?
OpenAI explicó que su objetivo es controlar una eventual superinteligencia artificial a través de un «investigador de alineación automatizado de nivel aproximadamente humano». Es decir, creará otra inteligencia artificial que haga el trabajo de regulación.
El plan es entrenar los sistemas disponibles actualmente con comentarios humanos, para que puedan ser capaces de evaluar otros sistemas de inteligencia artificial. Y, con este insumo, construir un modelo que pueda realizar investigaciones sobre cómo garantizar que las máquinas no se salgan de control.
OpenAI resaltó que la alineación de una superinteligencia es uno de los problemas técnicos sin resolver más importantes de nuestro tiempo. Y agregó: «Necesitamos las mejores mentes del mundo para resolver este problema».