OpenAI ha dado a conocer importantes novedades en relación con su esperado modelo de inteligencia artificial, GPT-5, así como la conformación de un nuevo comité de seguridad. Este comité tendrá la misión de proporcionar recomendaciones críticas sobre la seguridad de los proyectos y el funcionamiento interno de la startup. La noticia ha generado gran expectación en la comunidad tecnológica y promete importantes avances en el campo de la inteligencia artificial.
El Inicio del Entrenamiento de GPT-5
La compañía dirigida por Sam Altman ha confirmado que ya ha comenzado el entrenamiento de GPT-5. Aunque no se ha mencionado explícitamente, es evidente que la referencia apunta a este nuevo modelo. Según OpenAI, el próximo modelo de frontera, o frontier model, llevará las capacidades de la inteligencia artificial a un nivel superior.
"OpenAI ha comenzado recientemente a entrenar su próximo modelo de frontera y anticipamos que los sistemas resultantes nos llevarán al siguiente nivel de capacidades en nuestro camino hacia la inteligencia artificial general", señaló la empresa.
Un modelo de frontera se define como un modelo de aprendizaje automático a gran escala que supera las capacidades de los modelos más avanzados existentes y es capaz de realizar una amplia variedad de tareas. Esta definición proviene del Frontier Model Forum, un organismo formado por Google, Anthropic, Microsoft y OpenAI para autorregularse en el desarrollo de IA.
Sam Altman, CEO de OpenAI, ha sido claro en que GPT-4 será considerado un modelo de IA "tonto" en comparación con su sucesor. Aseguró que la principal virtud de GPT-5 y futuros modelos será su mayor inteligencia.
"Creo que lo más importante de GPT-5, o como lo llamemos, es que será más inteligente. Uno de los hechos más notables de la historia humana es que podamos decir con un alto grado de certeza científica que GPT-5 será mucho más inteligente que GPT-4", declaró Altman.
Contradicciones y Tiempos de Lanzamiento
La confirmación del inicio del entrenamiento de GPT-5 ha generado cierta confusión respecto a informes previos que indicaban que OpenAI planeaba anunciar el nuevo modelo este verano. Si el entrenamiento ha comenzado recientemente, parece improbable que la tecnología esté lista en el corto plazo. Los nuevos modelos de IA deben pasar por procesos rigurosos de optimización y pruebas de confiabilidad y seguridad, lo que demanda tiempo.
Nuevo Comité de Seguridad
OpenAI también ha anunciado la creación de un comité de seguridad con el objetivo de evaluar y mejorar los procesos y salvaguardas de la compañía. Este comité estará compuesto por miembros de la junta directiva de OpenAI y expertos en áreas técnicas y de política. La primera tarea del comité será desarrollar recomendaciones durante los próximos 90 días, las cuales serán revisadas por la junta directiva y posteriormente se hará pública una actualización sobre las recomendaciones adoptadas.
El comité incluye a Sam Altman, Adam D’Angelo, Nicole Seligman y Bret Taylor, además de expertos como Aleksander Madry, John Schulman, Matt Knight, Jakub Pachocki y Lilian Weng. También consultarán con los expertos en ciberseguridad John Carlin y Rob Joyce.
"La primera tarea del comité de seguridad será evaluar y desarrollar aún más los procesos y salvaguardas de OpenAI durante los próximos 90 días", comentó OpenAI en su comunicado.
Con estas medidas, OpenAI busca tranquilizar a la comunidad y demostrar su compromiso con el desarrollo seguro y responsable de sus modelos y productos de inteligencia artificial.