OpenAI disuelve, supuestamente, su equipo de riesgo existencial de IA.
SegĂşn Wired el viernes, el equipo Superalignment de OpenAI, encargado de controlar el peligro existencial de un sistema de IA sobrehumano, ha sido disuelto. La noticia llega pocos dĂas despuĂ©s de que los fundadores del equipo, Ilya Sutskever y Jan Leike, renunciaran simultáneamente a la empresa.
Wired informa que el equipo Superalignment de OpenAI, lanzado por primera vez en julio de 2023 para evitar que los sistemas de IA sobrehumanos del futuro se vuelvan deshonestos, ya no existe. El informe afirma que el trabajo del grupo será absorbido por otros esfuerzos de investigaciĂłn de OpenAI. SegĂşn Wired, la investigaciĂłn sobre los riesgos asociados con modelos de IA más potentes ahora estará dirigida por el cofundador de OpenAI, John Schulman. Sutskever y Leike fueron algunos de los principales cientĂficos de OpenAI centrados en los riesgos de la IA.
Leike publicĂł un hilo largo el X explicando vagamente por quĂ© dejĂł OpenAI. Dice que ha estado peleando con el liderazgo de OpenAI sobre los valores fundamentales durante algĂşn tiempo, pero llegĂł a un punto de ruptura esta semana. Leike señalĂł que el equipo de Superaligment ha estado “navegando contra el viento”, luchando por obtener suficiente computaciĂłn para una investigaciĂłn crucial. Él cree que OpenAI debe centrarse más en la seguridad y la alineaciĂłn.
El equipo de prensa de OpenAI nos dirigiĂł al tweet de Sam Altman cuando se le preguntĂł si el equipo de Superalignment se habĂa disuelto. Altman dice que tendrá una publicaciĂłn más larga en los prĂłximos dĂas y que OpenAI tiene “mucho más por hacer”.
Equipo de riesgo existencial
Más tarde, un portavoz de OpenAI aclarĂł que “la superalineaciĂłn ahora estará más profundamente arraigada en la investigaciĂłn, lo que nos ayudará a lograr mejor nuestros objetivos de superalineaciĂłn”. La compañĂa dice que esta integraciĂłn comenzĂł “hace semanas” y, en Ăşltima instancia, trasladará a los miembros del equipo y los proyectos de Superalignment a otros equipos.
AsĂ lo aclaraba el equipo de Superalignment en una publicaciĂłn del blog de OpenAI cuando se lanzĂł en julio.
Actualmente, no tenemos una soluciĂłn para dirigir o controlar una IA potencialmente superinteligente y evitar que se vuelva deshonesta. Pero los humanos no podrán supervisar de manera confiable sistemas de inteligencia artificial mucho más inteligentes que nosotros, por lo que nuestras tĂ©cnicas de alineaciĂłn actuales no alcanzarán la superinteligencia. Necesitamos nuevos avances cientĂficos y tĂ©cnicos.
Ahora no está claro si se prestará la misma atenciĂłn a esos avances tĂ©cnicos. Sin duda, hay otros equipos en OpenAI centrados en la seguridad. El equipo de Schulman, que supuestamente está asumiendo las responsabilidades de Superalignment, es actualmente responsable de ajustar los modelos de IA despuĂ©s del entrenamiento. Sin embargo, Superalignment se centrĂł especĂficamente en los resultados más graves de una IA deshonesta. Como señalĂł ayer Gizmodo, varios de los defensores más abiertos de la seguridad de la IA de OpenAI han dimitido o han sido despedidos en los Ăşltimos meses.
Más detalles
A principios de este año, el grupo publicĂł un notable artĂculo de investigaciĂłn sobre el control de grandes modelos de IA con modelos de IA más pequeños, considerado un primer paso hacia el control de sistemas de IA superinteligentes. No está claro quiĂ©n dará los siguientes pasos en estos proyectos en OpenAI.
La startup de inteligencia artificial de Sam Altman comenzĂł esta semana con la presentaciĂłn de GPT-4 Omni, el Ăşltimo modelo de vanguardia de la compañĂa que presentaba respuestas de latencia ultrabaja que sonaban más humanas que nunca. Muchos empleados de la compañĂa comentaron cĂłmo su Ăşltimo modelo de IA estaba más cerca que nunca de algo de ciencia ficciĂłn, especĂficamente la pelĂcula Her.