La estrategia de OpenAI para controlar la próxima generación de inteligencia artificial

Prueban métodos para modelos de IA menos avanzados que controlan a sus contrapartes superiores, un paso clave para la inteligencia general artificial

Opy Morales

Por Opy Morales/Cortesía Infobae

De la Unión Soviética a la vanguardia de la IA: el periplo de Ilya Sutskever. REUTERS/Amir CohenDe la Unión Soviética a la vanguardia de la IA: el periplo de Ilya Sutskever. REUTERS/Amir Cohen

Ilya Sutskever, científico jefe de OpenAI, ha jugado un papel fundamental desarrollando sistemas de inteligencia artificial conversacionales (IA) que están comenzando a cambiar la sociedad. Desde sus inicios como estudiante ambicioso hasta llegar a ser una pieza clave en la creación de ChatGPT, Sutskever ha mostrado una mezcla de inteligencia y prisa por obtener resultados, lo que le ha granjeado el reconocimiento en el campo de la IA.

Según publicó Nature, en sus años de adolescencia, Sutskever tocó la puerta de Geoffrey Hinton en la Universidad de Toronto, buscando una oportunidad de trabajo en IA. Hinton, conocido como el padrino de la IA moderna, quedó impresionado por los instintos y las ideas del joven.

Bajo su tutela, Sutskever contribuyó a los avances fundamentales en el aprendizaje profundo y los modelos de lenguaje de gran tamaño (LLMs), bases para los actuales bots de IA conversacional. A pesar de su éxito, Sutskever ha expresado preocupación por el futuro de la IA, liderando el proyecto de ‘superalineación’ en OpenAI para estudiar cómo dirigir y controlar sistemas de IA más inteligentes que nosotros.

Sutskever y otros miembros de la junta de OpenAI despidieron en noviembre a Sam Altman, entonces CEO de la compañía, pero tras un drama insterno y amenazas de dimisión de empleados, Altman fue reincorporado y Sutskever se disculpó y fue removido de la junta. “Él tiene un compás moral muy fuerte,” dijo Hinton sobre Sutskever, resaltando su compromiso con la seguridad de la IA.

Sin embargo, hay voces críticas como Sarah Myers West del AI Now Institute, quien argumenta que las preocupaciones a largo plazo distraen de los peligros actuales, como sesgos en los datos de entrenamiento y fugas de información privada.

Ilya Sutskever nació en la Unión Soviética en 1986 y siempre ha sido un aprendiz precoz. Tras mudarse de Israel a Canadá, se sumergió en el aprendizaje profundo con Hinton en 2003 y tuvo triunfos significativos, como el desarrollo de AlexNet en 2012. Más tarde, en Google, contribuyó en la creación de AlphaGo. En 2015, junto a Elon Musk y Sam Altman, cofundó OpenAI como organización sin fines de lucro.

Sutskever veía esto como una oportunidad de trabajar hacia una inteligencia general artificial (AGI). “En OpenAI nos tomamos la libertad de mirar el panorama general,” dijo Sutskever a principios de este año, según reseña Nature. Su visión fue crucial para el cambio de OpenAI a un modelo de ‘ganancias limitadas’, atrayendo inversiones de Microsoft y conduciendo al desarrollo de ChatGPT.

El equipo de OpenAI, creador de ChatGPT, de izquierda a derecha: Sam Altman, director ejecutivo; Mira Murati, directora de tecnología; Greg Brockman, presidente; e Ilya Sutskever, científico jefe. (Jim Wilson/The New York Times)El equipo de OpenAI, creador de ChatGPT, de izquierda a derecha: Sam Altman, director ejecutivo; Mira Murati, directora de tecnología; Greg Brockman, presidente; e Ilya Sutskever, científico jefe. (Jim Wilson/The New York Times)

A pesar de la turbulencia interna y los debates éticos, Sutskever ha mantenido su postura audaz sobre la IA. Ha declarado que la IA podría ser “ligeramente consciente” y anticipa el desarrollo de una ‘superinteligencia’ en años o décadas, generando reacciones diversas. “Hasta el día de hoy, me sorprende lo optimista que es,” dijo Andrew Ng, investigador de IA y ex supervisor de Sutskever, sobre su insistencia en avanzar en la dirección que él considera correcta, independientemente del consenso general.

Superalignment

OpenAI, la institución que prometió desarrollar inteligencia artificial que beneficie a toda la humanidad, incluso cuando la IA sea considerablemente más inteligente que sus creadores, ha anunciado que su equipo de investigación Superalignment, establecido en julio, está empezando a obtener resultados prometedores, según reportó Wired. “La inteligencia general artificial (AGI) se está acercando muy rápidamente”, afirma Leopold Aschenbrenner, investigador de OpenAI. La empresa ha dedicado un quinto de su potencia computacional al proyecto.

El grupo Superalignment co-dirigido por Ilya Sutskever, cofundador y científico jefe de OpenAI, informó los resultados de experimentos diseñados para probar métodos en los que un modelo de IA inferior pueda guiar el comportamiento de otro más inteligente sin reducir su capacidad.

El equipo Superalignment de OpenAI se centra en la gobernanza de la IA avanzada. (Imagen ilustrativa Infobae)El equipo Superalignment de OpenAI se centra en la gobernanza de la IA avanzada. (Imagen ilustrativa Infobae)

Este escenario simula un futuro en el cual los humanos deberán colaborar con sistemas de IA más avanzados. Los investigadores están explorando cómo automatizar el proceso de supervisión utilizado para refinar sistemas como GPT-4, el modelo de lenguaje tras ChatGPT.

En un experimento, enseñar a GPT-4 usando el generador de texto GPT-2 redujo su habilidad, llevando a probar dos métodos para evitar esto. Uno incrementaba progresivamente el tamaño de los modelos y el otro incluía un ajuste algorítmico en GPT-4.

Este último fue más efectivo, aunque reconocen que no garantiza un comportamiento perfecto del modelo más fuerte, sirviendo de punto de partida para más investigaciones. “Es genial ver que OpenAI está abordando proactivamente el problema de controlar IA superhumanas”, comentó a Wired Dan Hendryks del Center for AI Safety.

Superalignment: en el futuro, los humanos necesitarán supervisar sistemas de inteligencia artificial mucho más inteligentes que ellos.Superalignment: en el futuro, los humanos necesitarán supervisar sistemas de inteligencia artificial mucho más inteligentes que ellos.

Aschenbrenner y otros miembros del equipo que conversaron con Wired, como Collin Burns y Pavel Izmailov, ven con optimismo este primer paso hacia el dominio de posibles IA superhumanas. “Incluso un alumno de sexto grado sabe menos matemáticas que un universitario, pero aún puede expresar lo que quiere lograr,” dijo Izmaílov. La analogía refleja el objetivo del grupo de permitir modelos de IA menos avanzados guiando a otros más desarrollados.

El futuro de Sutskever en OpenAI parecía incierto tras la crisis de gobernanza de la empresa, donde fue uno de los miembros de la junta que votó por despedir al CEO Sam Altman, para luego revertir la decisión y amenazar con renunciar si no se le restituía. Sutskever es coautor del artículo publicado, pero OpenAI no lo hizo disponible para discutir el proyecto. Aschenbrenner agradece a Sutskever, describiéndolo como una gran motivación y fuerza impulsora en el proyecto.

La labor de OpenAI en la Supervisión de IA superhumanas evidencia la tensión entre avanzar tecnológicamente y garantizar el control sobre tecnologías que podrían superar la inteligencia humana. Con una comunidad atenta a los pasos de la compañía, el camino hacia la inteligencia general artificial muestra desafíos y oportunidades para el futuro de la IA.

(Con información de Nature y Wired)

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Contact Us