Un informe de The Washington Post se suma a una creciente lista de acusaciones contra los protocolos de seguridad de OpenAI.
OpenAI lidera la carrera para desarrollar inteligencia artificial tan inteligente como un humano. Sin embargo, los empleados continúan expresando sus graves preocupaciones sobre la seguridad en el laboratorio de investigación sin fines de lucro de $80 mil millones. La última proviene de The Washington Post, donde una fuente anónima afirmó que OpenAI apresuró las pruebas de seguridad y celebró su producto antes de asegurar su seguridad.
“Planearon la fiesta de lanzamiento antes de saber si era seguro lanzar”, dijo un empleado anónimo a The Washington Post. “Básicamente fallamos en el proceso”.
Los problemas de seguridad son una preocupación importante en OpenAI y parecen seguir surgiendo. Empleados actuales y anteriores de OpenAI recientemente firmaron una carta abierta exigiendo mejores prácticas de seguridad y transparencia de la startup, poco después de la disolución de su equipo de seguridad tras la salida del cofundador Ilya Sutskever. Jan Leike, un investigador clave de OpenAI, renunció poco después, afirmando en un post que “la cultura y los procesos de seguridad han quedado en segundo plano frente a productos llamativos” en la empresa.
La seguridad es fundamental para la carta de OpenAI, con una cláusula que afirma que OpenAI asistirá a otras organizaciones para avanzar en la seguridad si se alcanza la inteligencia artificial general en un competidor, en lugar de seguir compitiendo. Afirma estar dedicada a resolver los problemas de seguridad inherentes a un sistema tan grande y complejo. Incluso mantiene sus modelos propietarios en privado, en lugar de abiertos (causando burlas y demandas), por seguridad. Las advertencias sugieren que la seguridad ha sido depriorizada a pesar de ser tan importante para la cultura y estructura de la compañía.
Es evidente que OpenAI está bajo escrutinio, pero los esfuerzos de relaciones públicas por sí solos no serán suficientes para proteger a la sociedad. “Estamos orgullosos de nuestro historial proporcionando sistemas de IA más capaces y seguros y creemos en nuestro enfoque científico para abordar el riesgo”, dijo Taya Christianson, portavoz de OpenAI, en un comunicado a The Verge. “El debate riguroso es crucial dada la importancia de esta tecnología, y continuaremos interactuando con gobiernos, sociedad civil y otras comunidades en todo el mundo en servicio de nuestra misión”.
Según OpenAI y otros que estudian la tecnología emergente, las apuestas en torno a la seguridad son inmensas. “El desarrollo actual de la IA en la frontera plantea riesgos urgentes y crecientes para la seguridad nacional”, dijo un informe encargado por el Departamento de Estado de EE.UU. en marzo. “El surgimiento de la IA avanzada y la AGI [inteligencia artificial general] tiene el potencial de desestabilizar la seguridad global de maneras que recuerdan a la introducción de armas nucleares”.
Las campanas de alarma en OpenAI también siguen al golpe de estado en la junta directiva el año pasado que brevemente destituyó al CEO Sam Altman. La junta dijo que fue removido debido a su falta de “sinceridad constante en sus comunicaciones”, lo que llevó a una investigación que poco tranquilizó al personal.
Lindsey Held, portavoz de OpenAI, dijo al Post que el lanzamiento de GPT-4o “no recortó esquinas” en seguridad, pero otro representante no identificado de la compañía reconoció que el cronograma de revisión de seguridad se comprimió a una semana. “Estamos replanteando toda nuestra forma de hacerlo”, dijo el representante anónimo al Post. “Esto simplemente no fue la mejor manera de hacerlo”.
¿Sabes más sobre lo que está sucediendo dentro de OpenAI? Me encantaría conversar. Puedes contactarme de manera segura en Signal @kylie.01 o por correo electrónico a [email protected].
Frente a controversias continuas (¿recuerdas el incidente de Her?), OpenAI ha intentado calmar los temores con algunos anuncios bien cronometrados. Esta semana, anunció que se está asociando con el Laboratorio Nacional de Los Álamos para explorar cómo los modelos avanzados de IA, como GPT-4o, pueden ayudar de manera segura en la investigación bioscientífica, y en el mismo anuncio señaló repetidamente el propio historial de seguridad de Los Álamos. Al día siguiente, un portavoz anónimo dijo a Bloomberg que OpenAI creó una escala interna para rastrear el progreso de sus grandes modelos de lenguaje hacia la inteligencia artificial general.
Los anuncios de esta semana centrados en la seguridad de OpenAI parecen ser un adorno defensivo ante la creciente crítica a sus prácticas de seguridad. Es evidente que OpenAI está bajo escrutinio, pero los esfuerzos de relaciones públicas por sí solos no serán suficientes para proteger a la sociedad. Lo que realmente importa es el impacto potencial en aquellos más allá de la burbuja del Valle del Silicio si OpenAI continúa sin desarrollar IA con protocolos de seguridad estrictos, como afirman internamente: la persona promedio no tiene voz en el desarrollo de AGI privatizado, pero tampoco tiene elección en cuanto a cuán protegido estará de las creaciones de OpenAI.
“Lina Khan, presidenta de la FTC, dijo a Bloomberg en noviembre que las herramientas de IA pueden ser revolucionarias”, pero “en este momento”, dijo, hay preocupaciones de que “los insumos críticos de estas herramientas están controlados por un número relativamente pequeño de empresas”.
Si las numerosas acusaciones contra sus protocolos de seguridad son precisas, esto seguramente plantea serias preguntas sobre la idoneidad de OpenAI para este papel como administrador de AGI, un papel que la organización prácticamente se ha asignado a sí misma. Permitir que un grupo en San Francisco controle una tecnología potencialmente alteradora de la sociedad es motivo de preocupación, y hay una demanda urgente incluso dentro de sus propias filas por transparencia y seguridad ahora más que nunca.