Los senadores Elizabeth Warren (D-MA) y Lori Trahan (D-MA) están solicitando respuestas de Sam Altman sobre el historial de seguridad de OpenAI, después de recibir quejas de empleados anteriores sobre la supresión de críticas internas. La carta de los legisladores cuestiona cómo OpenAI gestiona las denuncias y protege contra los conflictos de interés.
Los senadores mencionan varios incidentes que han puesto en duda los procedimientos de seguridad de OpenAI. Entre ellos, destacan la prueba en India de una versión no aprobada de GPT-4 en el motor de búsqueda Microsoft Bing en 2022, antes de recibir la aprobación del consejo de seguridad de OpenAI. También se refieren al breve despido de Altman en 2023 debido a las preocupaciones del consejo sobre la comercialización prematura de avances tecnológicos.
A pesar de las afirmaciones de OpenAI sobre su compromiso con la seguridad, informes de The Washington Post sugieren que la empresa aceleró las pruebas de seguridad y disolvió el equipo de Superalignment, responsable en parte de la seguridad. La portavoz de OpenAI, Lindsey Held, negó las acusaciones y aseguró que la empresa no comprometió sus procesos de seguridad.
En respuesta a las críticas, OpenAI ha anunciado una asociación con el Laboratorio Nacional de Los Álamos para investigar cómo los modelos de IA pueden apoyar la investigación bioscientífica de manera segura. Además, Altman reveló que el 20% de los recursos informáticos de OpenAI se dedicarán a la seguridad, y que la empresa ha eliminado cláusulas de no difamación y disposiciones que permitían la cancelación de equidad adquirida.
Los legisladores Warren y Trahan también han solicitado información sobre la nueva línea de seguridad para empleados y cómo se gestionan los informes de seguridad. La carta exige un “recuento detallado” de los incidentes en los que los productos de OpenAI han evadido los protocolos de seguridad, y detalles sobre la política de conflictos de interés de la empresa. Solicitaron a Altman que responda antes del 22 de agosto.
En California, estado natal de OpenAI, el senador Scott Wiener está promoviendo una legislación para regular los grandes modelos de lenguaje, responsabilizando legalmente a las empresas por el uso perjudicial de la IA. Esta legislación refleja las preocupaciones expresadas por Altman sobre los riesgos de la IA para la seguridad pública y nacional.