Los senadores Elizabeth Warren (D-MA) y Lori Trahan (D-MA) están solicitando respuestas de Sam Altman sobre el historial de seguridad de OpenAI, después de recibir quejas de empleados anteriores sobre la supresión de críticas internas. La carta de los legisladores cuestiona cómo OpenAI gestiona las denuncias y protege contra los conflictos de interés.

Los senadores mencionan varios incidentes que han puesto en duda los procedimientos de seguridad de OpenAI. Entre ellos, destacan la prueba en India de una versión no aprobada de GPT-4 en el motor de búsqueda Microsoft Bing en 2022, antes de recibir la aprobación del consejo de seguridad de OpenAI. También se refieren al breve despido de Altman en 2023 debido a las preocupaciones del consejo sobre la comercialización prematura de avances tecnológicos.

A pesar de las afirmaciones de OpenAI sobre su compromiso con la seguridad, informes de The Washington Post sugieren que la empresa aceleró las pruebas de seguridad y disolvió el equipo de Superalignment, responsable en parte de la seguridad. La portavoz de OpenAI, Lindsey Held, negó las acusaciones y aseguró que la empresa no comprometió sus procesos de seguridad.

En respuesta a las críticas, OpenAI ha anunciado una asociación con el Laboratorio Nacional de Los Álamos para investigar cómo los modelos de IA pueden apoyar la investigación bioscientífica de manera segura. Además, Altman reveló que el 20% de los recursos informáticos de OpenAI se dedicarán a la seguridad, y que la empresa ha eliminado cláusulas de no difamación y disposiciones que permitían la cancelación de equidad adquirida.

Los legisladores Warren y Trahan también han solicitado información sobre la nueva línea de seguridad para empleados y cómo se gestionan los informes de seguridad. La carta exige un “recuento detallado” de los incidentes en los que los productos de OpenAI han evadido los protocolos de seguridad, y detalles sobre la política de conflictos de interés de la empresa. Solicitaron a Altman que responda antes del 22 de agosto.

En California, estado natal de OpenAI, el senador Scott Wiener está promoviendo una legislación para regular los grandes modelos de lenguaje, responsabilizando legalmente a las empresas por el uso perjudicial de la IA. Esta legislación refleja las preocupaciones expresadas por Altman sobre los riesgos de la IA para la seguridad pública y nacional.

Leave a Reply

Your email address will not be published. Required fields are marked *

You May Also Like

Amazon y SpaceX alegan inconstitucionalidad de la Junta Nacional de Relaciones Laborales

Amazon se suma a SpaceX en afirmar que la Junta Nacional de…

Elon Musk y Tesla: Accionistas Aprueban Masivo Paquete de Compensación

El día de hoy, los accionistas de Tesla han dado luz verde…

TikTok innova: Ahora etiqueta automáticamente contenido generado por IA de terceros

TikTok se destaca al ser la primera red social en incorporar etiquetas…

Elon Musk no es un “absolutista de la libertad de expresión” en X, según su historial

Elon Musk ha sido un defensor acérrimo de la libertad de expresión,…

¡TapeACall se vuelve más caro! Usuarios deberán pagar $79.99 al año por grabación ilimitada de llamadas

Descubre por qué el costo de TapeACall, la popular aplicación para grabar…

Nintendo Actúa Contra Modificación de Pokémon en Palworld

Nintendo ha emprendido acciones legales contra el popular YouTuber ToastedShoes por su…

Nueva Definición de IA de Código Abierto por la OSI: Cómo Será el Futuro de la Inteligencia Artificial Abierta

Nueva Definición de IA de Código Abierto por la OSI: Cómo Será…

Instagram se enfoca en videos cortos, según Adam Mosseri

Adam Mosseri, director de Instagram, ha anunciado que la plataforma continuará priorizando…

iOS 18: Transcripciones y Más

Los últimos informes de AppleInsider revelan emocionantes avances en la integración de…

Google evita juicio por jurado con cheque de $2.3 millones en caso de monopolio publicitario

Caso contra Google por supuesto monopolio de adtech se dirimirá en juicio…