Los senadores Elizabeth Warren (D-MA) y Lori Trahan (D-MA) están solicitando respuestas de Sam Altman sobre el historial de seguridad de OpenAI, después de recibir quejas de empleados anteriores sobre la supresión de críticas internas. La carta de los legisladores cuestiona cómo OpenAI gestiona las denuncias y protege contra los conflictos de interés.

Los senadores mencionan varios incidentes que han puesto en duda los procedimientos de seguridad de OpenAI. Entre ellos, destacan la prueba en India de una versión no aprobada de GPT-4 en el motor de búsqueda Microsoft Bing en 2022, antes de recibir la aprobación del consejo de seguridad de OpenAI. También se refieren al breve despido de Altman en 2023 debido a las preocupaciones del consejo sobre la comercialización prematura de avances tecnológicos.

A pesar de las afirmaciones de OpenAI sobre su compromiso con la seguridad, informes de The Washington Post sugieren que la empresa aceleró las pruebas de seguridad y disolvió el equipo de Superalignment, responsable en parte de la seguridad. La portavoz de OpenAI, Lindsey Held, negó las acusaciones y aseguró que la empresa no comprometió sus procesos de seguridad.

En respuesta a las críticas, OpenAI ha anunciado una asociación con el Laboratorio Nacional de Los Álamos para investigar cómo los modelos de IA pueden apoyar la investigación bioscientífica de manera segura. Además, Altman reveló que el 20% de los recursos informáticos de OpenAI se dedicarán a la seguridad, y que la empresa ha eliminado cláusulas de no difamación y disposiciones que permitían la cancelación de equidad adquirida.

Los legisladores Warren y Trahan también han solicitado información sobre la nueva línea de seguridad para empleados y cómo se gestionan los informes de seguridad. La carta exige un “recuento detallado” de los incidentes en los que los productos de OpenAI han evadido los protocolos de seguridad, y detalles sobre la política de conflictos de interés de la empresa. Solicitaron a Altman que responda antes del 22 de agosto.

En California, estado natal de OpenAI, el senador Scott Wiener está promoviendo una legislación para regular los grandes modelos de lenguaje, responsabilizando legalmente a las empresas por el uso perjudicial de la IA. Esta legislación refleja las preocupaciones expresadas por Altman sobre los riesgos de la IA para la seguridad pública y nacional.

Leave a Reply

Your email address will not be published. Required fields are marked *

You May Also Like

UE amenaza con multa a Meta por etiquetar a Facebook como ‘gratis’

La Unión Europea ha notificado a Meta que su modelo de “pago…

Twitch Aumentará los Precios de Suscripciones en Móviles a Partir de Octubre 2024

Twitch, la popular plataforma de streaming, ha anunciado un aumento en el…

Razer reembolsará $1.1 millones por mascarilla Zephyr tras acusaciones de la FTC

La Comisión Federal de Comercio anuncia un acuerdo propuesto que obliga a…

Valve Revela Cuánto Paga a sus Empleados y la Dimensión de su Plantilla

Valve, conocida por su influencia en la industria del gaming a través…

Tesla soluciona el problema del acelerador del Cybertruck con una innovadora medida

Tesla ha tomado medidas decisivas para abordar los problemas relacionados con los…

Reclama tu parte del acuerdo de $35 millones por problemas de audio del iPhone 7 de Apple

Se acerca la fecha límite del 3 de junio para presentar un…

Apple Centra Esfuerzos en Desarrollar Auricular VR Más Económico

El equipo Vision Pro de Apple está enfocado en la creación de…

Android 16 y Pixel 9: Un cambio en las fechas de lanzamiento y su impacto en la industria móvil

Google adelanta el lanzamiento de Android 16 para garantizar un mejor rendimiento…

YouTube Music permitirá buscar tarareando en tu teléfono Android

YouTube Music está llevando la búsqueda de canciones a otro nivel con…

Capcom Anuncia Nuevo Juego de Resident Evil: Detalles Revelados por Koshi Nakanishi

Durante una transmisión en vivo de “Capcom Next” este verano, Koshi Nakanishi,…