Los senadores Elizabeth Warren (D-MA) y Lori Trahan (D-MA) están solicitando respuestas de Sam Altman sobre el historial de seguridad de OpenAI, después de recibir quejas de empleados anteriores sobre la supresión de críticas internas. La carta de los legisladores cuestiona cómo OpenAI gestiona las denuncias y protege contra los conflictos de interés.

Los senadores mencionan varios incidentes que han puesto en duda los procedimientos de seguridad de OpenAI. Entre ellos, destacan la prueba en India de una versión no aprobada de GPT-4 en el motor de búsqueda Microsoft Bing en 2022, antes de recibir la aprobación del consejo de seguridad de OpenAI. También se refieren al breve despido de Altman en 2023 debido a las preocupaciones del consejo sobre la comercialización prematura de avances tecnológicos.

A pesar de las afirmaciones de OpenAI sobre su compromiso con la seguridad, informes de The Washington Post sugieren que la empresa aceleró las pruebas de seguridad y disolvió el equipo de Superalignment, responsable en parte de la seguridad. La portavoz de OpenAI, Lindsey Held, negó las acusaciones y aseguró que la empresa no comprometió sus procesos de seguridad.

En respuesta a las críticas, OpenAI ha anunciado una asociación con el Laboratorio Nacional de Los Álamos para investigar cómo los modelos de IA pueden apoyar la investigación bioscientífica de manera segura. Además, Altman reveló que el 20% de los recursos informáticos de OpenAI se dedicarán a la seguridad, y que la empresa ha eliminado cláusulas de no difamación y disposiciones que permitían la cancelación de equidad adquirida.

Los legisladores Warren y Trahan también han solicitado información sobre la nueva línea de seguridad para empleados y cómo se gestionan los informes de seguridad. La carta exige un “recuento detallado” de los incidentes en los que los productos de OpenAI han evadido los protocolos de seguridad, y detalles sobre la política de conflictos de interés de la empresa. Solicitaron a Altman que responda antes del 22 de agosto.

En California, estado natal de OpenAI, el senador Scott Wiener está promoviendo una legislación para regular los grandes modelos de lenguaje, responsabilizando legalmente a las empresas por el uso perjudicial de la IA. Esta legislación refleja las preocupaciones expresadas por Altman sobre los riesgos de la IA para la seguridad pública y nacional.

Leave a Reply

Your email address will not be published. Required fields are marked *

You May Also Like

Los AirPods Max Ahora Usan USB-C: Todo lo Que Necesitas Saber

Apple ha anunciado la nueva versión de los AirPods Max con una…

Gemini en Gmail: Nuevas Herramientas para Pulir y Mejorar Tus Correos Electrónicos

Google ha anunciado una actualización importante para sus herramientas de escritura Gemini…

La Quest 3S más barata de Meta podría ser una actualización

Meta está llevando mucho de lo que puedes obtener en la Quest…

Fallas en CPUs Intel de 13ª y 14ª Generación: Problemas Confirmados

Alderon Games, desarrollador del MMO Path of Titans, ha revelado datos alarmantes…

LATINOAMÉRICA EN ALERTA. AUMENTO DE AMENAZAS A LA SEGURIDAD EMPRESARIAL

Columna de opinión por Diego Madeo. Director Ejecutivo de Garnet Technology Un…

La Unión Europea Propone Cambios para Asegurar un Pago Justo a Artistas en Plataformas de Streaming de Música

El Parlamento Europeo ha tomado medidas para garantizar una compensación justa a…

Leica lanza Leica Lux: la nueva aplicación que transforma tu iPhone

Leica ha lanzado su última innovación para los amantes de la fotografía:…

Biosensores revolucionarán la salud

Los biosensores están marcando el rumbo de la salud en 2024, ofreciendo…

Microsoft insinúa un potencial revolucionario para Xbox y avances en consolas de próxima generación

Microsoft está generando expectativas con respecto al futuro del hardware de Xbox,…

¿Puede la Inteligencia Artificial Salvar el Servicio al Cliente?

La tecnología de Inteligencia Artificial está revolucionando la atención al cliente, ofreciendo…