Un informe de The Washington Post se suma a una creciente lista de acusaciones contra los protocolos de seguridad de OpenAI.

OpenAI lidera la carrera para desarrollar inteligencia artificial tan inteligente como un humano. Sin embargo, los empleados continúan expresando sus graves preocupaciones sobre la seguridad en el laboratorio de investigación sin fines de lucro de $80 mil millones. La última proviene de The Washington Post, donde una fuente anónima afirmó que OpenAI apresuró las pruebas de seguridad y celebró su producto antes de asegurar su seguridad.

“Planearon la fiesta de lanzamiento antes de saber si era seguro lanzar”, dijo un empleado anónimo a The Washington Post. “Básicamente fallamos en el proceso”.

Los problemas de seguridad son una preocupación importante en OpenAI y parecen seguir surgiendo. Empleados actuales y anteriores de OpenAI recientemente firmaron una carta abierta exigiendo mejores prácticas de seguridad y transparencia de la startup, poco después de la disolución de su equipo de seguridad tras la salida del cofundador Ilya Sutskever. Jan Leike, un investigador clave de OpenAI, renunció poco después, afirmando en un post que “la cultura y los procesos de seguridad han quedado en segundo plano frente a productos llamativos” en la empresa.

La seguridad es fundamental para la carta de OpenAI, con una cláusula que afirma que OpenAI asistirá a otras organizaciones para avanzar en la seguridad si se alcanza la inteligencia artificial general en un competidor, en lugar de seguir compitiendo. Afirma estar dedicada a resolver los problemas de seguridad inherentes a un sistema tan grande y complejo. Incluso mantiene sus modelos propietarios en privado, en lugar de abiertos (causando burlas y demandas), por seguridad. Las advertencias sugieren que la seguridad ha sido depriorizada a pesar de ser tan importante para la cultura y estructura de la compañía.

Es evidente que OpenAI está bajo escrutinio, pero los esfuerzos de relaciones públicas por sí solos no serán suficientes para proteger a la sociedad. “Estamos orgullosos de nuestro historial proporcionando sistemas de IA más capaces y seguros y creemos en nuestro enfoque científico para abordar el riesgo”, dijo Taya Christianson, portavoz de OpenAI, en un comunicado a The Verge. “El debate riguroso es crucial dada la importancia de esta tecnología, y continuaremos interactuando con gobiernos, sociedad civil y otras comunidades en todo el mundo en servicio de nuestra misión”.

Según OpenAI y otros que estudian la tecnología emergente, las apuestas en torno a la seguridad son inmensas. “El desarrollo actual de la IA en la frontera plantea riesgos urgentes y crecientes para la seguridad nacional”, dijo un informe encargado por el Departamento de Estado de EE.UU. en marzo. “El surgimiento de la IA avanzada y la AGI [inteligencia artificial general] tiene el potencial de desestabilizar la seguridad global de maneras que recuerdan a la introducción de armas nucleares”.

Las campanas de alarma en OpenAI también siguen al golpe de estado en la junta directiva el año pasado que brevemente destituyó al CEO Sam Altman. La junta dijo que fue removido debido a su falta de “sinceridad constante en sus comunicaciones”, lo que llevó a una investigación que poco tranquilizó al personal.

Lindsey Held, portavoz de OpenAI, dijo al Post que el lanzamiento de GPT-4o “no recortó esquinas” en seguridad, pero otro representante no identificado de la compañía reconoció que el cronograma de revisión de seguridad se comprimió a una semana. “Estamos replanteando toda nuestra forma de hacerlo”, dijo el representante anónimo al Post. “Esto simplemente no fue la mejor manera de hacerlo”.

¿Sabes más sobre lo que está sucediendo dentro de OpenAI? Me encantaría conversar. Puedes contactarme de manera segura en Signal @kylie.01 o por correo electrónico a [email protected].

Frente a controversias continuas (¿recuerdas el incidente de Her?), OpenAI ha intentado calmar los temores con algunos anuncios bien cronometrados. Esta semana, anunció que se está asociando con el Laboratorio Nacional de Los Álamos para explorar cómo los modelos avanzados de IA, como GPT-4o, pueden ayudar de manera segura en la investigación bioscientífica, y en el mismo anuncio señaló repetidamente el propio historial de seguridad de Los Álamos. Al día siguiente, un portavoz anónimo dijo a Bloomberg que OpenAI creó una escala interna para rastrear el progreso de sus grandes modelos de lenguaje hacia la inteligencia artificial general.

Los anuncios de esta semana centrados en la seguridad de OpenAI parecen ser un adorno defensivo ante la creciente crítica a sus prácticas de seguridad. Es evidente que OpenAI está bajo escrutinio, pero los esfuerzos de relaciones públicas por sí solos no serán suficientes para proteger a la sociedad. Lo que realmente importa es el impacto potencial en aquellos más allá de la burbuja del Valle del Silicio si OpenAI continúa sin desarrollar IA con protocolos de seguridad estrictos, como afirman internamente: la persona promedio no tiene voz en el desarrollo de AGI privatizado, pero tampoco tiene elección en cuanto a cuán protegido estará de las creaciones de OpenAI.

“Lina Khan, presidenta de la FTC, dijo a Bloomberg en noviembre que las herramientas de IA pueden ser revolucionarias”, pero “en este momento”, dijo, hay preocupaciones de que “los insumos críticos de estas herramientas están controlados por un número relativamente pequeño de empresas”.

Si las numerosas acusaciones contra sus protocolos de seguridad son precisas, esto seguramente plantea serias preguntas sobre la idoneidad de OpenAI para este papel como administrador de AGI, un papel que la organización prácticamente se ha asignado a sí misma. Permitir que un grupo en San Francisco controle una tecnología potencialmente alteradora de la sociedad es motivo de preocupación, y hay una demanda urgente incluso dentro de sus propias filas por transparencia y seguridad ahora más que nunca.

Leave a Reply

Your email address will not be published. Required fields are marked *

You May Also Like

Apple y Google negocian para llevar Gemini a los iPhones en 2025 con iOS 19

En una jugada que podría redefinir el panorama de la inteligencia artificial…

Meta lleva la tecnología wearable al siguiente nivel: Integración de Shazam en las Ray-Ban

En un anuncio sorprendente, Mark Zuckerberg, CEO de Meta, reveló una nueva…

Cadillac revela el concepto ‘Opulent Velocity’ de la serie V eléctrica

La marca de lujo amplía su gama de rendimiento con un vehículo…

Trump vs Biden: impacto de sus primeros 100 días presidenciales en el precio de Bitcoin

Introducción: Bitcoin como barómetro político y económico Bitcoin (BTC), la criptomoneda más…

Dolby Atmos Flex Connect: coloca tus altavoces donde quieras con este innovador sistema

Descubre cómo Dolby Atmos Flex Connect revoluciona la ubicación de los altavoces…

Fiat transforma sus automóviles urbanos en una gama de vehículos “multi-energía”

Fiat, bajo la propiedad de Stellantis, presenta una innovadora estrategia al revelar…

NASA CONFIRMA GIGANTESCO AGUJERO CORONAL EN EL SOL QUE PODRÍA IMPACTAR LA TIERRA

Un agujero coronal de 500,000 millas de ancho podría provocar tormentas geomagnéticas…

Android blinda sus teléfonos: la nueva protección contra robos hace inservibles los dispositivos sustraídos

Android 16 llegará con una importante actualización de seguridad que inutiliza completamente…

¡Hackean con Éxito Función de IA de Windows 11 para Correr en Hardware Antiguo!

En un giro sorprendente, los entusiastas de Windows han logrado un hito…

Amenazas de día cero: la vulnerabilidad que nadie ve hasta que ya es tarde

Columna de opinión por Maximiliano Ripani. Experto en Ciberseguridad de ZMA IT…