OpenAI ha anunciado la creación de una nueva Junta de Supervisión Independiente que podrá retrasar el lanzamiento de modelos de IA por preocupaciones de seguridad. Conoce cómo este cambio puede impactar la seguridad de la industria de la IA y la colaboración en el sector.

OpenAI ha dado un paso significativo en la mejora de la seguridad de sus modelos de inteligencia artificial al transformar su Comisión de Seguridad y Protección en una “Junta de Supervisión Independiente”. Esta nueva junta tendrá la capacidad de retrasar los lanzamientos de modelos si surgen preocupaciones de seguridad, según un reciente anuncio en el blog de OpenAI.

¿Qué es la Junta de Supervisión Independiente?

La reciente revisión de 90 días de los “procesos y salvaguardias relacionados con la seguridad y protección” de OpenAI llevó a la recomendación de crear esta junta independiente. Presidida por Zico Kolter y compuesta por Adam D’Angelo, Paul Nakasone y Nicole Seligman, la junta supervisará los lanzamientos de modelos importantes. Tendrá la autoridad para retrasar estos lanzamientos hasta que se resuelvan las preocupaciones de seguridad. Además, la junta completa de directores de OpenAI recibirá informes periódicos sobre “asuntos de seguridad y protección”.

¿Cómo Afectará Esto a la Industria de la IA?

La nueva estructura de la junta busca establecer un control riguroso sobre los lanzamientos de modelos de IA y fomentar la colaboración en la industria para mejorar la seguridad. Esto sigue un enfoque similar al de la Junta de Supervisión de Meta, que revisa decisiones de política de contenido y puede emitir fallos que Meta debe seguir. Sin embargo, la independencia real del comité de seguridad de OpenAI y su relación con la junta directiva más amplia aún no están completamente claras.

Futuras Iniciativas y Colaboración en la Industria

La revisión también ha abierto nuevas oportunidades para la colaboración y el intercambio de información en la industria de la IA, con el objetivo de avanzar en la seguridad del sector. OpenAI planea buscar más formas de compartir y explicar su trabajo en seguridad y más oportunidades para pruebas independientes de sus sistemas.

Conclusión

La creación de una junta de seguridad independiente por parte de OpenAI marca un paso importante hacia una mayor transparencia y control en la supervisión de los modelos de IA. Este cambio podría tener un impacto significativo en la forma en que se abordan las preocupaciones de seguridad en el sector tecnológico.

Leave a Reply

Your email address will not be published. Required fields are marked *

You May Also Like

FOSSiBOT F1200: El generador solar más vendido de Amazon baja más de 120 € y agota existencias

En un momento en el que la autosuficiencia energética y la preparación…

El Rediseño del Mac Mini de Apple: ¿Adiós al Puerto USB-A?

Reducir el tamaño del Mac Mini de Apple a algo comparable al…

Apple reduce la producción del Vision Pro: ¿se aproxima un modelo más asequible?

Apple ha decidido reducir la producción de su visor Vision Pro, un…

Mercedes-Benz revisa su estrategia: No solo vehículos eléctricos después de 2030

Mercedes-Benz ajusta su enfoque y desiste de su plan inicial de vender…

Microsoft lleva el panel de control de Xbox a la web con chat de grupo y más

Microsoft está dando un gran paso adelante al trasladar su famoso panel…

Formlabs revoluciona la impresión 3D con su nueva tecnología

Descubre cómo las nuevas impresoras 3D de Formlabs están cambiando el juego…

WhatsApp entre la privacidad y la inteligencia artificial: el delicado equilibrio del ‘Procesamiento Privado’

 WhatsApp y la encrucijada tecnológica: un nuevo paradigma de privacidad y procesamiento…

Político del Reino Unido acusado de ser AI resulta ser persona real

Mark Matlock, candidato político del partido Reform UK, ha aclarado en The…

Astro Bot: 2024 Game of the Year and Its Implications for PlayStation and the Gaming Industry

Astro Bot has achieved the remarkable feat of being crowned 2024’s Game…