OpenAI ha anunciado la creación de una nueva Junta de Supervisión Independiente que podrá retrasar el lanzamiento de modelos de IA por preocupaciones de seguridad. Conoce cómo este cambio puede impactar la seguridad de la industria de la IA y la colaboración en el sector.

OpenAI ha dado un paso significativo en la mejora de la seguridad de sus modelos de inteligencia artificial al transformar su Comisión de Seguridad y Protección en una “Junta de Supervisión Independiente”. Esta nueva junta tendrá la capacidad de retrasar los lanzamientos de modelos si surgen preocupaciones de seguridad, según un reciente anuncio en el blog de OpenAI.

¿Qué es la Junta de Supervisión Independiente?

La reciente revisión de 90 días de los “procesos y salvaguardias relacionados con la seguridad y protección” de OpenAI llevó a la recomendación de crear esta junta independiente. Presidida por Zico Kolter y compuesta por Adam D’Angelo, Paul Nakasone y Nicole Seligman, la junta supervisará los lanzamientos de modelos importantes. Tendrá la autoridad para retrasar estos lanzamientos hasta que se resuelvan las preocupaciones de seguridad. Además, la junta completa de directores de OpenAI recibirá informes periódicos sobre “asuntos de seguridad y protección”.

¿Cómo Afectará Esto a la Industria de la IA?

La nueva estructura de la junta busca establecer un control riguroso sobre los lanzamientos de modelos de IA y fomentar la colaboración en la industria para mejorar la seguridad. Esto sigue un enfoque similar al de la Junta de Supervisión de Meta, que revisa decisiones de política de contenido y puede emitir fallos que Meta debe seguir. Sin embargo, la independencia real del comité de seguridad de OpenAI y su relación con la junta directiva más amplia aún no están completamente claras.

Futuras Iniciativas y Colaboración en la Industria

La revisión también ha abierto nuevas oportunidades para la colaboración y el intercambio de información en la industria de la IA, con el objetivo de avanzar en la seguridad del sector. OpenAI planea buscar más formas de compartir y explicar su trabajo en seguridad y más oportunidades para pruebas independientes de sus sistemas.

Conclusión

La creación de una junta de seguridad independiente por parte de OpenAI marca un paso importante hacia una mayor transparencia y control en la supervisión de los modelos de IA. Este cambio podría tener un impacto significativo en la forma en que se abordan las preocupaciones de seguridad en el sector tecnológico.

Leave a Reply

Your email address will not be published. Required fields are marked *

You May Also Like

Logitech presenta su innovador botón de IA

Logitech ha anunciado su último avance en tecnología con el lanzamiento de…

Mejora el Rendimiento en Juegos con la Nueva Actualización de Windows 11 para CPUs Ryzen

Microsoft ha lanzado la actualización KB5041587, que está diseñada para mejorar el…

Microsoft considera lanzar Indiana Jones en PS5

¡Entérate de los últimos rumores sobre el lanzamiento de Indiana Jones en…

Echo Spot de Amazon 2024

Amazon ha lanzado el Echo Spot 2024, una actualización del altavoz inteligente…

Wacom presenta su nueva tableta de dibujo OLED: Delgada, ligera y sin problemas de calor

Wacom ha presentado su última innovación en el mundo de las tabletas…

Cómo deshacerte de las Descripciones de IA en la Búsqueda de Google: Guía Paso a Paso

Descubre cómo evitar las Descripciones de IA en la Búsqueda de Google…

Don Lemon demanda a Elon Musk y X por cancelación de su programa de entrevistas: Alegaciones de fraude y incumplimiento de contrato

Don Lemon ha presentado una demanda contra Elon Musk y la plataforma…

Sony se prepara para lanzar una PS5 Pro más potente este año

¡La nueva PlayStation 5 Pro promete revolucionar la experiencia de juego con…

HP OmniBook Ultra: Nuevos Chips de IA AMD en la Próxima Laptop Copilot Plus

HP está preparando el lanzamiento de la HP OmniBook Ultra, una nueva…

Google Pixel 9 Introduce Satellite SOS para Android

Google ha seguido los pasos de Apple al presentar una nueva función…