OpenAI ha anunciado la creación de una nueva Junta de Supervisión Independiente que podrá retrasar el lanzamiento de modelos de IA por preocupaciones de seguridad. Conoce cómo este cambio puede impactar la seguridad de la industria de la IA y la colaboración en el sector.
OpenAI ha dado un paso significativo en la mejora de la seguridad de sus modelos de inteligencia artificial al transformar su Comisión de Seguridad y Protección en una “Junta de Supervisión Independiente”. Esta nueva junta tendrá la capacidad de retrasar los lanzamientos de modelos si surgen preocupaciones de seguridad, según un reciente anuncio en el blog de OpenAI.
¿Qué es la Junta de Supervisión Independiente?
La reciente revisión de 90 días de los “procesos y salvaguardias relacionados con la seguridad y protección” de OpenAI llevó a la recomendación de crear esta junta independiente. Presidida por Zico Kolter y compuesta por Adam D’Angelo, Paul Nakasone y Nicole Seligman, la junta supervisará los lanzamientos de modelos importantes. Tendrá la autoridad para retrasar estos lanzamientos hasta que se resuelvan las preocupaciones de seguridad. Además, la junta completa de directores de OpenAI recibirá informes periódicos sobre “asuntos de seguridad y protección”.
¿Cómo Afectará Esto a la Industria de la IA?
La nueva estructura de la junta busca establecer un control riguroso sobre los lanzamientos de modelos de IA y fomentar la colaboración en la industria para mejorar la seguridad. Esto sigue un enfoque similar al de la Junta de Supervisión de Meta, que revisa decisiones de política de contenido y puede emitir fallos que Meta debe seguir. Sin embargo, la independencia real del comité de seguridad de OpenAI y su relación con la junta directiva más amplia aún no están completamente claras.
Futuras Iniciativas y Colaboración en la Industria
La revisión también ha abierto nuevas oportunidades para la colaboración y el intercambio de información en la industria de la IA, con el objetivo de avanzar en la seguridad del sector. OpenAI planea buscar más formas de compartir y explicar su trabajo en seguridad y más oportunidades para pruebas independientes de sus sistemas.
Conclusión
La creación de una junta de seguridad independiente por parte de OpenAI marca un paso importante hacia una mayor transparencia y control en la supervisión de los modelos de IA. Este cambio podría tener un impacto significativo en la forma en que se abordan las preocupaciones de seguridad en el sector tecnológico.