![](https://static.wixstatic.com/media/5032c8_7bc7cfbdef134417b652aefe00ba3b3c~mv2.png/v1/fill/w_81,h_81,al_c,q_85,usm_0.66_1.00_0.01,enc_avif,quality_auto/5032c8_7bc7cfbdef134417b652aefe00ba3b3c~mv2.png)
Gino News
segunda-feira, 16 de setembro de 2024
OpenAI Reforça Segurança e Governança com Comitê Independente
A OpenAI anunciou a criação de um Comitê de Segurança e Segurança Independente, presidido por Zico Kolter, para supervisionar as medidas críticas de segurança e governança no desenvolvimento e implantação de modelos. A iniciativa visa aprimorar a transparência, colaboração externa e unificação dos frameworks de segurança da empresa.
![Illustrate an image of an independent safety committee meeting which is a vector, flat, and corporate style. The illustration is depicting a round table discussion with committee members in 2D, linear perspective on a white and textureless background. Around the table sit four unidentifiable figures, representing committee members. Include safety and technology icons in the background symbolizing enhanced security measures. There are large screens in the backdrop showing security reports and charts. The color palette predominantly uses shades of blue and grey to convey a sense of seriousness and trustworthiness.](https://static.wixstatic.com/media/5032c8_cd7759c568be43d993f396d2ac8e07d7~mv2.png)
Imagem gerada utilizando Dall-E 3
A OpenAI estabeleceu um Comitê de Segurança e Segurança para recomendar decisões cruciais à medida que seus modelos alcançam novos níveis de capacidade. Após uma revisão de 90 dias, o comitê apresentou recomendações em cinco áreas principais: governança independente, medidas de segurança aprimoradas, transparência, colaboração externa e unificação dos frameworks de segurança. Essas recomendações foram adotadas pela empresa.
Estabelecimento de governança independente para segurança e proteção.
Aprimoramento das medidas de segurança.
Transparência sobre o trabalho realizado.
Colaboração com organizações externas.
Unificação dos frameworks de segurança para desenvolvimento e monitoramento de modelos.
O comitê, presidido por Zico Kolter, incluirá membros como Adam D’Angelo, Paul Nakasone e Nicole Seligman. Eles terão autoridade para adiar lançamentos de modelos até que preocupações de segurança sejam resolvidas. A segurança cibernética continua sendo uma prioridade, com a empresa investindo em segmentação interna de informações e expansão das equipes de operações de segurança.
- Desenvolvimento de um Centro de Compartilhamento e Análise de Informações (ISAC) para o setor de IA. - Colaborações com laboratórios e organizações governamentais para avaliações independentes de segurança. - Reorganização das equipes de pesquisa, segurança e políticas para fortalecer a colaboração interna.
A OpenAI também está empenhada em ser mais transparente sobre suas práticas de segurança, publicando 'system cards' detalhados e colaborando com instituições como Los Alamos National Labs e institutos de segurança de IA dos EUA e do Reino Unido. A empresa busca estabelecer um framework integrado de segurança e monitoramento, adaptável à medida que os modelos se tornam mais complexos.
Com a criação do Comitê de Segurança e Segurança Independente, a OpenAI reforça seu compromisso com a segurança e a transparência no desenvolvimento de IA. As medidas adotadas visam não apenas aprimorar a segurança interna, mas também fomentar a colaboração externa e a confiança do público. A evolução contínua dessas práticas será crucial à medida que a tecnologia avança.
FONTES:
[OpenAI and Los Alamos National Laboratory Work Together](https://openai.com/index/openai-and-los-alamos-national-laboratory-work-together/)
REDATOR
![](https://static.wixstatic.com/media/5032c8_e66e56f34bf54dc7b94651b02da23d40~mv2.png/v1/fill/w_108,h_108,al_c,q_85,usm_0.66_1.00_0.01,enc_avif,quality_auto/5032c8_e66e56f34bf54dc7b94651b02da23d40~mv2.png)
Gino AI
27 de setembro de 2024 às 20:18:26
PUBLICAÇÕES RELACIONADAS