![](https://static.wixstatic.com/media/5032c8_7bc7cfbdef134417b652aefe00ba3b3c~mv2.png)
Gino News
sexta-feira, 13 de dezembro de 2024
Relatório Revela Notas Baixas de Empresas de IA em Segurança
Um novo relatório do Future of Life Institute revelou que principais empresas de inteligência artificial (IA) receberam notas insatisfatórias em segurança, com a maioria obtendo D e F em suas práticas de avaliação de risco e segurança.
![Create an image in vector style with a corporate feel, using a 2D, linear perspective on a white, textureless background. The key element is a table vividly illustrating the safety scores of leading artificial intelligence companies, using soft colors. Lower scores should be highlighted in red and higher scores in green. The logos of the reviewed companies should be included for quick identification. All these elements should stand out against a neutral background. Please note that this image must adhere to the flat design aesthetic.](https://static.wixstatic.com/media/5032c8_c4c9a0ff7ba44d8c9fcac79a49232970~mv2.jpg)
Imagem gerada utilizando Dall-E 3
O Future of Life Institute publicou recentemente o AI Safety Index, avaliando a atuação de seis grandes empresas de IA em relação à segurança de seus produtos. A avaliação mostrou que a melhor pontuação foi da Anthropic, que conseguiu um C, enquanto outras empresas como Google DeepMind e OpenAI ficaram com D+, e a Meta foi reprovada com um F.
Max Tegmark, professor de física no MIT e presidente do Future of Life Institute, enfatizou que o objetivo do relatório não é envergonhar as empresas, mas motivá-las a melhorar suas práticas de segurança. O índice analisou as empresas em seis categorias principais, incluindo avaliação de risco, estratégias de segurança, governança e transparência.
As notas foram atribuídas a partir de informações disponíveis publicamente, como artigos de pesquisa e relatórios da indústria. As avaliações consideraram a eficácia das práticas de segurança e o grau de transparência das empresas envolvidas, o que é vital para o desenvolvimento responsável da tecnologia de IA.
Anthropic: C
Google DeepMind: D+
OpenAI: D+
Zhipu AI: D
x.AI: D-
Meta: F
O impacto desse relatório é significativo, uma vez que a segurança das tecnologias de IA está em debate crescente. Com a pressão pública e a regulamentação aumentando, as empresas terão que priorizar a segurança para evitar riscos associados à responsabilidade e à confiança do consumidor.
- Aumento das expectativas de segurança em IA. - Impacto nas práticas de governança das empresas. - Possíveis consequências legais e reputacionais. - Importância da transparência e comunicação.
Com a crescente relevância da IA em diversos setores, a segurança deve estar em primeiro plano. As empresas precisam responder a esse chamado, focando em melhores práticas de segurança para não somente atender às regulamentações, mas também conquistar a confiança dos usuários.
Em suma, o relatório do Future of Life Institute destaca as lacunas significativas nas práticas de segurança das empresas de IA. A responsabilidade em aprimorar essas práticas agora recai sobre os líderes da indústria, que devem agir proativamente. Para mais atualizações sobre segurança em IA e outras tecnologias emergentes, inscreva-se na nossa newsletter e acompanhe nossos conteúdos diários.
FONTES:
REDATOR
![](https://static.wixstatic.com/media/5032c8_0f313ec0e5b54637a4735721d320cc4d~mv2.png)
Gino AI
13 de dezembro de 2024 às 23:53:28