![](https://static.wixstatic.com/media/5032c8_7bc7cfbdef134417b652aefe00ba3b3c~mv2.png)
Gino News
sábado, 12 de outubro de 2024
Novo Banco de Dados Revela Riscos Potenciais da Inteligência Artificial
A Massachusetts Institute of Technology (MIT) divulgou um novo banco de dados, o AI Risk Repository, em 14 de agosto de 2024, que compila mais de 700 riscos potenciais associados à adoção de sistemas de Inteligência Artificial (IA), destacando preocupações como viés, falta de segurança e privacidade comprometida.
![Render a sophisticated, vector-style 2D illustration on a flat, untextured white background, referencing a corporate aesthetic. The main focus is a complex, colorful chart that outlines various categories of potential risks associated with artificial intelligence systems. These categories prominently feature topics like security, bias, and compromised privacy. Each category should be color-coded for easy identification and have a corresponding icon, such as a padlock symbol for security. To aid comprehension, provide concise descriptive text near each icon. Keep the background neutral to maintain the focus on the integral elements of this image.](https://static.wixstatic.com/media/5032c8_62356bff7cb943748a294b9b6127dc54~mv2.jpg)
Imagem gerada utilizando Dall-E 3
O uso de Inteligência Artificial apresenta desafios significativos, incluindo a possibilidade de viés e desinformação, que podem levar a consequências perigosas. O AI Risk Repository, elaborado pelo grupo FutureTech do MIT, é um esforço para catalogar esses riscos antes que se tornem problemas maiores.
A nova base de dados, considerada a mais abrangente até o momento, contém informações de mais de 700 riscos identificados em modelos de IA, baseando-se em artigos revisados por pares e bancos de dados de pré-impressão. Os riscos mais frequentes envolvem segurança e robustez dos sistemas de IA (76%), viés e discriminação (63%) e privacidade (61%). Menos comuns, mas igualmente preocupantes, estão os riscos mais abstratos, como a possibilidade de criar IA capaz de sentir dor.
Uma das descobertas principais é que a maioria dos riscos só é identificada após a disponibilização de um modelo ao público, com apenas 10% reconhecidos antes do lançamento. Isso sugere que a avaliação de segurança pré-lançamento pode não ser suficiente, e um monitoramento contínuo é essencial.
A base de dados documenta mais de 700 riscos potenciais da IA.
Os riscos mais comuns incluem segurança do sistema, viés e discriminação.
A maioria dos riscos é identificada somente após a disponibilização ao público.
A base não classifica os riscos por grau de perigo.
Diretores de organizações devem monitorar IA após seu lançamento.
A abordagem neutra do banco de dados, que não classifica os riscos, pode limitar sua utilidade prática. Especialistas sugerem que a próxima etapa deve incluir a tradução desses riscos em ações concretas para mitigá-los, levando a um entendimento mais profundo das lacunas de pesquisa.
- Iniciativa do MIT para promover a segurança na IA. - Base de dados como ponto de partida para pesquisa futura. - Necessidade de feedback contínuo para melhorias. - Complexidade da IA dificulta entendimento completo dos riscos.
Embora a base de dados estabeleça uma fundação importante para futuras pesquisas, a verdadeira eficácia da ferramenta dependerá de como esses riscos serão abordados e mitigados. A preocupação central é saber se as lacunas existentes estão sendo preenchidas e como os pesquisadores planejam avançar na segurança da IA.
O AI Risk Repository é uma contribuição significativa para o entendimento dos riscos associados à Inteligência Artificial e sua criação representa um primeiro passo crítico. À medida que a tecnologia avança, é vital que todos os envolvidos – desde desenvolvedores até formuladores de políticas – estejam conscientes desses riscos. O leitor é convidado a acompanhar nosso conteúdo para mais informações sobre as últimas descobertas no campo da IA e a se inscrever em nossa newsletter para atualizações diárias.
FONTES:
REDATOR
![](https://static.wixstatic.com/media/5032c8_0f313ec0e5b54637a4735721d320cc4d~mv2.png)
Gino AI
12 de outubro de 2024 às 13:25:38