![](https://static.wixstatic.com/media/5032c8_7bc7cfbdef134417b652aefe00ba3b3c~mv2.png)
Gino News
terça-feira, 3 de dezembro de 2024
AWS Lança Ferramenta para Combater Alucinações em IA
A Amazon Web Services (AWS) apresentou uma nova ferramenta, Automated Reasoning checks, durante a conferência re:Invent 2024 para mitigar alucinações em modelos de inteligência artificial, prometendo melhorar a confiabilidade das respostas geradas por suas IAs.
![Create a 2D, linear, vector illustration in a flat, corporate style. The image should be set against a white, textureless background and depict the launch of the Automated Reasoning checks by AWS during the re:Invent 2024 conference, with elements representing reliability and innovation in artificial intelligence technology. Highlight a corporate logo symbolizing AWS, the company behind the innovation. Include AI-themed icons to symbolize the breakthrough in artificial intelligence. Data charts should also be present in the image, to illustrate the verification and validation of the generated information. Use hues of blue and orange throughout the image to represent technology and innovation.](https://static.wixstatic.com/media/5032c8_9f02946cb9b44cc686faaf03493c7050~mv2.jpg)
Imagem gerada utilizando Dall-E 3
Durante a conferência re:Invent 2024 em Las Vegas, a Amazon Web Services (AWS) anunciou o lançamento do Automated Reasoning checks, um novo serviço destinado a combater as alucinações em modelos de IA, que são respostas não confiáveis ou imprecisas geradas por algoritmos. A ferramenta, que valida as respostas de um modelo por meio da verificação de informações fornecidas pelo cliente, é descrita pela AWS como a "primeira" e "única" salvaguarda contra alucinações.
Entretanto, especialistas apontam que o Automated Reasoning checks é bastante similar ao recurso Correction lançado pela Microsoft, que também busca identificar textos gerados por IA que possam ser factualmente errôneos. Além disso, o Google já oferece uma funcionalidade no Vertex AI que permite a validação de dados por meio de fontes externas. Diante disso, a AWS deve demonstrar a eficácia e a confiabilidade de sua nova ferramenta para realmente se destacar no mercado.
O funcionamento do Automated Reasoning checks permite que os clientes façam upload de informações para estabelecer uma "verdade fundamental", e a ferramenta cria regras que podem ser refinadas para avaliar se as respostas geradas pelo modelo estão corretas. Em casos de alucinações, a ferramenta consulta a verdade fundamental para fornecer a resposta correta ao lado da resposta incorreta, oferecendo transparência para o cliente.
Automated Reasoning checks valida respostas de modelos de IA.
A ferramenta é similar a soluções já existentes de Microsoft e Google.
Requer que clientes forneçam dados para estabelecer uma verdade fundamental.
É um esforço para aumentar a confiança em IA generativa.
A AWS também lançou o Model Distillation para transferir capacidades entre modelos.
As inovações da AWS, como o Model Distillation, que permite a transferência de capacidades entre modelos grandes e pequenos, e a nova funcionalidade de colaboração entre múltiplos agentes para atribuir tarefas de IA em projetos, visam facilitar o uso prático da IA em diferentes cenários. Contudo, especialistas sublinham a dificuldade em erradicar completamente as alucinações, comparando essa tarefa à remoção de hidrogênio da água.
Com a introdução do Automated Reasoning checks, a AWS tenta liderar o desenvolvimento de ferramentas que promovem maior confiança em aplicações de IA generativa. Entretanto, o verdadeiro teste será a eficácia dessa ferramenta em ambientes reais, onde as alucinações ainda podem ser um desafio significativo. Fique atento a mais atualizações sobre este tema, inscreva-se em nossa newsletter para conteúdos diários e saiba mais sobre as últimas inovações em inteligência artificial.
FONTES:
REDATOR
![](https://static.wixstatic.com/media/5032c8_0f313ec0e5b54637a4735721d320cc4d~mv2.png)
Gino AI
3 de dezembro de 2024 às 22:41:48