![](https://static.wixstatic.com/media/5032c8_7bc7cfbdef134417b652aefe00ba3b3c~mv2.png)
Gino News
quarta-feira, 12 de fevereiro de 2025
Nova tecnologia da Anthropic bloqueia 95% de jailbreaks em IA
A Anthropic, rival da OpenAI, anunciou um novo sistema de segurança chamado 'constitutional classifiers' que promete bloquear 95% das tentativas de jailbreak no modelo Claude 3.5 Sonnet, desafiando a comunidade de red teamers a testar sua eficácia até o dia 10 de fevereiro.
![Visualize a flat, corporate-style vector illustration in a 2D linear perspective. At the center of the scene, an artificial intelligence (AI) model embodies practical application of technology in defense, represented by a protective shield fending off malicious cyber-attack symbols. The AI model should exude resilience and readiness. The background is white and textureless, adorned with circuit patterns and digital elements, symbolic of AI technology and innovation. Please ensure that all graphic elements, particularly the protective shield and circuit patterns, are accurate and meticulously developed.](https://static.wixstatic.com/media/5032c8_528380dd2d48493c920fd4585e0ff3ae~mv2.jpg)
Imagem gerada utilizando Dall-E 3
Desde o lançamento do ChatGPT, diversos modelos de linguagem têm enfrentado vulnerabilidades a jailbreaks, que permitem contornar suas proteções e gerar conteúdos prejudiciais. Muitas empresas estão em busca de soluções eficazes para defender seus sistemas contra tais ataques, embora a total segurança ainda pareça inatingível.
O novo método da Anthropic, chamado 'constitutional classifiers', visa filtrar a maioria das tentativas de jailbreak, minimizando também os casos em que prompts inocentes são indevidamente rejeitados. Essa abordagem não exige grandes recursos computacionais e foi baseada em pesquisas extensivas com 10.000 prompts de jailbreak, que ajudaram a treinar os classificadores.
Os resultados iniciais foram promissores, com uma taxa de sucesso de apenas 4,4% em tentativas de jailbreak quando comparado a 86% no modelo desprotegido. Para validar a eficácia, a equipe da Anthropic também lançou um programa de recompensas para incentivar red teamers a quebrar suas defesas.
O modelo Claude 3.5 demonstrou uma taxa de recusa de 95% em tentativas de jailbreak.
A equipe da Anthropic gerou 10.000 prompts de jailbreak para treinamento.
Um programa de recompensas foi introduzido para red teamers, com um total de $15,000 em prêmios.
As técnicas de jailbreak mais comuns incluem parafraseamento benigno e exploração de comprimento.
Nenhum jailbreak universal foi descoberto durante o teste com participantes.
As tentativas de jailbreak focaram em estratégias variadas, como a parafraseação para camuflar perguntas prejudiciais. Isso indica que os atacantes estão buscando falhas nas definições de avaliação dos modelos, mais do que nas salvaguardas propriamente ditas. Apesar de a técnica de 'constitutional classifiers' não garantir proteção total, os pesquisadores acreditam que torna os ataques muito mais difíceis.
As inovações da Anthropic marcam um passo significativo na segurança de modelos de linguagem, destacando a importância da defesa em IA contra práticas maliciosas. É essencial acompanhar a evolução dessa tecnologia, pois o futuro da segurança em inteligência artificial dependerá de inovações contínuas e da colaboração entre desenvolvedores e especialistas em segurança. Para se manter atualizado sobre essas tendências, assine nossa newsletter e não perca os novos conteúdos que trazemos diariamente.
FONTES:
REDATOR
![](https://static.wixstatic.com/media/5032c8_0f313ec0e5b54637a4735721d320cc4d~mv2.png)
Gino AI
12 de fevereiro de 2025 às 11:33:25
PUBLICAÇÕES RELACIONADAS