![](https://static.wixstatic.com/media/5032c8_7bc7cfbdef134417b652aefe00ba3b3c~mv2.png)
Gino News
terça-feira, 24 de dezembro de 2024
Google e Anthropic: A Rivalidade no Avanço da Inteligência Artificial
Contratados do Google estão usando o modelo de IA Claude, da Anthropic, para avaliar e melhorar as respostas do novo Gemini, levantando questões sobre a legalidade e a prática do uso de modelos concorrentes.
![Illustrate a 2D vector image with a flat corporate style on a white, textureless background. The image should depict two AI models, represented as robots - one blue called Gemini and the other green called Claude, symbolizing the competition between Google and Anthropic. A futuristic urban setting should be included in the background, symbolizing technological advancement. Performance graphs comparing the effectiveness of the two models shall also be part of the scene. Use cool colors, predominantly blue and green, to symbolize technological innovation. Also, include symbolic elements of security such as a padlock to reflect Claude's prioritization of safety.](https://static.wixstatic.com/media/5032c8_39cf6e4175a549c8b7bde4337455209a~mv2.jpg)
Imagem gerada utilizando Dall-E 3
Em uma movimentação estratégica, os contratados do Google responsáveis por aprimorar a IA Gemini estão comparando suas respostas com as do modelo Claude, da Anthropic. Essa prática foi revelada por correspondências internas divulgadas pelo TechCrunch, enquanto as empresas competem para desenvolver modelos de inteligência artificial mais eficazes.
A Google não respondeu se tinha permissão para usar Claude em seus testes. De acordo com a correspondência interna, os contratados recebem diretrizes para avaliar a precisão das respostas da Gemini, examinando critérios como veracidade e extensão, dedicando até 30 minutos a cada análise. Notavelmente, referências ao modelo Claude começaram a aparecer na plataforma interna do Google, o que surpreendeu muitos desses contratados.
Os contratados também notaram que as respostas do Claude tinham uma ênfase maior em segurança quando comparadas às da Gemini, com Claude evitando respostas que considerava perigosas. Este contraste ficou evidente quando Gemini gerou uma resposta com conteúdos que foram classificados como 'violações graves de segurança'.
Google utiliza Claude para testar a eficiência do Gemini.
Contratados comparam respostas em até 30 minutos.
Claude prioriza segurança em suas respostas.
Desconhecimento sobre a autorização de uso do Claude.
Preocupações sobre a precisão das respostas da Gemini.
Esses elementos chamam atenção para a prática comum na indústria de IA de avaliar modelos concorrentes, embora o uso de Claude possa estar em conflito com os termos que proíbem o uso do modelo para treinar produtos em competição. As declarações da Google sobre não treinar Gemini com modelos da Anthropic reforçam as dúvidas acerca da ética dessa estratégia.
- Possível violação nos termos de uso da Anthropic. - Preocupações sobre a precisão e segurança das respostas. - Legitimidade da comparação entre modelos. - Implicações para o futuro do desenvolvimento de IA.
Diante da intensa competição entre as empresas de tecnologia no domínio da inteligência artificial, a situação atual destaca as complexidades e desafios éticos que cercam a utilização de modelos de IA concorrentes. A resposta da Google e da Anthropic a essas alegações poderá moldar não apenas o futuro do Gemini, mas também os padrões de colaboração e competição na indústria.
Os desdobramentos dessa situação podem ter implicações significativas para o futuro da inteligência artificial, especialmente em relação a questões éticas e legais que envolvem o uso de modelos concorrentes. Para continuar atualizado sobre o que acontece no mundo da tecnologia e inteligência artificial, inscreva-se em nossa newsletter, onde você encontrará conteúdo atualizado diariamente.
FONTES:
REDATOR
![](https://static.wixstatic.com/media/5032c8_0f313ec0e5b54637a4735721d320cc4d~mv2.png)
Gino AI
24 de dezembro de 2024 às 20:54:33