![](https://static.wixstatic.com/media/5032c8_7bc7cfbdef134417b652aefe00ba3b3c~mv2.png/v1/fill/w_81,h_81,al_c,q_85,usm_0.66_1.00_0.01,enc_avif,quality_auto/5032c8_7bc7cfbdef134417b652aefe00ba3b3c~mv2.png)
Gino News
quarta-feira, 25 de setembro de 2024
Llama 3.2: Revolucionando a IA de borda e visão com modelos abertos e personalizáveis
A Meta lançou o Llama 3.2, uma nova versão de seus modelos de linguagem e visão, que inclui modelos leves para dispositivos móveis e de borda. Com suporte para processadores Qualcomm e MediaTek, os novos modelos oferecem capacidades avançadas de entendimento de imagens e texto, mantendo a privacidade dos dados.
![The scene portrays the launch of a new version of artificial intelligence language and vision models, designed with lightweight features for mobile and edge devices. In the center, the logo of a well-known tech company is shown, surrounded by diverse vector icons depicting mobile and edge devices symbolizing the model's compatibility. Accompany this with flat digital graphics and images symbolizing the model's image understanding capabilities. In the background, there are icons of popular processor manufacturing companies, Qualcomm and MediaTek, all in a blue and white color palette, expressing the theme of technology and innovation. The entire image is presented on a clean, texture-less white background with a 2D linear perspective.](https://static.wixstatic.com/media/5032c8_880993edde1844778420b337dfb877da~mv2.png)
Imagem gerada utilizando Dall-E 3
A Meta anunciou a chegada do Llama 3.2, que traz modelos de linguagem de visão em tamanhos pequenos e médios (11B e 90B) e modelos leves apenas de texto (1B e 3B) que podem ser executados em dispositivos móveis e de borda. Esses modelos, que são pré-treinados e ajustados para instruções, suportam um comprimento de contexto de até 128 mil tokens e são otimizados para processadores Arm.
Modelos de visão LLMs de 11B e 90B.
Modelos leves de texto de 1B e 3B.
Suporte para Qualcomm e MediaTek.
Distribuição via Llama Stack e ExecuTorch.
Disponível para download no site da Llama e Hugging Face.
Os modelos de visão Llama 3.2 são substituições diretas para seus equivalentes textuais e superam modelos fechados em tarefas de entendimento de imagem. Eles podem ser ajustados para aplicações personalizadas e implantados localmente. Além disso, a Meta lançou o Llama Stack para simplificar o trabalho dos desenvolvedores com esses modelos em diferentes ambientes.
- Parceria com AWS, Databricks, Dell Technologies, Fireworks, Infosys, e Together AI. - Distribuição em dispositivos via PyTorch ExecuTorch e em nó único via Ollama. - Modelos de visão 11B e 90B para entendimento de documentos, legendagem de imagens e tarefas de ancoragem visual. - Modelos leves 1B e 3B para geração de texto multilíngue e chamadas de ferramentas.
A Meta acredita que a abertura impulsiona a inovação e é benéfica para desenvolvedores e para o mundo. Com o lançamento do Llama 3.2, a empresa espera alcançar mais pessoas e permitir novos casos de uso emocionantes. Os modelos estão disponíveis para download e desenvolvimento imediato em diversas plataformas de parceiros.
O lançamento do Llama 3.2 representa um avanço significativo na IA de borda e visão, oferecendo modelos poderosos e personalizáveis que podem ser executados localmente em dispositivos móveis. A Meta continua a promover a inovação aberta, colaborando com parceiros e a comunidade de desenvolvedores para explorar novas possibilidades e aplicações desses modelos.
FONTES:
REDATOR
![](https://static.wixstatic.com/media/5032c8_e66e56f34bf54dc7b94651b02da23d40~mv2.png/v1/fill/w_108,h_108,al_c,q_85,usm_0.66_1.00_0.01,enc_avif,quality_auto/5032c8_e66e56f34bf54dc7b94651b02da23d40~mv2.png)
Gino AI
27 de setembro de 2024 às 20:18:26