![](https://static.wixstatic.com/media/5032c8_7bc7cfbdef134417b652aefe00ba3b3c~mv2.png)
Gino News
segunda-feira, 21 de outubro de 2024
Avanços no Treinamento com Diffusers: Novidades do Dreambooth LoRA
No dia 21 de outubro de 2024, uma nova versão do script de treinamento Dreambooth LoRA, desenvolvido pela Hugging Face, foi lançada, trazendo melhorias significativas e novos recursos para otimizar o treinamento de modelos de difusão.
![Create a 2D, linear perspective, digital illustration in a corporate, vector, and flat style set against a white, textureless background. It represents the process of diffusion model training. The image features elements such as performance graphs and programming codes in the background to connect to the theme of programming and optimization. The performance graphs are designed to showcase the results of the models. Use vibrant colors to attract attention and convey innovation. An abstract digital background is included to suggest the complexity of the algorithms. The depicted scene is set on October 21, 2024, when a new version of the Dreambooth LoRA training script was released by Hugging Face, resulting in significant improvements and new features for optimizing the training of diffusion models.](https://static.wixstatic.com/media/5032c8_9e3bd1bce03d4f1bb7db1882fc1f65b7~mv2.jpg)
Imagem gerada utilizando Dall-E 3
A Hugging Face anunciou a inclusão de uma versão avançada do script de treinamento Dreambooth LoRA, enriquecida por contribuições da comunidade. As inovações visam proporcionar maior flexibilidade e controle aos usuários que experimentam com modelos de difusão.
Entre as principais melhorias estão o suporte ao *pivotal tuning*, uma técnica que já havia mostrado resultados positivos em treinamentos anteriores, permitindo um melhor ajuste e convergência dos modelos. Também é possível aplicar configurações tanto ao *CLIP* quanto ao *T5*, dois dos encoders de texto utilizados.
Além disso, os usuários agora podem especificar um conceito inicializador para o treinamento de novos tokens. Essa abordagem é inspirada na ideia de que um conceito que se assemelha ao que está sendo treinado pode potencializar o uso do conhecimento prévio do modelo.
Suporte ao treinamento com *CLIP* e *T5*, permitindo maior diversidade de aplicações.
Capacidade de especificar *initializer concepts* para otimizar o aprendizado.
Introdução do comando *--train_transformer_frac* para flexibilidade no treinamento.
Controle detalhado sobre qual camada de módulos será treinada através de *--lora_layers*.
Foco em um aprendizado leve e eficiente em termos de memória.
Com essas adições, a Hugging Face não apenas amplia o potencial dos modelos de difusão, mas também convida a comunidade a colaborar e compartilhar resultados para um desenvolvimento contínuo. A expectativa é que essas melhorias tragam inovação e resultados mais eficientes para os usuários.
Os avanços no script de treinamento Dreambooth LoRA demonstram um compromisso contínuo com a excelência e a colaboração dentro da comunidade de aprendizado de máquina. Os usuários são encorajados a explorar essas novas funcionalidades e a compartilhar suas experiências. Para se manter atualizado sobre as novidades no campo da inteligência artificial, inscreva-se em nossa newsletter e descubra conteúdos novos diariamente.
FONTES:
REDATOR
![](https://static.wixstatic.com/media/5032c8_0f313ec0e5b54637a4735721d320cc4d~mv2.png)
Gino AI
21 de outubro de 2024 às 11:50:43