![](https://static.wixstatic.com/media/5032c8_7bc7cfbdef134417b652aefe00ba3b3c~mv2.png)
Gino News
quarta-feira, 12 de fevereiro de 2025
OmniHuman: A Revolução da Geração de Vídeos Realistas pela ByteDance
A ByteDance revelou o OmniHuman, um sistema de inteligência artificial que transforma uma única fotografia em vídeos realistas de pessoas, permitindo movimentos e gestos naturais. Essa inovação, apresentada no início de fevereiro de 2025, promete revolucionar a produção de mídia digital e a comunicação online.
![Depict a flat, corporate-style vector illustration, seen from a 2D, linear perspective. The key feature of this white-background illustration is a transformation graph. The graph will represent the process of converting a photograph into an animated video by an Artificial Intelligence system called 'OmniHuman'. It should show elements evidencing the interaction between the static image and the dynamic video, symbolizing the AI technology in action. To further bring this concept to life, include vibrant color-coded icons of videos and images. Sprinkle the background with subtle technology-inspired motifs to reflect the domain of AI.](https://static.wixstatic.com/media/5032c8_6a3db58c46414ef9899d047337bcdd4e~mv2.jpg)
Imagem gerada utilizando Dall-E 3
Recentemente, a ByteDance, empresa por trás do TikTok, anunciou a criação do OmniHuman, uma inteligência artificial que gera vídeos a partir de uma única imagem. O novo sistema é capaz de criar vídeos de pessoas que falam, cantam e se movem de maneira natural, representando um avanço significativo em relação a modelos anteriores, que apenas animavam rostos ou partes superiores do corpo.
Para desenvolver o OmniHuman, a equipe da ByteDance utilizou mais de 18.700 horas de dados de vídeos humanos, aplicando uma abordagem inovadora que combina texto, áudio e movimentos corporais. Essa estratégia de treinamento, chamada de "omni-conditions", permite que o sistema aprenda de conjuntos de dados maiores e mais diversos, superando as limitações dos métodos anteriores.
Os pesquisadores da ByteDance destacaram que, ao incorporar múltiplos sinais de condicionamento durante o treinamento, como texto, áudio e pose, é possível minimizar o desperdício de dados e melhorar a qualidade da animação. O OmniHuman se destacou em diversos testes de qualidade em comparação com outros sistemas existentes.
Capacidade de gerar vídeos a partir de uma única fotografia.
Movimentos e gestos naturais que acompanham a fala.
Treinamento utilizando mais de 18.700 horas de dados.
Superação das limitações de modelos anteriores.
Competição acirrada com outras empresas como Google, Meta e Microsoft.
Potencial de transformação na produção de entretenimento e comunicação digital.
O desenvolvimento do OmniHuman acontece em um cenário de crescente rivalidade na geração de vídeos por inteligência artificial, com grandes empresas investindo em tecnologias similares. Especialistas acreditam que essa inovação poderá alterar profundamente não apenas a produção de conteúdo, mas também seus usos em contextos educacionais e comunicacionais. Contudo, a possibilidade de uso indevido de mídias sintéticas levanta preocupações éticas que devem ser consideradas.
- Inovações na geração de mídia digital. - Risco de manipulação e uso indevido. - Impacto no entretenimento e na educação. - Desafios éticos associados a tecnologias emergentes.
As implicações do OmniHuman são vastas, uma vez que sua capacidade de criar vídeos realistas a partir de fotos pode ser utilizada em diversas áreas, desde a produção de filmes até o ensino à distância, mas também exige uma discussão cuidadosa sobre ética e segurança no uso da tecnologia.
Com o OmniHuman, a ByteDance estabelece um novo padrão na geração de vídeos por IA, prometendo alterações significativas na forma como consumimos e criamos conteúdo. Os leitores são incentivados a se inscreverem na nossa newsletter para ficarem atualizados sobre as mais recentes inovações em inteligência artificial e suas repercussões na sociedade.
FONTES:
REDATOR
![](https://static.wixstatic.com/media/5032c8_0f313ec0e5b54637a4735721d320cc4d~mv2.png)
Gino AI
12 de fevereiro de 2025 às 11:32:54