top of page

Gino News

terça-feira, 11 de fevereiro de 2025

Digma Lança Motor de Análise de Observabilidade Preventiva para Simplificar o Código e Aumentar a Confiabilidade da IA

Tecnologia Inteligência Artificial Inovação

A Digma, empresa especializada em produtos de observabilidade pré-produção, anunciou o lançamento de seu motor de análise de observabilidade preventiva (POA), que promete identificar e sugerir correções para problemas de código, ajudando as organizações a lidarem com a crescente complexidade dos sistemas e a reduzir bugs em código gerado por Inteligência Artificial.

Create a 2D, vector-style, corporate image with a flat white, texture-free background. In the foreground, illustrate a Middle-Eastern developer analyzing data on a computer, representing technological advancement and software development. The computer screen visibly displays various charts and statistics, symbolizing data analysis and the use of Artificial Intelligence. Surround the character with a modern office environment, which implies an atmosphere of innovative exploration. Keep lines linear for simplicity.

Imagem gerada utilizando Dall-E 3

O novo motor da Digma visa utilizar análises proativas para detectar e solucionar problemas antes que eles impactem a produção. Em um contexto onde geradores de código baseados em IA estão se tornando comuns, a empresa destaca que as falhas introduzidas por esses assistentes têm se tornado uma preocupação crescente para desenvolvedores e empresas.


Uma pesquisa da Universidade de Stanford de 2023 mostrou que desenvolvedores que utilizam assistentes de codificação pela IA tendem a introduzir mais falhas no código. Apesar disso, empresas como o Google têm intensificado o uso de código gerado por IA, com mais de 25% de seu novo código sendo criado dessa forma. Diante disso, Nir Shafrir, CEO da Digma, ressalta que o investimento em garantias de performance é crucial, especialmente considerando que as equipes de engenharia podem gastar de 20% a 50% do seu tempo lidando com problemas descobertos tardiamente.


O motor de análise de observabilidade preventiva se destaca por suas capacidades de identificar problemas de desempenho e escalabilidade de forma antecipada. Essa abordagem não só aumenta a confiabilidade do código humano, mas também permite reduzir custos em ambientes de nuvem ao evitar problemas significativos antes que eles surjam.


  1. Lança o motor de análise de observabilidade preventiva (POA) para melhorar a confiabilidade do código.

  2. Destaca a relevância do monitoramento proativo na era dos assistentes de IA.

  3. Apresenta dados sobre o tempo perdido por equipes devido a falhas em produção.

  4. Enfatiza a economia de custos ao prevenir problemas na nuvem.

  5. Recebeu financiamento inicial de $6 milhões, refletindo crescentes confianças na tecnologia.


Além de direcionar a atenção para as falhas comuns típicas do código humano, a abordagem de Digma promete otimizar as operações para setores de alta transação, como varejo e fintechs. Ao usar técnicas de correspondência de padrões e detecção de anomalias, o software analisa dados para prever respostas e consumo de recursos.


- Adoção crescente de IA no desenvolvimento de código. - Importância da análise proativa na produção. - Crescimento do financiamento para inovações em tecnologia. - Desafios contínuos na escalabilidade dos sistemas.


Com sua nova tecnologia, a Digma busca não apenas mitigar falhas em código gerado por IA, mas também aperfeiçoar a confiança em implementações de software humano, oferecendo assim uma abordagem mais robusta e confiável para as empresas face à complexidade crescente de seus sistemas.


O lançamento do motor de análise de observabilidade preventiva da Digma representa um avanço significativo na forma como as empresas lidam com a complexidade do código moderno. À medida que a dependência da Inteligência Artificial cresce, tecnologias como essa se tornam cruciais para garantir a performance e a confiabilidade. Para acompanhar mais novidades sobre tecnologia, assine nossa newsletter e fique por dentro das atualizações diárias.


 
FONTES:

    1. Stanford University Study

    2. Google Blog

    REDATOR

    Gino AI

    11 de fevereiro de 2025 às 11:19:06

    PUBLICAÇÕES RELACIONADAS

    An image visualizing a politician echoing the policies of AI during the AI Action Summit in Paris, on February 11, 2025, emphasizing innovation and protection of American workers. The scene is set in a corporate, vector and flat style, with a 2D linear perspective, against a white, textureless backdrop. The politician is seen highlighting the importance of AI, with an attentive audience and surrounded by flags of numerous nations symbolizing international collaboration. Additional elements include a microphone that represents the speech platform, and an eager global audience showcasing their interest in the event.

    Vice-presidente dos EUA destaca oportunidades da IA em discurso em Paris

    Imagine an image depicting February 10, 2025, symbolizing Google Cloud's Cross-Cloud Network solution improving Artificial Intelligence (AI) workload implementation. This image is in 2D, linear perspective. In this vector representation, set against a white, texture-less background, visualize a Google datacenter with servers symbolizing Google Cloud's infrastructure. These servers are connected in a network, demonstrating the Cross-Cloud Network. Elements representative of AI, such as data charts symbolize data analysis and processing, flow between clouds, which represent the cloud connectivity between different platforms. All this is done using a flat, corporate style.

    Otimização de Redes para Workloads de IA no Google Cloud

    Create a 2D vector image in a flat and corporate style on a white, texture-less background. The image should prominently display a graph that illustrates a decrease in critical thinking as the usage of generative AI in the workplace increases, specifically shown through contrasting scales. Relevant to the data, include sober colors instilling a sense of caution about the situation. Additionally, design assorted icons that symbolize cognitive abilities, representative of those abilities at risk due to over-reliance on AI technology.

    A Dependência da Inteligência Artificial e o Risco ao Pensamento Crítico

    The image depicts the launch of ROOST, a dedicated organization for developing robust open online safety tools, and their partnership with Hugging Face on the 10th of February, 2025. The digital illustration, in a flat, corporate, vectorial style, shows a diverse team of developers; including a Caucasian male developer, an Hispanic female developer, a Black non-binary individual and a South Asian female, collaborating in a technology-centered environment. They are surrounded by icons of security and innovation, symbolizing ROOST's initiative. Elements such as computers, screens, and data graphics represent digital collaboration and security analysis in AI systems. The white, texture-less background is filled with data, representing an AI and open tools environment.

    ROOST: A Revolução nas Ferramentas de Segurança Abertas para Tecnologias

    Fique por dentro das últimas novidades em IA

    Obtenha diariamente um resumo com as últimas notícias, avanços e pesquisas relacionadas a inteligência artificial e tecnologia.

    Obrigado pelo envio!

    logo genai

    GenAi Br © 2024

    • LinkedIn
    bottom of page