top of page

Gino News

quinta-feira, 3 de outubro de 2024

Por que os novos chatbots de IA se tornaram menos confiáveis?

Tecnologia Inteligência Artificial Inovação

Um novo estudo revela que, apesar dos avanços nas tecnologias de chatbots impulsionados por Large Language Models (LLMs), como o ChatGPT, esses sistemas tornaram-se mais ineficazes em realizar tarefas simples, levantando preocupações sobre sua confiabilidade.

Create a 2D, linear perspective, corporate flat vector-style image on a white, texture-less background. The image illustrates the disintegration of confidence in AI chatbot responses. A robot's face, symbolic of Large Language Models (LLMs) like ChatGPT as conversational entities, is melting into a speech bubble, symbolizing communication with the user. It appears as though fragments of the robot's face are disintegrating, representing the loss of reliability. The background is abstract, hinting at a digital and technological environment.

Imagem gerada utilizando Dall-E 3

Pesquisas indicam que, apesar da crescente popularidade de chatbots como o ChatGPT, a confiabilidade desses modelos de linguagem é frequentemente questionada. Um estudo recente publicado na revista Nature constatou que, ao escalar os LLMs, a expectativa de melhora em sua performance não se concretizou. Em vez disso, os novos modelos têm demonstrado uma tendência a cometer mais erros em tarefas que anteriormente eram simples.


Os LLMs são considerados versões avançadas do recurso de autocompletar de smartphones, mas, mesmo com um aumento na quantidade de dados e parâmetros, eles não mostram uma melhoria consistente em sua precisão. Enquanto o ChatGPT, por exemplo, tem sido capaz de passar em exames de direito e negócios, suas capacidades em tarefas simples de programação variam drasticamente, com taxas de sucesso que vão de 0,66% a 89%, dependendo da complexidade da tarefa.


Os pesquisadores analisaram diferentes famílias de LLMs e descobriram que, embora os modelos mais recentes tenham melhorado em tarefas de alta complexidade, a precisão em tarefas simples não apresentou progresso, o que pode ser um reflexo do foco dos desenvolvedores em benchmarks mais desafiadores. Ademais, esses modelos tendem a fornecer respostas imprecisas com mais confiança, o que pode enganar os usuários.


  1. Os novos LLMs são mais imprecisos em tarefas simples.

  2. A confiabilidade dos chatbots diminuiu apesar do aumento de escala.

  3. A confiança dos usuários nos modelos é uma preocupação crescente.

  4. Pesquisadores estão buscando soluções para melhorar a percepção e confiança nesses sistemas.

  5. Os LLMs são úteis, mas devem ser usados com cautela em tarefas críticas.


As conclusões do estudo levantam questionamentos sobre a dependência crescente desses sistemas por parte dos usuários. Os pesquisadores destacam que, apesar dos avanços, a previsibilidade dos LLMs não se alinha às expectativas humanas, resultando em um cenário em que os usuários se sentem confortáveis em confiar em informações que podem ser erradas.


Em resumo, a pesquisa destaca as limitações atuais dos LLMs, alertando sobre os riscos de uma confiança excessiva em suas funcionalidades. A necessidade de conscientização sobre suas falhas é fundamental enquanto os desenvolvedores buscam aprimorar a confiabilidade desses sistemas. Leitores interessados em se manter informados sobre novas descobertas e tendências nesse campo emergente são incentivados a se inscrever em nossa newsletter, onde publicamos diariamente conteúdos atualizados.


 
FONTES:

    1. Nature

    2. IEEE Spectrum

    3. Lexin Zhou

    4. University of Cambridge

    5. OpenAI

    REDATOR

    Gino AI

    7 de outubro de 2024 às 12:56:42

    PUBLICAÇÕES RELACIONADAS

    An image visualizing a politician echoing the policies of AI during the AI Action Summit in Paris, on February 11, 2025, emphasizing innovation and protection of American workers. The scene is set in a corporate, vector and flat style, with a 2D linear perspective, against a white, textureless backdrop. The politician is seen highlighting the importance of AI, with an attentive audience and surrounded by flags of numerous nations symbolizing international collaboration. Additional elements include a microphone that represents the speech platform, and an eager global audience showcasing their interest in the event.

    Vice-presidente dos EUA destaca oportunidades da IA em discurso em Paris

    Imagine a 2D, linear perspective image illustrating the futuristic Quantum Language Hybrid Model (QLLM) announced by an imaginary technology company, Secqai, on February 10, 2025. The company, known for its ultra-secure hardware and software, aims to integrate quantum computing into traditional language models, enhancing computational efficiency and problem-solving capabilities. The illustration's main focus is the new user interface for the QLLM model, accompanied by performance charts showcasing the model's efficiency. The quantum codes, representative of the quantum mechanics and AI integration, are also present. Aesthetically, the image adopts a corporate, flat vector style on a white, texture-free background with vibrant colors symbolizing innovation and technology.

    Secqai Lança o Primeiro Modelo de Linguagem Quântico do Mundo

    Create a 2D vector image in a flat and corporate style on a white, texture-less background. The image should prominently display a graph that illustrates a decrease in critical thinking as the usage of generative AI in the workplace increases, specifically shown through contrasting scales. Relevant to the data, include sober colors instilling a sense of caution about the situation. Additionally, design assorted icons that symbolize cognitive abilities, representative of those abilities at risk due to over-reliance on AI technology.

    A Dependência da Inteligência Artificial e o Risco ao Pensamento Crítico

    The image depicts the launch of ROOST, a dedicated organization for developing robust open online safety tools, and their partnership with Hugging Face on the 10th of February, 2025. The digital illustration, in a flat, corporate, vectorial style, shows a diverse team of developers; including a Caucasian male developer, an Hispanic female developer, a Black non-binary individual and a South Asian female, collaborating in a technology-centered environment. They are surrounded by icons of security and innovation, symbolizing ROOST's initiative. Elements such as computers, screens, and data graphics represent digital collaboration and security analysis in AI systems. The white, texture-less background is filled with data, representing an AI and open tools environment.

    ROOST: A Revolução nas Ferramentas de Segurança Abertas para Tecnologias

    Fique por dentro das últimas novidades em IA

    Obtenha diariamente um resumo com as últimas notícias, avanços e pesquisas relacionadas a inteligência artificial e tecnologia.

    Obrigado pelo envio!

    logo genai

    GenAi Br © 2024

    • LinkedIn
    bottom of page