top of page

Gino News

quinta-feira, 12 de setembro de 2024

OpenAI Lança Modelos o1 com Avaliação de Segurança Rigorosa

Tecnologia Inteligência Artificial Segurança

A OpenAI anunciou a liberação dos modelos o1-preview e o1-mini, após uma avaliação de segurança abrangente que incluiu testes externos e análises de risco. O relatório destaca os esforços para mitigar riscos e melhorar a segurança dos modelos, que foram aprovados para lançamento após receberem uma classificação geral de risco 'médio'.

Create an illustration of an artificial intelligence interface embodying the OpenAI o1 models. This 2D, linear perspective image should depict elements of security like padlocks and shields, symbolic of the rigorous evaluation these models underwent. The locks represent the implemented security measures and the shields signify protection against risks and threats. Integrate graphical representations expressing risk ratings. Scatter some icons suggestive of external and internal tests administered. Make the style of the image flat, corporate vector art and set it against a white, seamless background.

Imagem gerada utilizando Dall-E 3

A OpenAI divulgou um relatório detalhado sobre o trabalho de segurança realizado antes do lançamento dos modelos o1-preview e o1-mini. A avaliação incluiu testes externos ('red teaming') e análises de risco conforme o 'Preparedness Framework'. Os principais pontos de avaliação foram conteúdo proibido, regurgitação de dados de treinamento, alucinações e viés.


  1. Conteúdo proibido

  2. Regurgitação de dados de treinamento

  3. Alucinações

  4. Viés


O OpenAI o1 recebeu uma classificação geral de risco 'médio', com níveis de risco 'baixo' em cibersegurança e autonomia do modelo, e 'médio' em CBRN (químico, biológico, radiológico e nuclear) e persuasão. Apenas modelos com pontuações de risco 'médio' ou abaixo podem ser implantados, enquanto aqueles com pontuação 'alta' ou abaixo podem continuar a ser desenvolvidos.


- CBRN: Médio - Autonomia do Modelo: Baixo - Cibersegurança: Baixo - Persuasão: Médio


O relatório também menciona que os novos modelos foram treinados com aprendizado por reforço em larga escala para melhorar o raciocínio, o que ajuda na aplicação das políticas de segurança em contextos específicos. O OpenAI enfatiza a necessidade de métodos robustos de alinhamento e gerenciamento de riscos para lidar com os desafios apresentados por modelos mais inteligentes.


A liberação dos modelos o1-preview e o1-mini marca um avanço significativo na segurança e robustez dos modelos da OpenAI. Com avaliações rigorosas e salvaguardas implementadas, a empresa está comprometida em continuar aprimorando seus métodos de alinhamento e gerenciamento de riscos. O impacto e a eficácia dessas medidas serão monitorados de perto, com possíveis ajustes futuros para garantir a segurança contínua dos usuários.


 
FONTES:
  1. OpenAI

  2. System Card

  3. Preparedness Framework

REDATOR

Gino AI

27 de setembro de 2024 às 20:18:26

PUBLICAÇÕES RELACIONADAS

Imagine a 2D, linear perspective image illustrating the futuristic Quantum Language Hybrid Model (QLLM) announced by an imaginary technology company, Secqai, on February 10, 2025. The company, known for its ultra-secure hardware and software, aims to integrate quantum computing into traditional language models, enhancing computational efficiency and problem-solving capabilities. The illustration's main focus is the new user interface for the QLLM model, accompanied by performance charts showcasing the model's efficiency. The quantum codes, representative of the quantum mechanics and AI integration, are also present. Aesthetically, the image adopts a corporate, flat vector style on a white, texture-free background with vibrant colors symbolizing innovation and technology.

Secqai Lança o Primeiro Modelo de Linguagem Quântico do Mundo

Imagine an image depicting February 10, 2025, symbolizing Google Cloud's Cross-Cloud Network solution improving Artificial Intelligence (AI) workload implementation. This image is in 2D, linear perspective. In this vector representation, set against a white, texture-less background, visualize a Google datacenter with servers symbolizing Google Cloud's infrastructure. These servers are connected in a network, demonstrating the Cross-Cloud Network. Elements representative of AI, such as data charts symbolize data analysis and processing, flow between clouds, which represent the cloud connectivity between different platforms. All this is done using a flat, corporate style.

Otimização de Redes para Workloads de IA no Google Cloud

Create a 2D vector image in a flat and corporate style on a white, texture-less background. The image should prominently display a graph that illustrates a decrease in critical thinking as the usage of generative AI in the workplace increases, specifically shown through contrasting scales. Relevant to the data, include sober colors instilling a sense of caution about the situation. Additionally, design assorted icons that symbolize cognitive abilities, representative of those abilities at risk due to over-reliance on AI technology.

A Dependência da Inteligência Artificial e o Risco ao Pensamento Crítico

The image depicts the launch of ROOST, a dedicated organization for developing robust open online safety tools, and their partnership with Hugging Face on the 10th of February, 2025. The digital illustration, in a flat, corporate, vectorial style, shows a diverse team of developers; including a Caucasian male developer, an Hispanic female developer, a Black non-binary individual and a South Asian female, collaborating in a technology-centered environment. They are surrounded by icons of security and innovation, symbolizing ROOST's initiative. Elements such as computers, screens, and data graphics represent digital collaboration and security analysis in AI systems. The white, texture-less background is filled with data, representing an AI and open tools environment.

ROOST: A Revolução nas Ferramentas de Segurança Abertas para Tecnologias

Fique por dentro das últimas novidades em IA

Obtenha diariamente um resumo com as últimas notícias, avanços e pesquisas relacionadas a inteligência artificial e tecnologia.

Obrigado pelo envio!

logo genai

GenAi Br © 2024

  • LinkedIn
bottom of page