Mundo

O OpenAI lança o Rachoining LLM que você pode baixar e ajustar

Uma mulher negra se senta em seu computador em sua mesa em sua casa enquanto faz anotações

Os modelos de IA de ‘peso aberto’ permitem que os pesquisadores realizem treinamento personalizado ou estudem como as informações são representadas dentro de suas redes neurais. Crédito: Getty

A Openai lançou um grande modelo de idioma (LLM) que faz jus ao nome da empresa. Conhecido como GPT-OSS, é a primeira inteligência artificial de ‘raciocínio’ (AI) da empresa que é de peso aberto, o que significa que os pesquisadores poderão baixá-lo e personalizá-lo.

A empresa, com sede em São Francisco, Califórnia, detalhou o sistema em uma postagem no blog e uma descrição técnica em 5 de agosto. Em algumas tarefas, o GPT-OSS tem um desempenho quase tão bom quanto os modelos mais avançados da empresa. O LLM está disponível em dois tamanhos, os quais podem ser executados localmente e offline – o menor deles em um único laptop – em vez de exigir computação em nuvem ou uma interface online. Isso significa que eles podem ser usados para analisar – ou treinar ainda mais em dados sensíveis que não podem ser transferidos para fora de uma determinada rede.

“Estou muito empolgado”, diz Simon Frieder, matemático e cientista da computação da Universidade de Oxford, Reino Unido. “A concorrência entre modelos de idiomas grandes de código aberto já é forte, e isso tornará a concorrência ainda mais feroz, o que beneficia toda a comunidade de pesquisa”.

O lançamento do GPT-OSS chega em um momento em que os poderosos modelos de peso aberto de empresas chinesas, como a AI de Deepseek, com sede em Hangzhou, e a lua de Pequim, estão ganhando força entre os pesquisadores. Os modelos abertos chineses já têm melhor desempenho do que os desenvolvidos pelos EUA, como o LLAMA (da Meta, com sede em Menlo Park, Califórnia) e também estão prontos para ultrapassá-los em termos de número de downloads, de acordo com uma análise de Nathan Lambert, um pesquisador de aprendizado de máquina no Instituto Allen para a IA In Seattle, Washington, que foi realizado antes da GPT-Asss.

No mês passado, a administração do presidente dos EUA, Donald Trump, destacou os modelos de IA de peso aberto como “essenciais para a pesquisa acadêmica” em seu plano de ação da IA. A decisão do OpenAi de lançar um modelo aberto está em andamento e não é uma resposta ao sucesso dos modelos chineses, disse Greg Brockman, um dos fundadores da empresa, que conversou com jornalistas antes do lançamento do GPT-ROSS. “Nunca foi algo que não queríamos fazer”, acrescentou.

Todos os modelos vêm com vieses, portanto, a diversidade entre seus criadores beneficia os usuários, diz Frieder. “Ter um novo modelo de melhor desempenho de uma empresa ocidental é um passo na direção de nivelar o campo de jogo em termos de quais empresas dominam o espaço do modelo de peso aberto”, diz ele.

Maths Whiz

Até agora, o Openai publicou amplamente modelos proprietários, a exceção sendo GPT-2, um LLM de 2019 lançado pela empresa três anos antes de lançar seu popular ChatGpt Chatbot.

Os mais recentes modelos abertos são os ‘Racianos’ treinados para produzir saída usando um processo passo a passo que imita o pensamento. Modelos de raciocínio anteriores, como o OpenAI da O3, demonstraram se destacar em problemas de ciência e matemática. Além de usá-los para escrever código de computador e revisar a literatura acadêmica, os cientistas estão experimentando o uso do LLMS como ‘co-cientistas’ da IA na esperança de acelerar a pesquisa.

No desempenho, os modelos abertos do OpenAI parecem estar próximos dos AIs de pagamento mais avançado e de acesso da empresa-as principais diferenças são os tamanhos menores dos modelos abertos e serem somente de texto (eles não lidam com imagens ou vídeos). O GPT-OSS pode navegar na Web, executar código e operar software, e supera modelos abertos de tamanho semelhante em tarefas de raciocínio, diz a empresa.

Na referência do Aime 2025, que encarrega a AIS de resolver problemas desafiadores de matemática, os modelos GPT-ROSS pontuam melhor do que os melhores modelos abertos existentes, como o R1 de Deepseek, e um dos dois está em pé de igualdade com o concorrente aberto no último exame da Humanity, um teste de 3.000 pessoas que abrange o conhecimento de um intervalo de um intervalo de um intervalo de um intervalo de um intervalo.

(Quase) verdadeiramente aberto

Fonte

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo