![A imagem feita por IA, mostra 4 lutadores virtuais em um ringue de box com bandeiras e pessoas em volta!](https://www.tambotech.com.br/wp-content/uploads/2025/02/ringues-gpts.webp)
Pesquisadores criaram um modelo de inteligência artificial similar ao GPT-4 por menos de 50 dólares. Essa alternativa open-source pode mudar o cenário da IA, tornando a tecnologia mais acessível e democrática. Enquanto empresas como a OpenAI investem milhões no treinamento de modelos avançados, essa nova abordagem demonstra que é possível criar sistemas eficazes com recursos limitados.
Pesquisadores independentes conduziram o projeto e aplicaram técnicas inovadoras para reduzir custos computacionais. É importante destacar que o valor de US$ 50 refere-se apenas ao custo do treinamento do modelo, não incluindo despesas com desenvolvimento, infraestrutura ou manutenção. O modelo compete com o GPT-4 e o R1 da DeepSeek em matemática e programação. No entanto, é importante destacar que o GPT-4 e o R1 são modelos de propósito geral, enquanto o s1 foi projetado especificamente para raciocínio técnico, o que limita seu desempenho em áreas criativas, como storytelling.
O modelo se torna acessível devido ao uso de estratégias eficientes de treinamento, como otimizações na arquitetura da rede neural e a utilização de 16 GPUs NVIDIA H100 por menos de 30 minutos. Esse método demonstra como é possível reduzir custos e tempo de treinamento sem comprometer a qualidade do modelo.
Impacto e desafios da IA open-source e open weight
A criação desse modelo pode democratizar o acesso à IA, permitindo que mais pesquisadores e pequenas empresas desenvolvam suas próprias soluções. Além disso, ao ser disponibilizado como código aberto, a comunidade pode aprimorar e adaptar o sistema conforme suas necessidades específicas. Vale destacar a diferença entre abordagens: enquanto o s1 é totalmente open-source, disponibilizando código e dados de treinamento, a DeepSeek segue o modelo open weight, liberando apenas os pesos do modelo.
A equipe treinou o s1 com um conjunto de dados de 1.000 perguntas, aplicando a técnica de “destilação de conhecimento” para reduzir custos e tempo de treinamento. No entanto, esse método depende de um modelo maior pré-treinado, como o Gemini 2.0 ou o Qwen2.5-32B, o que pode limitar a independência total do s1 em relação a modelos proprietários. Em contraste, a DeepSeek investiu aproximadamente US$ 6 milhões no treinamento de seu modelo, enquanto a OpenAI gastou cerca de US$ 100 milhões no GPT-4.
Manter o financiamento contínuo de projetos open-source representa um desafio, assim como a necessidade de uma infraestrutura robusta para treinar modelos mais complexos. Além disso, modelos open-source trazem riscos de segurança, como vulnerabilidades que podem ser exploradas por hackers, o que levanta preocupações sobre sua aplicação em larga escala.
Impacto financeiro e eficiência energética
O lançamento da DeepSeek impactou o mercado, ajudando na queda das ações da NVIDIA, Microsoft e Meta por preocupações com a demanda por hardware caro. Esse movimento mostra como novas alternativas podem mexer com o mercado de IA. Além disso, modelos como o s1 e DeepSeek trazem uma nova perspectiva sobre eficiência energética, reduzindo custos operacionais e questionando a dependência de infraestrutura massiva para treinamentos.
Os modelos também se diferenciam em especialização: enquanto a OpenAI domina aplicações criativas, também possui modelos especializados em raciocínio técnico, como o Codex. Já o s1 e a DeepSeek focam no aprimoramento de raciocínio técnico e eficiência computacional.
Quem é a OpenAI?
A OpenAI pesquisa inteligência artificial e criou modelos avançados como o ChatGPT. Fundada em 2015, a empresa busca criar IA segura e alinhada com os interesses da humanidade. No entanto, a OpenAI tem seguido uma trajetória cada vez mais fechada, restringindo acesso a seu código e dados de treinamento, diferentemente de alternativas como o s1 (open-source) e DeepSeek (open weight).