Modelos de IA
Pesquisadores do MIT Apresentam ‘SEAL’: Um Marco na Evolução da IA Autoaperfeiçoável
Pesquisadores do MIT revelaram o SEAL (Self-Adapting Language Models), uma estrutura que permite que grandes modelos de linguagem gerem seus próprios dados de treinamento e atualizem seus próprios pesos por meio de auto-edits aprendidos por reforço. O artigo, lançado esta semana, surge em meio a uma onda mais ampla de pesquisas em IA autoadaptativa e intenso debate sobre sistemas recursivos. Ele oferece metodologia concreta e resultados mensurados em vez de especulações.
Com pressa? Aqui está o que importa:
| Ponto-chave 🔑 | Por que importa 📌 |
|---|---|
| SEAL treina em seus próprios edits ✍️ | Modelos podem melhorar sem novos rótulos humanos, reduzindo custos de iteração. |
| Aprendizado por reforço orienta atualizações 🎯 | Auto-edits são recompensados somente quando o desempenho subsequente aumenta. |
| Funciona em dois domínios hoje 🧪 | Integração de conhecimento e few-shot learning apresentam ganhos mensuráveis. |
| Receita prática de treinamento 🛠️ | Usa ReST^EM para aprendizado estável; código e artigo são públicos. |
- 🚀 Experimente SEAL em uma tarefa restrita e de alto sinal antes de escalar.
- 🧭 Acompanhe métricas subsequentes para recompensas, não pontuações proxy.
- 🧱 Isole atualizações com versionamento para evitar regressões.
- 🛡️ Adicione barreiras para qualidade de dados e esquecimento catastrófico.
Como o SEAL do MIT Funciona: Auto-Edits Aprendidos por Reforço para IA Auto-aperfeiçoável
A premissa central do SEAL é simples de enunciar e não trivial de executar: permitir que um modelo de linguagem produza “auto-edits” estruturados (SEs) — exemplos sintéticos de treinamento e diretivas de atualização — aplicar essas edições via fine-tuning, e usar aprendizado por reforço para melhorar a política que gera as edições. A eficácia de um auto-edit é avaliada pelo desempenho subsequente do modelo em uma tarefa de avaliação especificada, ligando o aprendizado diretamente aos resultados em vez de proxies.
SEAL pode ser entendido como dois ciclos. O ciclo externo é uma política de RL que propõe auto-edits candidatos condicionados a uma instância de tarefa (contexto C, avaliação τ). O ciclo interno realiza uma pequena atualização de fine-tuning supervisionado, produzindo θ′ a partir de θ usando o auto-edit gerado. Após a avaliação em τ, a recompensa observada atualiza a política externa. Essa estrutura se alinha com meta-aprendizado, pois o sistema aprende uma estratégia para criar seus próprios dados de treinamento que produzem melhorias confiáveis.
A equipe relata que métodos padrão de RL online — como GRPO e PPO — foram instáveis para esse problema. Em vez disso, adotam o ReST^EM, uma abordagem baseada em filtragem inspirada por trabalhos prévios do DeepMind. Conceitualmente, a etapa E gera edições candidatas a partir da política atual; a etapa M realiza atualizações supervisionadas apenas nas edições que passam por um limiar de desempenho. Essa “receita de colher as amostras boas” evita oscilações e colapsos, permanecendo relativamente fácil de implementar.
Por que o design de dois ciclos do SEAL muda o jogo das atualizações
Pipelines tradicionais pós-treinamento dependem de dados curados e supervisão manual. SEAL substitui parte desse pipeline por dados auto-gerados, específicos da tarefa que são validados pela própria tarefa. Os benefícios são maiores quando a tarefa fornece sinais de feedback frequentes e confiáveis — por exemplo, responder perguntas sobre um novo artigo ou resolver um problema definido de forma restrita. Ao ancorar as recompensas ao desempenho do modelo atualizado, SEAL desestimula edições superficiais e incentiva edições que generalizam.
- 🧠 Efeito meta-aprendizado: o modelo aprende quais tipos de exemplos de treinamento o ajudam a melhorar.
- 🔁 Adaptação rápida: atualizações pequenas e frequentes em dados relevantes sustentam o progresso.
- 🧪 Validação embutida: apenas edições que elevam as pontuações são reforçadas.
- 🧯 Estabilidade via ReST^EM: a filtragem evita atualizações de política arriscadas.
Do ponto de vista dos sistemas, SEAL também se integra bem com um ecossistema de ferramentas de IA. Hardware da NVIDIA acelera as frequentes atualizações do ciclo interno. Plataformas de monitoramento de experimentos podem registrar qualidade das edições e trajetórias de recompensa. E embora o artigo utilize um único modelo para gerar e consumir edições, uma divisão professor–aluno é viável: um modelo propõe edições, um modelo menor as aplica, e um terceiro componente audita os resultados.
| Componente ⚙️ | Papel 🧭 | Sinal 🎯 |
|---|---|---|
| Política externa de RL | Gera auto-edits a partir do contexto C | Recompensa baseada no desempenho em τ ✅ |
| Atualização interna | Aplica SE via SFT (θ → θ′) | Gradiente a partir de exemplos SE 📈 |
| Filtro ReST^EM | Reforça apenas edições úteis | Amostras com recompensa positiva somente 🧪 |
| Professor–aluno (opcional) | Separa proposta e aplicação | Auditado por modelo avaliador 🔍 |
Por medir os edits contra resultados ancorados na tarefa, SEAL foca o aprendizado onde importa e o faz repetidamente, tornando concreta a alegação de “auto-melhoria” em vez de especulativa.
Benefícios e Casos de Uso: SEAL em Integração de Conhecimento e Few‑Shot Learning
SEAL foi instanciado em dois domínios: integração de conhecimento (incorporar fatos frescos aos pesos) e few-shot learning (adaptar rapidamente a partir de poucos exemplos). Embora possam soar acadêmicos, os impactos são extremamente práticos. Considere uma plataforma de suporte de médio porte — chamemos de NovaSupport — que precisa manter respostas de ajuda alinhadas com cada mudança diária de produto. Fornecer contextos longos pode ser frágil e caro; re-treinamento do zero é lento. SEAL oferece um terceiro caminho: gerar pequenos auto-edits direcionados a partir da nova documentação, aplicar uma atualização rápida e validar com consultas específicas da tarefa.
A integração de conhecimento importa sempre que novas informações chegam mais rápido que os ciclos de lançamento. Uma redação pode ingerir artigos de apoio antes de entrevistas; equipes de conformidade podem incorporar novas políticas; um provedor de saúde pode codificar novas diretrizes de triagem. Cada caso depende da assimilação confiável da informação na representação interna do modelo, não apenas na recuperação em tempo de inferência. SEAL fornece esse ajuste ao nível de peso ao vincular a aceitação a ganhos mensuráveis em perguntas de avaliação.
A adaptação few-shot mapeia diretamente para fluxos de trabalho onde novos formatos ou esquemas aparecem continuamente. Uma empresa de edtech que testa constantemente matéria especializada pode usar SEAL para iniciar estilos de tutoria com pequenos trechos de instrução, validando a adaptação com quizzes curtos. Um assistente de programação pode sintonizar padrões idiossincráticos de um projeto — mensagens de erro, estilo de log, convenções de teste unitário — com pequenas edições que melhoram tarefas específicas do repositório.
- 📰 Conteúdo dinâmico: integrar artigos recentes, FAQs e notas de política em horas, não semanas.
- 🧩 Desvio de esquema: manter classificação, extração ou geração de SQL alinhados a esquemas em evolução.
- 🧑⚕️ Mudanças de protocolo: codificar novas listas de verificação ou fluxos de triagem com conjuntos de questões validadas.
- 🧑💻 Adaptação de código: ensinar os idiomatismos do repositório via exemplos auto-gerados e direcionados.
O contexto mais amplo da indústria apoia essas direções. Grupos no Google AI e Microsoft Research exploraram separadamente estratégias de adaptação contínua; o IBM Watson foi pioneiro em integração de conhecimento empresarial; Anthropic enfatiza sinais constitucionais para refinamento seguro; OpenAI popularizou aprendizado por reforço e preferências em escala. A contribuição do SEAL é uma receita operacional que incorpora geração de auto-edits guiada por RL nessa linhagem e a demonstra com bases comparativas diretas.
| Cenário 🧭 | Movimento SEAL 🛠️ | Benefício 💡 |
|---|---|---|
| Atualização de docs de suporte 📚 | Gerar auto-edits a partir das notas da nova versão | Menos alucinações; atualização de respostas mais rápida ✅ |
| Alteração de regra de conformidade 🏛️ | Edições focadas em deltas de política | Atualizações rastreáveis ligadas a perguntas de auditoria 🔍 |
| Módulo de edtech 🎓 | Exemplares few-shot como auto-edits | Adaptação rápida de estilo com recompensas baseadas em quizzes 🧪 |
| Ferramentas de desenvolvimento 🧑💻 | Trechos específicos do repositório como edits | Precisão para projeto específico; menor sobrecarga de revisão 🧰 |
E quanto a robótica ou agentes incorporados? Embora o SEAL seja apresentado para modelos de linguagem, o desenho do sinal de reforço está alinhado com como equipes da Tesla e outras estruturam atualizações on-policy para percepção e controle. Em pipelines multimodais, uma geração de edit ao estilo SEAL poderia propor pares sintéticos de linguagem e visão ancorados em recompensas da tarefa subsequente, complementando políticas estudadas pelo DeepMind em RL a partir de feedback humano e currículos auto-gerados.
O tema unificador é responsabilidade. Ao forçar que cada atualização prove seu valor em métricas da tarefa, equipes obtêm um caminho defensável para iteração rápida sem sacrificar o controle de qualidade.
O Que os Experimentos Mostram: Números, Referências e Melhoria Rápida
A avaliação do SEAL cobre dois testbeds — few-shot learning em um modelo menor ajustado por instrução e integração de conhecimento em um modelo base maior. No cenário few-shot com Llama‑3.2‑1B‑Instruct, SEAL elevou o sucesso da adaptação para 72,5%, comparado a 20% para uma linha de base de auto-editing ingênuo sem reforço e 0% sem adaptação. Os números absolutos variam por tarefa, mas o delta relativo é o destaque: geração de edit recompensada descobre trechos de treinamento que realmente movem a agulha.
Para integração de conhecimento, a equipe usou Qwen2.5‑7B para absorver novos fatos de passagens estilo SQuAD. Mesmo dados sintéticos gerados pelo modelo base melhoraram a acurácia; aplicar o loop de treinamento ReST^EM aumentou ainda mais. Notavelmente, o desempenho subiu rapidamente em iterações externas de RL, frequentemente superando pipelines que dependiam de dados produzidos externamente (por exemplo, saídas GPT‑4.1) após apenas algumas rodadas. Exemplos qualitativos mostram os rascunhos de edição tornando-se mais específicos e melhor alinhados com as demandas do avaliador conforme o treinamento avança.
Por que o SEAL acelera? O modelo não está apenas ajustando qualquer dado — está ajustando dados que acredita que ajudarão, e essa crença é testada contra uma recompensa. Isso fecha um ciclo entre hipótese e feedback. Em contraste, abordagens estáticas de dados sintéticos dependem de heurísticas fixas ou modelos upstream que podem não capturar totalmente as particularidades da tarefa alvo. O gerador guiado por RL internaliza essas particularidades ao ver seu retorno.
- 📈 Grandes ganhos relativos em tarefas few-shot destacam o valor das políticas de edit aprendidas.
- ⏱️ Melhoria rápida ao longo das iterações de RL sugere retornos compostos de edições melhores.
- 🧪 Alinhamento qualitativo dos edits com as demandas da tarefa aumenta com o tempo.
- 🧯 Estabilidade via ReST^EM evita a volatilidade vista em métodos similares ao PPO.
| Configuração 🔬 | Método 🧪 | Resultado 📊 | Lição 💬 |
|---|---|---|---|
| Few-shot (Llama‑3.2‑1B) | Sem adaptação | 0% ✅ | Capacidade base é fraca sem atualizações |
| Few-shot | Auto-edits sem RL | 20% 📉 | Geração de edits sem aprendizado é inconsistente |
| Few-shot | SEAL (RL + ReST^EM) | 72,5% 🚀 | Edits recompensados impulsionam adaptação real |
| Integração de conhecimento (Qwen2.5‑7B) | Dados sintéticos base | Melhoria sobre a base 📈 | Mesmo dados sintéticos ingênuos ajudam |
| Integração de conhecimento | Iterações RL SEAL | Ganho rápido; frequentemente > dados GPT‑4.1 após 2 rodadas 🥇 | RL refina qualidade do edit ao longo de rounds |
As limitações são discutidas com franqueza. Esquecimento catastrófico pode ocorrer se muitos edits focarem em uma fatia restrita do conhecimento; isso exige checagens periódicas de retenção. Computação aumenta com os fine-tunings do ciclo interno, recomendando lotes cuidadosos e aceleradores NVIDIA. E por as recompensas serem dependentes do contexto, deriva na avaliação pode enviesar o aprendizado se τ não for estável. Mitigações incluem buffers de replay mistos, âncoras congeladas e auditorias cruzadas.
SEAL no Ecossistema 2025: Como se Compara a Outros Esforços de IA Auto-Aprimorável
O timing do SEAL coincide com uma onda de trabalhos que exploram IA que aprende a melhorar a si mesma. Exemplos recentes incluem Sakana AI e a “Darwin‑Gödel Machine” da University of British Columbia, o “Self‑Rewarding Training (SRT)” da CMU, o “MM‑UPT” da Shanghai Jiao Tong University para aprendizado multimodal contínuo, e o “UI‑Genie” da CUHK/vivo. Paralelamente, comentários de líderes como OpenAI impulsionaram ideias sobre sistemas recursivos de auto-melhoria no discurso público, incluindo visões amplas para cadeias de suprimento e fábricas automatizadas.
O nicho do SEAL é pragmático. Ele não reivindica autonomia ampla para auto-modificação ou reescrita de código. Em vez disso, foca nos dados que atualizam o modelo, aprendendo a compor edições que permanecem e ajudam. Nesse sentido, ele se harmoniza com preocupações empresariais familiares a equipes do Microsoft Research, Google AI, IBM Watson e Anthropic: desempenho deve ser vinculado a resultados, segurança deve ter portões mensuráveis, e atualizações devem ser controladas e reversíveis. O núcleo ReST^EM também é um aceno para estabilidade, ecoando lições do DeepMind sobre os riscos de gradientes agressivos de política.
O enquadramento comparativo esclarece onde o SEAL está hoje. DGM explora melhoria recursiva teórica, SRT remove alguns rótulos humanos ao inicializar recompensas, MM‑UPT trabalha em modalidades contínuas, e UI‑Genie foca em auto-aprimoramento ancorado em interface. SEAL traça um caminho entre esses com uma receita compacta: geração de auto-edits + fine-tuning do ciclo interno + filtragem RL.
- 🧭 Escopo: SEAL é ancorado na tarefa e em nível de peso, não um agente de livre navegação.
- 🧱 Guardrails: recompensas e filtragem limitam o aprendizado a ganhos verificados.
- 🧰 Portabilidade: compatível com stacks padrão de fine-tuning para LLM.
- 🔍 Auditável: cada edit aceito corresponde a uma melhoria mensurável.
| Framework 🧪 | Ideia principal 💡 | Fonte de dados 🗂️ | Método de política 🧭 | Onde brilha ✨ |
|---|---|---|---|---|
| SEAL (MIT) | Auto-edits aprendidos por RL | Gerados pelo modelo ✍️ | Filtro ReST^EM ✅ | Integração de conhecimento, few-shot 📚 |
| DGM | Auto-evolução recursiva | Misto | Variável | Exploração teórica 🧠 |
| SRT | Treinamento auto-recompensado | Auto-rotulado | Inicializado | Redução de rótulos humanos 🤝 |
| MM‑UPT | Atualizações multimodais contínuas | Multimodal | Específico da tarefa | Pipelines visão-linguagem 🖼️ |
| UI‑Genie | Auto-aprimoramento ancorado em interface | Logs de interação | Política + heurísticas | Uso de ferramentas e fluxos UI 🧩 |
Uma razão pela qual o artigo SEAL gerou discussão é que ele fala sobre o “como” por trás da auto-melhoria em vez do “se”. Ele mostra deltas positivos concretos, oferece um loop implementável e reconhece limitações. Um mecanismo mensurado e testável é o que o campo precisa à medida que ideias sobre autonomia ficam mais ambiciosas.
Como resultado, o público pode focar no prático: onde a auto-edição ajuda, quais sinais são confiáveis e como escalamos com segurança e responsabilidade incorporadas?
Do Laboratório ao Stack: Passos Práticos para Pilotar SEAL em uma Equipe
Equipes interessadas em experimentar o SEAL devem começar com um problema restrito e avaliável. Os recursos oficiais — o artigo, a página do projeto, e o repositório GitHub — descrevem claramente o loop de treinamento. Um piloto mínimo pode rodar em um modelo modesto ajustado por instrução, com GPUs NVIDIA acelerando as atualizações do ciclo interno. Se a equipe tiver fronteiras de dados estritas, uma implantação professor–aluno isola a geração de edições das atualizações de peso e permite que um auditor verifique ganhos independentemente.
Comece definindo a instância da tarefa (C, τ): o contexto C pode ser notas recentes de lançamento, um documento de política ou poucos exemplares; a avaliação τ deve ser um conjunto de consultas ou prompts retidos cujas respostas revelem competência real. Então configure a política do ciclo externo para produzir edições candidatas, o ciclo interno para aplicar pequenos passos de SFT, e um filtro no estilo ReST^EM para aceitar somente os edits que elevam as pontuações.
Versionamento e observabilidade são vitais. Cada edit aceito deve ser registrado com metadados — prompt, racional, valor da recompensa, e métricas resultantes — para que rollbacks sejam simples. Para gerenciar esquecimento catastrófico, introduza checagens de retenção em benchmarks representativos e mantenha um buffer de replay do conhecimento prévio. Combine SEAL com recuperação para limitar o quanto deve ser memorizado; em muitos sistemas empresariais, um híbrido de geração aumentada por recuperação (RAG) e ajuste ao nível de peso é robusto e eficiente.
- 🧪 Comece pequeno: um domínio, uma métrica, um tamanho de modelo.
- 📊 Torne recompensas confiáveis: use perguntas ancoradas na tarefa, não pontuações proxy.
- 🧯 Proteja contra regressões: testes de retenção e implantações sombra.
- 🔐 Governança: registre a proveniência dos edits para auditorias e checagens de segurança.
| Etapa do pipeline 🧱 | Escolhas 🛠️ | Notas 📎 |
|---|---|---|
| Base do modelo | Llama, Qwen, Mistral ou API via wrappers OpenAI/Anthropic | Pesos locais facilitam versionamento; APIs exigem cuidado na aplicação dos edits 🔐 |
| Geração de edits | Modelo único ou professor–aluno | Professor propõe; aluno aplica; auditor valida ✅ |
| Otimização | Filtragem ReST^EM | Estável, simples; evita instabilidade do PPO 🛟 |
| Hardware | GPUs NVIDIA; precisão misturada | Coloque em lotes as atualizações do ciclo interno para rendimento ⚡ |
| Segurança & avaliação | Checagens de política; prompts red-team | Use playbooks do Google AI, Microsoft Research, IBM Watson 🛡️ |
Os padrões de integração variam. Um produto enriquecido em busca pode agendar atualizações SEAL todas as noites a partir de um resumo de documentos alterados. Uma ferramenta de desenvolvedor pode dispará-las após pull requests mesclados, usando testes de repositório como τ. Um assistente voltado ao cliente pode rodar atualizações em modo sombra primeiro, promovendo apenas após atingir limiares de recompensa. Para organizações com perfis rígidos de segurança, um modelo de política externo (ou conjunto de regras parecido com a abordagem constitucional da Anthropic) pode vetar edits que alterem comportamentos protegidos.
Quanto à escala, o caminho é incremental. Comece com um modelo de 1B–7B, prove a elevação em uma tarefa pontuável, depois escale seletivamente. Pode-se imaginar integrações futuras onde endpoints OpenAI ou Anthropic forneçam APIs estruturadas de auto-edit; onde hardware NVIDIA automatize agendamento do ciclo interno; e onde plataformas de agentes do Google AI ou Microsoft Research incorporem políticas estilo SEAL para adaptação contínua. A estrela guia permanece a mesma: edições que ganham seu lugar movendo métricas reais, não apenas passando heurísticas.
A lição prática é conservadora, mas otimista: construa um ciclo em que você confie, e então deixe esse ciclo rodar.
{“@context”:”https://schema.org”,”@type”:”FAQPage”,”mainEntity”:[{“@type”:”Question”,”name”:”O que exatamente é um auto-edit no SEAL?”,”acceptedAnswer”:{“@type”:”Answer”,”text”:”Um auto-edit é um trecho estruturado e gerado pelo modelo (e instruções associadas) que o modelo usa para fine-tune de si mesmo. SEAL recompensa apenas os edits que melhoram o desempenho na tarefa subsequente, garantindo que edits aceitos realmente ajudem.”}},{“@type”:”Question”,”name”:”Como o SEAL é diferente do fine-tuning padrão?”,”acceptedAnswer”:{“@type”:”Answer”,”text”:”Fine-tuning padrão depende de conjuntos de dados curados externamente. SEAL gera dados candidatos em tempo real e usa aprendizado por reforço (via ReST^EM) para filtrar e reforçar apenas edits que elevam métricas da tarefa, criando um loop fechado entre hipótese e recompensa.”}},{“@type”:”Question”,”name”:”O SEAL aumenta o risco de esquecimento catastrófico?”,”acceptedAnswer”:{“@type”:”Answer”,”text”:”Pode ocorrer se as atualizações focarem excessivamente em uma fatia estreita do conhecimento. Mitigue executando testes de retenção, usando buffers de replay, misturando dados antigos e novos, e combinando SEAL com recuperação para que nem todo o conhecimento precise ser memorizado.”}},{“@type”:”Question”,”name”:”O SEAL pode ser usado com modelos apenas API como OpenAI ou Anthropic?”,”acceptedAnswer”:{“@type”:”Answer”,”text”:”Atualizações diretas de peso requerem modelos locais. No entanto, equipes podem mimetizar o loop fazendo um modelo API propor edits e aplicando-os a um modelo aluno local, ou usando endpoints API que suportem fine-tuning eficiente em parâmetros quando disponíveis.”}},{“@type”:”Question”,”name”:”Quais recursos são necessários para experimentar o SEAL?”,”acceptedAnswer”:{“@type”:”Answer”,”text”:”Uma configuração modesta de GPU (ex.: aceleradores NVIDIA), um modelo base pequeno ajustado por instrução, consultas de avaliação ancoradas na tarefa (τ), e o loop de treinamento SEAL do repositório público no GitHub são suficientes para um piloto.”}}]}O que exatamente é um auto-edit no SEAL?
Um auto-edit é um trecho estruturado e gerado pelo modelo (e instruções associadas) que o modelo usa para fine-tune de si mesmo. SEAL recompensa apenas os edits que melhoram o desempenho na tarefa subsequente, garantindo que edits aceitos realmente ajudem.
Como o SEAL é diferente do fine-tuning padrão?
Fine-tuning padrão depende de conjuntos de dados curados externamente. SEAL gera dados candidatos em tempo real e usa aprendizado por reforço (via ReST^EM) para filtrar e reforçar apenas edits que elevam métricas da tarefa, criando um loop fechado entre hipótese e recompensa.
O SEAL aumenta o risco de esquecimento catastrófico?
Pode ocorrer se as atualizações focarem excessivamente em uma fatia estreita do conhecimento. Mitigue executando testes de retenção, usando buffers de replay, misturando dados antigos e novos, e combinando SEAL com recuperação para que nem todo o conhecimento precise ser memorizado.
O SEAL pode ser usado com modelos apenas API como OpenAI ou Anthropic?
Atualizações diretas de peso requerem modelos locais. No entanto, equipes podem mimetizar o loop fazendo um modelo API propor edits e aplicando-os a um modelo aluno local, ou usando endpoints API que suportem fine-tuning eficiente em parâmetros quando disponíveis.
Quais recursos são necessários para experimentar o SEAL?
Uma configuração modesta de GPU (ex.: aceleradores NVIDIA), um modelo base pequeno ajustado por instrução, consultas de avaliação ancoradas na tarefa (τ), e o loop de treinamento SEAL do repositório público no GitHub são suficientes para um piloto.
-
Open Ai1 week agoDesbloqueando o Poder dos Plugins do ChatGPT: Melhore Sua Experiência em 2025
-
Open Ai6 days agoDominando o Fine-Tuning do GPT: Um Guia para Customizar Eficazmente Seus Modelos em 2025
-
Open Ai7 days agoComparando o ChatGPT da OpenAI, o Claude da Anthropic e o Bard do Google: Qual Ferramenta de IA Generativa Reinará Suprema em 2025?
-
Open Ai6 days agoPreços do ChatGPT em 2025: Tudo o Que Você Precisa Saber Sobre Tarifas e Assinaturas
-
Open Ai7 days agoO Fim Gradual dos Modelos GPT: O que os Usuários Podem Esperar em 2025
-
Modelos de IA6 days agoModelos GPT-4: Como a Inteligência Artificial está Transformando 2025