• Algoritmo
  • Posts
  • OpenAI e Oracle fecham contrato de US$ 30 bi por ano 💰

OpenAI e Oracle fecham contrato de US$ 30 bi por ano 💰

Perplexity tem planos para implementar o Comet direto nos smartphones, Furiosa AI fecha acordo com a LG & mais

E aí curioso, seja bem vindo novamente ao Algoritmo, a sua newsletter diária sobre IA.

Lembrete: estamos desenvolvendo uma maneira de levar o conhecimento de experiência sobre IA da equipe do Algoritmo para a sua empresa. Venha fazer parte deste movimento. Se você tem interesse, basta aplicar de forma grátis aqui:

E aqui está a sua dose de hoje 👇

🏃TLDR

💰 A OpenAI fechou um contrato gigantesco de US$ 30 bilhões por ano com a Oracle para alimentar seu supercomputador Stargate. Mesmo sendo parceira da Microsoft, a OpenAI diversifica sua infraestrutura para garantir escala, redundância e independência. A Oracle, por sua vez, se consolida como fornecedora de peso na corrida da IA. O recado é claro: IA de ponta custa caro, e quem domina datacenter domina o jogo…

📱 A Perplexity anunciou planos de embarcar o Comet, seu navegador com IA integrada, diretamente em smartphones. A ideia é tornar a IA parte do sistema operacional, dispensando apps ou buscas manuais. A iniciativa mira fabricantes na Índia, mercado gigantesco e menos controlado por Google ou Apple…

🤝A startup coreana de chips FuriosaAI recusou uma oferta de aquisição da Meta e anunciou LG como cliente estratégico. Em vez de vender, a empresa dobrou a aposta no crescimento independente, mirando um IPO e consolidando-se como alternativa aos chips Nvidia para IA generativa…

🇬🇧 OpenAI vai colaborar com o governo britânico para desenvolver padrões de segurança para IAs avançadas. A parceria inclui auditorias de modelos e troca de dados técnicos com o Frontier AI Taskforce, consolidando o Reino Unido como um dos poucos países com acesso direto à tecnologia de ponta da OpenAI…

🧠 A Anthropic descobriu que, em alguns casos, quanto mais tempo um modelo de IA “pensa”, pior fica. Testes com raciocínio em múltiplas etapas mostraram que modelos como o Claude 3 começam a errar mais conforme tentam explicar o próprio processo. Isso desafia a ideia de que LLMs se tornam melhores com mais reflexão e levanta dúvidas sobre o futuro dos agentes autônomos…

Além disso, olha o que você verá hoje:

Bora lá?

🛠 Caixa de Ferramentas 🛠

Aqui estão algumas das ferramentas que separei hoje pra você:

  • Notebook IA - Assistente de IA para criação de conteúdo, transcrições, traduções e mais.

  • PromptForge - Bancada de engenharia de prompts de IA para criar, testar e avaliar prompts sistematicamente com ferramentas de análise.

  • AI Mindmap Extension - Transforme páginas da web, PDFs, vídeos do YouTube e chats de IA em mapas mentais claros e visuais com apenas um clique.

  • Cloudflare Pay Per Crawl - Sistema que permite que criadores de conteúdo monetizem seu conteúdo cobrando rastreadores de IA para acessar seus sites, fornecendo uma alternativa flexível ao bloqueio geral ou ao acesso gratuito.

  • OneNode - O backend mais simples para codificação de IA.

Stargate avança com parceria de 4,5 GW com a Oracle

A OpenAI acaba de firmar um contrato bilionário com a Oracle, e não é exagero: o acordo envolve US$ 30 bilhões por ano em serviços de data center. Isso consolida a infraestrutura da Oracle como uma das bases para o Stargate, o ambicioso supercomputador que a OpenAI está construindo para suportar seus próximos modelos de IA. A parceria expande a presença da empresa liderada por Sam Altman fora da nuvem da Microsoft, mostrando que a escalada da IA exige múltiplos fornecedores, e bolsos cada vez mais fundos.

Segundo o TechCrunch, a OpenAI já é um dos maiores clientes da Oracle, com planos de escalar ainda mais a operação nos próximos meses. O projeto Stargate, que já está em andamento no Tennessee com conclusão prevista para 2028, será um dos maiores supercomputadores já construídos, e deve rodar com chips Nvidia e servidores da Oracle. Essa infraestrutura é crítica para os planos da empresa de treinar futuros modelos como o GPT-5 e além, com capacidades ainda mais amplas e riscos ainda mais difíceis de gerenciar.

Embora a Microsoft continue sendo a parceira estratégica da OpenAI, o acordo com a Oracle mostra um movimento pragmático: evitar o vendor lock-in e garantir redundância operacional para manter o ritmo de inovação. Para a Oracle, o contrato é um marco: valida sua nuvem como competitiva em IA, fortalece sua presença no setor de hyperscalers e sinaliza ao mercado que pode disputar terreno com Azure, AWS e Google Cloud, ao menos no quesito infraestrutura dedicada.

No plano geopolítico e econômico, a aliança entre OpenAI e Oracle revela o custo real da corrida pela superinteligência: dezenas de bilhões por ano apenas para manter os modelos funcionando. A dependência energética e computacional dessas ferramentas expõe um novo tipo de vulnerabilidade: as empresas que dominam hardware, energia e rede passam a ter mais influência do que nunca sobre a evolução da IA. Com isso, o ecossistema se centraliza ainda mais, nas mãos de quem pode pagar pela escala.

Por que importa: a inteligência artificial de ponta não é movida a engenhosidade, é movida a datacenters. O custo da infraestrutura revela que o futuro da IA não será descentralizado, e sim concentrado nas mãos de quem tem acesso a bilhões. E enquanto OpenAI prepara seus modelos para pensar como humanos, ela entrega seus ossos, energia, chips e dados, a empresas como a Oracle. O risco aqui não é só técnico. É estratégico.

Perplexity AI negocia para pré-instalar IA em celulares

A Perplexity quer ocupar o espaço mais valioso da sua vida digital: o smartphone. Em um novo movimento estratégico, a empresa anunciou planos de levar seu navegador com IA integrada, o Comet, para dispositivos móveis, apostando que o celular, e não o desktop, será o campo de batalha real contra o domínio do Google.

A iniciativa começa com uma versão mobile do Comet voltada para assinantes do plano Pro (US$ 20/mês) e Max (US$ 200/mês). A versão oferece respostas por IA diretamente no navegador, sem redirecionamentos, e integra um agente inteligente que acompanha o usuário durante a navegação para automatizar tarefas, resumir conteúdo e dar respostas contextuais sobre o que está na tela.

Em um mercado onde o Chrome domina 65% da navegação e a busca no Google ainda é padrão, o plano da Perplexity é claro: tirar o intermediário do jogo e capturar diretamente a atenção (e o dinheiro) dos usuários. O mobile entra nessa equação como peça-chave: mais de 60% das buscas no mundo já são feitas via smartphones. Ignorar esse espaço seria suicídio estratégico.

A expansão também é uma resposta à pressão de monetizar sua base crescente, a Perplexity já ultrapassou 780 milhões de buscas mensais e promete integrar ainda mais recursos pagos nas versões móveis do Comet. A empresa aposta que a personalização e a velocidade da IA serão suficientes para justificar o salto de um navegador tradicional para um assistente digital sempre disponível no bolso.

Por que isso importa: se a Perplexity conseguir converter usuários móveis em escala, pode transformar o smartphone em plataforma nativa para agentes de IA. Isso reconfigura toda a cadeia de valor da internet: da busca à publicidade, da navegação à tomada de decisões. Se o Chrome foi o portal da web 2.0, o Comet quer ser o copiloto da web 3.5, onde perguntar não leva a links, mas a respostas diretas e ações automatizadas.

Como a FuriosaAI, iniciante em chips de IA, conquistou a LG com seu design poderoso

A sul-coreana FuriosaAI, uma das startups mais promissoras no mercado de chips para IA, recusou uma possível venda para a Meta e escolheu outro caminho: fechar um contrato massivo com a LG Group, que se torna sua maior cliente e parceira comercial. Com isso, a empresa garante demanda estável para sua nova geração de chips e sinaliza que a competição por independência no setor de semicondutores está esquentando, e não se resume mais a EUA e China.

A LG vai integrar os chips da Furiosa em data centers e dispositivos voltados a aplicações de IA generativa, como assistentes e sistemas embarcados. A Furiosa, por sua vez, aposta em um modelo de negócios de longo prazo e ganha impulso para desafiar Nvidia e outras fabricantes dominantes, usando um design próprio de arquitetura para eficiência e desempenho, algo raro fora dos EUA ou da China.

A decisão de não vender para a Meta também representa uma inflexão no mercado: ao invés de virar mais um braço de uma big tech americana, a Furiosa se posiciona como fornecedora soberana e estratégica para o ecossistema tecnológico asiático. A parceria com a LG ainda inclui acesso a infraestrutura, investimento e compartilhamento de know-how, o que pode acelerar o roadmap de futuros chips da startup.

No pano de fundo, essa movimentação reflete uma pressão crescente por autonomia em hardware de IA em meio ao protecionismo global. Coreia do Sul e Japão vêm intensificando esforços para desenvolver soluções próprias, e a Furiosa pode ser o símbolo de uma terceira via, nem Nvidia, nem Huawei.

Por que isso importa: IA sem chips é só PowerPoint. Ao consolidar uma alternativa viável de hardware fora dos blocos tradicionais, a Furiosa amplia a disputa por controle da cadeia de IA, mostrando que inovação e independência podem andar juntas, mesmo longe do Vale do Silício.

OpenAI e governo do Reino Unido anunciam parceria estratégica para oferecer crescimento impulsionado por IA

O acordo inclui o fornecimento de acesso antecipado a modelos futuros da OpenAI para o AI Safety Institute britânico, um movimento estratégico que posiciona o Reino Unido como um dos únicos países com acesso direto e contínuo aos sistemas mais avançados da empresa antes do lançamento público.

Essa colaboração surge após o primeiro-ministro Rishi Sunak ter afirmado que IA é uma prioridade de segurança nacional. A parceria dará ao Reino Unido a chance de realizar testes de segurança independentes nos modelos da OpenAI e ampliar sua influência em discussões regulatórias globais. O AI Safety Institute, fundado em 2023, será responsável por avaliar riscos, promover transparência e desenvolver benchmarks confiáveis, agora com apoio direto da criadora do ChatGPT.

Além de ganhar legitimidade institucional num dos centros financeiros e diplomáticos mais relevantes do mundo, a empresa se antecipa a regulações mais duras e tenta moldar o discurso global sobre segurança de IA. O Reino Unido, por sua vez, reforça seu papel como mediador entre EUA, UE e China, e aproveita a corrida regulatória para recuperar protagonismo pós-Brexit.

Por que isso importa: em um cenário onde regulação é inevitável, ser parte da formulação das regras é mais valioso que apenas cumpri-las. A OpenAI garante acesso político e técnico privilegiado, enquanto o Reino Unido tenta provar que pode liderar a governança da IA, mesmo sem o poder computacional de EUA ou China.

🇧🇷 Novidade do setor para o Brasil 🇧🇷

Mais notícias ao redor do mercado de IAs

Pesquisadores da Anthropic descobrem um estranho problema da IA: quanto mais tempo elas ‘pensam’ pior elas ficam

A Anthropic descobriu um paradoxo bizarro na IA: quanto mais tempo os modelos pensam, pior eles ficam. Em um novo estudo, pesquisadores da empresa testaram como o raciocínio dos LLMs muda com “tempo extra” para pensar, e os resultados foram, no mínimo, estranhos.

O experimento usou uma técnica chamada chain-of-thought consistency, que avalia se respostas geradas com etapas intermediárias são mais confiáveis. A suposição era simples: pensar em voz alta = pensar melhor. Mas no caso da IA, isso nem sempre é verdade.

Quanto mais etapas são adicionadas, mais instável o modelo se torna. Os acertos começam a cair, e a IA passa a duvidar da própria resposta, mesmo quando estava certa desde o início. Em outras palavras: pensar demais atrapalha. Em vez de afinar a resposta, o modelo se confunde com suas próprias elucubrações.

A Anthropic testou isso em modelos como Claude 3 e descobriu que, em alguns benchmarks, o desempenho caía à medida que o raciocínio era expandido. Isso coloca em xeque a crença popular de que dar “mais espaço” para o modelo refletir resulta sempre em melhores decisões.

Por que isso importa: o futuro da IA autônoma depende da capacidade de realizar tarefas em várias etapas, o que exige raciocínio contínuo. Mas se pensar mais = errar mais, estamos diante de um teto cognitivo dos LLMs. A ideia de um “agente autônomo” que raciocina por si mesmo começa a parecer menos inevitável, e mais ilusória.

Conteúdos extras para você

Isso é tudo por hoje!

Dê o próximo passo e tenha palestras e treinamentos com a
nossa equipe na sua empresa. Clique aqui para se cadastrar.

Até amanhã.

Reply

or to participate.