• Algoritmo
  • Posts
  • OpenAI lança APIs e transforma o ChatGPT em plataforma

OpenAI lança APIs e transforma o ChatGPT em plataforma

Enquanto a China mergulha em infraestrutura, Anthropic mira empresas e o futuro ainda tropeça na teoria & mais...

E aí curioso, seja bem-vindo ao Algoritmo. IA sem hype, diretamente em seu inbox.

🚀 OpenAI lançou APIs e SDKs que permitem embutir apps dentro do ChatGPT (como Canva, Zillow, Spotify etc.), além de uma ferramenta de criação de agentes chamada AgentKit. Isso transforma ChatGPT em plataforma multifuncional, não apenas chatbot.

E não foi só isso, veja o que preparamos para você hoje.

  • 🇨🇳 A China vai operar o primeiro centro de dados subaquático comercial na costa de Xangai, usando resfriamento oceânico e energia eólica para cortar custos energéticos.

  • 🤖 Anthropic e Deloitte fecharam parceria para levar modelos Claude ao ambiente corporativo, com foco em segurança, certificação de consultores e apps setoriais baseados em IA de geração.

  • 🤔 O artigo revisita a ideia da singularidade e argumenta que, apesar dos avanços, a IA ainda falha em áreas críticas, generalização, julgamento, consciência. Cada promessa futura parece adiada.

Quer escalar sua empresa com IA generativa de verdade?

Criamos um programa intensivo, presencial, que leva seu time do zero ao topo em 2 meses. Vagas limitadíssimas — se quiser sair na frente, preencha o formulário agora. É rápido. E pode ser a diferença entre liderar ou ficar pra trás.

AgentKit e apps integrados: a nova ambição da OpenAI para o ChatGPT

A OpenAI revelou hoje mudanças para o ChatGPT, que agora permite apps rodarem dentro da própria conversa. A empresa lançou em preview um SDK que transforma o chatbot em plataforma universal de apps, é possível ativar Canva, Zillow, Spotify e outros diretamente no contexto de uma sessão, com ChatGPT contextualizando a interação.

Esse movimento vem acompanhado também do lançamento de AgentKit, uma interface visual para desenvolvedores criarem bots especializados com widgets e lógicas predeterminadas, você monta um agente para uma tarefa específica sem codificar do zero. A OpenAI também destacou que o ChatGPT já conta com 800 milhões de usuários ativos por semana, o que significa que sua “loja interna de apps” parte de uma base massiva de audiência.

As implicações são profundas. ChatGPT deixa de ser apenas um assistente inteligente e passa a agir como sistema operacional sobreposto, a interface padrão para que apps inteligentes apareçam no contexto de conversas. Isso força concorrentes, Google, Meta, plataformas independentes, a competir não apenas em qualidade de modelo de linguagem, mas em ecossistemas, conectores e monetização dentro de conversas.

Por que isso é important?

Essa virada consolida uma premissa que vinha sendo discutida: a interface conversacional (a “janela AI”) pode ser a próxima grande plataforma de distribuição de serviços. Se ChatGPT se tornar o “desktop da IA”, quem controlar essa camada ganhará influência decisiva sobre o tráfego, monetização e modelo de negócios. Em mercados latino-americanos, isso acena para uma corrida: quem lançar apps locais dentro dessa janela terá vantagem competitiva direta.

🇧🇷 IA generativa no Brasil 🇧🇷 

Primeiro data center comercial subaquático está em planejamento na China

A China está prestes a operar um data center submerso comercial, possivelmente o primeiro do mundo em escala real, na costa de Xangai. O projeto é liderado pela empresa Highlander (também chamada de Hailanyun) e promete cortar até 90% do consumo energético usado para resfriamento ao usar a água do mar como dissipador térmico.

Essa instalação estará situada dentro da zona costeira de Lingang e utilizará um parque eólico offshore para energia limpa, cobrindo cerca de 90-95% da demanda elétrica. O sistema opera em cápsulas estanques que abrigam servidores em alta densidade, conectadas por cabos submarinos que trazem energia e fibra óptica à superfície.

A China já experimentava uma instalação semelhante em Hainan em 2023. O conceito tem precedentes no Project Natick da Microsoft, que testou um protótipo submerso no ambiente experimental, mas nunca levou ao nível comercial. A ideia é substituir sistemas de ar condicionado caros e consumidores de energia por resfriamento natural, o que reduz o PUE (Power Usage Effectiveness) e o consumo global do centro de dados.

Ainda assim, o projeto convive com incertezas. A exposição permanente à água salgada exige selagem extrema e proteção contra corrosão. Existe também preocupação ambiental, o descarte de calor no oceano pode alterar ecossistemas locais, especialmente se a escala crescer demais. Em um artigo técnico recente, pesquisadores demonstraram que data centers submarinos enfrentam vulnerabilidades únicas, por exemplo, ataques acústicos podem degradar desempenho em sistemas de armazenamento tolerantes a falhas.

Por que isso é importante: esse projeto em Xangai representa uma virada de paradigma: infraestruturas de IA podem deixar de depender exclusivamente de terra firme e de sistemas tradicionais de resfriamento. Se viabilizado comercialmente, técnicas como essa redefinem quem pode construir data centers, costeiros, marítimos, com menor impacto ambiental e novas fronteiras geográficas. Para o Brasil e América Latina, isso acende um alerta: regiões litorâneas com recursos marítimos poderiam disputar protagonismo, mas precisam garantir domínio tecnológico, resiliência ambiental e regulação clara para competir de igual para igual.

VSF - Verdade Sem Filtro: AMD + OpenAI – Mais um dia, mais um acordo maluco de ações e chips para manter a dança das cadeiras.

OpenAI e AMD acabam de firmar um acordo de fornecimento de chips de IA que pode virar um divisor de águas no mercado de hardware para inteligência artificial. A AMD vai fornecer até 6 gigawatts de sua linha Instinct (especialmente os chips MI450) ao longo de vários anos, e, como parte do negócio, OpenAI recebe opções para adquirir até 10 % das ações da AMD mediante cumprimento de metas.

O cronograma previsto: o carregamento inicial ocorrerá a partir do segundo semestre de 2026, com a construção de uma instalação de 1 gigawatt já nessa fase inicial. A AMD projeta que o negócio vai gerar “dezenas de bilhões de dólares” em receita nos próximos anos e impactar todo o ecossistema de clientes que seguirá o exemplo da OpenAI.

Mas não se trata de uma simples diversificação técnica, é um movimento estratégico contra a hegemonia da Nvidia. Até agora, muitos contratos de IA favoreciam saturação de GPU NVIDIA. Agora a OpenAI mostra suas intenções de distribuir risco e negociar poder com múltiplos fornecedores.

O “sweetener” no contrato é notável, as warrants que dão direito à OpenAI de comprar até 160 milhões de ações da AMD por apenas 1 centavo por ação, valores condicionados à realização de metas técnicas e de valorização, criam alinhamentos financeiros profundos. Essa cláusula indica que a AMD aposta que os marcos serão alcançados, embutindo no negócio expectativas elevadas de desempenho.

Por que isso é importante:

Essa aliança realça dois vetores estratégicos no tabuleiro da IA:

  1. Redefinição de poder no hardware - quem controla os canais de suprimento de chips ganha influência decisiva sobre a escala e o custo da infraestrutura de IA.

  2. Descentralização calculada - a OpenAI sinaliza que não será refém de um único fornecedor (ou ecossistema), abrindo brechas competitivas para novas arquiteturas.

Para o Brasil e América Latina, a mensagem é clara: é hora de pensar em diversificação de fornecedores, segurança de cadeia, e preparar nossa própria base de silício, pois quem ficar preso a um único parceiro deixará de ter voz no jogo global.

A parceria da OpenAI com a AMD parece, à primeira vista, um simples contrato de fornecimento: seis gigawatts de capacidade de GPU em troca de opções de compra de até 160 milhões de ações da AMD. Na realidade, o acordo revela a nova e estranha lógica da economia da inteligência artificial, em que o poder de computação virou colateral financeiro.

A OpenAI não tem receita suficiente para sustentar esse nível de gasto. A Microsoft já financiou seu crescimento com fluxo de caixa próprio, mas o laboratório agora construiu uma teia de dependências financeiras, que vai desde os empréstimos garantidos por GPUs da CoreWeave até o acordo de 300 bilhões de dólares em nuvem com a Oracle, o investimento de 100 bilhões da Nvidia e, agora, a parceria baseada em ações com a AMD. Cada movimento adiciona nova complexidade: dívida garantida por chips, data centers  fora do balanço e trocas de participação entre fornecedores.

A Morgan Stanley estima 2,9 trilhões de dólares em gastos com infraestrutura de IA até 2028, deixando uma lacuna de 1,5 trilhão a ser preenchida por crédito privado. O JPMorgan chama isso de “bug do dinheiro infinito”, um ciclo de retroalimentação em que fabricantes de chips, provedores de nuvem e laboratórios de IA financiam mutuamente suas ambições com dinheiro emprestado e promessas futuras.

O acordo com a AMD mantém a máquina funcionando, mas também aperta a espiral entre ambição tecnológica e invenção financeira, uma corrida para construir o futuro em cima de silício alavancado.

Tempos realmente insanos em que vivemos, meus amigos.

Sua empresa respira AI? Mostre para o Brasil

Queremos divulgar quem faz IA de verdade — se você constrói com inteligência artificial, mande seu projeto. Os melhores vão aparecer na Algoritmo e ganhar visibilidade real. Quer sair do anonimato? Chegou a hora.

Claude entra na consultoria: IA generativa agora com governança Deloitte

O acordo prevê:

  • Implantação de aplicativos corporativos de IA com guardrails (segurança, explicabilidade, conformidade) alinhados ao “Constitutional AI” da Anthropic.

  • Formação e certificação de mais de 15.000 profissionais na Deloitte para trabalhar com a família Claude.

  • Desenvolvimento de soluções específicas por setor: finanças, governo, saúde, processos regulatórios, onde o risco é alto e a margem de erro é mínima.

  • Exemplos concretos: o “C-Suite AI for CFOs”, que auxilia diretores financeiros com fluxo de contratos, geração de documentos e relatórios, usando Claude como backend.

Essa aliança simboliza o momento em que IA de ponta deixa de ser tecnologia “de laboratório” para ser ferramenta de transformação institucional. A Deloitte oferece a ponte entre hype e aplicação real, algo que empresas medianas ou estatais brasileiras precisam olhar com atenção.

Por que isso é importante?

Esse movimento reforça uma tendência inevitável: para que IA deixe de ser promessa e vire impacto, ela precisa de integradores com legitimidade, consultorias globais, empresas de auditoria, instituições regulatórias, para “vestir” os modelos com governança. Em contextos latino-americanos, onde governança de dados e compliance ainda são frágeis, alianças assim podem ditar quem acessa tecnologia de ponta com segurança, e quem fica refém de soluções importadas sem accountability.

🛠️ Caixa de Ferramentas 🛠

  • Fruitful - Acompanhe os sites dos concorrentes e capture todas as mudanças. Receba relatórios semanais claros e alertas do Slack sobre o que importa. Identifique sinais de contratação, mudanças de preços e lançamentos de produtos quase em tempo real.

  • Ascend.io - Agente que cria, monitora e corrige seus fluxos de trabalho de dados. Da integridade do pipeline à evolução do esquema, Otto ajuda você a entregar produtos de dados em horas, não semanas.

  • Local Operator - O Local Operator é uma plataforma multiagente de código aberto que oferece uma equipe de agentes de IA proativos com aprendizado e memória conversacionais. Os agentes podem trabalhar em segundo plano, conversar entre si e delegar tarefas entre si com base em sua expertise.

  • Tersa - Tersa é um canvas de código aberto para a criação de fluxos de trabalho de IA. Arraste, solte, conecte e execute nós para criar seus próprios fluxos de trabalho com diversos modelos de IA.

  • Copy as Markdown for AI - Converta páginas da web para o formato Markdown + YAML otimizado para LLM em um clique.

Hype vs. realidade: a IA continua presa ao humano

O discurso da “singularidade”, o momento em que a IA ultrapassa os humanos em todos os domínios, ressurge no debate, mas com tom cada vez mais cético. No artigo “AI vs Humans: The Singularity Keeps Getting Postponed”, o autor revisita promessas fallidas de décadas e argumenta que, apesar dos avanços maciços, a IA continua presa a limites estruturais como viés, falta de consciência, fragilidade frente a tarefas inéditas e dependência de dados massivos.

A narrativa dominante de conquista tecnológica esbarra nos mesmos desafios antigos: transferência limitada de habilidades entre domínios, incapacidade de generalização robusta, falhas em razão e julgamento, aspectos humanos não reducionistas. O artigo sugere que cada nova geração de modelo “superior” carrega suas próprias limitações ocultas, postergando o ápice da singularidade.

Em vez de esperar a “IA suprema”, devemos nos concentrar nas deficiências reais: segurança adversarial, generalização em dados escassos, controle de comportamento emergente.

Por que isso é importante: quando o discurso dominante transfere expectativas fantasiosas para a IA, empresas, governos e pesquisadores podem sacrificar recursos em miragens ao invés de resolver os gargalos reais. Entender que a singularidade continua atrasada nos ajuda a realinhar prioridades, construir sistemas confiáveis, responsáveis e úteis para o presente, não para uma ficção futura.

Panorama Global - O que está acontecendo ao redor do mundo

Agora é hora de dar uma olhada no que está acontecendo lá fora. Selecionamos alguns destaques do cenário global de IA que podem influenciar diretamente o que acontece por aqui. Abaixo, você encontra só o que importa, de forma rápida.

Nos conte. O que você achou da edição de hoje?

Queremos saber se o conteúdo de hoje fez sentido pra você. Sua opinião ajuda a gente a melhorar a cada edição e a entregar algo que realmente faça diferença no seu dia.

Me conta: o que você achou do conteúdo de hoje?

Faça Login ou Inscrever-se para participar de pesquisas.

Curtiu nossa news?

Não guarda só pra você: compartilhe com quem merece estar por dentro do universo IA. Clique, envie e ajude a comunidade a crescer — simples assim.

Isso é tudo por hoje!

Dê o próximo passo e tenha palestras e treinamentos com a
nossa equipe na sua empresa. Clique aqui para se cadastrar.

Até amanhã.

Reply

or to participate.