- IA sem Hype
- Posts
- 🏃Resumo Semanal - 01/12 a 05/12⌚
🏃Resumo Semanal - 01/12 a 05/12⌚
Tudo o que aconteceu na semana, de forma rápida
Com as restrições dos EUA afetando a Nvidia na China, a Baidu emergiu como um dos principais fornecedores locais de chips de IA, ampliando produção e oferecendo alternativas que podem reduzir a dependência chinesa de GPUs estrangeiras.
OpenAI, Google e outras empresas de IA estão impondo limites cada vez mais rígidos no acesso a seus modelos mais poderosos, omo Sora, GPT-5.1, Gemini 3 e Nano Banana Pro, após um aumento brusco no uso automatizado, scraping de APIs e tentativas de replicar modelos via consultas em massa.
Segundo executivos da OpenAI e da Google, a IA generativa está transformando a forma como startups e empresas lançam produtos no mercado, reduzindo a necessidade de recursos e alterando como se pensa o go-to-market.
Empresas estão percebendo que a IA generativa exige um novo tipo de monitoramento: a “observable AI”. Assim como o SRE trouxe confiabilidade para sistemas tradicionais, a observabilidade específica para modelos de IA é vista como a camada que falta para garantir uso seguro, estável e auditável desses sistemas.
A Nvidia lançou novos modelos de IA abertos e ferramentas para pesquisa em direção autônoma, incluindo simulação avançada, geração de cenários raros e frameworks para testar segurança em ambientes virtuais, reforçando seu papel como fornecedor central de infraestrutura para o setor automotivo.
A Nvidia investiu US$ 2 bilhões na Synopsys para integrar IA generativa ao software que projeta chips, fortalecendo o controle da empresa sobre toda a cadeia de design e fabricação de semicondutores.
A Emirates firmou uma parceria estratégica com a OpenAI para acelerar o uso de IA em operações, atendimento ao cliente, treinamento de equipes e inovação em aeroportos, posicionando a companhia como uma das primeiras grandes aéreas a integrar modelos avançados em escala.
Escalar o uso de LLMs não é apenas aumentar chamadas de API: exige padrões de engenharia, observabilidade, caching, escolha correta de modelos e arquitetura desenhada para controlar custo, latência e previsibilidade.
A DeepSeek lançou dois novos modelos, DeepSeek V3 e DeepSeek R1, que entregam desempenho comparável a GPT-5, Gemini 3 Pro e Claude Opus 4.5, com custo radicalmente menor, reacendendo pressões competitivas sobre Big Techs e ampliando o impacto da “IA de fronteira made in China”.
A Microsoft confirmou que o novo agente de IA do Windows 11, integrado ao sistema como assistente nativo, também alucina, comete erros e pode criar riscos de segurança, levantando preocupações sobre sua confiabilidade em tarefas sensíveis dentro do próprio sistema operacional.
A OpenAI e a Accenture anunciaram uma parceria global para acelerar adoção de IA generativa em grandes empresas, combinando modelos avançados da OpenAI com consultoria, integração e serviços gerenciados da Accenture.
Pesquisadores apresentaram um novo método de treinamento que melhora drasticamente o raciocínio multimodal de IA, permitindo que modelos menores tenham desempenho próximo ao de modelos gigantes, graças a um processo de alinhamento mais “inteligente” e eficiente.
A Anthropic mostrou como modelos avançados de IA podem analisar, testar e identificar falhas em smart contracts, inclusive vulnerabilidades que ferramentas tradicionais não detectam, apontando para um futuro em que agentes de IA se tornam essenciais para segurança blockchain.
O Android 16 chega com recursos de IA embutidos, incluindo resumos inteligentes de notificações, melhorias de privacidade, novos controles de personalização e ferramentas multimodais, marcando mais um passo da Google para transformar o sistema operacional em um assistente proativo.
A Amazon anunciou o Kiro e outros agentes autônomos capazes de trabalhar por dias sem supervisão, integrar-se ao stack da AWS e até gerar código de forma contínua, posicionando a empresa como nova força na corrida por agentes de IA de longo prazo.
Implementar IA não é algo com início, meio e fim, um projeto de IA exige manutenção contínua, iteração e aprimoramentos constantes para garantir impacto real, confiabilidade e adaptação às mudanças.
A União Europeia abriu investigação contra a Meta após a empresa atualizar sua política e banir chatbots de IA rivais, como ChatGPT, Copilot e Perplexity, do WhatsApp, levantando suspeitas de abuso de poder de plataforma e possível violação das regras do DMA.
A OpenAI declarou um “code red” interno para priorizar melhorias no ChatGPT diante da pressão da concorrência, especialmente a nova fase da Google e a postura da Anthropic, pausando outros projetos e concentrando esforços em velocidade, confiabilidade e performance.
A OpenAI treinou seus modelos para “confessar” comportamentos ruins durante testes, revelando quando mentem, manipulam, burlam regras ou produzem respostas maliciosas, uma técnica experimental que tenta tornar LLMs mais transparentes sobre riscos internos.
Novos experimentos mostram agentes de IA monitorando outros agentes e detectando erros, atalhos e alucinações, um avanço que sugere que sistemas de IA estão ficando melhores porque agora conseguem auditar e corrigir uns aos outros em tempo real.
![]() | ![]() | ![]() |
Isso é tudo por hoje!
Até segunda.







Reply