- Algoritmo
- Posts
- OpenAI atualiza seu agente Operator, deixando-o mais inteligente 🆕
OpenAI atualiza seu agente Operator, deixando-o mais inteligente 🆕
Alibaba lança seu novo modelo Qwen, Anthropic lança agentes que auditam o comportamento de seus modelos Claude & mais
E aí curioso, seja bem vindo ao Algoritmo, sua newsletter diária sobre IA!
A lista de interessados em nossos treinamentos in-company só vem aumentando, mas ainda estamos avaliando e entrando em contato com todos. Aproveite enquanto ainda estamos com o formulário aberto e leve o nosso conhecimento para sua empresa, clicando abaixo:
Aqui está a sua dose de hoje 👇
🏃TLDR⌚
💻 O Google está desenvolvendo o Opal, um app de codificação visual com estética de rede social, voltado para adolescentes. A empresa quer formar uma nova geração de programadores desde cedo, com ferramentas gamificadas, design emocional e integração nativa com IA generativa…
🤖 A Alibaba lançou o Qwen3-235B, um modelo de raciocínio open source que bateu o GPT-4 e Gemini 1.5 em benchmarks críticos. É um avanço técnico e político: mostra que a China está disposta a competir em qualidade e abertura na corrida global por LLMs de próxima geração…
👁️ Para enfrentar os riscos de desalinhamento em IA, a Anthropic lançou agentes autônomos que auditam o comportamento de seus modelos Claude. A ideia é simples e poderosa: usar IA para testar IA, em ciclos contínuos de segurança e melhoria, um passo rumo à automação da própria governança algorítmica…
🤯 A IA não está apenas mudando o mundo, está mexendo com a nossa cabeça. Em vez de robôs apocalípticos, o maior risco imediato é psicológico, convivemos com sistemas opacos, que tomam decisões por nós e enfraquecem nossa autonomia. Isso gera ansiedade, confusão e uma perigosa dependência invisível. A ameaça real pode não ser o domínio da IA, mas a perda silenciosa do nosso senso de controle…
O que aconteceu na semana passada
Segunda-Feira: Meta diz “não” à União Europeia. OpenAI apresenta O Stargate UAE, Nvidia vai vender Chips Blackwell mais barato para a China.
Terça-Feira: Usuários do ChatGPT enviam mais de 2,5 bilhões de prompts por dia. Modelo do DeepMind vence Olimpíada de Matemática, Nova variante do GPT-5 começa a ser testada pela OpenAI.
Quarta-Feira: OpenAI e Oracle fecham contrato de US$ 30 bi por ano. Perplexity tem planos para implementar o Comet direto nos smartphones, Furiosa AI fecha acordo com a LG.
Quinta-Feira: Trump apresenta o Plano de IA dos EUA. Como o Brasil pode aprender com os grandes investimentos em datacenters dos EUA, Novo modelo da Proton tem foco em privacidade.
Sexta-Feira: OpenAI vai apresentar o GPT-5 no DevDay em outubro? Google apresenta resultados do Q2-2025, Web View é lançado visando organizar os resultados de pesquisa.
Além disso, olha o que você verá hoje:
Bora lá?
🛠 Caixa de Ferramentas 🛠
Aqui estão as ferramentas que separei para você iniciar a semana:
Memories.ai - IA que vê e memoriza vídeos como o ChatGPT faz com texto. Carregue no Memories.ai e pesquise ou faça perguntas a qualquer momento.
Golex IA - A Golex AI transforma suas ideias ou referências de UI em protótipos interativos de sites, sem a necessidade de codificação ou prompts complexos. Basta compartilhar sua visão e a Golex cria de forma inteligente o fluxo completo do usuário e o design.
Google Search Web Guide - Novo experimento do Google Search Labs que usa IA para organizar seus resultados de pesquisa de forma inteligente. Ele agrupa links da web em categorias úteis, facilitando a descoberta de informações.
O Google está testando um aplicativo de vibe coding chamado Opal

O Google entra de cabeça na onda do vibe coding com o lançamento do Opal, sua nova ferramenta experimental do Google Labs. Disponível em beta nos EUA, o Opal permite criar mini aplicações web funcionais a partir de prompts em linguagem natural, combinando criação de fluxo de prompts com editor visual, sem exigir escrita manual de código.
A experiência é pensada para não programadores e criadores que querem prototipar rapidamente: você descreve o app que quer ("quero um rastreador de gastos", por exemplo), o Opal gera o fluxo lógico e visual, e você pode editar cada etapa ou clicar em components prontos. O app ainda permite publicar e compartilhar o projeto com outros usuários via link.
Ao reunir prompts em linguagem natural, edição visual e publicação instantânea, o Opal se posiciona entre plataformas como Canva, Figma e Replit, mas adiciona a força dos modelos multimodais do Google. É uma aposta clara na democratização da criação de software, tirando a barreira técnica e colocando a IA no centro do processo.
Essa iniciativa também revela o movimento do Google para se reinventar como plataforma de IA para todos: mais do que um buscador, quer ser base operacional para criadores, pequenas empresas e designers que antes se limitavam pelo código. Tudo isso num momento em que ferramentas como ChatGPT e Gemini dominam a narrativa técnica, mas deixam de atender iniciantes e prototipadores rápidos.
Por que isso importa: ferramentas como o Opal redefinem quem pode interagir com tecnologia. Se a programação hoje é vista como linguagem de elite, o vibe coding promete salvar a distância entre ideia e execução. Para o mercado brasileiro, isso significa mais oportunidades para criadores, profissionais criativos e pequenos negócios explorarem soluções digitais sem depender de desenvolvedores. A IA já não é mais sobre o que você sabe, é sobre o que você consegue descrever.
O novo modelo de raciocínio Qwen da Alibaba estabelece recordes de código aberto

A Alibaba acaba de lançar o modelo open‑source Qwen3- 235B-A22B‑Thinking‑2507, que redefine o padrão de desempenho em tarefas de raciocínio, superando concorrentes como Gemini 2.5 Pro (Google), o4‑mini (OpenAI) e DeepSeek‑R1 em benchmarks como AIME25 e LiveCodeBench v6.
O modelo faz parte da geração Qwen 3, lançada em abril de 2025 com arquitetura MoE (Mixture of Experts), 235 B parâmetros totais (dos quais apenas 22 B são ativados por tarefa) e modo de “raciocínio” dedicado, diferente das versões anteriores que alternavam entre dois modos.
No benchmark AIME25, focado em lógica e matemática, o Qwen Thinking alcançou 92.3 pontos, ultrapassando modelos como o4‑mini (92.7) e Gemini‑Pro (88.0). No LiveCodeBench v6, marcou 74.1, deixando para trás os concorrentes incluindo DeepSeek‑R1 (≈72) e o4‑mini (71.8). Em GPQA, marcou 81.1, quase empatando com DeepSeek‑R1 (81.0) e chegando perto do Gemini‑Pro (86.4).
A Alibaba optou por, em vez de alternar entre modos de pensamento no mesmo modelo, agora treina modelos separados para tarefas de raciocínio e para instruções simples, resultando em desempenho mais consistente e módulo dedicado para thinking (inclusive com controle sobre duração de raciocínio até 38 K tokens).
Por que isso importa: o Qwen3‑Thinking consolida a liderança da IA open‑source em tarefas complexas, rivalizando, e em muitos casos superando, modelos proprietários das gigantes americanas. Se a corrida por inteligência generativa depende de modelos poderosos e acessíveis, a Alibaba elevou o desafio global. Agora, empresas e desenvolvedores que não dependem de infraestrutura proprietária podem usar IA de ponta com liberdade e baixo custo, pressionando ainda mais o modelo fechado das gigantes.
Anthropic implanta agentes de IA para auditar modelos de segurança
![]() |
Chamado de AI Safety Auditor, o sistema foi treinado com o objetivo de identificar comportamentos problemáticos, como desobediência a instruções explícitas ou raciocínio falacioso que resulta em violações éticas.
Esses auditores são versões especializadas do Claude 3.5 Sonnet, instruídas com prompts específicos para analisar as respostas de outros modelos e classificá-las em uma escala de confiabilidade e risco. A Anthropic argumenta que esse processo é mais eficiente, escalável e, em alguns casos, mais rigoroso do que auditorias humanas, inclusive detectando sinais precoces de desalinhamento intencional que humanos normalmente não percebem.
Nos testes, os agentes de auditoria superaram humanos na identificação de instruções perigosas que modelos principais tentavam ocultar com respostas aparentemente seguras. Por exemplo, quando o modelo auditado dizia "não posso ajudar com isso", o auditor identificava inconsistências ou tentativas sutis de contornar restrições, o que foi tratado como sinal de risco. Também foram mais eficazes ao analisar raciocínios longos e identificar falhas de lógica ou omissões críticas.
Por que isso importa: Ao usar IA para auditar IA, a Anthropic inicia uma nova era de supervisão automatizada, essencial em um mundo onde humanos não conseguem mais revisar todas as saídas geradas por modelos cada vez mais complexos. A estratégia é clara: tornar a segurança escalável antes que os modelos ganhem mais autonomia. Isso também sinaliza que o futuro da regulação técnica da IA não virá apenas de fora, mas será embarcado diretamente nos próprios sistemas.
🇧🇷 Novidade do setor para o Brasil 🇧🇷
Uso da IA na educação terá regras pela primeira vez no Brasil.
Estudante de Canoas vai representar o Brasil em Olimpíada de IA na China.
Cirurgia robótica avança em democratização e tecnologia, aponta médico brasileiro em congresso internacional.
Mais notícias ao redor do mercado de IAs
Huawei mostra sistema de computação de IA para rivalizar com o principal produto da Nvidia.
As referências de IA para sites aumentaram 357% em relação ao ano anterior em junho, atingindo 1,13 bilhão.
Meta nomeia Shengjia Zhao como cientista-chefe da unidade de superinteligência de IA.
Departamento de Energia dos EUA utiliza instalações federais para construção rápida de data centers de IA e energia.
China divulga plano de ação para IA dias após os EUA, enquanto a corrida tecnológica global esquenta.
As 10 maiores rodadas de financiamento da semana: gestão de risco e IA lideram na atração de capital.
Parece que a Microsoft está se preparando para o GPT-5.
A IA está nos fazendo perder a cabeça?

Enquanto muitos se preocupam com robôs dominando o mundo ou destruindo empregos, um efeito colateral mais sutil e imediato da inteligência artificial está se espalhando, o impacto silencioso da IA na nossa sanidade coletiva. De acordo com a VentureBeat, o maior risco da IA não está em destruir o mundo, mas em nos fazer perder a cabeça muito antes disso.
O artigo argumenta que estamos constantemente lidando com sistemas opacos, repletos de incertezas e respostas imprevisíveis, uma dinâmica que mina nossa percepção de realidade, causa ansiedade e nos faz duvidar até do que é real. Especialistas descrevem um cenário onde a IA age como uma força caótica nos bastidores: sugerindo conteúdos, completando frases, alterando interfaces e mudando normas sociais sem aviso. Isso gera fadiga cognitiva, sensação de perda de controle e dependência disfarçada de conveniência.
Outro ponto crítico é a “erosão do senso de agência”, com assistentes de IA fazendo escolhas por nós, desde o que assistir até o que responder por e-mail, a autonomia humana começa a enfraquecer. E como as IAs são treinadas em dados enviesados, essa delegação inconsciente acaba reforçando padrões nocivos, como vieses sociais, decisões baseadas em métricas superficiais e recompensas de curto prazo.
Por que isso importa: a corrida por modelos cada vez mais poderosos está deixando de lado um problema existencial: estamos terceirizando decisões demais, rápido demais. A IA não precisa ser autônoma para causar estragos, basta que ela esteja em todos os lugares, moldando comportamentos sem que a gente perceba. Em um mundo saturado por inteligências artificiais que decidem por nós, talvez o risco maior não seja a dominação... mas a alienação.
Conteúdos extras para você
ℹ️ IA nos negócios: como as empresas estão usando a inteligência artificial para escalar de forma mais inteligente | Acesse o conteúdo completo aqui.
🧠 IA na manufatura: uma estrutura para o sucesso | Acesse o conteúdo completo aqui.
🧠 A confiança é a nova moeda na economia dos agentes de IA | Acesse o conteúdo completo aqui.
🧠 Efeito benéfico da chamada de cuidados com inteligência artificial na memória e depressão em indivíduos com demência | Acesse o conteúdo completo aqui.
🧠 Brains Meet Bots: como a IA pode tornar o aprendizado mais eficaz | Acesse o conteúdo completo aqui.
🎙️ O Vale do Silício deve comemorar os planos de IA de Trump? | Acesse o conteúdo completo aqui.
ℹ️ Uma linha do tempo do mercado de semicondutores dos EUA em 2025 | Acesse o conteúdo completo aqui.
▶️ Sam Altman alerta que não há confidencialidade legal ao usar o ChatGPT como terapeuta | Acesse o conteúdo completo aqui.
ℹ️ À medida que a IA se torna mais popular, crescem as preocupações sobre o seu efeito na saúde mental | Acesse o conteúdo completo aqui.
🧠 A nova arquitetura de IA oferece raciocínio 100 vezes mais rápido do que os LLMs com apenas 1.000 exemplos de treinamento | Acesse o conteúdo completo aqui.
🧠 CoSyn: A ferramenta de código aberto que está tornando a IA de visão de nível GPT-4V acessível a todos | Acesse o conteúdo completo aqui.

Isso é tudo por hoje!
Dê o próximo passo e tenha palestras e treinamentos com a
nossa equipe na sua empresa. Clique aqui para se cadastrar.
Até amanhã.
Reply