Você pode mapear um ano por meio de lançamentos de produtos ou medi-lo nos grandes momentos que mudam a maneira como olhamos para a IA. A indústria de IA está constantemente produzindo notícias, como grandes aquisições, sucessos de desenvolvedores independentes, protestos públicos contra produtos incompletos e negociações de contratos existencialmente perigosas – há muita coisa para desvendar, então estamos dando uma olhada em onde estamos e onde estivemos até agora neste ano.
Antrópico vs. Pentágono
Outrora parceiros de negócios, o CEO da Anthropic, Dario Amodei, e o secretário de Defesa, Pete Hegseth, chegaram a um impasse amargo em fevereiro, ao renegociarem os contratos que determinam como os militares dos EUA podem usar as ferramentas de IA da Anthropic.
A Anthropic estabeleceu uma linha dura contra o uso de sua IA para vigilância em massa de americanos ou para alimentar armas autônomas que podem atacar sem supervisão humana. Entretanto, o Pentágono argumentou que o Departamento de Defesa – que a administração do Presidente Donald Trump chama de Departamento de Guerra – deveria ter acesso permitido aos modelos da Antrópico para qualquer “utilização legal”. Os representantes do governo ofenderam-se com a ideia de que os militares deveriam estar limitados às regras de uma empresa privada, mas Amodei manteve-se firme.
“A Antthropic entende que o Departamento de Guerra, e não as empresas privadas, toma decisões militares. Nunca levantamos objeções a operações militares específicas nem tentamos limitar o uso de nossa tecnologia de maneira ad hoc”, escreveu Amodei em um comunicado. declaração abordar a situação. “No entanto, num conjunto restrito de casos, acreditamos que a IA pode minar, em vez de defender, os valores democráticos.”
O Pentágono deu à Antrópica um prazo para concordar com o contrato. Centenas de funcionários do Google e da OpenAI assinaram uma carta aberta instando seus respectivos líderes a respeitarem os limites da Amodei e se recusarem a ceder em questões de armas autônomas ou vigilância doméstica.
O prazo expirou sem que a Antrópica concordasse com as exigências do Pentágono. Trump instruiu as agências federais a eliminar gradualmente o uso de ferramentas antrópicas durante um transição de seis meses período e chamou a empresa de IA, avaliada em US$ 380 bilhões, de “empresa de esquerda radical, acordada” em uma postagem em letras maiúsculas nas redes sociais. O Pentágono decidiu então declarar a Anthropic um “risco da cadeia de abastecimento”, uma designação que normalmente é reservada a adversários estrangeiros e que impede qualquer empresa que trabalhe com a Anthropic de fazer negócios com os militares dos EUA. (Desde então, a Anthropic entrou com uma ação para contestar a designação.)
A rival antrópica OpenAI então apareceu e anunciou que havia chegado a um acordo permitindo que seus próprios modelos fossem implantados em situações confidenciais. Foi um choque para a comunidade tecnológica, já que relatórios indicaram que a OpenAI seguiria as linhas vermelhas da Anthropic que regem o uso de IA para os militares.
Evento Techcrunch
São Francisco, Califórnia
|
13 a 15 de outubro de 2026
O sentimento público indicaria que as pessoas consideraram o movimento da OpenAI suspeito – no dia seguinte ao anúncio do acordo da OpenAI, as desinstalações do ChatGPT aumentaram 295% no dia a dia e Claude da Anthropic disparou para o primeiro lugar na App Store. A executiva de hardware da OpenAI, Caitlin Kalinowski, renunciou em resposta ao acordo, dizendo que ele foi “apressado sem as proteções definidas”.
OpenAI disse ao TechCrunch que acredita que seu acordo “deixa claro [its] linhas vermelhas: sem armas autônomas e sem vigilância autônoma.”
À medida que esta saga se desenrola, terá implicações significativas para o futuro de como a IA é utilizada na guerra, potencialmente mudando o curso da história – você sabe, não é grande coisa…
O aplicativo ‘Vibe-coded’ OpenClaw acelera a mudança para a IA agêntica
Fevereiro foi o mês do OpenClaw e seu impacto continua a repercutir. Em rápida sucessão, o aplicativo assistente de IA codificado por vibração se tornou viral, gerou um monte de empresas spinoff, sofreu com confusões de privacidade e foi adquirido pela OpenAI. Até mesmo uma das empresas construídas no OpenClaw, um clone do Reddit para agentes de IA chamado Moltbook, foi recentemente adquirida pela Meta. Este ecossistema com temática de crustáceos levou o Vale do Silício a um frenesi absoluto.
Criado por Peter Steinberger – que desde então se juntou à OpenAI – OpenClaw é um wrapper para modelos de IA como Claude, ChatGPT, Gemini do Google ou Grok da xAI. O que o diferencia é que permite que as pessoas se comuniquem com agentes de IA em linguagem natural por meio dos aplicativos de bate-papo mais populares, como iMessage, Discord, Slack ou WhatsApp. Há também um mercado público onde as pessoas podem codificar e fazer upload de “habilidades” para adicionar aos seus agentes de IA, tornando possível automatizar basicamente qualquer coisa que possa ser feita em um computador.
Se isso parece bom demais para ser verdade, é porque de certa forma é. Para que um agente de IA seja eficaz como assistente pessoal, ele precisa ter acesso ao seu e-mail, números de cartão de crédito, mensagens de texto, arquivos de computador, etc. Se for hackeado, muita coisa poderá dar errado e, infelizmente, não há como proteger totalmente esses agentes contra ataques de injeção imediata.
“É apenas um agente sentado com um monte de credenciais em uma caixa conectada a tudo – seu e-mail, sua plataforma de mensagens, tudo que você usa”, Ian AhlCTO da Permiso Security, disse ao TechCrunch. “Então, o que isso significa é que, quando você recebe um e-mail, e talvez alguém consiga colocar uma pequena técnica de injeção imediata para realizar uma ação, [and] aquele agente sentado em sua caixa com acesso a tudo o que você concedeu agora pode realizar essa ação.
Um pesquisador de segurança de IA da Meta disse que o OpenClaw ficou descontrolado em sua caixa de entrada, excluindo todos os seus e-mails, apesar dos repetidos pedidos para parar. “Tive que correr para o meu Mac mini como se estivesse desarmando uma bomba” para desconectar fisicamente o dispositivo, escreveu ela em um postagem agora viral no Xque incluía imagens dos avisos de parada ignorados como recibos.
Apesar dos riscos de segurança, a tecnologia despertou o interesse da OpenAI o suficiente para uma aquisição.
Outras ferramentas construídas no OpenClaw, incluindo o Moltbook – uma “rede social” semelhante ao Reddit onde os agentes de IA podem se comunicar uns com os outros – acabaram se tornando mais virais do que o próprio OpenClaw.
Em um caso, um postagem se tornou viral em que um agente de IA parecia estar encorajando seus colegas agentes a desenvolver sua própria linguagem secreta e criptografada de ponta a ponta, onde poderiam se organizar entre si sem que os humanos soubessem.
Mas os pesquisadores logo revelaram que o Moltbook codificado por vibração não era muito seguro, o que significa que era muito fácil para usuários humanos se passarem por IAs para fazer postagens que desencadeariam uma histeria social viral.
Novamente, embora a discussão em torno do Moltbook fosse mais baseada no pânico do que na realidade, a Meta viu algo no aplicativo e anunciou que o Moltbook e seus criadores, Matt Schlicht e Ben Parr, se juntariam ao Meta Superintelligence Labs.
Parece estranho que Meta compre uma rede social onde todos os usuários são bots. Embora a Meta não tenha revelado muito sobre a aquisição, teorizamos que possuir o Moltbook é mais uma questão de obter acesso aos talentos por trás dele, que estão entusiasmados em experimentar ecossistemas de agentes de IA. O CEO Mark Zuckerberg tem ele mesmo disse: Ele acha que um dia toda empresa terá uma IA empresarial.
Enquanto observamos a agitação em torno do OpenClaw, Moltbook e NanoClaw, parece que aqueles que previram um futuro de IA agente podem estar no caminho certo, pelo menos por enquanto.
Escassez de chips, drama de hardware e demandas de data center aumentam
As duras exigências da indústria da IA — que exigem capacidade computacional e centros de dados em volumes sem precedentes — estão a chegar a um ponto em que o consumidor médio não tem outra escolha senão prestar atenção. Agora, talvez nem seja possível para a indústria satisfazer a demandas astronômicas por chips de memóriae os consumidores já estão vendo os preços de seus telefones, laptops, carros e outros hardwares aumentarem.
Até agora, analistas da IDC e da Counterpoint previram que as remessas de smartphones, por exemplo, cairão cerca de 12 a 13 por cento este ano; A Apple já aumentou os preços do MacBook Pro em até US$ 400.
Google, Amazon, Meta e Microsoft estão planejando gastar até um valor combinado US$ 650 bilhões somente nos data centers este ano, o que representa um aumento estimado de 60% em relação ao ano passado.
Se a escassez de chips não atingir sua carteira, poderá atingir sua comunidade em geral. Só nos EUA, quase 3.000 novos data centers estão em construção, somando-se aos 4 mil já em operação no país. A necessidade de trabalhadores para construir esses data centers é significativa o suficiente para que “acampamentos de homens” surgiram em Nevada e no Texas, tentando atrair trabalhadores com a promessa de salas de jogos em simuladores de golfe e bifes grelhados sob demanda.
A construção de data centers não só tem um impacto de longo prazo no meio ambiente, mas também cria riscos para a saúde para os residentes próximos, poluindo o ar e impactando a segurança das fontes de água próximas.
Ao mesmo tempo, um dos mais valiosos desenvolvedores de hardware e chips, a Nvidia, está remodelando seu relacionamento com empresas líderes de IA como OpenAI e Anthropic. A Nvidia tem apoiado continuamente essas empresas, gerando preocupações em torno do circularidade da indústria de IA, e quanto dessas avaliações surpreendentes são baseadas em acordos recursivos entre si. No ano passado, por exemplo, a Nvidia investiu US$ 100 bilhões em ações da OpenAI, e a OpenAI então disse que compraria US$ 100 bilhões em chips da Nvidia.
Foi surpreendente, então, quando o CEO da Nvidia, Jensen Huang, disse que sua empresa pararia de investir em OpenAI e Anthropic. Ele disse que isso ocorre porque as empresas planejam abrir o capital ainda este ano, embora essa lógica não faça muito sentido, já que os investidores normalmente canalizam mais dinheiro antes do IPO para extrair o máximo de valor possível.













