
De assistente de programação a piloto de rover em outro planeta, a Anthropic atravessa um momento de transformação sem precedentes. Em questão de semanas, a empresa protagonizou anúncios que vão desde segurança nacional até a primeira condução assistida por inteligência artificial na superfície de Marte. Sem dúvida, o início de 2026 marca um divisor de águas para a criadora do Claude.
Além disso, a companhia se posicionou de forma contundente sobre temas políticos sensíveis, respondeu a declarações do Secretário de Guerra dos Estados Unidos e reafirmou seu compromisso com um modelo de negócio livre de publicidade. Dessa forma, a Anthropic sinaliza que pretende crescer sem comprometer a confiança dos usuários.
Claude em Marte: IA Guia Rover da NASA por 400 Metros
O anúncio mais surpreendente veio em 30 de janeiro de 2026. O Claude auxiliou o rover Perseverance da NASA a percorrer quatrocentos metros na superfície marciana, tornando-se a primeira inteligência artificial a participar de uma condução em outro planeta. Certamente, esse feito representa um salto que poucos imaginavam tão próximo.
Por outro lado, o avanço não se limitou ao espaço. Em 17 de fevereiro, a Anthropic lançou o Claude Sonnet 4.6, modelo que entrega desempenho de fronteira em codificação, agentes autônomos e trabalho profissional em larga escala. Nesse sentido, a empresa consolida sua posição entre as líderes globais em IA generativa.
Sem Anúncios, Sem Concessões: O Modelo de Negócio
Em 4 de fevereiro, a Anthropic declarou que o Claude permanecerá livre de publicidade. Segundo a empresa, incentivos publicitários são incompatíveis com um assistente de IA genuinamente útil. Consequentemente, a estratégia de expansão de acesso seguirá caminhos alternativos que não comprometam a experiência do usuário.
De fato, essa decisão contrasta fortemente com o modelo adotado por diversas big techs, que monetizam dados e atenção. A Anthropic aposta que a confiança será seu principal diferencial competitivo a longo prazo.
Segurança Nacional e Polêmicas com o Governo dos EUA
Entre 26 e 27 de fevereiro, o CEO Dario Amodei publicou declarações sobre discussões com o Departamento de Guerra, abordando o uso de IA para fins de segurança nacional. Em seguida, a empresa respondeu diretamente a comentários do Secretário de Guerra Pete Hegseth. Primeiramente, a Anthropic reafirmou sua posição sobre uso responsável; posteriormente, orientou clientes sobre possíveis impactos.
Paralelamente, a companhia atualizou sua Responsible Scaling Policy para a versão 3.0, reforçando protocolos de segurança. Também anunciou ferramentas de cibersegurança de fronteira para defensores e métodos para detectar ataques de destilação contra seus modelos.
Expansão Global: Índia, Ruanda e Telecomunicações
A Anthropic inaugurou um escritório em Bengaluru e firmou parcerias estratégicas na Índia. Além disso, assinou um memorando de entendimento com o governo de Ruanda para aplicar IA em saúde e educação. A colaboração com a Infosys para construir agentes de IA voltados a telecomunicações e setores regulados também chamou atenção. Por exemplo, a aquisição da Vercept visa aprimorar as capacidades de uso de computador do Claude.
Assim sendo, a Anthropic deixa claro que sua ambição vai muito além de chatbots. De Marte a mercados emergentes, de políticas de segurança a decisões éticas sobre publicidade, a empresa redesenha o que significa ser uma companhia de inteligência artificial em 2026. Finalmente, resta saber se o mercado acompanhará esse ritmo — ou ficará para trás.
Saiba mais sobre isso, clicando AQUI
Direto Notícias Imparcial, Transparente e Direto!