Política

3/Política/post-list

Editors Choice

3/recent/post-list

Geral

3/GERAL/post-list

Mundo

3/Mundo/post-list
Na Mira do Povo

Anthropic restringe acesso a modelo de IA considerado “perigoso”

Startup disponibiliza tecnologia avançada de segurança cibernética a consórcio de 40 empresas; público geral fica de fora. O fundador do Instagram e executivo da Anthropic, Mike Krieger, durante fala no evento Brazil at Silicon Valley - Divulgação/monking.br

Porto Velho, RO - A Anthropic decidiu não lançar (ainda) ao público geral seu mais recente modelo de IA, o Claude Mythos Preview, anunciado na terça-feira, 7. A tecnologia demonstrou capacidade de localizar e corrigir vulnerabilidades em softwares com um grau de precisão que a própria empresa considerou arriscado para uso irrestrito.

O modelo foi disponibilizado a um grupo seleto de mais de 40 companhias de tecnologia, entre elas Apple, Amazon, Microsoft, Google, CrowdStrike e o banco JPMorgan Chase. As empresas participantes recebem, em conjunto, US$ 100 milhões em créditos de uso para empregar a ferramenta na identificação de falhas em seus sistemas antes que agentes maliciosos o façam.

Entre os achados documentados pela Anthropic, o Mythos Preview identificou um bug de 27 anos no OpenBSD — sistema operacional de código aberto usado em roteadores e projetado com foco em segurança. O modelo também encontrou uma falha em um software de vídeo que havia passado ilesa por cinco milhões de varreduras automatizadas anteriores.

Brasileiro lidera divisão experimental da Anthropic

Mike Krieger, cofundador do Instagram em 2010 e vice-presidente de produto da Anthropic desde 2024, assumiu no início deste ano a liderança da divisão Labs da empresa, setor voltado a produtos experimentais e ao desenvolvimento de aplicações futuras dos modelos da startup.

Em evento na Califórnia, Krieger explicou a decisão de restringir o acesso ao Mythos Preview: “Reunimos um grupo de empresas líderes que têm a segurança cibernética entre suas prioridades e decidimos armá-las com o acesso ao modelo, com um monte de créditos para garantir um uso seguro”.

O executivo, que saiu do Brasil em 2004 para estudar na Universidade Stanford, descreveu a medida como parte de um padrão da empresa. Segundo ele, não é a primeira vez que a Anthropic freia a liberação de uma tecnologia para organizar o terreno antes. Após criar o Claude Code, modelo voltado à programação automatizada, a startup dedicou o ano de 2025 a reescrever toda a infraestrutura de seu código com base na nova ferramenta.

Krieger citou o Claude Cowork como outro exemplo de tecnologia que amadureceu dentro do laboratório antes de chegar ao mercado.

O produto, que permite à IA operar aplicativos como o Adobe Photoshop diretamente no computador do usuário, passou por uma fase de testes em 2025 marcada por instabilidade: “Foi algo que começamos a testar um ano atrás e era completamente inviável, ocorriam vários erros imprevisíveis”, disse.

Fonte: O Antagonista

Postar um comentário

0 Comentários