Anthropic bloqueia acesso público ao Claude Mythos Preview, modelo de IA considerado 'perigoso'
A Anthropic está retendo seu mais recente e poderoso modelo de inteligência artificial do público. O Claude Mythos Preview, anunciado em 7 de maio, demonstrou uma capacidade considerada arriscada pela própria empresa: localizar e corrigir vulnerabilidades em softwares com um grau de precisão alarmante. Em vez de um lançamento amplo, a tecnologia foi disponibilizada apenas a um grupo restrito e selecionado de usuários, sinalizando um nível de cautela incomum mesmo para os padrões da indústria de IA.
A decisão da Anthropic coloca o Claude Mythos Preview em uma categoria especial de ferramentas consideradas muito potentes para uso irrestrito. O modelo não é apenas um assistente de código avançado; sua habilidade em identificar e remediar falhas de segurança em sistemas de software opera em um patamar que levantou bandeiras vermelhas internas. Este movimento reflete um crescente dilema na corrida pelo desenvolvimento de IA: como equilibrar a inovação com a contenção de riscos de segurança cibernética em escala.
A restrição imposta pela empresa mantém a ferramenta fora das mãos de atores mal-intencionados que poderiam explorar suas capacidades para descobrir e potencialmente explorar vulnerabilidades de forma automatizada. No entanto, também priva pesquisadores de segurança e desenvolvedores éticos de uma ferramenta que poderia acelerar drasticamente a correção de falhas críticas. O caso do Mythos Preview ilustra a pressão crescente sobre as empresas de IA frontier para autorregular ferramentas que, embora promissoras, carregam um potencial de duplo uso significativo e imediato.