A Anthropic, laboratório de IA com foco em segurança, atingiu um limiar em que sua tecnologia mais recente é considerada potente demais para ser disponibilizada ao público. A empresa decidiu reter seu modelo mais novo, o Claude Mythos Preview, citando sua capacidade sem precedentes de identificar falhas de segurança em infraestruturas digitais existentes. Segundo a companhia, o Mythos já descobriu milhares de vulnerabilidades em software, incluindo bugs críticos que permaneceram ocultos no código por décadas.
A decisão evidencia uma tensão crescente no setor: à medida que os modelos se tornam mais hábeis em raciocinar sobre sistemas complexos, cresce também seu potencial de uso indevido em guerra cibernética ou exploração em larga escala. Em vez de seguir o caminho convencional de um lançamento público, a Anthropic está tratando o Mythos como uma ferramenta defensiva de acesso controlado. A capacidade do modelo de "enxergar" através de camadas de software legado representa um risco sistêmico caso caia nas mãos erradas — mas uma oportunidade única de fortalecimento, se gerenciada corretamente.
Para mitigar esses riscos, a Anthropic lançou o Project Glasswing, uma iniciativa colaborativa que reúne 12 parceiros corporativos selecionados. Por meio do programa, essas empresas recebem acesso ao Mythos Preview especificamente para identificar e corrigir suas próprias vulnerabilidades. O objetivo é proteger os softwares mais críticos do mundo antes que o Mythos — ou um modelo igualmente capaz, desenvolvido por um ator menos cauteloso — seja usado para explorá-los. É uma corrida para consertar os alicerces antes que as ferramentas capazes de derrubá-los se tornem onipresentes.
Com reportagem de El País Tecnología.
Source · El País Tecnología



