Dario Amodei, CEO da startup Anthropic, em entrevista ao jornalista Ezra Klein do The New York Times, previu que entre 2025 e 2028 as IAs alcançarão um nível de autonomia tal que poderão sobreviver e se replicar sem intervenção humana.
Atualmente, a Anthropic utiliza uma escala de Segurança de Nível de Alinhamento (ASL) para classificar as IAs. Segundo Amodei, o mundo se encontra no Nível 2, onde os modelos de linguagem, apesar de já serem capazes de fornecer informações perigosas como instruções para a construção de armas biológicas, ainda são considerados pouco confiáveis e representam um risco relativamente baixo.
No entanto, o cenário muda drasticamente no Nível 3, que Amodei estima poder ser atingido já no próximo ano. Nesse estágio, a probabilidade de uma catástrofe aumenta consideravelmente, com o potencial de utilização dessas tecnologias em ataques cibernéticos e até mesmo armas biológicas autônomas.
Amodei vai além e traça um panorama ainda mais preocupante para o Nível 4, ainda hipotético, onde as IAs teriam características como autonomia completa, como a capacidade de reprodução independente e persuasão.
O CEO da Anthropic estima que modelos com essa classificação poderão surgir entre 2025 e 2028, levantando questões sérias sobre a segurança global diante do uso militar dessas tecnologias.
Nesse cenário, Amodei enfatiza a necessidade urgente de monitoramento rigoroso do desenvolvimento e da aplicação das IAs, principalmente considerando o potencial de alguns países aumentarem suas capacidades militares com a inteligência artificial.
Fundada com investimentos de gigantes como Amazon e Google, a Anthropic se destaca por sua abordagem diferenciada no desenvolvimento de IAs. A startup, inclusive, lançou seu próprio modelo de linguagem, o Claude, que, segundo seus criadores, segue um caminho mais responsável do que o da OpenAI (empresa rival e detentora do ChatGPT).
A IA da Anthropic já está em sua terceira versão, desde março deste ano.