Inteligência artificial que se autorreplica de forma independente e evolui sem restrições: esse é o cenário perigoso que o chefe do chatbot Claude da Anthropic imagina. A utilização destas IA autónomas e militarizadas pelos Estados aumentaria enormemente as suas capacidades prejudiciais. E isso não será daqui a 10 anos, mas quase hoje!
Para acreditar no antropólogo Dario Amodei, é melhor não ficar bravo com os robôs ainda. De acordo com as suas previsões, a inteligência artificial poderia copiar-se para sobreviver na natureza dentro de um ano, e isso seria muito perigoso. De qualquer forma, foi o que foi anunciado durante a reunião entrevista Com um jornalista do New York Times. Graças ao Chatbot Claude, o ex-membro da OpenAI sabe do que está falando.
Insatisfeita com a filosofia de que a OpenAI é aventureira, focou tudo na segurança e na ética no desenvolvimento do seu modelo de linguagem criando um modelo humanóide. Para entender os riscos da IA de acordo com seu estágio de desenvolvimento, a empresa criou uma métrica baseada em níveis de segurança. Este quadro portaporta O nome doNíveis de segurança de IA (ASL) e a Antropologia identificaram quatro.
Atualmente, os formulários são classificados como ASL nível 2. Os riscos existem, mas são menores. Por outro lado, segundo ele, o nível 4 da ASL poderá ser alcançado em breve com inteligência artificial talentosaindependênciaindependência E capaz de convencer as pessoas. Estes sistemas de inteligência artificial, utilizados pelos países, aumentarão a sua capacidade de assédioassédio.
Robôs auto-replicantes
Dario Amodei já imagina que poderia ser utilizado por países como a Coreia do Norte, a China ou a Rússia para aumentar as suas capacidades ofensivas em diferentes áreas militares. No entanto, de acordo com o cenário de desastre do chefe da antropologia, uma IA autónoma capaz de se auto-reproduzir e sobreviver poderá chegar já no próximo ano, dado que a IA está tão avançada.
Amodei não é a única que fez discursos apocalípticos sobre IA, mas suas previsões têm peso porque ela também é uma criadora informada. Embora na Anthropic o desenvolvimento de IA de Claude seja altamente supervisionado eticamente para garantir maior segurança, nem todos os editores de IA são cuidadosos, especialmente se seu objetivo é transformá-los em uma ferramenta para uso militar. Confiante em si mesmo, Dario Amodei arriscou apostar na sua castidade caso cometesse um erro. Aposto totalmente!