A inteligência artificial poderá se reproduzir e sobreviver na natureza a partir de 2025, e é isso que preocupa o presidente da Anthopic

A inteligência artificial poderá se reproduzir e sobreviver na natureza a partir de 2025, e é isso que preocupa o presidente da Anthopic

Inteligência artificial que se autorreplica de forma independente e evolui sem restrições: esse é o cenário perigoso que o chefe do chatbot Claude da Anthropic imagina. A utilização destas IA autónomas e militarizadas pelos Estados aumentaria enormemente as suas capacidades prejudiciais. E isso não será daqui a 10 anos, mas quase hoje!

Para acreditar no antropólogo Dario Amodei, é melhor não ficar bravo com os robôs ainda. De acordo com as suas previsões, a inteligência artificial poderia copiar-se para sobreviver na natureza dentro de um ano, e isso seria muito perigoso. De qualquer forma, foi o que foi anunciado durante a reunião entrevista Com um jornalista do New York Times. Graças ao Chatbot Claude, o ex-membro da OpenAI sabe do que está falando.

Insatisfeita com a filosofia de que a OpenAI é aventureira, focou tudo na segurança e na ética no desenvolvimento do seu modelo de linguagem criando um modelo humanóide. Para entender os riscos da IA ​​de acordo com seu estágio de desenvolvimento, a empresa criou uma métrica baseada em níveis de segurança. Este quadro portaporta O nome doNíveis de segurança de IA (ASL) e a Antropologia identificaram quatro.

Atualmente, os formulários são classificados como ASL nível 2. Os riscos existem, mas são menores. Por outro lado, segundo ele, o nível 4 da ASL poderá ser alcançado em breve com inteligência artificial talentosaindependênciaindependência E capaz de convencer as pessoas. Estes sistemas de inteligência artificial, utilizados pelos países, aumentarão a sua capacidade de assédioassédio.

Robôs auto-replicantes

Dario Amodei já imagina que poderia ser utilizado por países como a Coreia do Norte, a China ou a Rússia para aumentar as suas capacidades ofensivas em diferentes áreas militares. No entanto, de acordo com o cenário de desastre do chefe da antropologia, uma IA autónoma capaz de se auto-reproduzir e sobreviver poderá chegar já no próximo ano, dado que a IA está tão avançada.

READ  Xbox anuncia segundo ‘Partner Preview’

Amodei não é a única que fez discursos apocalípticos sobre IA, mas suas previsões têm peso porque ela também é uma criadora informada. Embora na Anthropic o desenvolvimento de IA de Claude seja altamente supervisionado eticamente para garantir maior segurança, nem todos os editores de IA são cuidadosos, especialmente se seu objetivo é transformá-los em uma ferramenta para uso militar. Confiante em si mesmo, Dario Amodei arriscou apostar na sua castidade caso cometesse um erro. Aposto totalmente!

You May Also Like

About the Author: Genevieve Goodman

"Criador. Fã de café. Amante da Internet. Organizador. Geek da cultura pop. Fã de TV. Orgulhoso por comer.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *