Categories: Tech

A inteligência artificial poderá se reproduzir e sobreviver na natureza a partir de 2025, e é isso que preocupa o presidente da Anthopic

Inteligência artificial que se autorreplica de forma independente e evolui sem restrições: esse é o cenário perigoso que o chefe do chatbot Claude da Anthropic imagina. A utilização destas IA autónomas e militarizadas pelos Estados aumentaria enormemente as suas capacidades prejudiciais. E isso não será daqui a 10 anos, mas quase hoje!

Para acreditar no antropólogo Dario Amodei, é melhor não ficar bravo com os robôs ainda. De acordo com as suas previsões, a inteligência artificial poderia copiar-se para sobreviver na natureza dentro de um ano, e isso seria muito perigoso. De qualquer forma, foi o que foi anunciado durante a reunião entrevista Com um jornalista do New York Times. Graças ao Chatbot Claude, o ex-membro da OpenAI sabe do que está falando.

Insatisfeita com a filosofia de que a OpenAI é aventureira, focou tudo na segurança e na ética no desenvolvimento do seu modelo de linguagem criando um modelo humanóide. Para entender os riscos da IA ​​de acordo com seu estágio de desenvolvimento, a empresa criou uma métrica baseada em níveis de segurança. Este quadro portaporta O nome doNíveis de segurança de IA (ASL) e a Antropologia identificaram quatro.

Atualmente, os formulários são classificados como ASL nível 2. Os riscos existem, mas são menores. Por outro lado, segundo ele, o nível 4 da ASL poderá ser alcançado em breve com inteligência artificial talentosaindependênciaindependência E capaz de convencer as pessoas. Estes sistemas de inteligência artificial, utilizados pelos países, aumentarão a sua capacidade de assédioassédio.

Robôs auto-replicantes

Dario Amodei já imagina que poderia ser utilizado por países como a Coreia do Norte, a China ou a Rússia para aumentar as suas capacidades ofensivas em diferentes áreas militares. No entanto, de acordo com o cenário de desastre do chefe da antropologia, uma IA autónoma capaz de se auto-reproduzir e sobreviver poderá chegar já no próximo ano, dado que a IA está tão avançada.

Amodei não é a única que fez discursos apocalípticos sobre IA, mas suas previsões têm peso porque ela também é uma criadora informada. Embora na Anthropic o desenvolvimento de IA de Claude seja altamente supervisionado eticamente para garantir maior segurança, nem todos os editores de IA são cuidadosos, especialmente se seu objetivo é transformá-los em uma ferramenta para uso militar. Confiante em si mesmo, Dario Amodei arriscou apostar na sua castidade caso cometesse um erro. Aposto totalmente!

Share
Published by
Genevieve Goodman

Recent Posts

Brasil: Entenda tudo sobre o caso da joalheria saudita que constrange Jair Bolsonaro

O ex-presidente brasileiro Jair Bolsonaro se encontra em crise mais uma vez. A polícia brasileira…

4 dias ago

O brasileiro preso na Espanha pretendia fugir

Quando questionado pela televisão espanhola, um ex-companheiro de prisão de Daniel Alves afirmou que o…

4 dias ago

Brasil abre o baile para as crianças

Criar uma conta Habilite o JavaScript no seu navegador para acessar o cadastro em…

4 semanas ago

Escolhendo o relé térmico certo para a proteção ideal do motor

Os motores elétricos servem como a espinha dorsal das operações industriais, impulsionando uma infinidade de…

1 mês ago

“Nenhum filme sozinho pode proteger os povos indígenas”

René Nader Misura e João Salaviza retratam incansavelmente a resistência Krahu no Nordeste do Brasil.…

2 meses ago

Usando excitações atômicas para medir a rotação do espaço-tempo

A taxa de excitação de átomos sob diferentes valores de ohm. Fonte: Arksif (2024). doi:…

3 meses ago