A OpenAI, empresa que lançou o software de IA generativo ChatGPT, estava preocupada com o facto de o som realista do seu software poder levar os utilizadores a apegarem-se a ele, à custa das interações humanas.
“O antropomorfismo envolve atribuir atitudes ou características humanas a algo não humano, como um modelo de inteligência artificial”, disse a empresa em relatório divulgado quinta-feira.
“O risco pode aumentar devido às funções vocais do GPT-4, que facilitam interações semelhantes às humanas”, observa o relatório.
O documento foi publicado um dia antes do lançamento da nova versão do ChatGPT, GPT-4o, que inclui a capacidade do software responder vocalmente e conduzir o equivalente a uma conversa.
Mas ter o mesmo tipo de conversa com uma IA que você pode ter com um ser humano pode criar “confiança equivocada” no software, o que o áudio adicionado pode reforçar.
A OpenAI confirma especificamente que foi capaz de observar trocas entre testadores da nova versão com a IA que pareciam mostrar a criação de um vínculo emocional, como expressar pesar por este ser o último dia juntos.
“Estes casos parecem certamente insignificantes, mas destacam a necessidade de mais investigação sobre como estes efeitos surgem a longo prazo”, conclui o relatório.
Entrar em alguma forma de relacionamento social com IA também poderia encorajar os usuários a reduzir seu desejo de ter relacionamentos com humanos, prevê a OpenAI.
“As interações prolongadas com o modelo podem ter impacto nas normas sociais. Por exemplo, nossos modelos são sempre respeitosos, permitindo que os usuários os interrompam a qualquer momento, um comportamento que pode estar fora das normas das interações sociais, embora normal para IA.”
substituir
A capacidade da IA de lembrar detalhes de conversas e realizar tarefas atribuídas também pode fazer com que os usuários dependam demais da tecnologia.
“Essas novas preocupações compartilhadas pela OpenAI sobre o risco de dependência potencial do áudio ChatGPT ressaltam até que ponto surge a questão: Devemos dedicar um tempo e procurar entender como a tecnologia afeta as interações e relacionamentos humanos?” disse Alon Yamin, cofundador e CEO da Copyleaks, uma plataforma de detecção de plágio por IA.
E acrescentou: “A inteligência artificial é uma tecnologia complementar que visa ajudar-nos a simplificar o nosso trabalho e a nossa vida quotidiana, e não deve tornar-se um substituto para relações humanas reais”.
A OpenAI confirmou que continuará estudando como a funcionalidade de voz da IA pode tornar os usuários emocionalmente ligados a ela.
Os testadores também conseguiram fazer com que ele repetisse informações falsas ou criasse teorias da conspiração, levantando preocupações sobre os riscos do modelo de IA.
A funcionalidade de voz do Chat-GPT já provocou muitas reações adversas e forçou a OpenAI a pedir desculpas à atriz Scarlett Johansson em junho passado por usar uma voz muito próxima da sua, gerando debate sobre os riscos associados à transcrição de vozes usando a tecnologia.
Se a empresa nega ter usado a voz de Johansson, o fato de seu presidente, Sam Altman, ter destacado a função de voz nas redes sociais usando uma palavra, “ela”, em referência ao filme em que a atriz interpreta uma inteligência artificial, não nega isso. Ajude-a a conquistar a condenação dos observadores.
O filme, lançado em 2013, conta a história de um homem, interpretado por Joaquin Phoenix, que se apaixona por sua inteligência artificial, Samantha, dublada por Scarlett Johansson.
O ex-presidente brasileiro Jair Bolsonaro se encontra em crise mais uma vez. A polícia brasileira…
Quando questionado pela televisão espanhola, um ex-companheiro de prisão de Daniel Alves afirmou que o…
Criar uma conta Habilite o JavaScript no seu navegador para acessar o cadastro em…
Os motores elétricos servem como a espinha dorsal das operações industriais, impulsionando uma infinidade de…
René Nader Misura e João Salaviza retratam incansavelmente a resistência Krahu no Nordeste do Brasil.…
A taxa de excitação de átomos sob diferentes valores de ohm. Fonte: Arksif (2024). doi:…