OpenAI está preocupada em ver sua voz de IA seduzindo usuários

OpenAI está preocupada em ver sua voz de IA seduzindo usuários

A OpenAI, empresa que lançou o software de IA generativo ChatGPT, estava preocupada com o facto de o som realista do seu software poder levar os utilizadores a apegarem-se a ele, à custa das interações humanas.

“O antropomorfismo envolve atribuir atitudes ou características humanas a algo não humano, como um modelo de inteligência artificial”, disse a empresa em relatório divulgado quinta-feira.

“O risco pode aumentar devido às funções vocais do GPT-4, que facilitam interações semelhantes às humanas”, observa o relatório.

O documento foi publicado um dia antes do lançamento da nova versão do ChatGPT, GPT-4o, que inclui a capacidade do software responder vocalmente e conduzir o equivalente a uma conversa.

Mas ter o mesmo tipo de conversa com uma IA que você pode ter com um ser humano pode criar “confiança equivocada” no software, o que o áudio adicionado pode reforçar.

A OpenAI confirma especificamente que foi capaz de observar trocas entre testadores da nova versão com a IA que pareciam mostrar a criação de um vínculo emocional, como expressar pesar por este ser o último dia juntos.

“Estes casos parecem certamente insignificantes, mas destacam a necessidade de mais investigação sobre como estes efeitos surgem a longo prazo”, conclui o relatório.

Entrar em alguma forma de relacionamento social com IA também poderia encorajar os usuários a reduzir seu desejo de ter relacionamentos com humanos, prevê a OpenAI.

“As interações prolongadas com o modelo podem ter impacto nas normas sociais. Por exemplo, nossos modelos são sempre respeitosos, permitindo que os usuários os interrompam a qualquer momento, um comportamento que pode estar fora das normas das interações sociais, embora normal para IA.”

substituir

A capacidade da IA ​​de lembrar detalhes de conversas e realizar tarefas atribuídas também pode fazer com que os usuários dependam demais da tecnologia.

READ  GTA Vice City chega em Switch ... não oficialmente

“Essas novas preocupações compartilhadas pela OpenAI sobre o risco de dependência potencial do áudio ChatGPT ressaltam até que ponto surge a questão: Devemos dedicar um tempo e procurar entender como a tecnologia afeta as interações e relacionamentos humanos?” disse Alon Yamin, cofundador e CEO da Copyleaks, uma plataforma de detecção de plágio por IA.

E acrescentou: “A inteligência artificial é uma tecnologia complementar que visa ajudar-nos a simplificar o nosso trabalho e a nossa vida quotidiana, e não deve tornar-se um substituto para relações humanas reais”.

A OpenAI confirmou que continuará estudando como a funcionalidade de voz da IA ​​pode tornar os usuários emocionalmente ligados a ela.

Os testadores também conseguiram fazer com que ele repetisse informações falsas ou criasse teorias da conspiração, levantando preocupações sobre os riscos do modelo de IA.

A funcionalidade de voz do Chat-GPT já provocou muitas reações adversas e forçou a OpenAI a pedir desculpas à atriz Scarlett Johansson em junho passado por usar uma voz muito próxima da sua, gerando debate sobre os riscos associados à transcrição de vozes usando a tecnologia.

Se a empresa nega ter usado a voz de Johansson, o fato de seu presidente, Sam Altman, ter destacado a função de voz nas redes sociais usando uma palavra, “ela”, em referência ao filme em que a atriz interpreta uma inteligência artificial, não nega isso. Ajude-a a conquistar a condenação dos observadores.

O filme, lançado em 2013, conta a história de um homem, interpretado por Joaquin Phoenix, que se apaixona por sua inteligência artificial, Samantha, dublada por Scarlett Johansson.

You May Also Like

About the Author: Genevieve Goodman

"Criador. Fã de café. Amante da Internet. Organizador. Geek da cultura pop. Fã de TV. Orgulhoso por comer.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *