OpenAI está preocupada em ver sua voz de IA seduzindo usuários

OpenAI está preocupada em ver sua voz de IA seduzindo usuários

A OpenAI, empresa que lançou o software de IA generativo ChatGPT, estava preocupada com o facto de o som realista do seu software poder levar os utilizadores a apegarem-se a ele, à custa das interações humanas.

“O antropomorfismo envolve atribuir atitudes ou características humanas a algo não humano, como um modelo de inteligência artificial”, disse a empresa em relatório divulgado quinta-feira.

“O risco pode aumentar devido às funções vocais do GPT-4, que facilitam interações semelhantes às humanas”, observa o relatório.

O documento foi publicado um dia antes do lançamento da nova versão do ChatGPT, GPT-4o, que inclui a capacidade do software responder vocalmente e conduzir o equivalente a uma conversa.

Mas ter o mesmo tipo de conversa com uma IA que você pode ter com um ser humano pode criar “confiança equivocada” no software, o que o áudio adicionado pode reforçar.

A OpenAI confirma especificamente que foi capaz de observar trocas entre testadores da nova versão com a IA que pareciam mostrar a criação de um vínculo emocional, como expressar pesar por este ser o último dia juntos.

“Estes casos parecem certamente insignificantes, mas destacam a necessidade de mais investigação sobre como estes efeitos surgem a longo prazo”, conclui o relatório.

Entrar em alguma forma de relacionamento social com IA também poderia encorajar os usuários a reduzir seu desejo de ter relacionamentos com humanos, prevê a OpenAI.

“As interações prolongadas com o modelo podem ter impacto nas normas sociais. Por exemplo, nossos modelos são sempre respeitosos, permitindo que os usuários os interrompam a qualquer momento, um comportamento que pode estar fora das normas das interações sociais, embora normal para IA.”

substituir

A capacidade da IA ​​de lembrar detalhes de conversas e realizar tarefas atribuídas também pode fazer com que os usuários dependam demais da tecnologia.

READ  [MWC 2024] Lenovo oferece um laptop com tela transparente

“Essas novas preocupações compartilhadas pela OpenAI sobre o risco de dependência potencial do áudio ChatGPT ressaltam até que ponto surge a questão: Devemos dedicar um tempo e procurar entender como a tecnologia afeta as interações e relacionamentos humanos?” disse Alon Yamin, cofundador e CEO da Copyleaks, uma plataforma de detecção de plágio por IA.

E acrescentou: “A inteligência artificial é uma tecnologia complementar que visa ajudar-nos a simplificar o nosso trabalho e a nossa vida quotidiana, e não deve tornar-se um substituto para relações humanas reais”.

A OpenAI confirmou que continuará estudando como a funcionalidade de voz da IA ​​pode tornar os usuários emocionalmente ligados a ela.

Os testadores também conseguiram fazer com que ele repetisse informações falsas ou criasse teorias da conspiração, levantando preocupações sobre os riscos do modelo de IA.

A funcionalidade de voz do Chat-GPT já provocou muitas reações adversas e forçou a OpenAI a pedir desculpas à atriz Scarlett Johansson em junho passado por usar uma voz muito próxima da sua, gerando debate sobre os riscos associados à transcrição de vozes usando a tecnologia.

Se a empresa nega ter usado a voz de Johansson, o fato de seu presidente, Sam Altman, ter destacado a função de voz nas redes sociais usando uma palavra, “ela”, em referência ao filme em que a atriz interpreta uma inteligência artificial, não nega isso. Ajude-a a conquistar a condenação dos observadores.

O filme, lançado em 2013, conta a história de um homem, interpretado por Joaquin Phoenix, que se apaixona por sua inteligência artificial, Samantha, dublada por Scarlett Johansson.

You May Also Like

About the Author: Genevieve Goodman

"Criador. Fã de café. Amante da Internet. Organizador. Geek da cultura pop. Fã de TV. Orgulhoso por comer.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *