(São Francisco) OpenAI, gigante da inteligência artificial generativa (IA) e editora do ChatGPT, apresentou na sexta-feira uma ferramenta de clonagem de áudio, cujo uso será restrito para evitar fraudes ou crimes, como roubo de áudio.
Chamado de “Voice Engine”, este modelo de IA pode reproduzir a voz de uma pessoa a partir de uma amostra de áudio de 15 segundos, de acordo com um comunicado de imprensa da OpenAI sobre os resultados de um teste em pequena escala.
“Reconhecemos que a capacidade de gerar sons semelhantes aos humanos acarreta sérios riscos e é especialmente importante neste ano eleitoral”, afirmou a empresa com sede em São Francisco.
“Estamos trabalhando com parceiros dos EUA e internacionais do governo, mídia, entretenimento, educação, sociedade civil e outros setores e levando em consideração seus comentários à medida que desenvolvemos a ferramenta.”
Neste ano eleitoral crucial em todo o mundo, os investigadores da desinformação temem o uso indevido de aplicações generativas de IA (produção automatizada de texto, imagens, etc.), especialmente ferramentas de clonagem de voz, que são baratas, fáceis de usar e difíceis de rastrear.
A OpenAI confirmou que adotou uma “abordagem cautelosa e informada” antes da distribuição mais ampla da nova ferramenta “devido ao potencial de uso indevido de vozes sintéticas”.
Esta oferta cautelosa surge após um grande incidente político, quando um consultor que trabalhava na campanha presidencial do rival democrata Joe Biden desenvolveu um programa automatizado que se fazia passar pelo Presidente dos EUA, na sua campanha de reeleição.
A voz que imita Joe Biden apelou aos eleitores para os encorajar a abster-se de votar nas primárias de New Hampshire.
Desde então, os Estados Unidos proibiram chamadas que utilizem vozes clonadas, geradas por inteligência artificial, para combater fraudes políticas ou comerciais.
A OpenAI explicou que os parceiros que testam o “Voice Engine” concordaram com regras que exigem, entre outras coisas, consentimento explícito e informado de qualquer pessoa cuja voz seja duplicada e transparência para os ouvintes: devem deixar claro que as vozes que ouvem são geradas por artificial inteligência.
“Implementamos uma série de medidas de segurança, incluindo uma marca d'água para que possamos rastrear a origem de todos os sons gerados pelo Voice Engine, bem como monitorar proativamente seu uso”, insistiu OpenAI.
Em Outubro passado, a Casa Branca revelou as regras e princípios que regem o desenvolvimento da inteligência artificial, incluindo a transparência.
Joe Biden ficou comovido com a ideia de que criminosos o estavam usando para prender pessoas, fingindo ser membros da família.