A capacidade do ChatGPT de resumir produtos talvez tenha atingido um nível de cinismo que é, no mínimo, surpreendente.
A Amazon está mais uma vez em crise depois de publicar fichas de produtos de IA geradas de forma grosseira. Este é o site Futurismo Que notou um certo número de artigos contendo o mesmo texto, talvez para enganar os consumidores.
Talvez algumas pessoas inteligentes estejam usando o ChatGPT para escrever automaticamente fichas de produtos para coisas, sejam elas reais ou não. Só que a OpenAI, empresa por trás do ChatGPT, não permite tudo, então o título do produto foi substituído por uma frase padrão.
“Sinto muito, mas não posso responder à sua pergunta, pois ela viola os Termos de Serviço da OpenAI. Meu objetivo é fornecer a você a ajuda e as informações corretas para os usuários do Brown”, Título do anúncio, Cor Brown é… A cor dos móveis vendidos por uma marca provavelmente também é gerado aleatoriamente (FOPEAS).
Portanto, este título é o mesmo em dezenas e dezenas de produtos. É uma situação que envergonha a Amazon, especialmente porque o gigante das vendas online já foi responsabilizado por deixar passar produtos drop-shipping e críticas falsas com demasiada facilidade.
Uma posição que tende a destacar produtos que provavelmente são de má qualidade ou que nem existem.
Amazon está se defendendo
Nossos colegas do Futurismo então se perguntam sobre a cadeia de verificação da Amazon, até mesmo se perguntam se há um “piloto a bordo”. A empresa explicou em um comunicado à imprensa que “trabalha muito para fornecer uma experiência de compra confiável [ses] clientes, especialmente exigindo que vendedores terceirizados forneçam informações precisas sobre seus produtos.” Também removeu listagens selecionadas.
A maior parte dos produtos envolvidos no crime se enquadra em uma categoria: móveis. Mas outros produtos podem ser afetados, principalmente no que diz respeito à descrição, por exemplo uma mistura de palavras que não estão relacionadas entre si.