Categories: Tech

Tenha cuidado para não falar apenas consigo mesmo

Sonhamos que ela se dirigiria a nós com a voz de Scarlett Johansson, como a inteligência artificial do filme “Ela”, ou tínhamos medo que ela nos perguntasse com uma campainha metálica: “Sarah Connor?” Agora parece que a máquina está falando. E melhor ainda que nós: podemos detectar o uso de LLMs pela ausência de erros gramaticais. Ao criar hubs, esta antiga fantasia da humanidade, do Golem ao D2R2, aparece agora ao nosso alcance. Porém, esses chatbots realmente falam? Se sim, que impacto isso tem sobre nós, humanos?

Qualquer pessoa interessada em IA generativa sabe que esses modelos são projetados para aproximar as seguintes palavras, transformando-as em vetores matemáticos. O sistema cria assim um texto coerente. Essa característica rendeu ao LLM o apelido de “papagaios aleatórios” e máquinas bobas. Mas é evidente que estes modelos estão a melhorar muito rapidamente e que, apesar das suas deficiências, fornecem uma gama de serviços. A máquina pode ter sua própria maneira de atingir o objetivo.

Mas é a máquina que fala ou somos nós que a ouvimos falar? Talvez um pouco dos dois: através do antropomorfismo, ao projetar a nossa humanidade na máquina, podemos transformar em discurso o texto que ela gera. Na verdade, parler, aí, é a mesma coisa: é a cartilha dos conceitos em que ele está (mais ou menos) que vêm das verités ou de que ele está na mesma página, ou das emoções em que ele está. Qualquer que seja o assunto que esteja sendo discutido, quando falo conto minha história e me abro um pouco. Mas não é isso que a máquina faz: ela não baseia o seu discurso numa existência ou relação com a realidade. Não pretende dizer a verdade, mas responder às nossas expectativas. Desta forma, é satisfatório: a IA está programada para responder aos nossos desejos, e até para antecipar as nossas necessidades.

Ao fazê-lo, evita qualquer contradição, confronto ou atrito: na sua linguagem, não se diz, mas diz-nos a nós próprios: mostra-nos o espelho das nossas exigências. Devemos perceber que gostamos de olhar uns para os outros e ouvir uns aos outros falar. Se decidirmos usar LLMs indiscriminadamente como agentes conversacionais, assistentes ou interlocutores virtuais, corremos o risco de nos desacostumarmos àquela alteridade que resiste à nossa compreensão e que toda a fala humana acarreta.

Como animal social, recebemos dos outros parte da nossa humanidade: ela se enriquece e adquire uma aparência antiga através do contato com eles. É necessário, mas exige muito esforço, pois o outro me tira da zona de conforto. Perder esse hábito ao passar muito tempo no casulo das máquinas significa perder parte da nossa humanidade e da nossa capacidade de formar uma comunidade.

No entanto, também podemos beneficiar de uma linguagem de máquina que é capaz de realizar o que não conseguimos: processar uma grande quantidade de dados, identificar tendências e ser guiados pela voz. Assim, os LLMs abrem muitos caminhos: cabe a nós ter cuidado na estrada.

Share
Published by
Genevieve Goodman

Recent Posts

Brasil: Entenda tudo sobre o caso da joalheria saudita que constrange Jair Bolsonaro

O ex-presidente brasileiro Jair Bolsonaro se encontra em crise mais uma vez. A polícia brasileira…

1 semana ago

O brasileiro preso na Espanha pretendia fugir

Quando questionado pela televisão espanhola, um ex-companheiro de prisão de Daniel Alves afirmou que o…

1 semana ago

Brasil abre o baile para as crianças

Criar uma conta Habilite o JavaScript no seu navegador para acessar o cadastro em…

1 mês ago

Escolhendo o relé térmico certo para a proteção ideal do motor

Os motores elétricos servem como a espinha dorsal das operações industriais, impulsionando uma infinidade de…

1 mês ago

“Nenhum filme sozinho pode proteger os povos indígenas”

René Nader Misura e João Salaviza retratam incansavelmente a resistência Krahu no Nordeste do Brasil.…

2 meses ago

Usando excitações atômicas para medir a rotação do espaço-tempo

A taxa de excitação de átomos sob diferentes valores de ohm. Fonte: Arksif (2024). doi:…

3 meses ago