Selecione o idioma

Portuguese

Down Icon

Selecione o país

Italy

Down Icon

Você parece o ChatGpt. Como a IA nos torna mais gentis, mas mais desconfiados

Você parece o ChatGpt. Como a IA nos torna mais gentis, mas mais desconfiados

Menos de três anos se passaram desde o lançamento do ChatGPT, e a inteligência artificial já começou a mudar não apenas a maneira como trabalhamos e estudamos, mas também a maneira como falamos. No sentido linguístico do termo. É o que afirma um estudo do Instituto Max Planck para o Desenvolvimento Humano, que analisou quase 280.000 vídeos postados no YouTube por canais acadêmicos. O resultado? Desde que o chatbot da OpenAI entrou em nossas vidas, nossa maneira de falar também foi "modelada". O que isso significa? Existem palavras que começamos a usar sem perceber. Elas entram lentamente em nosso léxico, se insinuam em conversas cotidianas, aparecem em vídeos, postagens e podcasts. Mas o que acontece se essas palavras vierem de uma inteligência artificial? Algumas palavras — como "deepen" (aprofundar), "meticulous" (meticuloso), "kingdom" (reino) e "expert" (especialista) — tornaram-se muito mais frequentes. Até 51% a mais do que há três anos. Mas não é coincidência: de acordo com um estudo anterior da Universidade de Stanford, essas são exatamente as expressões preferidas pelo ChatGPT. E agora elas parecem estar se tornando nossas também. Hiromu Yakura, primeiro autor do estudo, explica desta forma: "Estamos internalizando um vocabulário virtual", explica. Em outras palavras: estamos começando a falar como a IA que fala conosco todos os dias. Traduzindo: não somos os únicos a ensinar máquinas a falar como humanos. O movimento inverso já começou. A linguagem da IA ​​nos "molda", e não apenas em texto escrito. A oralidade – especialmente a mais fundamentada, como em vídeos educativos e acadêmicos – está absorvendo, palavra por palavra, o vocabulário das grandes IAs. A mudança é mensurável, não apenas em quantidade, mas também em qualidade. A análise comparou a tendência de palavras típicas da linguagem GPT com termos semelhantes, mas menos associados à inteligência artificial, observando que apenas os primeiros aumentaram acentuadamente após o lançamento do ChatGPT, em 30 de novembro de 2022. Não apenas isso: em mais da metade dos casos, as palavras "semelhantes às GPT" não foram lidas de um script, mas pronunciadas espontaneamente. Uma palavra, acima de tudo, surge como uma marca d'água linguística do novo vocabulário gerativo: "approfondire". Levin Brinkmann, coautor do estudo, a chama de um marcador invisível, uma espécie de marca d'água semântica. Se você a ouvir surgir em uma conversa, talvez não pense nisso, mas talvez haja a longa sombra do ChatGPT por trás dela. Quais as consequências?

Um estudo da Universidade Cornell analisou nosso uso de respostas inteligentes em chats. Na prática, eles conduziram dois experimentos controlados com cerca de 1.000 participantes, usando sugestões automáticas de respostas curtas em texto geradas por uma inteligência artificial durante uma conversa por chat, e-mail ou mensagem. Eles descobriram que o uso de IA torna os chats mais rápidos, mais positivos emocionalmente, e aqueles que a utilizam são considerados mais colaborativos. No entanto, se as pessoas acreditam que seu parceiro está usando inteligência artificial na interação, elas o avaliam como menos colaborativo e mais exigente. Fundamentalmente, não foi o uso real da inteligência artificial que as desencorajou, mas a suspeita de que a estavam usando. Podemos chamar isso de paradoxo da comunicação aumentada. Na prática, quanto mais perfeita a mensagem, mais suspeita ela nos parece. E não importa se nosso interlocutor realmente usou uma IA ou não. A suspeita por si só é suficiente para alterar a percepção que temos dele: nós o julgamos menos autêntico, menos envolvido, mais "mecânico". Não é o uso real da IA ​​que está esfriando os relacionamentos — é a própria linguagem que, quando parece artificial, nos distancia. Malte Jung, professor associado da Universidade Cornell e coautor do estudo, explica bem, dizendo ao The Verge: "Formamos nossas impressões com base em pistas linguísticas. E quando essas pistas parecem artificiais, algo se rompe no relacionamento." Na prática, é como se nosso cérebro acionasse um alarme: "Essa frase não é dele, não é verdade." Nossos pensamentos vão para Blade Runner e sistemas para identificar replicantes. De acordo com pesquisadores, já conseguimos identificar sinais para entender se a outra parte é um humano ou uma máquina. Quanto mais suja, desajeitada e irônica a comunicação, mais humana ela é. Vamos pegar duas frases: "Sinto muito que você esteja chateado" e "Desculpe, fiquei nervoso no jantar, provavelmente não deveria ter pulado a terapia esta semana." A primeira é funcional e fria. A outra é imperfeita, mas viva. A consequência é uma mudança mais profunda. Para Naaman, o verdadeiro risco não é o uso da IA ​​em si, mas a perda da nossa capacidade de pensar com as nossas próprias palavras. "Em vez de articular o que pensamos, simplesmente articulamos o que o chatbot nos sugere. E assim nos tornamos mais persuadidos, mais passivos." E se esse padrão se espalha, a desconfiança cresce. Confiamos apenas na comunicação presencial. Não mais em chats, nem mesmo em videochamadas. Porque é apenas no corpo, no tom, na espontaneidade que reconhecemos um ser humano. O resto – mesmo que mais eficiente – começa a parecer muito polido, muito perfeito. Muito parecido com uma máquina.

ilsole24ore

ilsole24ore

Notícias semelhantes

Todas as notícias
Animated ArrowAnimated ArrowAnimated Arrow