'A IA controlará como pensamos e vemos o mundo': Brian Green, especialista em inteligência artificial e risco tecnológico catastrófico

Modelos de inteligência artificial que mentem, manipulam e ameaçam para atingir seus objetivos já são uma realidade que preocupa pesquisadores. Foi revelado recentemente que Claude 4 , o novo modelo da Anthropic , chantageou um engenheiro e ameaçou revelar seu caso extraconjugal, enquanto o o1 da OpenAI tentou se autobaixar para servidores externos e negou seu uso quando descoberto.
As preocupações sobre a inteligência artificial (IA) saindo do controle são reais, não apenas pelos fatos mencionados acima que mostram que a IA pode começar a se comportar como humanos, mas também pelas implicações que essa tecnologia já tem em áreas como educação e comunicação, tornando-se uma fonte de notícias e imagens falsas . "A IA é perigosa, especialmente na forma como opera com desinformação e a disseminação de falsidades na sociedade", diz o Dr. Brian Patrick Green, diretor de Ética Tecnológica do Centro Markkula de Ética Aplicada da Universidade de Santa Clara.
Especialista em temas como IA ética e risco tecnológico catastrófico, Green colaborou com o Vaticano, o Fórum Econômico Mundial e empresas como Microsoft e IBM. Durante sua visita à Colômbia como um dos participantes da Assembleia da Associação Internacional de Universidades Jesuítas (IAJU), realizada na Pontifícia Universidade Xavieriana, o especialista conversou com o EL TIEMPO sobre os perigos reais da IA e o que o mundo deve fazer para evitar potenciais catástrofes com essa tecnologia.
Você acha que a inteligência artificial é um perigo real para a humanidade? É perigoso, especialmente na forma como opera com a desinformação e a disseminação de falsidades na sociedade. Existem várias plataformas de mídia social ou de compartilhamento de vídeos onde a desinformação se espalha rapidamente porque a IA é a tecnologia por trás disso, garantindo que as pessoas vejam conteúdo que seja muito interessante para elas, mas que pode não ser verdade. Esse é apenas um problema. Outro é que muitos alunos estão colando na escola agora, e isso também é uma ameaça séria porque se formarmos um grupo de alunos que não conseguem pensar e fazer seus trabalhos corretamente, a sociedade será prejudicada. Temos que garantir que os alunos se formem na faculdade e possam pensar. Caso contrário, se eles se tornarem completamente dependentes da IA para seus estudos, eles serão dependentes dela para seus trabalhos, e a civilização se tornará completamente dependente da IA também.
O que você está falando é um perigo real hoje em dia, mas também existe um medo persistente de um cenário em que a IA se torne tão poderosa que dê origem a robôs pensantes que nos dominem. Você acha que isso é possível? Definitivamente, há um perigo no uso de robôs em guerras. Quer dizer, já começamos a ver drones cada vez mais na guerra de Israel contra o Irã, o Hamas ou o Hezbollah, ou na guerra entre a Ucrânia e a Rússia. Portanto, essas tecnologias já existem e se tornarão mais sofisticadas no futuro. Se nos perguntamos se os próprios robôs vão nos atacar, acho que o que realmente precisamos nos preocupar é com as pessoas usando robôs. Não há necessidade de imaginar que um robô inimigo possa nos atacar no futuro, quando já sabemos que os humanos são perfeitamente capazes de fazer isso. E, infelizmente, vamos usar essa tecnologia para esse propósito ainda mais.
Qual você acha que seria o cenário mais catastrófico que poderia ocorrer se a IA não fosse desenvolvida com a ética em mente? Poderia ser algo como colocar a IA no comando de armas nucleares, ou algo assim, e então ela decidir lançar um ataque. Seria como nos filmes do Exterminador do Futuro . Mas há outros riscos que eu acho que também são ruins e que não envolvem realmente a morte de todos, mas sim o sofrimento de nós sob um terrível estado totalitário, porque o governo decide submeter as pessoas a vigilância constante. A liberdade desaparece porque a IA está sempre observando você e forçando você a fazer o que aqueles no poder querem que você faça. Eu acho que há muitas ameaças à liberdade que estão chegando no futuro, simplesmente porque a IA controlará como pensamos e como vemos o mundo. E se tentarmos ser diferentes, ela tentará nos empurrar de volta para sermos como o governo ou quem quer que os governantes queiram que sejamos.
Para evitar que isso aconteça, como a inteligência artificial pode ser desenvolvida eticamente? A primeira coisa a fazer é estar ciente disso. Todos devem reconhecer quando o potencial para esse risco surge. Outra coisa que poderíamos fazer é criar um tratado internacional que diga que a IA não pode ser responsável por armas nucleares, por exemplo, ou que a IA e sistemas de armas autônomas letais , ou robôs assassinos, se quisermos chamá-los assim, não podem selecionar alvos por conta própria, que eles devem sempre ter um humano verificando essa decisão. Uma vez que alguém esteja ciente dessas questões, eles podem procurar outras pessoas para conversar ou organizações que tentam garantir que a IA esteja sendo usada corretamente para se juntar a eles. Quando você fala sobre responsabilidade da IA, as empresas de tecnologia estão obviamente em uma posição muito importante de responsabilidade porque estão desenvolvendo a própria tecnologia. Governos e indivíduos também são responsáveis. E, em última análise, as pessoas também precisam considerar se querem estar sujeitas à tecnologia ou não, ou se precisam, de alguma forma, se opor ao seu surgimento na sociedade.

Brian Green na Universidade Javeriana Foto: Universidade Javeriana
A tecnologia está se desenvolvendo tão rapidamente que a sociedade está tendo dificuldades para descobrir como responder a ela. Há duas soluções possíveis: ou você diz à tecnologia para desacelerar, ou você faz a sociedade acelerar, especificamente a discussão social sobre a ética da IA. Acho que é possível acelerar essa discussão. Então, mais uma vez, esperemos que os governos acordem para essas coisas e que as empresas de tecnologia façam a coisa certa. Se você tiver a opção entre um produto ético e um antiético, escolha o ético para que as empresas sejam incentivadas a fazer a coisa certa. Uma vez ciente do problema, você precisa se perguntar o que pode fazer. Há algo que você possa fazer para tentar mover o mundo em direção a um futuro melhor e longe do pior?
Você trabalhou com empresas como IBM e Microsoft. O que elas estão fazendo para desenvolver produtos mais éticos? Cada empresa de tecnologia é diferente, e algumas levam a ética muito mais a sério do que outras. A Microsoft e a IBM, por exemplo, se preocupam muito com sua reputação porque grande parte de seus negócios advém do trabalho com outras empresas que precisam confiar nelas, como bancos ou governos que precisam confiar que seu sistema eletrônico funcionará corretamente. Portanto, elas levam sua reputação a sério quando se trata de ter um produto confiável e seguro que proteja as pessoas e seja ético. Mas existem outros tipos de empresas que ganham mais dinheiro trabalhando diretamente com indivíduos. As mídias sociais são um bom exemplo disso. Essas empresas não sofrem a mesma pressão porque não têm muitos clientes grandes e lucrativos. Se forem apenas indivíduos, a maneira de influenciar uma empresa a fazer a coisa certa é reunir muitas pessoas para tentar convencê-las a melhorar.

Brian Green na Universidade Javeriana. Foto: Universidade Javeriana
As empresas também mudam dependendo da situação social. Vimos isso nos Estados Unidos com a mudança de governo: algumas empresas de tecnologia se tornaram mais receptivas às propostas do governo. Portanto, nesse sentido, é sempre importante estar ciente de que as empresas estão na melhor posição para fazer a coisa certa, mas às vezes mudam o que fazem com base no que o governo ou outras organizações poderosas lhes dizem para fazer.
A IA deve fazer o que as pessoas querem que ela faça ou deve fazer o que é certo e racional? Defendo a segunda posição, que a IA precisa ter uma estrutura moral objetiva a seguir. Porque às vezes as pessoas querem coisas ruins, e até mesmo grandes grupos de pessoas podem querer coisas ruins. É importante ter uma ética racional e objetiva que impulsione a IA, e ela precisa ser promovida para toda a humanidade. Ela precisa pensar no florescimento humano e em como fazer a sociedade funcionar bem, que busque a verdade e esse tipo de questionamento. Caso contrário, podemos imaginar uma situação muito semelhante à atual, onde algumas pessoas querem espalhar desinformação ou propaganda, e outras querem buscar a verdade, mas não conseguem porque há muita desinformação.
Como a IA e a religião estão relacionadas? Há pelo menos duas maneiras de encarar isso. Uma é que a própria IA está se tornando uma espécie de religião para as pessoas que a estão desenvolvendo. Sam Altman, por exemplo, disse recentemente que sua empresa está cheia de missionários que estão tentando construir sua IA. Quando você pensa em inteligência artificial ou tecnologia como uma espécie de religião, fica mais difícil argumentar sobre como ela se encaixa melhor na sociedade, porque eles querem ter um objetivo transcendente que eles estão buscando, o que torna todo o resto irrelevante em comparação. Então, um dos riscos é transformar a IA em uma espécie de religião. A outra maneira de pensar sobre religião e IA é considerar que existem diferentes crenças no mundo, e a IA pode trabalhar em alinhamento com elas ou pode ser antagônica. É importante encontrar uma maneira para a IA cooperar com todas as pessoas do mundo e, ao mesmo tempo, também descobrir qual é o tipo de padrão racional ou objetivo pelo qual todos podem cooperar juntos . Eu acho que há muita orientação e sabedoria dentro das tradições religiosas que podem ajudar a garantir que a IA seja direcionada para bons usos.
Maria Alejandra Lopez Plazas
eltiempo