Teremos robôs pensantes até 2030? Ou isso é só propaganda enganosa das grandes empresas de tecnologia?

Hoje em dia, muitas pessoas usam chatbots de inteligência artificial (IA) para tudo, desde sugestões de jantar até combater a solidão, mas será que a humanidade está prestes a criar máquinas que podem pensar por si mesmas — e potencialmente superar seus criadores?
Algumas grandes empresas de tecnologia dizem que esse tipo de avanço, conhecido como inteligência artificial geral (IAG), está a apenas alguns anos de distância. Mas os céticos dizem que não se deve acreditar nesse exagero.
"Sempre que você vir alguém falando sobre AGI, imagine a fada do dente ou o Papai Noel", disse Ed Zitron, apresentador do podcast de tecnologia Better Offline e criador do boletim informativo Where's Your Ed At?.
"Todos esses são conceitos fictícios, incluindo a IA. A diferença é que temos idiotas empresariais investindo bilhões de dólares neles porque não têm mais onde investir seu dinheiro", disse ele ao The Current .
Especialistas discordam sobre os detalhes do que é considerado IA, mas geralmente se considera uma inteligência artificial tão ou mais inteligente que os humanos, com a capacidade de aprender e agir de forma autônoma. Essa inteligência poderia então ser instalada no corpo de um robô, capaz de realizar uma infinidade de tarefas.
Demis Hassabis, CEO do laboratório de IA DeepMind do Google, disse recentemente que sua empresa atingirá a AGI até 2030.
"Meu cronograma tem sido bastante consistente desde o início do DeepMind em 2010, então pensamos que seria uma missão de aproximadamente 20 anos e, surpreendentemente, estamos no caminho certo", disse ele ao New York Times em maio .
Zitron não está convencido. Ele disse que Hassabis é "diretamente incentivado" a promover o progresso de sua empresa e apontou a incerteza quanto à lucratividade de chatbots de IA como o Gemini, do Google, ou o ChatGPT, da OpenAI.
"Nenhuma dessas empresas está realmente ganhando dinheiro com IA generativa... então elas precisam de um novo truque de mágica para fazer as pessoas pararem de trabalhar", disse ele.
AGI 'sempre a 10 anos de distância'A especialista em IA Melanie Mitchell diz que as pessoas têm feito previsões sobre esse tipo de IA inteligente desde a década de 1960 — e essas previsões sempre estiveram erradas.
"A IAG ou algo equivalente está sempre a 10 anos de distância, mas sempre esteve e talvez sempre esteja", disse Mitchell, professor do Instituto Santa Fé, no Novo México, especializado em inteligência artificial, aprendizado de máquina e ciência cognitiva.
Ela disse que não há um acordo universal sobre o que uma AGI funcional deve ser capaz de fazer, mas ela não deve ser confundida com grandes modelos de linguagem como ChatGPT ou Claude, que são um tipo de IA generativa.
Grandes modelos de linguagem (LLMs) que alimentam programas de IA generativa foram treinados em "uma enorme quantidade de linguagem gerada por humanos, seja de sites, livros ou outras mídias" e, como resultado, são "capazes de gerar uma linguagem que soa muito humana", disse ela ao The Current .
Zitron disse que a distinção é importante, porque destaca que "IA generativa não é inteligência, ela está recorrendo a um corpus de informações" que foi alimentado por humanos.
Ele define AGI como "um computador consciente... algo que pode pensar e agir por si mesmo de forma completamente autônoma" e tem a capacidade de aprender.
"Não sabemos como a consciência humana funciona", disse ele. "Como diabos podemos fazer isso com computadores? E a resposta é: não sabemos."

Mitchell se preocupa que, sem uma definição amplamente aceita, haja o risco de que grandes empresas de tecnologia "redefinam a AGI como existência".
"Eles dirão: 'Ah, bem, o que temos aqui é a IA. E, portanto, alcançamos a IA', sem que isso tenha um significado mais profundo do que isso", disse ela.
AGI pode ser 'uma corrida suicida'Há pessoas de fora da indústria de tecnologia que acreditam que a AGI pode estar ao nosso alcance.
"Se nosso cérebro é um computador biológico, bem, isso significa que é possível criar coisas que podem pensar no nível humano", disse Max Tegmark, professor do MIT e presidente do Future of Life Institute, uma organização sem fins lucrativos que visa mitigar os riscos das novas tecnologias.
"E não há nenhuma lei da física dizendo que você não pode fazer melhor", disse ele.
Tegmark acredita que há arrogância ou orgulho excessivo em afirmar que a AGI não pode ser alcançada, da mesma forma que muitas pessoas já pensaram que o voo humano era impossível.
Alguns dos primeiros inventores tentaram, em vão, criar máquinas que imitassem o bater rápido das asas de pássaros menores. Mas o sucesso veio com uma maior compreensão das asas dos pássaros e a ideia de uma máquina que planasse.
"Descobriu-se que era uma maneira muito mais fácil de construir máquinas voadoras", disse Tegmark.
"Vimos a mesma coisa acontecer aqui agora, os sistemas de IA de última geração de hoje são muito mais simples do que cérebros. Encontramos uma maneira diferente de criar máquinas que pensam."
Tegmark diz que não ficaria muito surpreso se "isso acontecesse em dois a cinco anos", mas isso não significa que necessariamente devemos criar robôs que possam superar os humanos.
Ele descreveu essas máquinas inteligentes como uma nova espécie, que poderia facilmente ameaçar o lugar da humanidade na cadeia alimentar "porque é natural que as espécies mais inteligentes assumam o controle".

"[A] corrida para construir superinteligência é uma corrida suicida, mas não precisamos correr essa corrida", disse ele.
"Ainda podemos construir uma IA incrível que cure o câncer e nos dê todos os tipos de ferramentas maravilhosas — sem construir superinteligência."
cbc.ca