Descompactando agentes de IA

Nos últimos seis meses, a OpenAI, a Anthropic, o Google e outras empresas lançaram agentes de navegação na web projetados para realizar tarefas de forma independente, com intervenção humana mínima. O CEO da OpenAI, Sam Altman , chegou a chamar os agentes de IA de "o próximo grande avanço". No episódio de hoje, vamos analisar o que diferencia esses agentes de outras formas de inteligência artificial e se suas capacidades correspondem ao que prometem.
Você pode seguir Michael Calore no Bluesky em @snackfight , Lauren Goode no Bluesky em @laurengoode e Will Knight no Bluesky em @willknight . Escreva para nós em [email protected] .
Como ouvirVocê sempre pode ouvir o podcast desta semana pelo player de áudio nesta página, mas se quiser assinar gratuitamente para receber todos os episódios, veja como:
Se você usa um iPhone ou iPad, abra o aplicativo Podcasts ou simplesmente toque neste link . Você também pode baixar um aplicativo como o Overcast ou o Pocket Casts e pesquisar por "uncanny valley". Também estamos no Spotify .
TranscriçãoObservação: esta é uma transcrição automatizada, que pode conter erros.
Michael Calore: Olá, aqui é o Mike. Antes de começarmos, gostaria de aproveitar a oportunidade para lembrar que gostaríamos de ouvir você. Você tem alguma dúvida sobre IA, política ou privacidade que esteja em sua mente? Ou apenas um tópico que gostaria que abordássemos no programa? Se sim, pode nos escrever para [email protected] . Ou seja, [email protected] . Se você ouve e gosta dos nossos episódios, avalie o programa e deixe uma avaliação no aplicativo de podcast de sua preferência. Isso realmente ajuda outras pessoas a nos encontrar. Olá, pessoal, como estão?
Lauren Goode: Estou bem. Estou aguentando firme. Como vai, Mike?
Michael Calore: Estou ótimo. Me sinto bem. Teremos Will Knight no programa esta semana.
Lauren Goode: Sim, me sinto ótima com isso. Sinto falta da Katie, mas sabemos que ela foi em busca de mais manteiga francesa. Literalmente, ela foi para a França.
Michael Calore: Acho que você trouxe um croissant para nós, Will, não é?
Will Knight: Sim, com certeza. Fresquinho.
Lauren Goode: Obrigada por isso. Você pode continuar no programa agora.
Michael Calore: Este é o Uncanny Valley da WIRED, um programa sobre as pessoas, o poder e a influência do Vale do Silício. Hoje, vamos falar sobre agentes de IA e por que tantas empresas de tecnologia têm apostado alto neles. Nos últimos seis meses, a OpenAI, a Anthropic, o Google e outras empresas lançaram agentes de navegação na web projetados para concluir tarefas de forma independente, com intervenção humana mínima. O CEO da OpenAI, Sam Altman, chamou os agentes de IA de "o próximo grande avanço". Segundo uma estimativa, quase metade das empresas de tecnologia já está adotando ou implementando totalmente agentes de inteligência artificial. Esta semana, vamos nos aprofundar no que torna esses agentes diferentes de outras formas de inteligência de máquina e se suas capacidades podem corresponder ao hype. Sou Michael Calore, diretor de tecnologia e cultura do consumidor aqui na WIRED.
Lauren Goode: Sou Lauren Goode, correspondente sênior na WIRED.
Will Knight: E eu sou Will Knight, redator sênior da WIRED.
Michael Calore: Gostaria de começar perguntando se algum de vocês teve experiências com agentes na vida ultimamente?
Lauren Goode: Tive uma experiência recentemente com... você se lembra do Google Duplex?
Michael Calore: Claro.
Lauren Goode: OK. Essa foi uma versão inicial. Saiu por volta de 2018; escrevemos sobre isso na época na WIRED. Mas tentei fazer uma reserva para jantar recentemente naquele lugar que você e eu fomos no seu aniversário. Sushi vegano. Este já é o podcast mais San Francisco de todos os tempos. Estamos falando sobre sushi vegano e como enviei, sem saber, um agente de IA para tentar fazer a reserva para mim.
Michael Calore: Como foi sem saber?
Lauren Goode: Porque eu simplesmente fiz o que era bem humano: entrei em um site e digitei "gostaria de fazer uma reserva para este número de pessoas neste horário". Sem que eu soubesse, ele canalizou a informação para o Google Assistente. Aí, ele disse: "Estamos tentando o restaurante em seu nome".
Michael Calore: Ah.
Lauren Goode: E continuou tentando, e então me enviava uma notificação. Então, continuou tentando, e então me enviava uma notificação. Estava trabalhando nos bastidores para tentar fazer uma reserva. Não conseguiu concluir a reserva com sucesso. Isso conta?
Michael Calore: Sim, isso conta totalmente.
Lauren Goode: Isso é um agente de IA? Estava trabalhando para mim.
Michael Calore: Sim.
Lauren Goode: Will, e você?
Will Knight: Tenho brincado com ferramentas de codificação de IA, principalmente com o Claude Code, que eu acho que é um bom exemplo de agente. Porque ele faz todas essas coisas divertidas, como não só escrever código, mas também editar arquivos e movê-los. Usa seu terminal. Apaga coisas se você não tiver sorte. Essa é a coisa de agente com a qual tenho brincado.
Lauren Goode: O que você está dizendo é que você está fazendo codificação de vibração.
Will Knight: Sim, já. Tem sido fascinante. Codificação Vibe é um termo que um pesquisador de IA muito conhecido, Andrej Karpathy, criou para descrever basicamente a criação de programas inteiros, softwares finalizados, apenas acionando um modelo. Esses modelos sempre foram capazes de completar códigos automaticamente, mas se tornaram tão bons em codificação no último ano que conseguem criar projetos inteiros envolvendo muitos arquivos, muitas pastas e tudo mais. Na verdade, comecei a fazer isso com meu filho porque pensei: "Como você ensina uma criança a entender a IA?" E também, você sempre achou que seria uma boa ideia fazê-los programar. Ele adora jogos, então pensei: "Vamos programar alguns jogos".
Michael Calore: Bem, minha experiência é bem menos técnica, porque recentemente tive que fazer uma alteração em uma reserva de avião pelo aplicativo da Southwest.
Lauren Goode: Sinto muito.
Michael Calore: Sim. Bem, na verdade foi bom.
Lauren Goode: Minhas condolências.
Michael Calore: Isso me levou ao chatbot. Foi tipo "fale com o nosso chatbot se precisar de ajuda". Eu pensei: "Ah, isso vai ser irritante". Na verdade, foi tranquilo. Levou cinco minutos. Dei meu número de confirmação e as informações do meu voo. Então ele perguntou: "Que alteração você gostaria de fazer?". Eu disse: "Eu gostaria de fazer isso". Eles disseram: "Podemos fazer isso para você sem taxa". Eu disse: "Ótimo". "Você quer reservar?" Sim. "OK, está reservado. Aqui está seu novo cartão de embarque. Você precisa fazer o check-in, mas aqui está o link para fazer o check-in e obter seu novo cartão de embarque". Eu pensei: "Uau".
Lauren Goode: É desse agente que estamos falando? É um agente de atendimento ao cliente.
Michael Calore: Certo.
Lauren Goode: E é um bot replicando isso. Mas esta nova era de IA agêntica, com empresas de tecnologia arrecadando milhões de dólares e com avaliações bilionárias porque estão recorrendo a agentes, não é exatamente isso, certo?
Michael Calore: Certo. Essa é uma boa pergunta para o Will. Podemos te dar uma resposta, Will? Qual é a diferença entre um agente de IA do qual estamos falando e um chatbot tradicional, que a maioria das pessoas já experimentou?
Will Knight: Certo. O chatbot gera texto e você pode se comunicar com ele por meio desse domínio de texto muito, muito restrito. Isso tem sido extraordinariamente poderoso. A revolução que vimos é construída em torno desses modelos de linguagem que podem produzir respostas extraordinariamente coerentes e boas para perguntas, o que não é exatamente o mesmo que um sistema de IA que é inerentemente um agente. Se você voltar na história da IA, na verdade, muitos pesquisadores sempre trabalharam com a ideia de que a inteligência envolve inerentemente agência. Humanos não são coisas que apenas falam. Eles tentam realizar ações, você tenta resolver problemas. Esse é um objetivo de longa data. É uma peculiaridade estranha termos esses modelos de linguagem, que são tão limitados e meio antiquados. Muito do que estamos vendo quando se trata de agentes por aí são basicamente pessoas pegando modelos de linguagem e usando o fato de que eles são muito gerais e muito flexíveis para receber um comando complexo e desencadear algumas ações. O verdadeiro salto que as empresas querem dar é que os próprios modelos decidam e sejam capazes de formular suas ações por si mesmos, mais como uma entidade inteligente.
Lauren Goode: O humano ainda está no circuito, mas ele dá um comando ou um prompt e depois se afasta. O agente está fazendo um monte de coisas de IA, basicamente enquanto você faz outras coisas. Essa é a promessa, que eles vão conseguir nos tornar hiperprodutivos.
Will Knight: Sim. O ideal seria ter um agente que ligasse para a companhia aérea. Você diz a ele o que quer fazer e ele vai lá e negocia por você. Ou você pode dar comandos mais abertos ou o que você está tentando alcançar e ele descobre como fazer isso por você. Os modelos de linguagem são tão gerais, tão capazes que, em teoria, deveriam ser capazes de fazer isso. Mas existem alguns pontos realmente importantes quando se trata de como você tenta replicar a agência humana, porque há muito mais acontecendo no mundo do que apenas a linguagem. A agência, na verdade, envolve mais do que apenas tentar resolver um problema individual, porque envolve outras pessoas, o que a torna complicada.
Michael Calore: Para dizer o mínimo.
Will Knight: Sim.
Michael Calore: Falando em modelos, parece que todo o Vale do Silício investiu no desenvolvimento de seus próprios agentes de IA, mas quem são os principais participantes agora?
Will Knight: Os principais players são os mais óbvios: OpenAI, Anthropic, Google. Acho que a Amazon é um bom azarão nessa corrida. Eles contrataram alguns talentos da OpenAI que criaram uma startup de agentes. Eles têm um laboratório onde estão tentando desenvolver muitos agentes. Um dos pontos-chave para essas empresas é de onde você obtém os dados. Todas elas estão tentando desesperadamente descobrir como obter dados para treinar esses agentes. Em vez de apenas texto, você quer exemplos do que as pessoas fazem. A Amazon, na verdade, tem muitos bons exemplos disso, de pessoas fazendo coisas em seus sites. Eles são um bom player.
Lauren Goode: Bem, no mundo da programação também existem empresas como a Cursor. Conte-nos sobre esse mundo, já que você começou a programar com seu filho.
Will Knight: Sim. Sim, há um monte de startups que realmente se aproveitaram das outras empresas de IA, mas se concentraram em programação. Acho que, justamente por isso ter evoluído tão rápido, elas conseguiram conquistar esses nichos. Há rumores generalizados de que a OpenAI está querendo adquirir uma dessas empresas, a Windsurf, por cerca de três bilhões. O que dá uma ideia de como elas conseguiram criar esse negócio realmente excelente.
Lauren Goode: Parece que em cada briefing que participamos hoje em dia, uma empresa está falando sobre agentes.
Michael Calore: Sim.
Lauren Goode: E varia também. São todas as empresas, da Nvidia à Microsoft, passando por startups bem financiadas. Mesmo no início desta semana, uma empresa chamada Glean, tenho certeza de que vocês já ouviram falar dela. É uma empresa que construiu um mecanismo de busca para aplicativos corporativos. Eles acabaram de levantar 150 milhões em uma rodada de financiamento da série F. Eles agora estão avaliados em US$ 7,2 bilhões. O negócio deles agora são agentes. Tudo gira em torno de agentes.
Will Knight: Acho que a maneira de pensar sobre isso é quem está realmente construindo modelos que tentam aprender a agência geral que você vê em um modelo de linguagem, e essa é a OpenAI, essas empresas de modelos de base. Você pode voltar a uma era anterior na IA, quando tínhamos alguns desses sistemas de IA para jogos, como o AlphaZero. Que usava aprendizado por reforço, esse processo de experimentação. Mas era fundamentalmente agêntico. Opera apenas dentro de um mundo muito limitado de um jogo de tabuleiro, mas está tomando ações, é descobrir como executá-las. O que estamos vendo agora com essas empresas de IA reflete isso, ou está voltando a isso de certa forma, porque elas estão tentando fazê-las raciocinar para uma resposta específica, para um objetivo final específico.
Michael Calore: Se pensarmos no papel que os agentes de IA podem desempenhar a longo prazo, muitas das empresas sobre as quais estamos falando estão começando com o atendimento ao cliente. Elas estão começando com: "OK, você tem uma pergunta simples, precisa que algo simples seja feito. Posso descobrir isso para você, posso realizar isso para você". Acho que é aí que a maioria dos avanços iniciais estão sendo feitos. A Gartner, empresa de pesquisa de mercado de tecnologia, divulgou uma estimativa de que os agentes de IA resolverão 80% das consultas comuns de atendimento ao cliente até 2029. Daqui a quatro anos, os agentes de IA farão todo o nosso atendimento ao cliente. Com base em alguns desses exemplos que temos discutido, parece que a automação de tarefas atualmente realizadas por funcionários humanos é um ponto em comum aqui.
Will Knight: Sim. Acho que o atendimento ao cliente é um ponto de partida óbvio, porque envolve pegar o que os modelos de linguagem fazem de melhor, que é conversar com as pessoas, e então tentar fazer um número bastante limitado de coisas. Muitas dessas empresas, as grandes empresas de IA, estão buscando migrar da codificação para a automação do trabalho de escritório. Há uma infinidade de tarefas repetitivas no trabalho de escritório. Em teoria, você poderia usar esses modelos como a cola para descobrir o que alguém está tentando fazer e então replicar isso. Já existe uma enorme preocupação no mundo da codificação de que isso vá eliminar muitos empregos. Então, acho que há uma boa chance de que isso aconteça também com trabalhos administrativos muito mais rotineiros.
Lauren Goode: Bem, foi divertido fazer esse podcast com todos vocês.
Michael Calore: Temos nos concentrado principalmente em como os agentes de IA realizam suas atividades, como navegar na web, ligar para um restaurante ou realizar alguma tarefa em um produto do Microsoft Office. Mas estou curioso para saber como é o mundo da IA agêntica em nossas casas, em nossos dispositivos físicos. Isso tem estado na mente de muitas pessoas recentemente, pois a OpenAI acaba de anunciar um acordo com Jony Ive, ex-chefe de design da Apple e de longa data, para adquirir uma nova startup que ele lançou para desenvolver uma nova classe de dispositivos de IA para uso doméstico. O que achamos desse desenvolvimento?
Lauren Goode: É difícil dizer, porque ainda não sabemos exatamente qual será o formato. Acredito que isso represente uma nova geração de startups e startups de hardware que existirão para atender a essas IAs. Elas são construídas do zero com o futuro da inteligência artificial e da computação ambiente em mente. Ainda não sabemos exatamente qual formato elas assumirão. Se estarão no seu desktop, no seu corpo, ou talvez em ambos. Bem, uma coisa que eu aprecio, acredito que foi Jony Ive quem disse algo como: "Todos concordamos, somos um pouco apegados demais ao nosso iPhone". A coisa que eles inventaram agora é: "Temos que resolver o que inventamos". Mas a ideia é: a IA pode realmente fazer o suficiente para nos livrar da necessidade de ficarmos com a cabeça baixa ou o rosto nas telas o tempo todo, realmente realizando as ações? A tecnologia pode fazer isso por nós? E então nos liberar para outras coisas. Essa sempre foi, no Vale do Silício, uma das promessas da IA. Lembro-me de conversar com o Astro Teller, do Google X, anos atrás, e perguntar a ele: "Bem, o que isso significa para os empregos?" E ele basicamente respondeu: "Bem, com a IA, as pessoas vão simplesmente evoluir". Essa sempre foi uma visão otimista e otimista do Vale do Silício sobre a IA. Acredito que haverá uma nova categoria de empregos e também tarefas criadas nas quais talvez ainda nem tenhamos pensado, mas ainda não temos ideia de como isso realmente vai se encaixar em nossas vidas cotidianas.
Michael Calore: Certo. Porque eu acho que as pessoas já vêm tentando isso há muito tempo. Sempre que víamos a demonstração da próxima versão da Siri, ou da próxima versão da Alexa, ou da próxima versão do Google Assistente, havia sempre uma demonstração em que pediam ao alto-falante, o alto-falante inteligente controlado por voz, para pedir uma pizza.
Lauren Goode: Sim, foi a pizza e o Uber, esses sempre foram os exemplos.
Michael Calore: Esses são os acordos que os fabricantes de dispositivos fizeram com as empresas e os codificaram. Quando você pergunta à Alexa: "Você pode pedir uma pizza?", não se trata de chamar dominós e a voz da Alexa pedir a pizza para você. É simplesmente fazer isso na web, em um aplicativo, basicamente por meio de uma API. Acho que, quando você fala sobre a próxima geração disso, você pode pedir para fazer qualquer coisa. O que é isso que você está pedindo? É um dispositivo que fica ao lado do seu computador e do seu telefone? Por que precisa ser um dispositivo separado? Por que pode ser apenas o seu computador e o seu telefone? Essa é a grande pergunta que eu tenho. Precisamos de algo que provavelmente custará algumas centenas de dólares, que provavelmente será muito bonito e que fará muito do que os outros dois dispositivos que já temos fazem? Eu realmente não sei. Todo mundo está animado com isso, porque é a parceria de Jony Ive e Sam Altman.
Lauren Goode: Certo. Torna-se apenas o mecanismo de entrega para o que quer que seja esta nova era da computação. Eu também acho que os exemplos sobre os quais estamos falando são muito parecidos com o futuro do Wall-E. Quão preguiçosos podemos ser enquanto enviamos IA e aprendizado de máquina para fazer as coisas por nós? Considerando que também haverá espaço para o quanto mais posso aprender? Que tipo de conhecimento posso obter? O que posso fazer de diferente porque a IA está me ajudando? Há muito tempo, o consumidor final promete que isso mudará sua vida cotidiana, aproveitando essas pequenas inconveniências que temos agora. Mas acho que os ganhos reais são: primeiro, não quero parecer muito otimista sobre isso porque não sou totalmente otimista, mas podemos fechar lacunas de conhecimento porque a IA realmente vai nos ajudar a fazer isso de alguma forma?
Will Knight: Sim. Acho que, no que diz respeito à OpenAI e ao Jony Ive, os modelos estão ficando cada vez melhores em interpretar o mundo visual e interagir por meio da fala. Acho que existe essa ideia, no ethos, de que você pode ter uma interface completamente nova, uma nova interface, você pode reinventar a interface completamente. Você não tem essa interface gráfica do usuário. Só Deus sabe o que eles vão inventar. O Google demonstrou isso com o Projeto Astra, em que você usa óculos e pode falar sobre o que está ao seu redor. Eu tentei isso. É impressionante. Sim, talvez haja novas maneiras de pedir pizzas com isso. Mas também não consigo parar de pensar no fato de que eles precisam cada vez mais dos dados sobre o que as pessoas estão fazendo para treinar esses modelos também. Sinto que os fabricantes de hardware têm muitos dados interessantes. Eles não costumam explorá-los por questões de privacidade, mas talvez a OpenAI encontre um jeito. Então, na questão de como treinar, a lacuna de conhecimento, acho que é um ponto muito, muito importante, porque a automação frequentemente causa atrofia nas habilidades das pessoas. Você vê isso no piloto automático de aeronaves. E você definitivamente vê programadores dizendo que estão perdendo habilidades porque dependem demais disso. O que isso significa para a força de trabalho?
Lauren Goode: Certo. Se todos esses agentes de IA nos liberarem para fazer outras coisas, o que exatamente eles vão nos liberar para fazer? Como vamos preencher esse tempo? Na nossa sociedade ultracapitalista, alguns podem chamá-la de sociedade capitalista terminal, a resposta provavelmente é: "Bem, você pode simplesmente ser mais produtivo. Você pode simplesmente fazer mais, mais, mais". Acho que caberá a nós, humanos, resistir a isso e dizer: "É assim que realmente queremos preencher nosso tempo". Também haverá esses pequenos gargalos por um tempo que, na minha opinião, tornarão tudo mais complicado do que qualquer outra coisa. Quando eu estava no Google IO há algumas semanas, recebi uma demonstração, Will, do Projeto Mariner. Você já viu isso?
Will Knight: Sim, já tentei isso. Sim.
Lauren Goode: Você já experimentou? Não sei se foi essa a demonstração que te deram, mas a experiência que eu vi foi que ele escaneou uma receita de coquetel. Depois, ele automaticamente pegou os ingredientes do coquetel e colocou no carrinho de compras do Instacart. Mas aí, ele encontrou um gargalo porque não havia autenticação para a conta do Instacart. Foi tipo, "Ah, espera aí, precisamos fazer login". Aí, um cara da demonstração tentou fazer login no Instacart. "Mas olha, é tão perfeito." Eu pensei, "Não, eu poderia ter adicionado isso ao Instacart".
Will Knight: Sim. Os exemplos deles sempre parecem envolver a compra de algo por algum motivo.
Michael Calore: Por que achamos que há tanto foco em agentes de IA no Vale do Silício no momento? Será que é a tendência do Vale de sempre precisar de uma nova meta para atingir? Será que isso indica algo maior? É o que os investidores de capital de risco estão mais interessados em financiar? Qual é o motivo?
Will Knight: Do meu ponto de vista, um dos principais motivos é que, voltando à história da IA, este é realmente o próximo passo que você daria para construir algo que se aproxime mais de uma IA ou AGI semelhante à humana, ou como você queira chamar. Muitos pesquisadores estão muito interessados em fazer isso. Acho que também há muito potencial. Conversar com um chatbot é útil se você quiser fazer muitas coisas, responder a muitas perguntas. Mas a ideia de que você pode automatizar muito trabalho ou tarefas mundanas é potencialmente valiosa.
Lauren Goode: Sim. Acho que, se você está no ramo de startups, é para lá que o dinheiro está fluindo agora. Estamos nessa era há algum tempo, com taxas de juros muito altas. Para algumas startups, não tem sido fácil levantar capital. Houve uma pequena pausa no mercado de IPOs, que esfriou um pouco. Embora agora haja sinais de que esteja se recuperando. Acho que a ameaça de tarifas ainda paira sobre as cabeças das pessoas no Vale do Silício. Se você estiver iterando em seu software e, de repente, puder dizer aos seus potenciais investidores: "Mas, esperem. Estamos migrando para agentes. Estamos fazendo essa IA com agentes. Vamos poder vender esse software para outras empresas e também vamos otimizar nossos próprios processos e reduzir nossos próprios custos indiretos." Provavelmente é um caminho para levantar capital agora. Parte disso é exagero? Claro que é. Mas, como Will está dizendo, porque, Will, você está tão envolvido na área de pesquisa e desenvolvimento disso, na verdade, há alguns avanços bastante notáveis sendo feitos também.
Michael Calore: Vamos fazer uma pausa agora e já voltamos. O desenvolvimento de agentes está avançando a todo vapor, mas, como acabamos de mencionar, os agentes atuais que podemos usar têm algumas limitações significativas. Mas, rapidamente, quais são algumas das outras preocupações por trás do crescimento dos agentes de IA? Não apenas em relação à usabilidade, mas também às outras funções que eles desempenham.
Lauren Goode: Bem, acho que a confiabilidade é certamente um problema, porque eles ainda estão sujeitos ao mesmo tipo de alucinações, erros e até mesmo bajulação que os LLMs. Você também está introduzindo consultas muito mais complexas, porque não está apenas pedindo que ele execute uma pesquisa para você. Você está pedindo que ele execute várias etapas sob certas condições. Há também preocupações com o alto custo do poder de computação. Além disso, há a venda do produto em si. O The Information relatou recentemente que a OpenAI pode cobrar até US$ 20.000 por mês por alguns de seus agentes de IA mais especializados. Supostamente, esses são agentes que seriam capazes de atuar no nível de especialização de um doutorado, supostamente. Por um lado, isso é muito, muito caro. Por outro lado, nosso colega Paresh Dave tem relatado como algumas pessoas no setor acreditam que isso não é tanto dinheiro. Porque, em última análise, se esses agentes substituírem empregos, que é o que eles podem fazer, você estará economizando em todos esses custos salariais. Pode até ser uma pechincha. No momento, porém, há um certo choque em relação a isso.
Will Knight: Sim, acho que isso é bem verdade. Há vários outros problemas, coisas que podem dar errado e provavelmente darão. Vários pesquisadores com quem conversei... Conversei com Zico Kolter, da CMU, que também faz parte do conselho da OpenAI, que tem analisado a segurança de agentes e está introduzindo agentes que, idealmente no futuro, irão interagir com outros agentes. Há esse efeito amplificador que pode ser muito difícil de prever. Como Lauren diz, a ideia de que essas coisas compram coisas inerentemente as torna um alvo muito mais atraente para hackers. Se você tem algo como o Mariner usando a web, é realmente interessante pensar na ideia de que as pessoas talvez tentem reinventar o SEO para trabalhar para os agentes. Um dos problemas mais fundamentais, eu acho, é que eles não estão realmente replicando a agência humana. Há um livro muito interessante sobre isso, para entrar em detalhes, chamado "A Evolução da Agência". Se você observar os animais e como sua agência evoluiu, quando você chega aos humanos, há uma diferença fundamental na maneira como a agência humana funciona e isso envolve trabalhar com outros humanos. Envolve colaboração e saber que muitas vezes é preciso sacrificar coisas para trabalhar em conjunto. Você tem coisas como culpa, você tem empatia que evoluíram. Esses modelos, estamos vendo exemplos de modelos fazendo coisas realmente malucas em exemplos artificiais, onde lhes dizem que serão desligados e então chantagearão alguém. Isso não é necessariamente um exemplo de um modelo maligno, pode ser apenas um exemplo de um modelo que não aprendeu como esperamos que uma pessoa se comporte o tempo todo. Sim, isso pode ter muitas consequências imprevistas.
Michael Calore: Acho que minha maior preocupação é algo que você mencionou, Lauren, que é o fato de que, à medida que a expectativa e o entusiasmo em torno dos agentes de IA aumentam, muitas empresas vão considerá-los uma forma de reduzir custos de mão de obra. Não há nada de intrinsecamente errado em reduzir custos de mão de obra, mas sinto que há algo de intrinsecamente errado em substituir uma classe inteira de trabalhadores de uma empresa por máquinas. É literalmente desumanizante. E quero dizer isso não apenas no sentido jocoso de que você está se livrando de humanos, mas também porque as pessoas que trabalham lá e os clientes que interagem com sua empresa agora vão se sentir alienados de você porque não têm mais aquela interação humana a que estão acostumados. Já estamos vendo isso acontecendo. Esse é o tipo de coisa que empolga as pessoas que se preocupam muito com o lucro e preocupa as que se preocupam com renda e igualdade, e todos os problemas que acompanham esse impulso desenfreado em direção à mecanização. Lidamos com isso como sociedade há 150 anos e sinto que, à medida que a tecnologia se torna mais poderosa, essas preocupações só aumentam.
Lauren Goode: Só na semana passada, ouvi um capitalista de risco e um CEO dizerem, em entrevistas separadas, esta citação sobre como "seis em cada 10 empregos, 60% dos empregos que existem hoje, não existiam em 1940". As coisas mudam, as coisas se transformam, a tecnologia possibilita novos tipos de empregos. Futuristas, CEOs, capitalistas de risco adoram isso porque cria um espaço em branco para o que ainda não conseguimos imaginar, em termos de quais empregos existirão. Se eu acredito que existam alguns empregos que o filho do Will, com quem ele está fazendo vibe code agora, poderia ter e que ainda nem imaginamos?
Michael Calore: Todos no Vale do Silício pensam sobre agentes de IA da mesma maneira?
Will Knight: Acho que não. Acho que há muito entusiasmo, mas também há uma infinidade de definições diferentes. Recentemente, conversei com Sonya Huang, sócia da Sequoia que monitora IA. Ela disse que a maioria das startups de agentes, a maioria das empresas que oferecem agentes, estão apenas renomeando as ferramentas de IA existentes como agentes.
Lauren Goode: Sim. Em relação ao ponto anterior do Will, não há uma definição clara do que é um agente de IA atualmente ou do que ele deveria ser. Há um espectro amplo, então as empresas podem mudar de ideia e defini-lo como quiserem. Ou, digamos, oferecê-lo de uma determinada maneira. Acho que também veremos algo como uma indústria caseira surgindo entre os espaços da IA agêntica. Digamos, por exemplo, que haja um gargalo na autenticação quando você envia um agente para concluir várias tarefas diferentes online por meio de vários aplicativos diferentes. É preciso haver algum tipo de conexão entre esses aplicativos, e ela precisa ser segura e protegida. Acho que veremos soluções surgirem para isso. Acho que veremos alguma versão de entrega de última milha, mas para codificação. Porque, no momento, há muita codificação de vibração acontecendo e as pessoas falando sobre codificação de vibração e "olha o que esse bot pode fazer por mim". Mas nem todo esse código é realmente distribuível. Você precisa ser capaz de depurá-lo e de entregá-lo. Ele precisa rodar, precisa funcionar. Acho que você começará a ver cada vez mais startups e empresas tentando oferecer soluções para todas essas pequenas lacunas e gargalos que existem entre os agentes de IA. Então, nossos trabalhos serão totalmente preenchidos. Bons tempos.
Michael Calore: Will, para pessoas como nós, que somos consumidores dessa tecnologia... Não estamos codificando vibrações como Will.
Lauren Goode: Ainda não.
Michael Calore: De modo geral, estamos nos deparando com IA agêntica de alguma forma em nosso cotidiano. À medida que ela se torna mais prevalente, como podemos avaliar seu potencial e seus riscos de forma sensata?
Will Knight: Em primeiro lugar, acho que vocês todos deveriam estar programando a vibe. Estou fazendo todo tipo de lixo. Quando estou programando a vibe, faço isso conscientemente em uma máquina onde não me importo se ela apagar um monte de arquivos, porque é realmente imprevisível e às vezes acontece isso. Eu realmente não sei como fazer isso para algo que você vai gastar nas suas compras. Você tem um orçamento que você simplesmente deixa o agente gastar? Acho que é uma ótima pergunta. Obviamente, o risco vai recair inteiramente sobre nós, eu imagino.
Michael Calore: Sim.
Lauren Goode: Sim. Mas acho que, à medida que esses agentes se tornam cada vez melhores em realizar tarefas para nós, temos pelo menos algumas responsabilidades. Uma é que precisamos romper com nós mesmos e nossos hábitos e aprender a usar novas ferramentas, porque elas vão dominar nossas vidas. Segundo, precisamos descobrir onde nos encaixamos como humanos e manter parte dessa agência humana e ainda participar, ficar por dentro, ainda participar de nossas próprias vidas, não apenas deixar a tecnologia assumir o controle. Terceiro, precisamos pensar muito sobre a ética, a privacidade e a segurança do que esses agentes de IA estão fazendo enquanto assumem o controle da vida das pessoas. A promessa de todos os otimistas é que isso vai acabar com a desigualdade. Mais uma vez, vai ser ótimo para todos. Sabemos quase com certeza que isso não vai ser ótimo para todos.
Michael Calore: Sim. É por isso que sou o oposto dos otimistas neste momento. Eu acho que grande cautela e grande ceticismo são coisas que são dadas aqui. Precisamos garantir que, quando adotamos essas tecnologias, o fazemos de uma maneira muito, muito atenciosa e cautelosa. Isso é algo que parece familiar. Provavelmente, o exemplo mais recente é o telefone, o smartphone. Algo que causa atrito nos relacionamentos, é algo que você pode prestar atenção e pode ignorar os seres humanos. Você pode usá -lo para interagir com outros humanos, você pode usá -lo para não interagir com outros humanos. Essa força que realmente corroeu uma pequena parte de nossa humanidade nos 15 ou 20 anos que isso fez parte de nossas vidas. Eu posso ver isso acontecendo com os agentes de IA como as coisas que costumávamos confiar nas pessoas para fazer e nas coisas que costumavam nos forçar a interagir um com o outro. Tenho a mesma experiência sempre que ando em um caminho em vez de andar em um Uber ou pegar um táxi. O fato de que agora não há humano na equação, não há pessoa com quem interagir. Ao fazer isso repetidamente, estou lentamente corroendo meu próprio senso do que significa ser um ser humano. Eu sei que parece realmente esotérico, mas você pode traçar isso com o tempo e provavelmente descobrirá que está se sentindo da mesma maneira em sua própria vida. Eu encorajaria as pessoas a tomar essa decisão sobre como elas querem usar agentes de IA. Se eles não sentem que isso é algo que pertence às suas vidas, que devem votar com seus dólares.
WILL KNIGHT: Talvez também precisemos de um movimento de código aberto renovado, para que não estamos apenas usando agentes que pertencem e funcionem dados a essas empresas gigantes. Use código de código aberto e modelos, e esse tipo de coisa.
Michael Calore: Essa é uma boa ideia. Devemos receber sinal sobre isso. Eles devem começar a fazer isso. Eles devem fazer seu próprio modelo.
Lauren Goode: Eu acho que isso parece ótimo.
Michael Calore: Ok, vamos fazer outra pausa, e vamos voltar direto. Will e Lauren, obrigado por conversas revigorantes. Vamos colocar agentes de IA para o lado por um minuto e obter humano mais uma vez. Vamos falar sobre algumas recomendações. Will, como nosso convidado, recomendo algo aos nossos ouvintes.
WILL KNIGHT: OK, eu falei sobre isso anteriormente, mas quero fazer desta minha recomendação. Vou segurá -lo, o que é um ótimo rádio. Este livro, que é a evolução da agência de Michael Tomasello. Achei isso fascinante e realmente revelador sobre o que está faltando com a IA quando se trata de agência e a importância de entender a interação social humana, a cultura humana. Quando se trata do quadro geral da inteligência em AGI, sobre a qual todo mundo fala, mas eles realmente não falam muito sobre isso.
Michael Calore: Bom. Lauren, qual é a sua recomendação?
Lauren Goode: Minha recomendação são notícias locais e, em particular, a missão local.
Michael Calore: Yay!
Lauren Goode: Mission Local é uma organização local de notícias sem fins lucrativos aqui em São Francisco que cobre amplamente o bairro da Missão, mas também San Francisco. Eles fazem um trabalho fantástico. Há muita coisa acontecendo nas cidades dos EUA agora, em particular Los Angeles, e também em São Francisco. Há ataques de gelo acontecendo em todo o país e as pessoas estão saindo às ruas para protestar contra elas. A Mission Local tem feito um ótimo trabalho cobrindo o que está acontecendo em São Francisco até agora. Eu recomendo que você os apoie e apoie suas notícias locais, se puder. Mike, qual é a sua recomendação?
Michael Calore: Quero recomendar um ensaio na edição atual da Harper's. É do escritor norueguês Karl Ove Knausgaard que, Lauren, tenho certeza de que você está cansado de mim falando. Mas é um ensaio fantástico. É chamado de "o mundo reenchanted". É Karl Ove achando com tecnologia. Ele conta sobre a primeira vez que encontrou um computador, que foi há 40 anos. Então ele simplesmente não prestou atenção aos computadores e começa a incomodá -lo. Há uma ótima citação perto do topo. "Para manter -se um pouco informado sobre a situação política no mundo, é um dever, algo não tem o direito de se afastar. Não deveria se aplicar algo semelhante à tecnologia, dada a imensidão da influência?" Eu amo essa citação, porque realmente chega ao centro do que estamos falando hoje. Para se envolver com o mundo, você precisa entender como esses sistemas funcionam. Ele vai a uma ilha grega para visitar o escritor James Bridle, porque o livro de modos de ser é realmente uma boa introdução à inteligência e à inteligência artificial e à inteligência natural. Eles falam muito sobre inteligência artificial e como se desenvolveu e como as várias maneiras de calcular a inteligência apareceram em nossas vidas. É uma peça relatada realmente maravilhosa sobre o estado atual da tecnologia em nossas vidas.
Lauren Goode: Ótimo.
Michael Calore: Sim.
Lauren Goode: Parece muito mais curto que seus livros.
Michael Calore: Sim. Você pode lê -lo em menos de uma hora.
Lauren Goode: Tudo bem, parece bom para mim.
Michael Calore: Obrigado por ouvir o Uncanny Valley . Se você gosta do que ouviu hoje, siga nosso programa e avalie -o no aplicativo de podcast de podcast. Se você quiser entrar em contato conosco com qualquer dúvida, comentários ou sugestões, escreva para nós em [email protected]. O show de hoje foi produzido por Adriana Tapia. Amar Lal at Macro Sound misturou este episódio. Jake Loomis era o nosso engenheiro de estúdio de Nova York. Meghan Herbst verificou este episódio. Jordan Bell é nosso produtor executivo. Katie Drummond é diretora editorial global da Wired. Chris Bannon é o chefe do Audio Global.
wired