Aurons-nous des robots pensants d'ici 2030 ? Ou s'agit-il simplement d'un effet de mode des géants de la technologie ?

De nos jours, de nombreuses personnes utilisent des chatbots d’intelligence artificielle (IA) pour tout, depuis les suggestions de dîner jusqu’à la lutte contre la solitude, mais l’humanité pourrait-elle être sur le point de créer des machines capables de penser par elles-mêmes – et potentiellement de surpasser leurs créateurs ?
Certaines grandes entreprises technologiques affirment que ce type de percée, appelée intelligence artificielle générale (IAG), n'est qu'à quelques années de là. Mais les sceptiques affirment qu'il ne faut pas croire à ce battage médiatique.
« Chaque fois que vous voyez quelqu'un parler d'AGI, imaginez simplement la petite souris ou le Père Noël », a déclaré Ed Zitron, animateur du podcast technologique Better Offline et créateur de la newsletter Where's Your Ed At ? .
« Ce sont tous des concepts fictifs, y compris l'IA générale. La différence, c'est que des entrepreneurs idiots y investissent des milliards de dollars parce qu'ils n'ont rien d'autre à investir », a-t-il déclaré à The Current .
Les experts divergent sur les détails précis de ce qu'est une IAG, mais on considère généralement qu'il s'agit d'une intelligence artificielle aussi intelligente, voire plus intelligente, que l'humain, capable d'apprendre et d'agir de manière autonome. Cette intelligence pourrait ensuite être intégrée à un corps robotique capable d'accomplir une multitude de tâches.
Demis Hassabis, PDG du laboratoire d'IA DeepMind de Google, a récemment déclaré que son entreprise atteindrait l'AGI d'ici 2030.
« Mon calendrier a été assez cohérent depuis le début de DeepMind en 2010, nous pensions donc qu'il s'agissait d'une mission d'environ 20 ans et, étonnamment, nous sommes sur la bonne voie », a-t-il déclaré au New York Times en mai .
Zitron n'est pas convaincu. Il a déclaré que Hassabis était « directement incité » à vanter les mérites de son entreprise et a souligné l' incertitude quant à la rentabilité des chatbots IA comme Gemini de Google ou ChatGPT d'OpenAI.
« Aucune de ces entreprises ne gagne vraiment d’argent avec l’IA générative… elles ont donc besoin d’un nouveau tour de magie pour faire en sorte que les gens se laissent tranquilles », a-t-il déclaré.
AGI « toujours à 10 ans »Melanie Mitchell, experte en IA, affirme que les gens font des prédictions sur ce type d’IA intelligente depuis les années 1960, et ces prédictions ont toujours été erronées.
« L'AGI ou son équivalent est toujours à 10 ans de distance, mais cela a toujours été le cas et cela le sera peut-être toujours », a déclaré Mitchell, professeur à l'Institut Santa Fe au Nouveau-Mexique, spécialisé dans l'intelligence artificielle, l'apprentissage automatique et les sciences cognitives.
Elle a déclaré qu'il n'y a pas d'accord universel sur ce qu'une IA fonctionnelle devrait être capable de faire, mais qu'elle ne devrait pas être confondue avec de grands modèles de langage comme ChatGPT ou Claude, qui sont un type d'IA générative.
Les grands modèles de langage (LLM) qui alimentent les programmes d'IA générative ont été formés sur « une énorme quantité de langage généré par l'homme, soit à partir de sites Web, soit à partir de livres ou d'autres médias », et sont par conséquent « capables de générer un langage à consonance très humaine », a-t-elle déclaré à The Current .
Zitron a déclaré que cette distinction est importante, car elle souligne que « l'IA générative n'est pas de l'intelligence, elle fait appel à un corpus d'informations » qui lui a été fourni par les humains.
Il définit l'AGI comme « un ordinateur conscient… quelque chose qui peut penser et agir par lui-même de manière totalement autonome » et qui a la capacité d'apprendre.
« Nous ne savons pas comment fonctionne la conscience humaine », a-t-il déclaré. « Comment diable sommes-nous censés faire cela avec des ordinateurs ? Et la réponse est : nous l'ignorons. »

Mitchell craint que sans une définition largement acceptée, il existe un risque que les grandes entreprises technologiques « redéfinissent l'AGI pour en faire une réalité ».
« Ils diront : "Eh bien, ce que nous avons ici, c'est l'IAG. Et donc, nous avons atteint l'IAG", sans que cela ait vraiment de sens plus profond », a-t-elle déclaré.
L'AGI pourrait être une « course au suicide »Il y a des gens extérieurs au secteur technologique qui pensent que l’AGI pourrait être à portée de main.
« Si notre cerveau est un ordinateur biologique, cela signifie qu'il est possible de créer des choses capables de penser au niveau humain », a déclaré Max Tegmark, professeur au MIT et président du Future of Life Institute, une organisation à but non lucratif qui vise à atténuer les risques des nouvelles technologies.
« Et aucune loi de la physique ne dit que vous ne pouvez pas faire mieux », a-t-il déclaré.
Tegmark pense qu'il y a une certaine arrogance ou une fierté excessive à affirmer que l'AGI ne peut pas être réalisée, de la même manière que beaucoup de gens pensaient autrefois que le vol humain était impossible.
Certains des premiers inventeurs avaient tenté en vain de créer des machines imitant les battements d'ailes rapides des petits oiseaux. Mais le succès est venu avec une meilleure compréhension des ailes des oiseaux et l'idée d'une machine capable de planer.
« Il s’est avéré que c’était un moyen beaucoup plus simple de construire des machines volantes », a déclaré Tegmark.
« Nous avons constaté le même phénomène ici : les systèmes d'IA de pointe actuels sont bien plus simples que des cerveaux. Nous avons trouvé une nouvelle façon de créer des machines capables de penser. »
Tegmark dit qu'il ne serait pas trop surpris si « cela se produisait dans deux à cinq ans », mais cela ne signifie pas que nous devrions nécessairement créer des robots capables de surpasser les humains.
Il a décrit ces machines intelligentes comme une nouvelle espèce, qui pourrait facilement menacer la place de l'humanité dans la chaîne alimentaire « parce qu'il est naturel que l'espèce la plus intelligente prenne le contrôle ».

« La course à la construction d’une superintelligence est une course au suicide, mais nous n’avons pas besoin de courir cette course », a-t-il déclaré.
« Nous pouvons encore créer une IA incroyable qui guérit le cancer et nous donne toutes sortes d’outils merveilleux, sans pour autant créer une superintelligence. »
cbc.ca