Comment le supercalcul va évoluer, selon Jack Dongarra

Le calcul intensif haute performance, autrefois réservé à la recherche scientifique, constitue désormais une ressource stratégique pour l'entraînement de modèles d'intelligence artificielle de plus en plus complexes. Cette convergence de l'IA et du HPC redéfinit non seulement ces technologies, mais aussi les modes de production de connaissances, et occupe une place stratégique dans le paysage mondial.
Pour discuter de l'évolution du HPC, WIRED a rencontré en juillet Jack Dongarra, informaticien américain qui a joué un rôle clé dans le développement des logiciels HPC au cours des quatre dernières décennies, à tel point qu'il a remporté le prestigieux prix Turing en 2021. Cette rencontre s'est déroulée lors de la 74e réunion des lauréats du prix Nobel à Lindau, en Allemagne , qui a réuni des dizaines de lauréats du prix Nobel ainsi que plus de 600 scientifiques émergents du monde entier.
Cette interview a été éditée pour des raisons de longueur et de clarté.
WIRED : Quel sera le rôle de l’intelligence artificielle et de l’informatique quantique dans le développement scientifique et technologique dans les années à venir ?
Jack Dongarra : Je dirais que l’IA joue déjà un rôle important dans la pratique scientifique : nous l’utilisons de multiples façons pour contribuer à la découverte scientifique. Elle est utilisée en informatique et nous aide à estimer le comportement des objets. Je considère donc l’IA comme un moyen d’obtenir une approximation, puis de l’affiner éventuellement avec les techniques traditionnelles.
Aujourd'hui, nous disposons de techniques traditionnelles de modélisation et de simulation, exécutées sur ordinateur. Face à un problème très complexe, un supercalculateur est nécessaire pour comprendre comment calculer la solution. L'IA va rendre ce processus plus rapide, plus performant et plus efficace.
L'IA aura également un impact au-delà de la science : elle sera plus importante qu'Internet à son apparition. Elle sera omniprésente dans nos activités. Elle sera utilisée de multiples façons, encore inconnues aujourd'hui. Son utilité sera plus grande qu'Internet ces 15 ou 20 dernières années.
L'informatique quantique est intéressante. C'est un domaine de recherche formidable, mais j'ai le sentiment qu'il nous reste encore beaucoup de chemin à parcourir. Nous disposons aujourd'hui d'exemples d'ordinateurs quantiques – le matériel précède toujours le logiciel –, mais ces exemples sont très primitifs. Avec un ordinateur numérique, on pense effectuer un calcul et obtenir une réponse. L'ordinateur quantique va plutôt nous fournir une distribution de probabilité de la réponse, et on va effectuer plusieurs exécutions sur l'ordinateur quantique, ce qui nous donnera plusieurs solutions potentielles au problème, mais sans donner la réponse. Ce sera donc différent.
Avec l’informatique quantique, sommes-nous pris dans un moment de battage médiatique ?
Je pense que malheureusement, on en a trop parlé : il y a trop de battage médiatique autour de la physique quantique. Le résultat est généralement que les gens s'enthousiasment, mais finalement, la physique ne tient aucune de ses promesses, et l'enthousiasme s'effondre.
Nous l'avons déjà vu : l'IA a traversé ce cycle et s'est rétablie. Aujourd'hui, l'IA est une réalité. Les gens l'utilisent, elle est productive et elle nous sera très utile à tous. Je pense que l'intelligence quantique devra traverser cet hiver, où elle découragera les gens et les ignorera, puis des personnes brillantes trouveront comment l'utiliser et la rendre plus compétitive par rapport aux technologies traditionnelles.
De nombreux problèmes restent à résoudre. Les ordinateurs quantiques sont très faciles à perturber. Ils présentent de nombreux défauts : ils tomberont en panne en raison de la fragilité de leurs calculs. Tant que nous ne parviendrons pas à les rendre plus résistants à ces défaillances, ils ne fonctionneront pas aussi bien que nous l'espérons. Je ne pense pas que nous aurons un jour un ordinateur portable quantique. Je me trompe peut-être, mais je ne pense certainement pas que cela se produira de mon vivant.
Les ordinateurs quantiques ont également besoin d'algorithmes quantiques, et aujourd'hui, nous disposons de très peu d'algorithmes pouvant être exécutés efficacement sur un ordinateur quantique. L'informatique quantique en est donc à ses balbutiements, tout comme l'infrastructure qui l'utilisera. Les algorithmes quantiques, les logiciels quantiques et les techniques dont nous disposons sont donc très primitifs.
Quand pouvons-nous espérer – si jamais – la transition des systèmes traditionnels vers les systèmes quantiques ?
Aujourd'hui, nous disposons de nombreux centres de calcul intensif dans le monde, équipés d'ordinateurs très puissants. Ce sont des ordinateurs numériques. Parfois, ces ordinateurs sont équipés d'un accélérateur pour améliorer leurs performances. Aujourd'hui, ces accélérateurs sont des GPU (unités de traitement graphique). Le GPU est très performant, et il le fait parfaitement ; son architecture est conçue pour cela. Autrefois, c'était important pour les graphiques ; aujourd'hui, nous refactorisons cela afin de pouvoir utiliser un GPU pour répondre à certains de nos besoins de calcul.
À l'avenir, je pense que nous compléterons le CPU et le GPU avec d'autres dispositifs. Le quantique pourrait également y être ajouté. Peut-être l'informatique neuromorphique, qui imiterait le fonctionnement de notre cerveau. Et puis, nous avons les ordinateurs optiques. Imaginez une lumière qui interfère, et cette interférence correspond essentiellement au calcul que vous souhaitez effectuer. Imaginez un ordinateur optique qui reçoit deux faisceaux lumineux, dans lesquels sont codés des nombres. Lorsqu'ils interagissent dans ce dispositif informatique, ils produisent une sortie, qui est la multiplication de ces nombres. Et cela se produit à la vitesse de la lumière. C'est donc incroyablement rapide. Voilà un dispositif qui pourrait peut-être s'intégrer à cet ordinateur quantique, CPU, GPU et neuromorphique. Ce sont tous des éléments qui pourraient être combinés.
Comment la concurrence géopolitique actuelle – entre la Chine, les États-Unis et au-delà – affecte-t-elle le développement et le partage de la technologie ?
Les États-Unis limitent dans une certaine mesure l'accès à l'informatique en Chine. Par exemple, la vente de certains composants Nvidia est désormais interdite dans ce pays. Mais ils sont vendus dans certaines régions de Chine, et lorsque je rends visite à des collègues chinois et que je regarde ce qu'ils ont dans leurs ordinateurs, je constate qu'ils contiennent beaucoup de composants Nvidia. Il existe donc une voie d'accès non officielle.
Parallèlement, la Chine a délaissé l'achat de technologies occidentales pour investir dans ses propres technologies, investissant davantage dans la recherche nécessaire à son développement. Cette restriction imposée a peut-être eu un effet inverse, poussant la Chine à accélérer le développement de composants qu'elle peut contrôler bien plus qu'elle ne le pourrait autrement.
Les Chinois ont également décidé de ne pas divulguer d'informations sur leurs supercalculateurs. Nous les connaissons : leur apparence, leur potentiel et leurs performances, mais aucun indicateur ne nous permet de les comparer de manière très contrôlée à nos machines. Leurs machines sont très puissantes, probablement aussi puissantes que les plus importantes que nous possédons aux États-Unis.
Elles reposent sur une technologie inventée ou conçue en Chine. Elles ont conçu leurs propres puces. Elles concurrencent celles des ordinateurs occidentaux. La question que l'on se pose est : où sont fabriquées ces puces ? La plupart des puces utilisées en Occident sont fabriquées par la Taiwan Semiconductor Manufacturing Company. La Chine possède une technologie qui a une ou deux générations de retard sur TSMC, mais elle va rattraper son retard.
Je suppose que certaines puces chinoises sont également fabriquées à Taïwan. Quand je demande à mes amis chinois « Où ont été fabriquées vos puces ? », ils répondent en Chine. Et si je les incite à dire : « Ont-elles été fabriquées à Taïwan ? », ils me répondent finalement que Taïwan fait partie de la Chine.
Jack Dongarra sur les rives du lac de Constance lors de la 74e réunion des lauréats du prix Nobel.
Photographie : Gianluca Dotti/WiredComment le rôle des programmeurs et des développeurs évoluera-t-il avec l'évolution de l'IA ? Parviendrons-nous à écrire des logiciels en utilisant uniquement le langage naturel ?
L'IA joue un rôle très important, je pense, pour simplifier certaines étapes chronophages du développement de programmes. Elle collecte toutes les informations disponibles sur les programmes des autres, les synthétise et les exploite. J'ai été très impressionné lorsque j'ai demandé à certains de ces systèmes d'écrire un logiciel pour effectuer une tâche spécifique ; l'IA s'en sort plutôt bien. Je peux ensuite affiner cela avec une autre invite, comme « Optimiser ceci pour ce type d'ordinateur », et elle s'en sort plutôt bien. À l'avenir, je pense que nous utiliserons de plus en plus le langage pour décrire une histoire à l'IA, puis lui demander d'écrire un programme pour exécuter cette fonction.
Bien sûr, il y a des limites, et il faut se méfier des hallucinations ou d'autres sources de résultats erronés. Mais peut-être pourrions-nous intégrer des contrôles pour vérifier les solutions produites par l'IA et les utiliser pour mesurer leur exactitude potentielle. Nous devons être conscients des problèmes potentiels, mais je pense que nous devons progresser sur ce front.
Cet article a été initialement publié sur WIRED Italia et a été traduit de l'italien.
wired