Qu'est-ce que l'informatique de nouvelle génération ?
Avec l'évolution technologique, l'informatique de nouvelle génération s'impose comme un concept transformateur qui redéfinit le traitement de l'information. Mais que signifie réellement "informatique de nouvelle génération", de l'anglais Next Generation Computing ? Essentiellement, cela désigne le développement de technologies avancées — quantiques, photoniques, neuromorphiques, et autres — qui répondent à la complexité croissante des défis computationnels tout en surmontant les limites de l'informatique traditionnelle.
First Session of the Next Generation Computing Stream at the Creative Destruction Lab (CDL) - Photos by: © Ana Torres / Jeremy Knowles
Lors du lancement du programme Next Generation Computing du Creative Destruction Lab (CDL), des experts de premier plan ont débattu sur la signification, la portée et le potentiel de cette avancée. Soutenu par la Dieter Schwarz Stiftung, en collaboration avec l'Institute for Deep Tech Innovation (DEEP) à l'ESMT Berlin, l'Innovation and Entrepreneurship Institute (IEI) à HEC Paris, le TUM Campus Heilbronn, et Campus Founders, les mentors du programme ont partagé leurs perspectives. Ils ont offert un aperçu des promesses et des défis de ce nouveau paradigme informatique.
Définir l'informatique de nouvelle génération
Contrairement à l'informatique traditionnelle fondée sur des architectures à base de silicium, l'informatique de nouvelle génération explore des approches alternatives. Elle cherche à s'affranchir des limitations de la loi de Moore.
Ces technologies visent à :
- Traiter des problèmes complexes de manière exponentiellement plus rapide.
- Utiliser l'énergie de manière plus efficace.
- Aborder des tâches qui dépassent les capacités des ordinateurs classiques, comme la simulation d'interactions moléculaires ou la résolution de problèmes d'optimisation.
Bien qu'aucun consensus n'existe et que de nombreuses promesses soient faites, trois technologies principales dominent ce domaine : l'informatique quantique, l'informatique neuromorphique et l'informatique photonique. Chacune offre des avantages uniques et rencontre des défis spécifiques.
Cela soulève la question de savoir si une technologie s'imposera comme la norme ou si une approche hybride définira l'avenir.
L'informatique quantique : Réaliser l'impossible
L'informatique quantique utilise la mécanique quantique pour traiter l'information de manière révolutionnaire. En utilisant des qubits au lieu de bits classiques, les ordinateurs quantiques peuvent réaliser des calculs beaucoup plus rapidement pour certains problèmes, comme la découverte de médicaments, la cryptographie et l'optimisation de l'IA.
Renata Jovanovic, mentor au CDL et ambassadrice mondiale de Quantum chez Deloitte, a souligné le potentiel révolutionnaire de l'informatique quantique tout en modérant les attentes. Elle a affirmé :
« L'informatique quantique offre une puissance inégalée pour des applications de niche, mais la scalabilité, la correction d'erreurs et les modalités incertaines – qubits supraconducteurs, atomes neutres ou ions piégés – représentent des obstacles importants à une adoption massive. »
Ludwig von Reiche, mentor au CDL et directeur général chez NVIDIA Corporation, a approfondi le potentiel transformateur du quantique :
« L'informatique quantique est une innovation qui n'apparaît qu'une fois par siècle. Cependant, pour l’intégrer véritablement dans les industries, nous avons besoin de progrès considérables en développement logiciel et en accessibilité. »
Les immenses besoins énergétiques de l'informatique quantique représentent également un défi. Comme l'a souligné Carlo Sirtori, mentor au CDL et professeur à l'École Normale Supérieure :
« Ce ne sera pas un ordinateur portable dans les 20 prochaines années, mais le quantique offrira une manière phénoménale de calculer ce que nous ne pouvons pas faire aujourd'hui, nous aidant à repenser la logique binaire et à transformer notre perception de la réalité. Cependant, bien que l'informatique quantique ouvre de nouvelles perspectives, elle n'est pas encore une solution miracle pour les tâches générales. »
L'informatique neuromorphique : S'inspirer du cerveau
L'informatique neuromorphique imite l'architecture du cerveau humain, utilisant des réseaux neuraux à impulsions pour traiter l'information avec une grande efficacité énergétique. Cette approche est particulièrement adaptée à l'informatique en périphérie, à la prise de décision en temps réel et aux applications nécessitant une faible consommation d'énergie, comme les véhicules autonomes.
Jens Kahrweg, mentor au CDL et directeur des opérations chez Samsung Semiconductor, a souligné la pertinence de l'informatique neuromorphique pour résoudre les goulets d'étranglement actuels :
« L'informatique de nouvelle génération ne consiste pas seulement à redéfinir l'informatique, mais à l'élever à un niveau supérieur. Résoudre des problèmes tels que le calcul en mémoire nous permettra d'aborder des cas d'utilisation plus complexes. Cela, associé aux systèmes neuromorphiques, peut contourner les inefficacités du transfert de données entre mémoire et processeurs, offrant des solutions pour des applications réelles. »
Cependant, ses limitations résident dans la scalabilité et son orientation vers des cas d'utilisation spécifiques plutôt qu'une applicabilité générale. Krishna Raj, participant au programme HEC Paris Executive MBA, a partagé son retour d'expérience pratique :
« L'informatique neuromorphique ne remplacera peut-être pas entièrement les systèmes traditionnels, mais son efficacité énergétique la rend idéale pour des applications décentralisées et en temps réel, comme l’Internet des objets (IoT). »
L'informatique photonique : Exploiter la vitesse de la lumière
L'informatique photonique utilise des particules de lumière (photons) au lieu d'électrons pour effectuer des calculs, permettant des vitesses de transfert de données extrêmement rapides avec une production de chaleur minimale. Contrairement aux systèmes quantiques et neuromorphiques, elle repose sur des principes bien compris, ce qui en fait une technologie de transition prometteuse avant que l'informatique quantique ne devienne viable.
Thomas Andrae, mentor au CDL et associé fondateur de Linden Capital, considère l'informatique photonique comme une étape clé :
« Les systèmes photoniques peuvent déjà relever les défis dans les centres de données et l'informatique haute performance, offrant une alternative pratique et évolutive jusqu'à ce que le quantique devienne commercialement viable. »
Quantique vs. Neuromorphique vs. Photoniques : Combat ou collaboration ?
Le débat parmi les experts suggère que l'informatique de nouvelle génération pourrait ne pas avoir de gagnant unique.
Au contraire, chaque technologie pourrait dominer des domaines spécifiques :
Informatique quantique : Idéale pour des applications de niche à fort impact, comme les simulations moléculaires et les problèmes d'optimisation.
Informatique neuromorphique : Parfaite pour les tâches en temps réel, économes en énergie, telles que la conduite autonome et l'IA en périphérie.
Informatique photonique : Promet de révolutionner les centres de données et la communication à grande vitesse, servant de pont jusqu'à la maturation des autres technologies.
L'informatique quantique révolutionne déjà des secteurs, de la découverte de médicaments aux avancées en IA, bien que des défis subsistent. Renata Jovanovic, mentor CDL et ambassadrice mondiale de Quantum chez Deloitte, a souligné la nécessité de talents et de percées technologiques :
« Nous ne savons pas encore quelles modalités—qubits supraconducteurs, atomes neutres ou ions—prédomineront. Chacune a des avantages et des défis spécifiques. »
Karen Bach, mentor au CDL et présidente de sociétés technologiques, a souligné les implications pratiques : « L'informatique de nouvelle génération ne concerne pas seulement la technologie. Il s'agit de fournir des solutions significatives qui sont plus efficaces et impactantes à travers les industries ». Inge Kerkloh-Devif, co-responsable du site CDL-Paris et directrice exécutive senior à l'Institut d'Entrepreneuriat et d'Innovation d'HEC Paris, a résumé ce paysage aux multiples facettes :
« Il s'agit de collaboration. Chaque approche contribue à un écosystème informatique plus durable et performant. »
Des défis plus larges : Au-delà de la technologie
Les seules avancées technologiques ne suffiront pas à définir le succès de l'informatique de nouvelle génération. Plusieurs enjeux systémiques doivent être abordés :
Développement des talents : Le déficit de compétences reste un obstacle majeur.
Souveraineté : L'Europe doit investir dans des écosystèmes informatiques indépendants pour rester compétitive à l'échelle mondiale.
Modèles économiques : Les coûts élevés nécessitent des stratégies de financement innovantes pour encourager la recherche et la commercialisation.
Francis de Véricourt, responsable académique et modérateur au CDL, et professeur à l'ESMT Berlin, a souligné l'importance d'aligner l'innovation sur les besoins sociétaux :
« L'informatique de nouvelle génération doit résoudre les problèmes de notre monde, qu'il s'agisse de lutter contre le changement climatique ou de faire progresser les soins de santé, afin de garantir que la technologie ait un but et une utilité. »
Brian Standen, mentor au CDL et responsable mondial de l'innovation numérique chez BASF, a souligné les difficultés pratiques :
« Passer aux systèmes de nouvelle génération nécessite souvent de réécrire l'ensemble des infrastructures technologiques, ce qui est une tâche ardue pour la plupart des organisations. »
Le rôle des startups pour préparer l'avenir
Les startups jouent un rôle important dans l'avancement de l'informatique de nouvelle génération. Cette session du CDL a présenté des entreprises innovantes qui relèvent les défis liés à ces technologies : de la transformation de la R&D industrielle et des communications sécurisées, à la facilitation de l'IA à faible consommation d'énergie et en périphérie. Elles offrent des solutions performantes pour les télécommunications et les industries à forte intensité de données. Comme l'a souligné Thorsten Lambertus, responsable de site au CDL-Berlin :
« Nous sélectionnons les meilleures avancées scientifiques et les fondateurs pour faire progresser l'innovation. Le quantique pourrait ouvrir la voie, mais il y a bien plus—semi-conducteurs, photoniques et technologies économes en ressources. Les startups poussent les limites expérimentales de l'informatique de nouvelle génération. En soutenant ces entreprises, nous ouvrons l'avenir de la technologie. »
L'innovation technologique, une ambition européenne
La collaboration entre HEC Paris et l'ESMT Berlin va au-delà de la dimension technologique. Il s'agit de construire une souveraineté européenne. Inge Kerkloh-Devif a souligné l'importance géopolitique de ce partenariat :
« Maintenir l'Europe à la pointe de l'innovation scientifique est essentiel. La souveraineté dans le quantique et l'informatique de nouvelle génération garantit que nous ne dépendons pas d'autres régions comme les États-Unis ou la Chine. »
Ce sentiment a été partagé par Jean-Noël Barrot, ministre français de l'Europe et des Affaires étrangères (H.07 et membre du corps professoral de recherche de HEC), qui a assisté à la session pour souligner l'engagement de l'Europe envers l'innovation. Il a appelé à une plus grande synergie entre les financements publics et privés.
> En savoir plus sur la première session du programme CDL Next Gen Computing