PARIS SCIENCES & LETTRES (PSL)
Merci ! Votre abonnement a bien été enregistré !
il y a un soucis. Merci de vérifier votre saisie.

Les puces du futur confirment-elles la loi de Moore?

Avec l'apparition des puces révolutionnaires d'Intel, dites "verticales", il paraît certain que la puissance des ordinateurs continuera d'augmenter au moins pendant 10 à 20 ans. Quelles seront les conséquences technologiques et sociétales de cette nouvelle avancée? A quoi s'attendre pour la suite?

Wednesday
20
July 2011
read in english
read in english
Lire le résumé

Il y a quarante-six ans, le co-fondateur d’Intel, Gordon Moore, publiait une observation restée célèbre: le nombre de transistors pouvant être placés sur une puce de silicium doublerait tous les deux ans environ, ce qui implique que la capacité des ordinateurs augmenterait aussi selon une loi de type géométrique.

A l’époque, Moore pensait que cette croissance pourrait continuer pendant peut-être dix ans. La réalité a dépassé de trente ans son estimation. Avec le temps, la technologie des puces a progressé avec une régularité de métronome ou presque, les capacités des composants doublant à une allure même plus rapide. Au printemps, Intel a annoncé une nouvelle puce qui permettra encore une fois à la loi de Moore de se vérifier.

D’après Intel, une arête verticale sur sa nouvelle puce Ivy Bridge3-D Tri-Gate permet de gagner encore plus de place pour les transistors. “Tout comme les gratte-ciels ont permis aux urbanistes d’optimiser l’espace disponible en construisant en hauteur, la structure du transistor 3-D Tri-Gate d’Intel crée une opportunité pour gérer l’agencement très dense [des composants]”, explique le communiqué de l’entreprise, daté du 11 mai.

Mais jusqu’à quand ce doublement annuel peut-il tenir?

Les plus pessimistes assurent que cela ne peut continuer bien longtemps: les circuits deviennent si petits qu’ils se heurteront bientôt aux lois de la physique. L’échelle à laquelle nous nous situons aujourd’hui est déjà difficile à appréhender: le communiqué d’Intel note que “plus de 6 millions de transistors de 22 nanomètres de type TriGate peuvent se loger dans le point placé à la fin de cette phrase”. Les industriels, qui ont travaillé sur des perspectives de croissance exponentielle pendant des générations, vont subir un coup terrible en se heurtant au mur de la physique.

Mais certains prévisionnistes pensent que la loi de Moore tiendra encore de nombreuses décennies. Pour eux, nous vivons en réalité une “singularité”, un point de basculement comme l’invention de l’agriculture ou la révolution industrielle, où la société se trouve soudain bouleversée.

Les nouveaux cerveaux arrivent

Certains intellectuels et analystes prédisent ainsi qu’arrivera bientôt un moment où les ordinateurs égaleront brièvement les humains en intelligence – juste avant de les surpasser, ce qui aura des effets très curieux. Pour Ray Kuzweil, ce sera en 2025. Dans son livre The Singularity Is Near (Viking, 2005; en français, La singularité est proche), Ray Kurzweil affirme que “le rythme auquel évolue la technologie que nous concevons s’accélère et ses capacités s’étendent à une allure exponentielle… dans quelques décennies, les technologies de l’information engloberont l’ensemble de la connaissance et des compétences humaines, allant, au stade ultime, de la reconnaissance des formes à la résolution de problèmes en passant par l’intelligence émotionnelle et morale du cerveau humain lui-même”. Selon lui, d’ici à la fin du siècle, “la partie non biologique de notre intelligence sera des milliards de milliards de fois plus puissante que l’intelligence humaine originelle”.

Ray Kurzweil affirme que cette évolution aura des effets révolutionnaires dans la médecine et d’autres domaines, lorsque des cerveaux plus puissants et plus rapides que les nôtres résoudront les problèmes avec toujours plus de rapidité. D’autres prédisent un avenir plus sombre, avec notamment l’effondrement total de la valeur accordée au travail humain – et peut-être même l’éventualité que ces nouveaux “patrons” décident de se passer purement et simplement de nos services.

Ce scenario peut sembler extravagant, mais les tenants de la singularité ne peuvent être écartés d’un simple revers de main. La meilleure preuve en est les progrès technologiques ahurissants réalisés durant les 50 dernières années. Dans son livre, Kurzweil raconte avoir eu accès en 1968 au plus gros ordinateur de l’époque, un IBM 360 modèle 91, qui avait un mégaoctet de mémoire et se louait 1000 dollars de l’heure. Aujourd’hui, le plus basique des ordinateurs Dell est doté d’une mémoire de deux gigaoctets – 2000 fois plus que celle du 360 – et est vendu 279 dollars, soit l’équivalent de 43,80 dollars de 1968.

Les fonctions les plus sophistiquées continuent également de se développer. En 1997, Deep Blue, un ordinateur IBM, battit Garry Kasparov aux échecs. Cette année, Watson, un autre super ordinateur d’IBM, a battu les deux plus grands champions du mythique jeu de questions-réponses américain “Jeopardy” – une performance mathématique moindre que pour les échecs, mais qui atteste les vertus d’une mémoire de quatre téraoctets (un téraoctet équivaut à 1000 gigaoctets). “Je m’en remets à nos nouveaux seigneurs les ordinateurs”, plaisanta le concurrent Ken Jennings en conclusion de ce match de trois jours.

Quelques certitudes

Que la singularité telle que définie par Kurzweil soit proche ou pas, tout le monde semble s’accorder sur le fait que les capacités des puces, les vitesses de transmission et les capacités de stockage – les trois éléments clés pour la croissance des TIC – continueront d’augmenter à un rythme exponentiel au moins pendant les 10 à 20 prochaines années.

Capacité des puces. Les puces les plus récentes d’Intel sont conçues à partir de transistors de 22 nanomètres de large, s’approchant ainsi du point où les règles de la physique classique ne s’appliquent plus. La dizaine de nanomètres représente une limite absolue pour la miniaturisation des transistors – passer en dessous signifie se rapprocher de l’échelle atomique, où des phénomènes quantiques entrent en jeu, explique Bruno Thedrez, professeur de télécommunications et d’électronique à Télécom ParisTech. Les puces en trois dimensions seront cependant, précise-t-il, un vecteur de croissance supplémentaire pour les années à venir.

Bande passante. Jakob Nielsen, le gourou du webdesign, avait noté que la bande passante disponible pour les utilisateurs “haut-de gamme” d’internet avait augmenté d’environ 50% chaque année depuis 1983. Plus tard, revenant sur son article pour une mise à jour, Nielsen rappela qu’il l’avait écrit en 1998 muni d’une ligne RNIS pouvant supporter un débit de téléchargement d’un dixième de mégaoctet par seconde, et que cette année il pouvait télécharger 31 Mops.

En ce qui concerne l’avenir, Bruno Thedrez explique que les scientifiques ont réussi à faire passer 100 gigaoctets par seconde sur une seule longueur d’onde grâce à une fibre optique et qu’il n’y a aucune raison pour que les capacités des fibres ne puissent pas grimper à 50 téraoctets (50 000 gigaoctets) d’ici à une vingtaine d’années.

Augmenter la bande passante pour les réseaux sans fil est un peu plus compliqué, explique Thedrez, d’abord parce que l’énergie requise échaufferait tellement votre téléphone que vous ne pourriez plus le tenir, ensuite parce que les bandes passantes sont déjà attribuées et limitées par les gouvernements. C’est une limite du législateur, la seule que les physiciens n’ont aucun moyen de surmonter, plaisante-t-il.

Stockage. Mark Kryder, ancien directeur technique du fabricant de disques durs Seagate, et aujourd’hui professeur d’ingénierie électrique et informatique à l’Université Carnegie Mellon de Pittsburgh, explique que la capacité des disques durs augmente d’environ 40% chaque année. Il estime que d’ici à 2020, les gens pourront acheter un disque dur de 15 téraoctets, mesurant environ 6 cm, pour moins de 150 dollars (environ 105 euros). Il précise dans la foulée que son estimation est probablement trop conservatrice. Pour remettre les choses dans leur contexte, nous parlons ici d’un disque beaucoup plus puissant et compact que n’importe quel produit aujourd’hui disponible sur le marché, et ce quel que soit le prix. A titre de comparaison, l’enseigne américaine Best Buy propose aujourd’hui un disque dur externe de 10 To, de 15 sur 18 cm, au prix de 1799 dollars (environ 1260 euros).

Selon Kryder, le rythme de croissance de 40% qui a cours dans l’industrie du disque dur risque cependant de s’effondrer entre 2020 et 2025. Arrivé à ce cap, explique-t-il, soit les industriels vont évoluer vers une autre technologie, soit, si la croissance exponentielle se poursuit pour d’autres composants informatiques comme les processeurs, il faudra faire davantage d’efforts pour que la capacité de stockage puisse suivre. “Si un composant (processeur, mémoire, stockage, par exemple) devient beaucoup plus cher, les ressources migreront pour faire chuter son coût et l’aligner avec les autres”, explique-t-il. “C’est l’économie qui donne vraiment le ‘la’ dans le développement.“

Ce qui va changer

Mais au fait, avons-nous vraiment besoin d’un disque dur de 15 téraoctets? “Depuis 45 ans que je travaille dans ce secteur, j’ai toujours entendu les gens dire qu’ils ne voyaient pas ce qu’ils feraient avec plus de capacité de stockage, mais la demande a toujours été au rendez-vous face aux augmentations exponentielles [des capacités]”, explique Kryder. “Aujourd’hui par exemple, nous regardons des vidéos sur YouTube qui ont une résolution beaucoup plus faible que celle de la HD. Pourquoi les vidéos YouTube ne seraient-elles pas en 3D HD? Avec l’augmentation des vitesses de traitement, de communication, des capacités de stockage, elles le seront probablement.”

Si on part du principe que cette accélération va se poursuivre, qu’apportera-t-elle? Les joies des vidéos YouTube en 3D mises à part, de telles avancées vont-elles avoir des bénéfices concrets pour l’humanité?

La réponse semble être: oui. Si Thedrez fait remarquer qu’historiquement l’augmentation de la bande passante disponible a toujours favorisé le développement des applications en proportion – parfois à un point que la raison n’aurait pu prédire – , selon lui, la croissance future devrait contribuer au développement du cloud computing et ouvrir la voie à l’Internet des objets.

De plus, de nombreux problèmes complexes devraient être plus facilement solubles. Il suffit pour s’en convaincre de s’intéresser à la médecine, où les ordinateurs risquent fort de provoquer des changements considérables.

Le séquençage des gènes devient ainsi, presque d’un mois sur l’autre, de plus en plus abordable, une tendance qui devrait engendrer des avancées médicales conséquentes, et ce bien plus tôt qu‘on aurait pu le penser. Le premier séquençage complet du génome humain, achevé en 2003, a coûté trois milliards. Il y a deux ans, un ingénieur de Stanford annonçait qu’il avait mis au point un protocole permettant de le faire pour 50 000 dollars. En 2010, ce chiffre est passé à 10 000 dollars. Aujourd’hui, 18 start-ups sont en lice pour tenter d’être les premières à séquencer un génome pour moins de 1000 dollars. Tout cela va si vite que les ordinateurs peinent à suivre le rythme du flux de données ainsi généré. Après tout, ils ne progressent qu’au rythme de la loi de Moore…

Les conditions de vie des tétraplégiques pourraient beaucoup s’améliorer grâce à l’augmentation rapide de la puissance des ordinateurs. Toyota mène en ce moment des expériences sur un fauteuil roulant contrôlable par la pensée, et Honda développe des robots également contrôlés par le cerveau.

De son côté, IBM envoie Watson, son ordinateur champion de Jeopardy, sur les bancs de la fac de médecine. L’entreprise travaille aujourd’hui avec Nuance Communications et deux facultés de médecine américaines pour développer un programme qui aidera les médecins à diagnostiquer leurs patients. Les résultats sont attendus d’ici 18 à 24 mois.

Cette frustration qui nous guette

“Nous vivons avec cette croissance exponentielle depuis maintenant des décennies et l’industrie comme la société s’attend à ce que ça continue”, explique Kryder. “Tant que Mère nature nous permet de maintenir cette croissance exponentielle, je pense qu’elle se maintiendra.”

Bien sûr, le hardware n’est pas la seule piste de progression possible. Même lorsque les ingénieurs informaticiens verront se dresser devant eux les limites imposées par la physique, beaucoup de progrès pourront probablement encore être accomplis dans la programmation, notamment en gagnant sur le traitement parallèle, suggère Andrew Odlyzko, professeur de mathématiques à l’Université du Minnesota et historien de la technologie.

Cependant, arrivé à un certain point, mêmes des gains conséquents commenceront à sembler modérés. Dans le domaine des communications, par exemple, le téléphone était beaucoup plus rapide pour transférer des données que le courrier, raconte Odlyzko, et l’ADSL beaucoup plus rapide que le réseau commuté, mais passer de l’ADSL à 6 Mos au haut débit à 8 Mops pourrait ne pas être fondamental.

Finalement, que les ordinateurs finissent au premier rang des salles de classe ou restent simplement des machines extraordinairement utiles, la seule certitude est celle à laquelle était arrivée Odlyzko en 1999, lorsqu’il dirigeait la recherche mathématique et cryptographique dans les laboratoires d’AT&T: les ordinateurs nous laisseront toujours aussi frustrés.

“Nous étions frustrés face aux ordinateurs il y a dix ans, nous les sommes aujourd’hui, et nous continuerons de l’être à l’avenir“, disait-il alors. “Tant que la technologie nous offrira de nouveaux produits et services alléchants, nous continuerons de vivre dans la frustration perpétuelle”.