CO-PRODUCED WITH

Knowledge@Wharton

Avec l'apparition des puces révolutionnaires d'Intel, dites "verticales", il paraît certain que la puissance des ordinateurs continuera d'augmenter au moins pendant 10 à 20 ans. Quelles seront les conséquences technologiques et sociétales de cette nouvelle avancée? A quoi s'attendre pour la suite?

Il y a quarante-six ans, le co-fondateur d’Intel, Gordon Moore, publiait une observation restée célèbre: le nombre de transistors pouvant être placés sur une puce de silicium doublerait tous les deux ans environ, ce qui implique que la capacité des ordinateurs augmenterait aussi selon une loi de type géométrique.

A l’époque, Moore pensait que cette croissance pourrait continuer pendant peut-être dix ans. La réalité a dépassé de trente ans son estimation. Avec le temps, la technologie des puces a progressé avec une régularité de métronome ou presque, les capacités des composants doublant à une allure même plus rapide. Au printemps, Intel a annoncé une nouvelle puce qui permettra encore une fois à la loi de Moore de se vérifier.

D’après Intel, une arête verticale sur sa nouvelle puce Ivy Bridge3-D Tri-Gate permet de gagner encore plus de place pour les transistors. “Tout comme les gratte-ciels ont permis aux urbanistes d’optimiser l’espace disponible en construisant en hauteur, la structure du transistor 3-D Tri-Gate d’Intel crée une opportunité pour gérer l’agencement très dense [des composants]”, explique le communiqué de l’entreprise, daté du 11 mai.

Mais jusqu’à quand ce doublement annuel peut-il tenir?

Les plus pessimistes assurent que cela ne peut continuer bien longtemps: les circuits deviennent si petits qu’ils se heurteront bientôt aux lois de la physique. L’échelle à laquelle nous nous situons aujourd’hui est déjà difficile à appréhender: le communiqué d’Intel note que “plus de 6 millions de transistors de 22 nanomètres de type TriGate peuvent se loger dans le point placé à la fin de cette phrase”. Les industriels, qui ont travaillé sur des perspectives de croissance exponentielle pendant des générations, vont subir un coup terrible en se heurtant au mur de la physique.

Mais certains prévisionnistes pensent que la loi de Moore tiendra encore de nombreuses décennies. Pour eux, nous vivons en réalité une “singularité”, un point de basculement comme l’invention de l’agriculture ou la révolution industrielle, où la société se trouve soudain bouleversée.

Les nouveaux cerveaux arrivent
Certains intellectuels et analystes prédisent ainsi qu’arrivera bientôt un moment où les ordinateurs égaleront brièvement les humains en intelligence – juste avant de les surpasser, ce qui aura des effets très curieux. Pour Ray Kuzweil, ce sera en 2025. Dans son livre The Singularity Is Near (Viking, 2005; en français, La singularité est proche), Ray Kurzweil affirme que “le rythme auquel évolue la technologie que nous concevons s’accélère et ses capacités s’étendent à une allure exponentielle… dans quelques décennies, les technologies de l’information engloberont l’ensemble de la connaissance et des compétences humaines, allant, au stade ultime, de la reconnaissance des formes à la résolution de problèmes en passant par l’intelligence émotionnelle et morale du cerveau humain lui-même”. Selon lui, d’ici à la fin du siècle, “la partie non biologique de notre intelligence sera des milliards de milliards de fois plus puissante que l’intelligence humaine originelle”.

Ray Kurzweil affirme que cette évolution aura des effets révolutionnaires dans la médecine et d’autres domaines, lorsque des cerveaux plus puissants et plus rapides que les nôtres résoudront les problèmes avec toujours plus de rapidité. D’autres prédisent un avenir plus sombre, avec notamment l’effondrement total de la valeur accordée au travail humain – et peut-être même l’éventualité que ces nouveaux “patrons” décident de se passer purement et simplement de nos services.

Ce scenario peut sembler extravagant, mais les tenants de la singularité ne peuvent être écartés d’un simple revers de main. La meilleure preuve en est les progrès technologiques ahurissants réalisés durant les 50 dernières années. Dans son livre, Kurzweil raconte avoir eu accès en 1968 au plus gros ordinateur de l’époque, un IBM 360 modèle 91, qui avait un mégaoctet de mémoire et se louait 1000 dollars de l’heure. Aujourd’hui, le plus basique des ordinateurs Dell est doté d’une mémoire de deux gigaoctets – 2000 fois plus que celle du 360 – et est vendu 279 dollars, soit l’équivalent de 43,80 dollars de 1968.

Les fonctions les plus sophistiquées continuent également de se développer. En 1997, Deep Blue, un ordinateur IBM, battit Garry Kasparov aux échecs. Cette année, Watson, un autre super ordinateur d’IBM, a battu les deux plus grands champions du mythique jeu de questions-réponses américain “Jeopardy” – une performance mathématique moindre que pour les échecs, mais qui atteste les vertus d’une mémoire de quatre téraoctets (un téraoctet équivaut à 1000 gigaoctets). “Je m’en remets à nos nouveaux seigneurs les ordinateurs”, plaisanta le concurrent Ken Jennings en conclusion de ce match de trois jours.

Quelques certitudes
Que la singularité telle que définie par Kurzweil soit proche ou pas, tout le monde semble s’accorder sur le fait que les capacités des puces, les vitesses de transmission et les capacités de stockage – les trois éléments clés pour la croissance des TIC – continueront d’augmenter à un rythme exponentiel au moins pendant les 10 à 20 prochaines années.

Capacité des puces. Les puces les plus récentes d’Intel sont conçues à partir de transistors de 22 nanomètres de large, s’approchant ainsi du point où les règles de la physique classique ne s’appliquent plus. La dizaine de nanomètres représente une limite absolue pour la miniaturisation des transistors – passer en dessous signifie se rapprocher de l’échelle atomique, où des phénomènes quantiques entrent en jeu, explique Bruno Thedrez, professeur de télécommunications et d’électronique à Télécom ParisTech. Les puces en trois dimensions seront cependant, précise-t-il, un vecteur de croissance supplémentaire pour les années à venir.

Bande passante. Jakob Nielsen, le gourou du webdesign, avait noté que la bande passante disponible pour les utilisateurs “haut-de gamme” d’internet avait augmenté d’environ 50% chaque année depuis 1983. Plus tard, revenant sur son article pour une mise à jour, Nielsen rappela qu’il l’avait écrit en 1998 muni d’une ligne RNIS pouvant supporter un débit de téléchargement d’un dixième de mégaoctet par seconde, et que cette année il pouvait télécharger 31 Mops.

En ce qui concerne l’avenir, Bruno Thedrez explique que les scientifiques ont réussi à faire passer 100 gigaoctets par seconde sur une seule longueur d’onde grâce à une fibre optique et qu’il n’y a aucune raison pour que les capacités des fibres ne puissent pas grimper à 50 téraoctets (50 000 gigaoctets) d’ici à une vingtaine d’années.

Augmenter la bande passante pour les réseaux sans fil est un peu plus compliqué, explique Thedrez, d’abord parce que l’énergie requise échaufferait tellement votre téléphone que vous ne pourriez plus le tenir, ensuite parce que les bandes passantes sont déjà attribuées et limitées par les gouvernements. C’est une limite du législateur, la seule que les physiciens n’ont aucun moyen de surmonter, plaisante-t-il.

Stockage. Mark Kryder, ancien directeur technique du fabricant de disques durs Seagate, et aujourd’hui professeur d’ingénierie électrique et informatique à l’Université Carnegie Mellon de Pittsburgh, explique que la capacité des disques durs augmente d’environ 40% chaque année. Il estime que d’ici à 2020, les gens pourront acheter un disque dur de 15 téraoctets, mesurant environ 6 cm, pour moins de 150 dollars (environ 105 euros). Il précise dans la foulée que son estimation est probablement trop conservatrice. Pour remettre les choses dans leur contexte, nous parlons ici d’un disque beaucoup plus puissant et compact que n’importe quel produit aujourd’hui disponible sur le marché, et ce quel que soit le prix. A titre de comparaison, l’enseigne américaine Best Buy propose aujourd’hui un disque dur externe de 10 To, de 15 sur 18 cm, au prix de 1799 dollars (environ 1260 euros).

Selon Kryder, le rythme de croissance de 40% qui a cours dans l’industrie du disque dur risque cependant de s’effondrer entre 2020 et 2025. Arrivé à ce cap, explique-t-il, soit les industriels vont évoluer vers une autre technologie, soit, si la croissance exponentielle se poursuit pour d’autres composants informatiques comme les processeurs, il faudra faire davantage d’efforts pour que la capacité de stockage puisse suivre. “Si un composant (processeur, mémoire, stockage, par exemple) devient beaucoup plus cher, les ressources migreront pour faire chuter son coût et l’aligner avec les autres”, explique-t-il. “C’est l’économie qui donne vraiment le ‘la’ dans le développement.“

Ce qui va changer
Mais au fait, avons-nous vraiment besoin d’un disque dur de 15 téraoctets? “Depuis 45 ans que je travaille dans ce secteur, j’ai toujours entendu les gens dire qu’ils ne voyaient pas ce qu’ils feraient avec plus de capacité de stockage, mais la demande a toujours été au rendez-vous face aux augmentations exponentielles [des capacités]”, explique Kryder. “Aujourd’hui par exemple, nous regardons des vidéos sur YouTube qui ont une résolution beaucoup plus faible que celle de la HD. Pourquoi les vidéos YouTube ne seraient-elles pas en 3D HD? Avec l’augmentation des vitesses de traitement, de communication, des capacités de stockage, elles le seront probablement.”

Si on part du principe que cette accélération va se poursuivre, qu’apportera-t-elle? Les joies des vidéos YouTube en 3D mises à part, de telles avancées vont-elles avoir des bénéfices concrets pour l’humanité?

La réponse semble être: oui. Si Thedrez fait remarquer qu’historiquement l’augmentation de la bande passante disponible a toujours favorisé le développement des applications en proportion – parfois à un point que la raison n’aurait pu prédire – , selon lui, la croissance future devrait contribuer au développement du cloud computing et ouvrir la voie à l’Internet des objets.

De plus, de nombreux problèmes complexes devraient être plus facilement solubles. Il suffit pour s’en convaincre de s’intéresser à la médecine, où les ordinateurs risquent fort de provoquer des changements considérables.

Le séquençage des gènes devient ainsi, presque d’un mois sur l’autre, de plus en plus abordable, une tendance qui devrait engendrer des avancées médicales conséquentes, et ce bien plus tôt qu‘on aurait pu le penser. Le premier séquençage complet du génome humain, achevé en 2003, a coûté trois milliards. Il y a deux ans, un ingénieur de Stanford annonçait qu’il avait mis au point un protocole permettant de le faire pour 50 000 dollars. En 2010, ce chiffre est passé à 10 000 dollars. Aujourd’hui, 18 start-ups sont en lice pour tenter d’être les premières à séquencer un génome pour moins de 1000 dollars. Tout cela va si vite que les ordinateurs peinent à suivre le rythme du flux de données ainsi généré. Après tout, ils ne progressent qu’au rythme de la loi de Moore…

Les conditions de vie des tétraplégiques pourraient beaucoup s’améliorer grâce à l’augmentation rapide de la puissance des ordinateurs. Toyota mène en ce moment des expériences sur un fauteuil roulant contrôlable par la pensée, et Honda développe des robots également contrôlés par le cerveau.

De son côté, IBM envoie Watson, son ordinateur champion de Jeopardy, sur les bancs de la fac de médecine. L’entreprise travaille aujourd’hui avec Nuance Communications et deux facultés de médecine américaines pour développer un programme qui aidera les médecins à diagnostiquer leurs patients. Les résultats sont attendus d’ici 18 à 24 mois.

Cette frustration qui nous guette
“Nous vivons avec cette croissance exponentielle depuis maintenant des décennies et l’industrie comme la société s’attend à ce que ça continue”, explique Kryder. “Tant que Mère nature nous permet de maintenir cette croissance exponentielle, je pense qu’elle se maintiendra.”

Bien sûr, le hardware n’est pas la seule piste de progression possible. Même lorsque les ingénieurs informaticiens verront se dresser devant eux les limites imposées par la physique, beaucoup de progrès pourront probablement encore être accomplis dans la programmation, notamment en gagnant sur le traitement parallèle, suggère Andrew Odlyzko, professeur de mathématiques à l’Université du Minnesota et historien de la technologie.

Cependant, arrivé à un certain point, mêmes des gains conséquents commenceront à sembler modérés. Dans le domaine des communications, par exemple, le téléphone était beaucoup plus rapide pour transférer des données que le courrier, raconte Odlyzko, et l’ADSL beaucoup plus rapide que le réseau commuté, mais passer de l’ADSL à 6 Mos au haut débit à 8 Mops pourrait ne pas être fondamental.

Finalement, que les ordinateurs finissent au premier rang des salles de classe ou restent simplement des machines extraordinairement utiles, la seule certitude est celle à laquelle était arrivée Odlyzko en 1999, lorsqu’il dirigeait la recherche mathématique et cryptographique dans les laboratoires d’AT&T: les ordinateurs nous laisseront toujours aussi frustrés.

“Nous étions frustrés face aux ordinateurs il y a dix ans, nous les sommes aujourd’hui, et nous continuerons de l’être à l’avenir“, disait-il alors. “Tant que la technologie nous offrira de nouveaux produits et services alléchants, nous continuerons de vivre dans la frustration perpétuelle”.

More on paristech review

By the author

  • Notre édition chinoise en ligne!on July 3rd, 2014
  • Semi-conducteurs: de quoi sera fait l’après silicium?on June 27th, 2014
  • Série Robotique – 3 – Votre chirurgien préféré sera-t-il un robot?on June 26th, 2014
  • Pingback: Les puces du futur confirment-elles la loi de Moore? | Recherche

  • Pingback: Les puces du futur confirment-elles la loi de Moore ? | Post-Sapiens, les êtres technologiques | Scoop.it

  • Pingback: Vers un web intelligent (1/la sémantique) » Horizon 2030

  • Thomas HUET

    Watson n’utilise pas de reconnaissance vocale, il lit du texte. Watson utilise la synthèse vocale mais ce n’est  qu’une caractéristique très secondaire. Watson est un projet extraordinaire parcequ’il comprend une langue naturelle et dire que Watson illustre les progrès en reconnaissance vocale, c’est comme dire que le livre du dernier prix Nobel de littérature est formidable parcequ’il a tout pile la bonne taille pour tenir sur mon étagère.

  • http://www.paristechreview.com/ ParisTech Review

    Merci de nous avoir signalé ce point qui nous avait échappé ; le texte a été corrigé.

  • Pingback: Les puces du futur confirment-elles la loi de Moore? | ParisTech Review | MIX | Scoop.it

  • Pingback: Les puces du futur confirment-elles la loi de Moore? - ParisTech Review | Transhumanisme | Scoop.it

  • Michel Breuille

    N’y a t’il pas une confusion entre bits et bytes (octets) ? 
    Ainsi le moindre ordinateur vendu aujourd’hui a une capacité de 2 gigaoctets et non 2 gigabits (soit 16 000 fois plus que le 1 megabit auquel il est fait référence).De même, les plus gros disques actuellement dans le commerce ont une capacité d’environ 10 teraoctets (en anglais terabytes) et non terabits (guère utilisé).Une correction me semble souhaitable.

  • http://www.paristechreview.com/ ParisTech Review

    Vous avez raison. Nous avons effectué la correction sur le texte grâce à votre vigilance. Merci et à bientôt sur ParisTech Review.

  • Klakkin

    L’article dit “Pourquoi les vidéos YouTube ne seraient-elles pas en 3D HD?”
    Mais il le font déjà.

  • G. Bernard

    Il manque à cette analyse du matériel, caractérisée en capacité et vitesse, une analyse du progrès dans la conception logicielle. La “frustration” dont-il est question tient-elle à cela ? Car la “rupture” attendue résultera bien de la combinaison des deux.

  • jacques eltabet

    L’article confond constamment densité des composants et puissance et tient le lecteur dans l’erreur ou de faux espoirs. Il oublie les limites de la montée en fréquence. La complexité elle-aussi exponentielle pour gagner un simple facteur de puissance et surtout les efforts laborieux pour compenser par du paralléllisme. La disponibilité d’une puissance de processing ultra miniaturisée ne vaut que par son assemblage intelligent en des millions de machines parallèles, une architecture qui n’a pas encore de système d’exploitation. Les progrès comme l’article ne le dit pas sont très lents.

  • Pingback: Les puces du futur confirment-elles la loi de Moore? | ParisTech Review | veille d'aujourd'hui | Scoop.it

www.paristechreview.com

This content is licensed under a Creative Commons Attribution 3.0 License
You are free to share, copy, distribute and transmit this content

Logo creative commons

5 quai Voltaire 75007 Paris, France - Email : [email protected] / Landline : +33 1 44 50 32 89