Africa teaching

Une révolution à venir au cœur de nos ordinateurs

Un ingénieur mène des recherches relatives aux smartphones dans le centre Intel de recherche sur les microprocesseurs à Toulouse, après son inauguration en mars 2012
Un ingénieur mène des recherches relatives aux smartphones dans le centre Intel de recherche sur les microprocesseurs à Toulouse, après son inauguration en mars 2012 - AFP PHOTO REMY GABALDA

Jeudi 9 juillet, les rubriques spécialisées l’annonçaient en fanfare : une nouvelle génération de processeurs – sur lequel travail un consortium mené par IBM – allait révolutionner l’informatique. Ok.

Mais qu’est-ce que ça veut dire ?

La lecture de cet article signifie que vous utilisez – là, tout de suite – un ordinateur, un téléphone portable ou une tablette numérique... Cet appareil possède une sorte de « cœur », on peut l’assimiler à un moteur, qui permet l’exécution des programmes, des applications et de tout un tas d’autres choses. C’est ce qu’on appelle le processeur.

Vous en avez certainement déjà lu les caractéristiques. Quand on achète un Mac dernière génération, par exemple, le processeur est décrit par cette ligne incompréhensible : « Intel Core i5 bicœur (Turbo Boost jusqu’à 2,7 GHz) “. Si on traduit (à l’aide des développeurs de Rue89) en langage humain, ça veut dire que l’ordinateur contient deux processeurs capables de traiter, en une seconde, 2,7 GHz d’opérations.

Rapetisser les processeurs

Le processeur, comme dit un développeur de Rue89 :

‘C’est une sorte de packs’ de composants électriques miniaturisés et assemblés entre eux.”

Et c’est le bon fonctionnement de l’ensemble qui permet à la machine de tourner.

En 1971, la société Intel a introduit sur le marché le premier microprocesseur, une vraie révolution en informatique. Leurs ingénieurs ont miniaturisé tous les composants nécessaires pour les faire tenir dans un seul petit boitier. Et, pour vulgariser à outrance, plus un microprocesseur est petit, plus ses composants sont proches, plus vite alors circule l’information et plus forte est donc sa puissance.

Depuis l’introduction en 1971 du premier microprocesseur, sa taille n’a cessé de diminuer. Et hier, IBM a fait une sortie remarquée dans la presse spécialisée. Un consortium, composé de chercheurs issus de IBM Research, d’une université d’État de New York et de Samsung, a mis au point une technique pour créer des microprocesseurs mesurant 7 nanomètres.

Pour se rendre compte à quel point c’est petit, il faut savoir qu’un brin de notre ADN mesure à peu près 2,5 nanomètres de largeur.

“Ça me fait une belle jambe de savoir ça”

En fait, oui, ça vous fait une belle jambe pour deux raisons :

  • vous pourrez briller en société en traduisant les notices de processeurs d’ordinateurs ;
  • vous pourrez diffuser un certain optimisme auprès de vous, car l’annonce faite par IBM peut s’avérer primordiale pour l’informatique.

Jusqu’ici, la taille minimum des microprocesseurs était évaluée à environ 10 nanomètres. On n’arrivait pas à aller au-dessous. Pourquoi ? Car en dessous de cette taille, les composants des microprocesseurs rentraient en conflit : trop proches, ils ont des interactions entre eux non voulues.

Les chercheurs du consortium ont combiné deux innovations majeures (mais pas forcément les plus récentes) pour réussir à passer ce “mur”, comme on l’appelle dans le jargon informatique (allez, accrochez-vous encore un peu) :

  • Ils ont utilisé un alliage de silicium et de germanium au lieu du seul silicium (parce qu’en dessous de 10 nanomètres, le silicium n’arrive plus à bien retransmettre les informations entre les composants).
  • Ils ont gravé l’alliage silicium/germanium (pour créer les canaux, les tuyaux, entre les composants) avec une lithographie en extrême ultraviolet. En gros, c’est une technique de gravure beaucoup plus fine.

Si vous êtes arrivé jusque-là, bravo, c’était le plus dur.

Et la révolution informatique là-dedans ?

En 1975, un informaticien-chimiste-électronicien-ingénieur du nom de Gordon Moore a exprimé une loi, désormais connue comme la Loi de Moore. Celle-ci prévoyait que, tous les deux ans, le nombre de transistors contenus dans un microprocesseur doublerait. Autrement dit, la “puissance” doublerait aussi. Pendant très longtemps, celle-ci a été plutôt exacte, comme le souligne Jean-Claude Heudin dans son ouvrage “Immortalité numérique” (éditions iBooks) :

“La prédiction de Gordon Moore s’est révélée étonnamment exacte jusqu’à récemment. Entre 1971 et 2001, la densité des transistors a doublé chaque 1,96 année. En conséquence, les machines électroniques sont devenues de moins en moins coûteuses et de plus en plus puissantes.”

Ensuite, ça s’est compliqué. Le “mur” dont on parlait plus haut a engendré d’autres murs : celui de la chaleur (le silicium ne supportait pas l’énergie dégagée par tous les composants), celui de la “mémoire” etc.

La loi de Moore – qui stipulait qu’on pourrait construire, selon une courbe exponentielle, des microprocesseurs plus petits et moins chers – fut contredite par les réalités économiques : ça commence à coûter vraiment bonbon.

Comme l’explique Albert Cohen, chercheur à l’Inria et spécialiste des microprocesseurs :

“La technologie coûtant trop cher, les investissements nécessaires devenant trop massifs, tout le monde a ralenti, mis à part peut-être l’historique Intel.”

C’est là où le consortium IBM a peut-être trouvé une parade.

Et moi, humain lambda, ça me sert à quoi ?

Selon le chercheur français Albert Cohen, identifié par tous ses confrères comme l’homme à appeler en la circonstance, cette innovation pourrait nous permettre de créer des applications qu’on n’imagine pas encore. Autrement dit, ça ne servirait pas à créer l’iPhone 10. Il faut voir plus grand.

Par exemple, on pourrait résoudre tous les problèmes algorithmiques qui empêchent que Google Translate ne fournisse une traduction parfaite. Ou encore, avoir une vraie conversation avec le Siri d’Apple.

En soit, les chercheurs qu’on a appelés peuvent paraître un peu excités face à l’innovation d’IBM, mais tous nuancent (parce qu’ils sont chercheurs) :

  • Il peut s’agir d’un effet d’annonce de IBM, à des fins marketings. Ça ne marche peut-être pas aussi bien qu’ils le disent.
  • Industrialiser le processus de création de tels microprocesseurs pourrait être trop coûteux pour être réalisable.

C’est ce que dit Véronique Pequignat, qui travaille dans la région de Grenoble, dans un grand centre d’investissement :

“Aujourd’hui, quand vous rentrez dans une usine de semi-conducteurs [là où on fabrique les composants pour les microprocesseurs, ndlr] ça ressemble vraiment à de la science fiction : technologie de pointe, homme en blouse blanche, sans aucune poussière.

Et plus c’est petit et sophistiqué, plus ça demande des investissements colossaux (...) Aujourd’hui, les nouvelles usines construites, notamment par Samsung, elles coûtent dans les dix milliards d’euros l’unité.”

Alors, dit-elle, pour que la France investisse dans celles de demain, c’est pas encore gagné.



13/07/2015
1 Poster un commentaire

A découvrir aussi


Inscrivez-vous au blog

Soyez prévenu par email des prochaines mises à jour

Rejoignez les 157 autres membres