X
La faillite du 10 nm chez Intel
Vincent Habchi / dimanche 2 juin 2019 / Thèmes: Dossier

La faillite du 10 nm chez Intel

Cauchemar chez le fondeur

Rares sont les échecs chez Intel. Et pourtant. Le passage d’une technologie de gravure de 14 vers 10 nanomètres, qui s’annonçait comme une simple formalité, s’est rapidement mué en cauchemar chez le fondeur. À tel point que celui-ci aurait récemment fait acte de contrition et admis qu’il s’était fourvoyé.

Il n’y aura donc pas de processeur Intel « 10 nm » avant le second semestre 2019. Cette annonce récente n’aura surpris personne : cela fait trois ans que le fondeur mastodonte louvoie et recule l’échéance du lancement de ce nouveau process. Fait plus rare, en revanche, Intel aurait admis que la technologie qu’il avait choisie était une impasse, victime de ce que les Anglo-Saxons baptisent the sunk cost fallacy. Autrement dit : plus vous investissez de temps et d’argent dans une aventure, même vouée à l’échec, plus vous avez du mal à reconnaître votre erreur et à tout recommencer à zéro. Retour sur un des échecs majeurs de l’Américain.

Une transition plus difficile que prévue

À la décharge d’Intel, il faut bien admettre que, jusqu’en 2016, les ingénieurs maison avaient déployé des trésors d’ingéniosité pour défier les nombreux obstacles posés par la miniaturisation : diélectrique « haute permittivité » apparus avec la génération Penryn (45 nm), suivi des nouveaux transistors FinFET, baptisés « Tri-gate ». Tout ceci nous avait emmené en 2014 et sa technologie « 14 nm ». Jusqu’alors Intel n’avait jamais failli à son modèle tick-tock, miniaturisant systématiquement son process de gravure tous les deux ans. Logiquement, on attendait donc le « 10 nm » pour l’année suivante, avec Kaby Lake.

Or, brutalement, le discours change. Kaby Lake sort, mais en 14 nm. Intel explique que désormais, chaque process de gravure durera trois itérations (« process – architecture – optimisation »). Mais Cannon Lake, l’itération 10 nm de Kaby Lake, prévue pour 2016, se voit reportée d’abord en 2017, puis en 2018. Effectivement, en 2018, un processeur « 10 nm » mobile apparaît, le Core i3-8121U. À l’analyse, il apparaît cependant que ce dernier, bi-cœur avec un GPU désactivé – une première –, fait moins bien que ses équivalents directs de la génération précédente ! Intel ne fournira d’ailleurs qu’un lot de ces processeurs « au rabais », dans l’espoir sans doute de faire taire les rumeurs, la production de masse de processeurs 10 nm étant une nouvelle fois différée au deuxième trimestre 2019. Trois ans de retard, du jamais vu ! Que s’est-il passé ?

 

Pour reproduire un motif trop fin pour les techniques de lithographie actuelle, on répartit les différentes lignes dans plusieurs sous-masques, ici identifiés par des couleurs, de sorte que l’espacement entre lignes pour chaque sous-masque respecte les contraintes technologiques. Chaque sous-masque est ensuite appliqué séparément.

Limites de la techno

Graver des transistors « nanoscopiques » est de plus en plus ardu. Il faut reproduire à la surface du silicium des détails de quelques nanomètres seulement, ce qui n’est pas possible sans adopter des technologies avancées (lire plus loin). La lithographie optique atteint ses limites, et la gravure par faisceau d’électrons, un moment envisagée pour prendre la relève, n’a pas tenu toutes ses promesses, et reste encore très onéreuse pour de la production de masse.

Les fondeurs campent donc sur des techniques lithographiques déjà éprouvées, qui permettent des résolutions de l’ordre de cinquante nanomètres. Comment font-ils pour descendre en-dessous de ce chiffre ? En exploitant deux astuces technologiques : la superposition de motifs (multi-patterning) ou le SADP/SAQP. La superposition de motifs procède d’une idée simple : si on ne peut pas reproduire un motif, par exemple parce qu’il comporte des lignes trop serrées, il suffit de décomposer ce motif en deux sous-motifs moitié moins denses : si l’on numérote les lignes, le premier sous-motif ne contiendra que les lignes impaires, et le second que les lignes paires. Ces deux sous-motifs seront exposés l’un après l’autre, et n’interféreront pas entre eux. Produire ces sous-masques est une tâche assez facile, que les logiciels de CAO spécialisés sont désormais capable de faire. Cette technique d’expositions successives est aussi appelée LELE, pour Litho-Etch-Litho-Etch, etching se référant à la phase de morsure chimique qui élimine la résine. Intel, lui, a choisi une autre technique, qui permet de densifier des réseaux de lignes en utilisant une approche itérative. Supposons que l’on souhaite réaliser un ensemble de lignes de largeur L espacées de L. On commence par lithographier des barres (spacers) de largeur 3L espacées de 5L. On enrobe ensuite ces barres avec une couche de résine épaisse de L. On élimine chimiquement les parties horizontales de cette résine, puis la première sériede barres. Il reste un réseau de fines barres de largeur L espacées de 3L, donc deux fois plus dense. Cette technique est appelée self-aligned double patterning (SADP).

Si on recommence cette opération une nouvelle fois, on obtient un nouveau réseau de barres de largeur L espacées de L. On a donc réussi, en partant d’un motif grossier, avec une barre tous les 8L, à créer un motif fin avec une barre tous les 2L, soit un quadruplement de la densité, sans nouvelle lithographie. Cet enchaînement de deux SADP consécutifs s’appelle le self-aligned quadruple patterning (SAQP).

En process 10 nm, tous les fondeurs utilisent un mélange de SAQP et de SADP pour implanter les transistors FinFET, et du LELE (ou LELELE) pour implémenter les contacts métalliques. Comme Intel semble le seul à rencontrer des difficultés, elles ne sont probablement pas liées à cette étape.

Principe de la gravure par SADP/SAQP. On implante des barres de 3L espacées de 5L. On dépose une couche épaisse de L de résine, que l’on rabote (etching) chimiquement, avant de dissoudre les barres. Il ne reste que des plots de résine de largeur L espacés de 3L. Cette technique s’appelle le SADP. Si l’on recommence l’opération, on obtient des plots de largeur L espacés de L. Ces deux SADP successifs constituent le SAQP, indispensable pour atteindre un espacement entre transistors de 36 nm, caractéristique du process 10 nm d’Intel.

SADP et SAQP peuvent être combinés selon des orientations différentes pour obtenir des motifs complexes, et des limites de traces parfaitement nettes.

Cobalt n’est pas nickel

Le passage au 10 nm s’accompagne d’un second changement. Jusqu’ici, pour interconnecter les transistors entre eux, les fondeurs utilisaient, dans ce qui s’appelle le BEOL (Back End Of Line), des pistes de cuivre, le métal le moins résistant disponible à un prix raisonnable – l’argent conduit mieux, mais est bien plus cher. Or, plus les pistes deviennent fines, plus leur résistance augmente, celle-ci étant inversement proportionnelle à leur section. En outre, le cuivre présente deux autres désavantages :

• Il est sensible à l’électro-migration : quand un grand nombre d’électrons circule dans un fil très fin, ils se heurtent aux atomes de métal. Ces derniers sont donc progressivement poussés dans la direction de propagation du courant, un peu comme des pierres dans un torrent. Au bout d’un moment, la piste se rétrécit, sa résistance augmente, jusqu’à ce que le circuit cesse de fonctionner ;

• Le libre parcours moyen des électrons dans le cuivre (la distance moyenne entre deux collisions) est de l’ordre de 40 nm. Dès que les pistes approchent de cette largeur, les électrons se mettent à rebondir et diffuser sur les bords, ce qui provoque une augmentation supplémentaire de la résistance.

L’électro-migration peut être réduite en plaçant les pistes dans des sortes de caissons isolants. Malheureusement, la taille de ceux-ci ne diminue pas aussi vite que celle des pistes : donc, plus les pistes deviennent fines, plus les caissons prennent de place, proportionnellement.

La solution envisagée consiste à remplacer le cuivre par du cobalt. Le cobalt est moins sensible à l’électro-migration – ses atomes sont plus fortement liés entre eux –, et le libre parcours moyen des électrons y est très inférieur à celui du cuivre. Ainsi, bien que le cobalt soit nettement moins bon conducteur que le cuivre, aux échelles envisagées, il se comporte mieux.

Intel serait le premier fondeur à réaliser l’intégralité des pistes profondes en cobalt, alors que TSMC, par exemple, ne l’utiliserait pas. Est-ce là un des obstacles auxquels se heurte l’Américain ? C’est possible, notamment parce que le cobalt est un mauvais conducteur de chaleur, et que cobalt et cuivre ne se dilatent pas de la même façon, ce qui pourrait conduire à des cassures aux interfaces cuivre / cobalt.

D’après le site semiwiki.com, une autre cause plausible des ennuis d’Intel tiendrait dans l’utilisation du SAQP pour réaliser ces couches d’interconnexion métalliques profondes, alors que ses concurrents n’utilisent « que » du SADP. Intel a, en effet, décidé de ramener le pitch, la distance entre deux transistors, à 36 nm, là où ses concurrents ont choisi 40 nm. La différence de 10 %, 4 nm, peut paraître faible, mais 36 nm est infaisable en SADP. Réaliser les interconnexions métalliques en SAQP provoquerait une chute de rendement telle que Intel aurait été incapable de fiabiliser la production de processeurs basés sur cette technologie.

Le site semiaccurate.com, dans un article datant d’octobre 2018, a affirmé que Intel avait définitivement abandonné sa technologie 10 nm et se serait réorienté dans une voie totalement différente. Une information aussitôt démentie par le géant. Mais faut-il le croire ?

Quoi qu’il en soit, il semble de plus en plus évident que nous arrivions aux limites de la loi de Moore. Jusqu’ici, graver plus finement était une évolution technologique normale qui n’entraînait pas de surcoût. Mais les difficultés liées au passage au « 10 nm » semblent telles que, même si Intel finit par les surmonter, il y a de fortes chances que son offre « 10 nm » soit proposée à un prix « premium » par rapport au 14 nm. Et ce sera sans doute pire quand il faudra descendre à des tailles inférieures. L’ère de la puissance toujours croissante à prix constant pourrait bien, cette fois, avoir réellement pris fin.

8121U : le processeur Core i3-8121U, réalisé en technologie 10 nm, se révèle moins performant – il n’a pas de GPU – que le Core i3-8145U, réalisé en technologie 14 nm, pour le même niveau de consommation (15 W). C’est un « leurre » technologique.


14 nm, 10 nm, 7 nm… Ne vous fiez pas au marketing

Que signifient vraiment les chiffres « 14 nm », « 10 nm », « 7 nm » ? Pas grand chose, puisqu’il est impossible à l’heure actuelle de réaliser directement une gravure de taille inférieure à une cinquantaine de nanomètres. Voici pourquoi.

La fabrication d’une puce se fait exactement comme celle d’un circuit imprimé, par photolithographie : on dépose de la résine photosensible, que l’on expose à la lumière. La lumière provoque une modification structurelle de la résine ; on peut ensuite, avec un solvant approprié, éliminer sélectivement les zones éclairées. Une fois ceci fait, on applique un traitement (dopage…) qui n’affectera pas les parties encore protégées par la résine. On élimine ensuite le reste de résine, et on recommence, ainsi de suite plusieurs dizaines de fois, typiquement.

Mais qui dit lumière, dit ondes, et diffraction. Ce phénomène physique limite la résolution de l’image projetée sur le silicium : il n’est pas possible de reproduire des détails plus petits que le quart de la longueur d’onde utilisée. Ignorer cette loi physique, c’est comme tenter de peindre un timbre poste avec un pinceau de plusieurs centimètres de diamètre. Les process modernes utilisent de la lumière ultraviolette (DUV, 193 nm issu d’un laser ArgonFluor), qui permet de graver des détails de l’ordre de 80 nm. Pour descendre à 50 nm, la dernière lentille et le silicium sont plongés dans de l’eau ultra pure. L’eau ayant un index de réfraction de 1,44, la longueur d’onde de la lumière qui s’y propage est divisée d’autant, ce qui améliore la résolution de 30 à 40 %. La génération suivante d’appareils utilisera l’extrême ultraviolet (EUV), aux alentours de 13 nm. Impossible d’aller au-delà, car à partir de 10 nm, on entre dans le domaine des rayons X, dont les propriétés physiques sont complètement différentes. L’EUV pose également des problèmes, car les sources disponibles sont coûteuses et peu puissantes, ce qui implique des temps d’exposition importants.

Quoi qu’il en soit, les « 14 nm », « 10 nm » et « 7 nm » sont essentiellement des dénominations marketing qui ne correspondent à aucune réalité. D’ailleurs, le « 14 nm » d’Intel serait aussi performant que le « 10 nm » de ses concurrents. Preuve qu’il ne faut pas juger sur de simples labels, mais regarder les spécifications techniques de près.

2474

x
Rechercher dans les dossiers
Les derniers dossiers...
Réduire

Actuellement à la Une...
IBM rafraîchit la gamme de son serveur historique avec le z15 conçu pour les environnements hybrides nécessitant de hautes performances dans un contexte sécurisé.

La plateforme collaborative proposera d’ici à la fin de l’année à ses clients entreprises de choisir dans quelle région AWS stocker leurs données au repos, à commencer par Francfort. Il s’agit selon Slack de répondre aux préoccupations réglementaires de ses utilisateurs.

Le classement 2019 IEEE Spectrum confirme la suprématie du roi Python. Ce langage né à la fin des 1980 est celui choisi souvent pour enseigner les rudiments de la programmation comme pour développer les projets d'IA.

L’éditeur de solutions de gestion des ressources humaines et de gestion d’entreprise finalise l’acquisition d’un de ses homologues espagnols, Meta4.

Après l’engouement rencontré par les projets de développements de Blockchain en 2017, notamment sur Ethereum, où en est la technologie aujourd’hui ? Quels projets ont débouché sur des applications réelles et avec quels langages ? C’est ce que nous allons voir dans cet article. Article paru dans L'Informaticien n°179.

Face aux géants américains et asiatiques, nos cloud providers suivent deux stratégies : s’adapter ou résister. Si certains, OVH en tête, entendent conquérir le monde, d’autres jouent la différenciation de leurs produits, voire la complémentarité avec les offres des hyperscalers. Sur la ligne tirée entre le multicloud et le « cloud souverain » qui revient en force, chacun place son curseur et tente d’attirer à lui les entreprises désireuses de migrer vers le cloud. Dossier paru dans L'Informaticien n°179.

Pour des raisons de santé, le CEO d’Oracle se met temporairement en retrait de la direction de l’éditeur. Il est remplacé par Safra Catz.

Sur le terrain des services, Apple manque peut-être de contenus, notamment audiovisuels, mais enthousiasme les analystes avec des prix largement inférieurs à ceux du marché.

Lors de sa keynote, la marque à la pomme a dévoilé une nouvelle tablette d’entrée de gamme, la première sous iPadOS, ainsi qu’une toute nouvelle Apple Watch.

La suite d’applications pour les entreprises ajoute de nouveaux services de plateforme en matière de téléphonie, d’authentification unique et de provisionnement via sa Marketplace.

Toutes les News
LIVRES BLANCS
Les entreprises et les organismes publics se focalisent aujourd’hui sur la transformation numérique. En conséquence, les DevOps et l’agilité sont au premier plan des discussions autour des stratégies informatiques. Pour offrir ces deux avantages, les entreprises travaillent de plus en plus avec les fournisseurs de services de cloud public et développent désormais des clouds sur site à partir d’une infrastructure qui répond à trois exigences de base:
1. Agilité sans friction des ressources physiques
2. Systèmes de contrôle optimisant l'utilisation des ressources physiques et offrant un retour sur investissement maximal
3. Intégration des divers composants de l'infrastructure pour un provisionnement et une gestion des ressources automatisés.


Pour fonctionner, votre entreprise doit pouvoir compter sur une solution de sauvegarde efficace, essentielle dans un monde marqué par une croissance exponentielle des données. Vous devez à la fois accélérer vos sauvegardes et pouvoir y accéder plus rapidement pour satisfaire les exigences actuelles de continuité d’activité, disponibilité, protection des données et conformité réglementaire. Dans cette ère de croissance effrénée, les cibles sur bande hors site et autres approches traditionnelles sont simplement dépassées.


L’Intelligence Artificielle promet de révolutionner la perception de la cybersécurité au coeur des entreprises, mais pas uniquement. Ce changement de paradigme engage, en effet, une redéfinition complète des règles du jeu pour les DSI et les RSSI, ainsi que l’ensemble des acteurs de la sécurité.


Lorsque l'on déploie des postes de travail, ils ont généralement tous la même configuration matérielle et logicielle (avec certaines spécificités selon les services). Mais on ne peut pas toujours tout prévoir et il arrive par exemple que de nouveaux programmes doivent être installés ou n’aient pas été prévus. L’accumulation de logiciels « lourds » est susceptible de provoquer des lenteurs significatives sur un PC allant jusqu’à l’extinction nette de l’application. Ce livre blanc explique comment optimiser les performances au travers de 5 conseils rapides à mettre en place.


Ce guide est conçu pour aider les entreprises à évaluer les solutions de sécurité des terminaux. Il peut être utilisé par les membres de l'équipe de réponse aux incidents et des opérations de sécurité travaillant avec des outils de sécurité des points finaux sur une base quotidienne. Il peut également être utilisé par les responsables informatiques, les professionnels de la sécurité, les responsables de la conformité et d’autres personnes pour évaluer leurs performances. les capacités de l’entreprise en matière de cybersécurité, identifier les lacunes dans la sécurité des terminaux et sélectionner les bons produits pour combler ces lacunes.


Tous les Livres Blancs