X
La faillite du 10 nm chez Intel
Vincent Habchi / dimanche 2 juin 2019 / Thèmes: Dossier

La faillite du 10 nm chez Intel

Cauchemar chez le fondeur

Rares sont les échecs chez Intel. Et pourtant. Le passage d’une technologie de gravure de 14 vers 10 nanomètres, qui s’annonçait comme une simple formalité, s’est rapidement mué en cauchemar chez le fondeur. À tel point que celui-ci aurait récemment fait acte de contrition et admis qu’il s’était fourvoyé.

Il n’y aura donc pas de processeur Intel « 10 nm » avant le second semestre 2019. Cette annonce récente n’aura surpris personne : cela fait trois ans que le fondeur mastodonte louvoie et recule l’échéance du lancement de ce nouveau process. Fait plus rare, en revanche, Intel aurait admis que la technologie qu’il avait choisie était une impasse, victime de ce que les Anglo-Saxons baptisent the sunk cost fallacy. Autrement dit : plus vous investissez de temps et d’argent dans une aventure, même vouée à l’échec, plus vous avez du mal à reconnaître votre erreur et à tout recommencer à zéro. Retour sur un des échecs majeurs de l’Américain.

Une transition plus difficile que prévue

À la décharge d’Intel, il faut bien admettre que, jusqu’en 2016, les ingénieurs maison avaient déployé des trésors d’ingéniosité pour défier les nombreux obstacles posés par la miniaturisation : diélectrique « haute permittivité » apparus avec la génération Penryn (45 nm), suivi des nouveaux transistors FinFET, baptisés « Tri-gate ». Tout ceci nous avait emmené en 2014 et sa technologie « 14 nm ». Jusqu’alors Intel n’avait jamais failli à son modèle tick-tock, miniaturisant systématiquement son process de gravure tous les deux ans. Logiquement, on attendait donc le « 10 nm » pour l’année suivante, avec Kaby Lake.

Or, brutalement, le discours change. Kaby Lake sort, mais en 14 nm. Intel explique que désormais, chaque process de gravure durera trois itérations (« process – architecture – optimisation »). Mais Cannon Lake, l’itération 10 nm de Kaby Lake, prévue pour 2016, se voit reportée d’abord en 2017, puis en 2018. Effectivement, en 2018, un processeur « 10 nm » mobile apparaît, le Core i3-8121U. À l’analyse, il apparaît cependant que ce dernier, bi-cœur avec un GPU désactivé – une première –, fait moins bien que ses équivalents directs de la génération précédente ! Intel ne fournira d’ailleurs qu’un lot de ces processeurs « au rabais », dans l’espoir sans doute de faire taire les rumeurs, la production de masse de processeurs 10 nm étant une nouvelle fois différée au deuxième trimestre 2019. Trois ans de retard, du jamais vu ! Que s’est-il passé ?

 

Pour reproduire un motif trop fin pour les techniques de lithographie actuelle, on répartit les différentes lignes dans plusieurs sous-masques, ici identifiés par des couleurs, de sorte que l’espacement entre lignes pour chaque sous-masque respecte les contraintes technologiques. Chaque sous-masque est ensuite appliqué séparément.

Limites de la techno

Graver des transistors « nanoscopiques » est de plus en plus ardu. Il faut reproduire à la surface du silicium des détails de quelques nanomètres seulement, ce qui n’est pas possible sans adopter des technologies avancées (lire plus loin). La lithographie optique atteint ses limites, et la gravure par faisceau d’électrons, un moment envisagée pour prendre la relève, n’a pas tenu toutes ses promesses, et reste encore très onéreuse pour de la production de masse.

Les fondeurs campent donc sur des techniques lithographiques déjà éprouvées, qui permettent des résolutions de l’ordre de cinquante nanomètres. Comment font-ils pour descendre en-dessous de ce chiffre ? En exploitant deux astuces technologiques : la superposition de motifs (multi-patterning) ou le SADP/SAQP. La superposition de motifs procède d’une idée simple : si on ne peut pas reproduire un motif, par exemple parce qu’il comporte des lignes trop serrées, il suffit de décomposer ce motif en deux sous-motifs moitié moins denses : si l’on numérote les lignes, le premier sous-motif ne contiendra que les lignes impaires, et le second que les lignes paires. Ces deux sous-motifs seront exposés l’un après l’autre, et n’interféreront pas entre eux. Produire ces sous-masques est une tâche assez facile, que les logiciels de CAO spécialisés sont désormais capable de faire. Cette technique d’expositions successives est aussi appelée LELE, pour Litho-Etch-Litho-Etch, etching se référant à la phase de morsure chimique qui élimine la résine. Intel, lui, a choisi une autre technique, qui permet de densifier des réseaux de lignes en utilisant une approche itérative. Supposons que l’on souhaite réaliser un ensemble de lignes de largeur L espacées de L. On commence par lithographier des barres (spacers) de largeur 3L espacées de 5L. On enrobe ensuite ces barres avec une couche de résine épaisse de L. On élimine chimiquement les parties horizontales de cette résine, puis la première sériede barres. Il reste un réseau de fines barres de largeur L espacées de 3L, donc deux fois plus dense. Cette technique est appelée self-aligned double patterning (SADP).

Si on recommence cette opération une nouvelle fois, on obtient un nouveau réseau de barres de largeur L espacées de L. On a donc réussi, en partant d’un motif grossier, avec une barre tous les 8L, à créer un motif fin avec une barre tous les 2L, soit un quadruplement de la densité, sans nouvelle lithographie. Cet enchaînement de deux SADP consécutifs s’appelle le self-aligned quadruple patterning (SAQP).

En process 10 nm, tous les fondeurs utilisent un mélange de SAQP et de SADP pour implanter les transistors FinFET, et du LELE (ou LELELE) pour implémenter les contacts métalliques. Comme Intel semble le seul à rencontrer des difficultés, elles ne sont probablement pas liées à cette étape.

Principe de la gravure par SADP/SAQP. On implante des barres de 3L espacées de 5L. On dépose une couche épaisse de L de résine, que l’on rabote (etching) chimiquement, avant de dissoudre les barres. Il ne reste que des plots de résine de largeur L espacés de 3L. Cette technique s’appelle le SADP. Si l’on recommence l’opération, on obtient des plots de largeur L espacés de L. Ces deux SADP successifs constituent le SAQP, indispensable pour atteindre un espacement entre transistors de 36 nm, caractéristique du process 10 nm d’Intel.

SADP et SAQP peuvent être combinés selon des orientations différentes pour obtenir des motifs complexes, et des limites de traces parfaitement nettes.

Cobalt n’est pas nickel

Le passage au 10 nm s’accompagne d’un second changement. Jusqu’ici, pour interconnecter les transistors entre eux, les fondeurs utilisaient, dans ce qui s’appelle le BEOL (Back End Of Line), des pistes de cuivre, le métal le moins résistant disponible à un prix raisonnable – l’argent conduit mieux, mais est bien plus cher. Or, plus les pistes deviennent fines, plus leur résistance augmente, celle-ci étant inversement proportionnelle à leur section. En outre, le cuivre présente deux autres désavantages :

• Il est sensible à l’électro-migration : quand un grand nombre d’électrons circule dans un fil très fin, ils se heurtent aux atomes de métal. Ces derniers sont donc progressivement poussés dans la direction de propagation du courant, un peu comme des pierres dans un torrent. Au bout d’un moment, la piste se rétrécit, sa résistance augmente, jusqu’à ce que le circuit cesse de fonctionner ;

• Le libre parcours moyen des électrons dans le cuivre (la distance moyenne entre deux collisions) est de l’ordre de 40 nm. Dès que les pistes approchent de cette largeur, les électrons se mettent à rebondir et diffuser sur les bords, ce qui provoque une augmentation supplémentaire de la résistance.

L’électro-migration peut être réduite en plaçant les pistes dans des sortes de caissons isolants. Malheureusement, la taille de ceux-ci ne diminue pas aussi vite que celle des pistes : donc, plus les pistes deviennent fines, plus les caissons prennent de place, proportionnellement.

La solution envisagée consiste à remplacer le cuivre par du cobalt. Le cobalt est moins sensible à l’électro-migration – ses atomes sont plus fortement liés entre eux –, et le libre parcours moyen des électrons y est très inférieur à celui du cuivre. Ainsi, bien que le cobalt soit nettement moins bon conducteur que le cuivre, aux échelles envisagées, il se comporte mieux.

Intel serait le premier fondeur à réaliser l’intégralité des pistes profondes en cobalt, alors que TSMC, par exemple, ne l’utiliserait pas. Est-ce là un des obstacles auxquels se heurte l’Américain ? C’est possible, notamment parce que le cobalt est un mauvais conducteur de chaleur, et que cobalt et cuivre ne se dilatent pas de la même façon, ce qui pourrait conduire à des cassures aux interfaces cuivre / cobalt.

D’après le site semiwiki.com, une autre cause plausible des ennuis d’Intel tiendrait dans l’utilisation du SAQP pour réaliser ces couches d’interconnexion métalliques profondes, alors que ses concurrents n’utilisent « que » du SADP. Intel a, en effet, décidé de ramener le pitch, la distance entre deux transistors, à 36 nm, là où ses concurrents ont choisi 40 nm. La différence de 10 %, 4 nm, peut paraître faible, mais 36 nm est infaisable en SADP. Réaliser les interconnexions métalliques en SAQP provoquerait une chute de rendement telle que Intel aurait été incapable de fiabiliser la production de processeurs basés sur cette technologie.

Le site semiaccurate.com, dans un article datant d’octobre 2018, a affirmé que Intel avait définitivement abandonné sa technologie 10 nm et se serait réorienté dans une voie totalement différente. Une information aussitôt démentie par le géant. Mais faut-il le croire ?

Quoi qu’il en soit, il semble de plus en plus évident que nous arrivions aux limites de la loi de Moore. Jusqu’ici, graver plus finement était une évolution technologique normale qui n’entraînait pas de surcoût. Mais les difficultés liées au passage au « 10 nm » semblent telles que, même si Intel finit par les surmonter, il y a de fortes chances que son offre « 10 nm » soit proposée à un prix « premium » par rapport au 14 nm. Et ce sera sans doute pire quand il faudra descendre à des tailles inférieures. L’ère de la puissance toujours croissante à prix constant pourrait bien, cette fois, avoir réellement pris fin.

8121U : le processeur Core i3-8121U, réalisé en technologie 10 nm, se révèle moins performant – il n’a pas de GPU – que le Core i3-8145U, réalisé en technologie 14 nm, pour le même niveau de consommation (15 W). C’est un « leurre » technologique.


14 nm, 10 nm, 7 nm… Ne vous fiez pas au marketing

Que signifient vraiment les chiffres « 14 nm », « 10 nm », « 7 nm » ? Pas grand chose, puisqu’il est impossible à l’heure actuelle de réaliser directement une gravure de taille inférieure à une cinquantaine de nanomètres. Voici pourquoi.

La fabrication d’une puce se fait exactement comme celle d’un circuit imprimé, par photolithographie : on dépose de la résine photosensible, que l’on expose à la lumière. La lumière provoque une modification structurelle de la résine ; on peut ensuite, avec un solvant approprié, éliminer sélectivement les zones éclairées. Une fois ceci fait, on applique un traitement (dopage…) qui n’affectera pas les parties encore protégées par la résine. On élimine ensuite le reste de résine, et on recommence, ainsi de suite plusieurs dizaines de fois, typiquement.

Mais qui dit lumière, dit ondes, et diffraction. Ce phénomène physique limite la résolution de l’image projetée sur le silicium : il n’est pas possible de reproduire des détails plus petits que le quart de la longueur d’onde utilisée. Ignorer cette loi physique, c’est comme tenter de peindre un timbre poste avec un pinceau de plusieurs centimètres de diamètre. Les process modernes utilisent de la lumière ultraviolette (DUV, 193 nm issu d’un laser ArgonFluor), qui permet de graver des détails de l’ordre de 80 nm. Pour descendre à 50 nm, la dernière lentille et le silicium sont plongés dans de l’eau ultra pure. L’eau ayant un index de réfraction de 1,44, la longueur d’onde de la lumière qui s’y propage est divisée d’autant, ce qui améliore la résolution de 30 à 40 %. La génération suivante d’appareils utilisera l’extrême ultraviolet (EUV), aux alentours de 13 nm. Impossible d’aller au-delà, car à partir de 10 nm, on entre dans le domaine des rayons X, dont les propriétés physiques sont complètement différentes. L’EUV pose également des problèmes, car les sources disponibles sont coûteuses et peu puissantes, ce qui implique des temps d’exposition importants.

Quoi qu’il en soit, les « 14 nm », « 10 nm » et « 7 nm » sont essentiellement des dénominations marketing qui ne correspondent à aucune réalité. D’ailleurs, le « 14 nm » d’Intel serait aussi performant que le « 10 nm » de ses concurrents. Preuve qu’il ne faut pas juger sur de simples labels, mais regarder les spécifications techniques de près.

3792

x
hardcore black fuck malay hijab fuck big black dick
Rechercher dans les dossiers

Actuellement à la Une...
Slack a tenu récemment sa conférence virtuelle Frontiers et a proposé de nombreuses innovations qui visent à étendre le champ de la collaboration au-delà des frontières de l’entreprise.

Splunk a profité de sa conférence utilisateurs et partenaires, .conf20, qui s’est tenue en ligne pour annoncer deux acquisitions et de nombreuses nouveautés dont un environnement autour de l’apprentissage machine.

Les places de Paris, Dublin, Lisbonne et Amsterdam ont connu hier une panne importante provoquant l’arrêt des transactions pendant trois heures. Le problème s’est poursuivi dans la soirée : à 17h30, la clôture du CAC40 n’a pas eu lieu et les ordres ont continué d’être pris par erreur pendant une heure. La faute à un bug informatique, et non pas à une cyberattaque assure Euronext.

Encore une opération de consolidation dans le secteur des puces. Intel, soucieux de se concentrer sur quelques secteurs prometteurs, tels que l...

Le fournisseur de solutions de sécurité renforce son offre Prisma Cloud avec quatre modules et intègre l’offre d’Aporeto acquis récemment par Palo Alto.

Toutes les autres News
LIVRES BLANCS

Aujourd'hui, les Directeurs Comptables et Financiers ont envie de dématérialiser leurs factures fournisseurs. C'est plutôt l'idée de devoir s'intégrer à un environnement multi-ERP déjà existant qui les freine. Mais est-ce réellement une barrière ? Dans son nouveau Livre Blanc, Esker explore ce sujet. En le téléchargeant, vous découvrirez comment la dématérialisation peut être une aubaine plutôt qu'un fardeau.


Actuellement, il existe un gouffre entre les environnements informatiques traditionnels des entreprises et le cloud public. Tout diffère : les modèles de gestion, de consommation, les architectures applicatives, le stockage, les services de données.


Les avantages de l’architecture hyperconvergée étant de plus en plus reconnus, de nombreuses entreprises souhaitent l’utiliser pour des types d’applications variés. Cependant, son manque de souplesse pour une mise à niveau des ressources de calcul indépendantes de celles de stockage ne lui permet pas d’être utilisée plus largement.

Au cours de l’événement HPE Discover qui s’est tenu en juin 2019, HPE a répondu à cette préoccupation en présentant la plateforme HPE Nimble Storage dHCI.

Ce Livre Blanc IDC se penche sur les exigences du marché ayant stimulé le besoin de solutions HCI plus flexibles, puis il examine brièvement la solution HPE Nimble Storage dHCI en expliquant pourquoi elle répond à ce besoin.


Découvrez dans ce livre blanc, les avantages des toutes nouvelles solutions NETGEAR, pour simplifier et rentabiliser vos déploiements, et gérer votre réseau à distance, où que vous soyez, au bureau ou en télé-travail.


Tous les Livres Blancs