X
Vincent Habchi / dimanche 27 septembre 2020 / Thèmes: Dossier

Apple préfère ARM

Pourquoi Apple migre-t-il ses Mac sous ARM ?

La rumeur courait depuis plusieurs années. Elle a été confirmée à l’occasion de la Conférence développeurs WWDC 2020 : Apple divorce d’avec Intel. Les futurs ordinateurs de la marque à la Pomme seront bâtis autour de processeurs maison dérivés de l’architecture matérielle RISC ARM. Les premières machines conçues autour des nouveaux CPU devraient être commercialisées à la fin de l’année, Apple se donnant deux ans pour migrer toute sa gamme vers cette nouvelle technologie.

Le processeur Apple A.13, qui équipe les derniers modèles d’iPhone, regroupe six cœurs conçus autour de l’architecture ARM v8.4, dont deux à haute performance et quatre à basse consommation. Le tout accompagné d’un «processeur neuronal » huit cœurs et d’un GPU.

On pourra attribuer cette décision à la volonté d’Apple de regagner le contrôle total sur la conception des composants utilisés dans ses machines. Un peu ironiquement, on se rappellera qu’en 2006, déjà, Apple avait abandonné la technologie PowerPC, qu’elle développait conjointement avec Motorola et IBM, au profit des processeurs x86 en raison de l’impossibilité de rendre les PowerPC à la fois performants et économes.

Retour à la case départ

Quatorze ans après, c’est le retour du balancier! Les atermoiements d’Intel autour de sa technologie 10 nm, qui aura eu presque quatre ans de retard, ont dû avoir raison de la patience des dirigeants d’Apple, obligés de composer avec des procédés de gravure largement supplantés par la concurrence. On constate d’ailleurs que, depuis 2013, l’autonomie des MacBook n’augmente pas (12 h) et que le gain en performance devient quasi-cosmétique d’un modèle à l’autre. Pour réaliser que les performances de l’architecture Core plafonnaient, les ingénieurs d’Apple n’ont sans doute pas eu un grand effort à faire.

Comparaison des deux types de cœur qui équipent le processeur A.13 Apple. Simult. MT se rapporte à ce que Intel baptise l’hyperthreading, soit la possibilité d’exécuter deux ou plusieurs fils d’exécution (threads) sur le même processeur, possibilité offerte depuis longtemps chez Intel mais encore absente des processeurs ARM. Équipera probablement le processeur des futurs Mac.

Le choix d’ARM comme nouvelle plate-forme CPU ne doit rien au hasard, même si, à l’heure actuelle, les alternatives à la famille x86 ne sont guère nombreuses. Apple a adopté ARM pour ses iPhone dès le premier modèle – Apple avait même collaboré avec ARM pour développer le processeur de l’éphémère PDA Newton –, préférant ainsi maîtriser le couple performance-consommation dans un segment de marché où l’autonomie est un facteur critique.

 

Rapidement, les iPhone sont devenus les cobayes des ingénieurs VLSI. Apple n’a jamais packagé les processeurs ARM dans des boîtiers spécifiques, mais les intègre dans des SoC (System On Chip) qui incorporent également la Flash ROM, la RAM et différents sous-systèmes d’entrée-sortie. Avec la miniaturisation des procédés de gravure et la montée en compétence de l’équipe de conception, chaque nouveau modèle a vu la complexité du SoC augmenter : multi-cœur ARM conçu en interne – Apple ne «licencie» plus que le jeu d’instructions –, puis une avalanche de co-processeurs comme la fameuse «enclave sécurisée», la gestion des capteurs, le GPU et, plus récemment, les processeurs «neuronaux».

Il ne fait aucun doute que Apple équipera ses futurs Mac avec des SoC au moins aussi performants que ceux que l’on trouve actuellement sur les iPhone haut de gamme. Du point de vue de l’utilisateur, on peut ainsi espérer l’apparition sur les MacBook de nouvelles fonctionnalités, des rendus 3D bien plus rapides et des nouveaux logiciels exploitant les bibliothèques d’Intelligence artificielle qui, actuellement, ne fonctionnent qu’avec l’ajout d’un GPU externe.

Maîtrise du compilateur

Mais il y a plus que la maîtrise du processeur. Avec le passage sur ARM, Apple récupère également la maîtrise sur le compilateur, un mouvement amorcé dès 2005/2006. À cette époque, la société californienne envisage d’abandonner GCC, dont le développement est contrôlé par la FSF, Apple ne supervisant que la partie spécifique à MacOS. La transition de GCC vers la licence GPL v3 donne à Apple le prétexte pour passer à l’acte. En réalité, GCC, utilisé pour compiler l’ensemble de MacOS, est un produit soi-disant open source, mais dont la maintenance par des non-initiés est impossible.

Apple va donc se tourner vers un projet naissant de compilateur baptisé LLVM. Elle engage Chris Lattner, son développeur principal. LLVM, et son front-end CLANG, sont non seulement bâtis sur une architecture logicielle moderne, claire et modulaire, mais ils sont également placés sous licence BSD. Double bénéfice pour Apple : la société renforce son image dans l’Open Source en finançant une brique essentielle de tout développement logiciel. LLVM/CLANG sera d’ailleurs ensuite adopté comme compilateur natif par les différents xBSD. Et Apple peut maintenant récupérer tout le code produit par la communauté de développement, y compris hors Apple, pour produire sa propre version, fermée, de LLVM/ CLANG qu’elle fournit avec son environnement de développement Xcode. On peut raisonnablement supposer que le code ARM généré par la version propriétaire diffère de celui généré par la version open source. Les ingénieurs logiciel d’Apple ont dû adapter le back-end à la micro-architecture développée par leurs homologues du hardware. Cette hypothèse a deux conséquences pour le développeur/utilisateur : l’une positive, l’autre négative. La première est évidemment un gain de performance, puisque le code « colle » au plus près des spécifications du hardware. Nul ne sait mieux utiliser un processeur que celui qui le conçoit. On peut donc espérer qu’aux gains purement matériels générés par la transition vers ARM s’ajouteront également des gains logiciels, grâce à une compilation plus efficace. La contrepartie, c’est qu’en prenant le contrôle à la fois du hardware et du compilateur, Apple peut décider de brider n’importe quel aspect de son système d’exploitation sans que personne ne puisse y déroger. Prenons l’exemple du «SIP» (System Integrity Protection) : il s’agit d’un dispositif récent de protection anti-malware mis en place à différents niveaux du système, qui protège notamment les fichiers réputés essentiels contre toute destruction, y compris par l’utilisateur root. Ce dispositif est débrayable, mais uniquement en mode recovery.

Rien n’empêche Apple, dans une future version de ses processeurs, d’implanter le système SIP à l’intérieur même de l’unité d’exécution sous forme d’un registre, d’instructions spécifiques, non documentées, que la version open source de LLVM ne connaîtrait pas, et qui ne seraient pas disponibles dans la version Xcode, voire de développer un co-processeur spécifique. Le résultat serait un système de protection «en dur», impossible à désactiver. Or, on connaît l’obsession de la société californienne vis-à-vis de la sécurité, une obsession qui confine parfois à la paranoïa : comment qualifier autrement le retrait de commandes Unix aussi utiles et répandues que telnet des versions récentes de MacOS ?

Diagramme comparant l’évolution de la performance des processeurs de la série i5 d’Intel et de la série ARM. Il est probable que les processeurs d’Apple surpassent les performances qui sont indiquées ici. Ces derniers sont régulièrement donnés comme dépassant largement leurs concurrents tels que les Qualcomm Kryo/Snapdragon, basés eux aussi sur l’architecture ARM.

Avancées et inquiétudes

Au final, il est indéniable que, pour Apple, maîtriser sa supply chain de bout en bout, du processeur jusqu’à la couche logicielle, est une garantie de minimisation des risques et ouvre la voie à la conception de machines totalement symbiotiques. L’utilisateur devrait y trouver son compte : performances en hausse, plus d’autonomie, plus de fonctionnalités. En outre, la future compatibilité native des applications entre la gamme Mac et les iPad/ iPhone facilitera certainement la tâche des développeurs et devrait favoriser le rapprochement de deux écosystèmes jusqu’ici largement indépendants.

En revanche, cela signifie également que Apple sera libre de placer n’importe quelle entrave et même de la figer dans le marbre du silicium. La relative invulnérabilité du MacIntosh aux virus, troyens et autres logiciels malveillants a toujours été mis en avant par la société californienne pour distinguer sa gamme des PC tournant sous Windows. Les récentes évolutions semblent indiquer que les dirigeants d’Apple sont prêts à ériger des murailles pour sauvegarder cette réputation, quitte à tailler dans la souplesse du système Unix sur lequel MacOS est assis. Espérons qu’ils laisseront toujours la possibilité aux utilisateurs de décider comment ils entendent gérer leur machine.


ARM, une techno des années 1980

ARM (Acorn RISC Machine) désigne une gamme de processeurs née dans les années 1980 chez le fabricants d’ordinateurs anglais Acorn pour donner vie à la machine Archimedes. Cette dernière, concurrencée à l’époque par les machines à base de MC 68000 (Apple, Atari, Amiga), puis par le « rouleau compresseur » PC x86, ne survivra que quelques mois. Acorn décide alors de capitaliser sur l’originalité du processeur qu’elle a conçu, où toutes les instructions étaient « câblées » – a contrario des processeurs Intel et Motorola qui exécutaient du microcode – et crée la société ARM autour d’un business model orienté revente de propriété intellectuelle. Depuis cette époque, les ingénieurs d’ARM produisent des schémas d’unités centrales que les clients utilisent sous licence pour réaliser des processeurs, des micro-contrôleurs ou des «SoC» qui combinent le cœur ARM avec différents périphériques ou extensions gravés sur le même silicium. La technologie RISC, qui ne propose que des instructions simples, minimise le nombre de processeurs nécessaires au fonctionnement du CPU, et, partant, sa consommation. C’est la raison pour laquelle les cœurs ARM sont presque toujours adoptés sur les processeurs équipant des systèmes autonomes alimentés sur batteries (smartphones, IoT…).

2373

x
hardcore black fuck malay hijab fuck big black dick
Rechercher dans les dossiers

Actuellement à la Une...
Le géant des paiements en ligne explorerait plusieurs options qui lui permettrait de se lancer dans les devises virtuelles. Il est en discussion avec BitGo, une plateforme de stockage sécurisée de Bitcoin, et un accord pourrait être annoncé dans les prochaines semaines. 

Le bras armée dans la cybersécurité de l’opérateur historique pourrait prochainement être introduit en bourse. Pour Orange, il s’agit de reverdir son cours, qui en a bien besoin depuis la fin de l’année dernière en valorisant l’une de ses branches les plus performantes.

L’éditeur d’une solution de services de fichiers rend publique une nouvelle version de sa plate-forme, la 7.0, qui se démarque par ses performances et sa simplification de la migration des données.

L’ESN vient d’annoncer coup sur coup trois rachats. Si Atos met la main sur SEC Consult pour étoffer son offre de conseil en cybersécurité, il s’empare surtout de deux spécialistes de Salesforce, le Français Edifixio et l’Américain Eagle Creek. 

L’éditeur de solutions de gestion des données et d’analytique a annoncé son intention de racheter Infomation Builders, un autre éditeur dans le domaine de l’analyse des données.

Toutes les autres News
LIVRES BLANCS

Aujourd'hui, les Directeurs Comptables et Financiers ont envie de dématérialiser leurs factures fournisseurs. C'est plutôt l'idée de devoir s'intégrer à un environnement multi-ERP déjà existant qui les freine. Mais est-ce réellement une barrière ? Dans son nouveau Livre Blanc, Esker explore ce sujet. En le téléchargeant, vous découvrirez comment la dématérialisation peut être une aubaine plutôt qu'un fardeau.


Actuellement, il existe un gouffre entre les environnements informatiques traditionnels des entreprises et le cloud public. Tout diffère : les modèles de gestion, de consommation, les architectures applicatives, le stockage, les services de données.


Les avantages de l’architecture hyperconvergée étant de plus en plus reconnus, de nombreuses entreprises souhaitent l’utiliser pour des types d’applications variés. Cependant, son manque de souplesse pour une mise à niveau des ressources de calcul indépendantes de celles de stockage ne lui permet pas d’être utilisée plus largement.

Au cours de l’événement HPE Discover qui s’est tenu en juin 2019, HPE a répondu à cette préoccupation en présentant la plateforme HPE Nimble Storage dHCI.

Ce Livre Blanc IDC se penche sur les exigences du marché ayant stimulé le besoin de solutions HCI plus flexibles, puis il examine brièvement la solution HPE Nimble Storage dHCI en expliquant pourquoi elle répond à ce besoin.


Découvrez dans ce livre blanc, les avantages des toutes nouvelles solutions NETGEAR, pour simplifier et rentabiliser vos déploiements, et gérer votre réseau à distance, où que vous soyez, au bureau ou en télé-travail.


Tous les Livres Blancs