News

Toutes les dépêches envoyées par nos professionnels patentés, implantés dans la Silicon Valley depuis 1835.

Il Wi-Fi le grand ménage

Le consortium en charge de la technologie Wi-Fi, la bien nommée Wi-Fi Alliance, a décidé de simplifier les dénominations actuellement en vigueur, peu parlantes il est vrai pour le commun des mortels. Désormais, le 802.11n (600 Mbps) devient le Wi-Fi 4, le 802.11ac (5 Gbps) le Wi-Fi 5 et le 802.11ax (10 Gbps) le Wi-Fi 6. Avouons-le, c’est quand même plus commode comme ça que penderie comme ci (ouais, elle est dure celle-là, je reconnais). Par ailleurs, trois logos accompagnent l’opération dépoussiérage, reprenant l’incontournable icône symbolisant la puissance de réception du signal, sur lequel est ajoutée une pastille contenant le numéro concerné, « 4 », « 5 » ou « 6 ». Un gros boulot de design, quoi. Bon, manifestement je n’arriverai pas à tenir jusqu’à la fin de la dépêche avec cette seule info, alors allongeons la sauce avec une étude qui n’a aucun rapport, car c’est aussi ça, le journalisme total. Selon une analyse réalisée par le Pew Research Center, seulement 7 % des quelques milliers de Nord-Américains interrogés sachant vaguement ce qu’est un bot, déclarent pouvoir distinguer formellement ce dernier d’un humain sur les réseaux sociaux. 47 % se disent très ou à peu près sûrs. Ça ne m’étonne qu’à moitié, puisque 97,3 % des lecteurs de Canard PC pensent que je suis humain.

Pense avec les Stars

Selon les gens d’Axios.com, Apple vient d'acquérir la société Asaii pour un peu moins de 100 millions de dollars. La jeune pousse, créée par un ancien ingénieur d’Apple en 2017, développe des moteurs d’analyse pour les labels musicaux et autres managers d’artistes. Après les IA peintres et autres IA compositrices, voici venu le temps des IA directrices artistiques, ou plutôt marketing, terme plus approprié pour définir une profession depuis longtemps éventée. L’IA conçue par Asaii œuvre ainsi à découvrir les futurs « talents » et à anticiper les succès, ce qui (pour autant que l’IA ait été entraînée sur autre chose que Despacito et consorts), pourrait profiter aux artistes indépendants possédant un certain talent… OK, OK, je rêve, bien sûr que cela n’arrivera pas, puisque la plupart des infra-diarrhées musicales de ces 30 dernières années dépassent joyeusement les centaines de millions de vues.

128 gigots sinon rien

En l’étajine de poulet, les CPU Intel grand public, pour ne pas dire ceux de la populace, n’adressent pas plus de 64 Go de mémoire. Certes, cela permet de faire tourner le démineur et Textedit sans trop galérer à configurer le config.sys, mais prévoyance étant mère de sûreté, avez-vous pensé à demain ? Au jour où votre progéniture demandera, les yeux emplis de larmes et de reproches, pourquoi il ne peut lancer le démineur de Windows 20 alors qu’il ne nécessite que 74 Go de mémoire ? En vérité je vous le dis, le 64 Go de demain est le 2 Go d’aujourd’hui, et ce n’est pas faire le jeu des fabricants de DDR4 que de le dire. Bon, un peu quand même, mais il fallait bien que j’amène le sujet. Ainsi, les processeurs Intel de neuvième génération « Coffee Lake Refresh Populace », comme l’i5-9600K, i7-9700K et i9-9900K, supporteront jusqu’à 128 Go de DDR4. Le hasard industriel faisant bien les choses, il se négociera prochainement des barrettes DDR4 de 32 Go, afin d’atteindre les fameux 128 Go avec seulement quatre slots. Question tarif, pour autant que le marché de la DDR4 se stabilise durablement, un kit de 128 Go (4×32 Go) devrait avoisiner les 1 500 euros. Concluons en rappelant que du côté d’AMD, le Threadripper supporte également 128 Go de RAM.

Un brin nut

Elon Musk avait déjà annoncé NeuraLink, une interface neuronale susceptible de « dépasser nos attentes » (sic) dans un avenir proche. Il est aujourd’hui question de BrainNet, « une interface cerveau-à-cerveau permettant une collaboration directe entre les cortex », récemment présentée par des chercheurs de la Washington University of Computer Science & Engineering. Allant directement dans le vif de la matière grise, BrainNet a permis à trois personnes – deux qui émettent, une qui reçoit – de jouer en mode collaboratif à Tetris. Point de télépathie ici, uniquement un système composé d’électro-encéphalogrammes pour transmettre les signaux et d’un stimulateur magnétique transcrânien pour les recevoir. Passons sur les détails pour n’évoquer que le taux de précision des échanges : 81 %. Et les chercheurs d’imaginer un avenir radieux où une interface cerveau-à-cerveau serait hébergée sur le cloud, aboutissant à une nouvelle forme de communication non verbale. Homme-homme bien sûr, mais aussi Homme-IA, avant l'étape finale, Homme-hamster.

Visagelivre pas enceinte, mécran

Afin de s’immiscer un peu plus encore dans le quotidien de ses utilisateurs – « pour répondre à un besoin », comme il l’explique –, Facebook se lance dans une nouvelle aventure, celle de l’objet connecté. Le réseau commersocial vient d’annoncer une enceinte intelligente déclinée en deux versions, Portal et Portal+. Enfin… plutôt que d’enceinte, il s’agit surtout d’écrans connectés (10,1 et 15,6 pouces) farcis comme il se doit d’un assistant. En l’occurrence Alexa d’Amazon, le temps que Facebook finalise sa propre solution. Alors, à quoi servira Portal ? À effectuer des recherches vocales sur les résultats sportifs de l’AS Billéroise Boules par exemple, mais aussi à lire des histoires aux enfants (au secours…) ou à écouter de la bonne musique comme Gucci Gang. Mais aussi, et surtout, à passer des appels vidéo tout en continuant à vaquer à ses occupations. C’est pourquoi, en plus du micro syndical, Portal est équipé d’une caméra. Quoi ? Vous craignez pour votre vie privée ? Meuh non voyons, car outre la possibilité de désactiver micro et caméra, Facebook a promis qu’il « n'écoute pas, ne voit pas et ne conserve pas le contenu des appels vidéo sur Portal », pas plus qu’il n’exploite la reconnaissance faciale… Super hein ! Mais ça, c’était avant le retropédalage express qui a suivi la présentation. Depuis, à l’instar de Messenger, Facebook a reconnu que Portal transmettra bien les données d’usage et d’appel à d’autres app maison, à des fins de ciblage publicitaire. Faut-il être naïf pour croire qu’il aurait pu en être autrement.

Objets déconnectés, le retour

Des chercheurs de School of Computer Science & Engineering de l’université de Washington travaillent sur une technologie permettant à des objets imprimés 3D dénués d’électronique ou d’alimentation – mais dans quel monde vit-on ! –, de néanmoins collecter et transmettre des données sur leur usage autrement que par magie vaudoue. La démonstration, recourant à un routeur Wi-Fi et une main imprimée peu glamour, repose sur deux antennes et une pièce qui entre en contact avec l’une ou l’autre de celles-ci, en fonction du sens de rotation de la main. Chaque antenne en contact avec la pièce reflétant différemment les ondes radio émises par le routeur, cette distinction permet ainsi de collecter les données. En cas d’absence temporaire de réseau Wi-Fi, un mécanisme utilisant un ressort et un cliquet est chargé de mémoriser les rotations « hors-ligne », chaque mouvement l’étirant un peu plus. Une fois à portée de Wi-Fi, la libération du ressort fait tourner le cliquet, lui-même en contact avec l’antenne afin de transmettre les données via le système décrit précédemment. Si ce n’est pas clair, voici les vidéos : cpc.cx/mTj et cpc.cx/mTk. Prochaine étape, la miniaturisation du système pour une meilleure intégration du bidule dans des machins et des trucs.

Graphiquement vôtre

Parce que nous sommes des dingues, regroupons ici trois infos distinctes traitant de GPU. Oui, nous sommes des dingues on vous dit. Commençons avec Intel, qui se donne les moyens de ses ambitions en matière de carte graphique dédiée. Le fondeur vient d’ouvrir un laboratoire d’ingénierie à Toronto, où une centaine de cerveaux affûtés travailleront sur le développement du GPU maison, attendu en 2020. Ces derniers seront dirigés par Joseph Facca, encore un transfuge d’AMD où il aura été R&D Site Leader et Senior Director Graphics Platform Engineering durant onze ans. Passons à Nvidia, qui comme vous le savez dispose de nouvelles cartes graphiques Turing, offrant du ray tracing en temps réel et le DLSS (deep learning super-sampling). En termes d’images par seconde, ce dernier remplace avantageusement le temporal antialiasing, via des calculs d’IA assurés par les Tensor Cores. Bref, tout ça pour dire que 25 titres utilisent désormais le DLSS, de PUBG à Shadow of the Tomb Raider, en passant par The Walking Dead ou encore Darksiders III. Enfin, Nvidia encore qui a présenté la Tesla T4, un GPU Turing pour les applications IA. Sous le capot, 2 560 cœurs CUDA et 320 cœurs Tensor accompagnés par une couche logicielle TensorRT, offrant une puissance de 65 Tflops en FP16 pour un TDP de… 75 watts. Voilà.

Sage comme une IAmage

Le MIT a développé une technologie permettant à un réseau neuronal de déduire la nature d'une action à partir de quelques images. Par exemple, verser le contenu d’une bouteille dans une tasse, déchirer une feuille, ouvrir un livre, recouvrir un objet avec un autre, coincer un poulet dans une poussette, la routine quoi. Pour un cerveau organique, le processus est simple, mais pour une IA, c’est une autre paire de Tensor Cores. Les chercheurs ont dû concevoir un module baptisé Temporal Relation Network (TRN), chargé d’assister des Convolutional Neural Networks (CNN), afin d'interpoler l’espace entre deux images. Si ce type d’analyse n’est pas nouveau en soi, le taux de réussite dépasse les modèles précédents avec 95 % en ce qui concerne la reconnaissance simple. Le module dépasse également les autres technologies sur le plan de la prédiction d’action, étant 10 à 40 % plus précise en ne disposant que de 50 % des images de la séquence. L’IA a été entraînée grâce à 200 000 vidéos réparties en 174 catégories, on a une pensée émue pour les stagiaires. Les concepteurs vont maintenant optimiser le module afin d’affiner la reconnaissance d’objets, puis espèrent intégrer la reconnaissance « intuitive » de leurs propriétés physiques. Les débouchés concernent évidemment la robotique, mais aussi, on s’en doute, les interfaces homme-machine et autres assistants.

Fishbone le 18 septembre 2018
Publiée par le consortium PCI-SIG en octobre dernier, la norme PCIe 4.0 brille encore par son absence dans les machines. AMD semble toutefois prendre les choses en main puisqu'il a « l’intention d’être l’un des premiers à l’adopter ». Précisons que le communiqué faisait suite à l’annonce du contrôleur Ethernet 200 Gbps Thor de Broadcom, compatible avec le PCIe 4.0, et que de fait rien n’indique (si ce ne sont les suppositions) que les prochains GPU Vega exploiteront effectivement le PCIe 4.0.
3D mon œil

Nul besoin d’avoir le troisième œil dilaté pour deviner l’impact majeur qu’aura l’impression 3D sur la société. Ou tout du moins sur ce qu’il restera d’une humanité cyborguisée jusqu’au trognon à grand renfort de prothèses bioniques, d’augmentations utilitaires et esthétiques, sans oublier les fameuses interfaces neuronales. Et ce, bien avant 2077 semble-t-il, puisque Elon Musk présentera « Neuralink » d’ici quelques mois, une interface pour accélérer l’échange des données entre le cerveau et la machine, avec en ligne de mire l’incontournable (selon lui) fusion de l’humain avec l’IA. Du côté des organes, ça avance tout aussi rapidement avec la récente impression d’un prototype d’œil bionique équipé de photodiodes. Celui-ci, pas encore fonctionnel, est constitué de verre, d’un maillage imprimé avec une encre conductrice à base d’argent et d’un polymère semi-conducteur pour les photodiodes. Développé par Michael McAlpine, chercheur à l’université du Minnesota, l’œil possède la faculté de transformer 25 % de la lumière perçue en signaux électriques. Signaux qui, une fois des progrès réalisés sur la densité du réseau de photodiodes (25 % n'est pas suffisant) et l’utilisation d’un matériau hémisphérique souple pour remplacer le verre, seront transmis à un nerf optique afin que le cerveau reconstitue une image.

Fishbone le 17 septembre 2018
HKEPC encore, via le dénommé Lau Kin Lam, qui a mis les pognes sur un Intel Core i9 9900K « Coffee Lake-S Refresh », un juteux CPU de 8C/16T et 16 Mo de mémoire cache L3, pour l’occasion cadencé à 5 GHz. L’individu susnommé en a profité pour faire transpirer le CPU sur le benchmark Cinebench R15. Résultat, un score de 2 202 points, contre 1 801 points pour un AMD Ryzen 7 2700X stock, ou 1 900 points surcadencé à 4,3 GHz sur tous les cœurs.
Fishbone le 17 septembre 2018
Désormais que les GeForce RTX 2080 et RTX 2080 Ti sont disponibles, et la RTX 2070 attendue pour fin octobre, voire début novembre (machins vendus entre 650 euros et 1 250 euros selon les modèles), reste maintenant à savoir quand seront commercialisées les GeForce pour joueurs budgétairement limités, à savoir les RTX 2050 et RTX 2060. Eh bien, selon PC Watch, inutile de les espérer sous le sapin cette année. Il faudra attendre que Nvidia écoule les stocks de GTX 10x0, augmente la production de puces Turing et pousse les développeurs à exploiter goulûment le ray tracing/DLSS dans leurs titres.
Nvidia fait dans le bi-SKU

Tech Power Up a remarqué l’existence de deux références spécifiques (SKU) pour identifier la puce Turing embarquée sur un même modèle de GeForce RTX 2070, 2080 ou 2080 Ti. Une première dans le joyeux monde du périphérique puisque, jusqu’alors, chaque matériel était censé disposer d’un SKU unique afin que le système d’exploitation recoure aux pilotes adéquats. Alors, que cache cette différenciation de SKU pour une même puce ? Tout simplement sa capacité à accepter l’overclocking, ce qui n’est pas sans rappeler la politique d’Intel avec les CPU estampillés « K ». Concrètement, les puces référencées TU102-300/TU104-300/TU106-300 seront présentes sur les cartes vendues non overclockées d’usine, tandis que les TU102-300-A/TU104-300-A/TU106-300-A, triées par Nvidia, seront utilisées dans les cartes Founders Edition et Customs des AIB (add in board partner), pour le coup autorisées à être surfréquencées. Précisons que l’utilisateur restera libre de taquiner du hertz sur les TU10x-300 de prolos, mais à ses risques et périls en cas de coup de chaud. En clair, adieu la garantie si l’expérience commence à sentir le biSKUit brûlé (oui, bon…). Autre conséquence de cette politique bi-SKU, l’installation sauvage du BIOS provenant d’un modèle supérieur pourra s’avérer plus compliquée que de coutume.

Intel à la peinurie ?

Divers analystes (dont ceux de la banque J.P. Morgan, un établissement modèle mêlé à quasiment toutes les margoulineries financières de ces dernières années, mais passons), prévoient une baisse du marché PC portable et fixe de 5 à 7 % pour le dernier trimestre de l’année. En cause, une éventuelle pénurie de processeurs Intel « 10 nm » dont la production serait aussi bancale que la table de la terrasse fabriquée par tonton Gégé. Faut dire que tonton Gégé aime bien les boissons anisées au petit-déjeuner, ce qui n'aide pas. Bref, une hausse des tarifs CPU n’est pas à exclure, à moins qu’AMD ne convainque les fabricants de s’approvisionner dans sa boutique. Pour Gokul Hariharan, analyste JPMorganien pour la zone Asie-Pacifique, c’est loin d’être gagné en ce qui concerne le segment des machines haut-de-gamme, « où utiliser des CPU AMD ou Intel de précédente génération en qualité de substitut est plus difficile ». AMD appréciera. Pour autant, sur les autres gammes, Gokul remarque une hausse d’intérêt des OEM pour les puces du challenger. De son côté, Intel explique à qui veut l’entendre que tout est sous contrôle et que les objectifs seront tenus, tout en « travaillant en étroite collaboration avec ses clients et usines pour gérer toute demande supplémentaire ».

Fishbone le 17 septembre 2018
À l’instar de Nvidia qui ne produit plus de pilotes 32 bits depuis le début de l’année (seules les mises à jour de sécurité sont assurées jusqu’en janvier 2018), AMD abandonnera également le navire à partir d’octobre – sauf surprise de dernière minute. Là encore, seules les mises à jour de sécurité seront maintenues pour une année supplémentaire. La fin d’une époque comme on dit, qui par ailleurs laisse craindre le pire pour les pilotes CPC, MO5, ZX Spectrum, Commodore 64 et Atmos.
Ça graphène pas grand-chose

Parce que le graphène est aujourd’hui le matériau coqueluche des passionnés de conduction thermique (le graphène est ton ami, enduis ton corps de graphène), le site hongkongais HKEPC s’est procuré pour quelques euros une peinture idoine afin d’en badigeonner un radiateur bas de gamme et observer l’effet sur la dissipation thermique. Je vous l’accorde, de prime abord, plus que le graphène, cette substance sent surtout l’attrape-geek à 300 mètres. Mais restons calmes et courtois, et constatons ensemble le résultat de l’expérience, impliquant principalement un Intel Core i7 Extreme 990x 4,2 GHz bien sous tous rapports (je vous fais grâce Kelly du reste de la configuration). Résultat des courses sur le benchmark Prime95, le radiateur graphènotisé jusqu’aux oreilles a permis de gratter quelques degrés en charge, avec une diminution variable selon les cœurs. Le dissipateur n’étant pas exactement un foudre de guerre, peinturluré ou non, les températures des cœurs sont restées élevées : de 80 °C à 96 °C avec le graphène, contre 85 °C à 98 °C sans. Reste l’atout esthétique, pour ceux que les combinaisons noires moulantes émoustillent.

Fishbone le 21 août 2018
Quelques jours avant que Nvidia ne dévoile les GPU Turing pour joueurs, Intel a profité du Siggraph 2018 pour rappeler au monde qu’en 2020, il faudra compter avec un troisième fournisseur de GPU destinés au jeu vidéo. Si le trailer promotionnel ne livre aucun détail technique sur le projet Arctic Sound, le message est clair : Intel veut en découdre avec AMD et Nvidia. Reste à savoir sur quel segment de GPU il entend mener la rixe, avec seulement deux ans devant lui pour concurrencer deux adversaires expérimentés et se préparer à l’arrivée du ray tracing en temps réel.
Fishbone le 21 août 2018
Des rumeurs évoquent la commercialisation d’un écran connecté Google, parce qu’il serait dommage de ne pas fourrer des assistants partout. L'écran pourrait être proposé pour la fin de l’année, avec trois millions d’unités disponibles pour remplir les chaussettes. La source ne fait pas mention du tarif. Concluons en rappelant que Google Assistant est déjà présent dans le Smart Display de Lenovo, en attendant ceux de JBL, LG et Sony, également partenaires.
Fishbone le 21 août 2018
Selon le Web (restons prudents), Intel commercialisera les Core de 9e génération en octobre prochain. Puisque la sortie des Canon Lake en 10 nm a été repoussée en 2019, la 9e portée consisterait de fait en un rafraîchissement de la gamme actuelle en 14 nm. Les premiers modèles seront débridés (9600K, 8700K, 9900K), avec en vedette le Core i9-9900K, un CPU pêchu mais qui visera le grand public : 8C/16T, 3,6 GHz/5 GHz, puce graphique Intel UHD 620, 16 Mo de cache L3, capsule de dissipation thermique soudée pour évincer la pâte thermique de seconde zone.
Fishbone le 21 août 2018
Le PDG de Samsung l’a confirmé haut et fort, il souhaite être le premier à lancer une famille de smartphones pliables, comprendre avant Huawei, le second fabricant mondial de moquette. Quant à ceux qui se posent des questions sur l’intérêt d’un appareil contorsionniste, d’un, chacun ses fantasmes, et de deux, Samsung explique se « focaliser sur le développement d’innovations qui seront acceptées et appréciées par les utilisateurs ». Comme s’assoir avec le smartphone dans la poche fessière sans le tordre ?
5G même pas mal

Avec le déploiement généralisé de la 5G d’ici quelques années, le débat portant sur les ondes et leur impact sanitaire n’est pas près de s’apaiser. Interpellé sur le sujet par la députée Emmanuelle Anthoine en avril dernier (relayant une demande de moratoire sur la 5G formulée l’an dernier par 170 scientifiques internationaux, arguant d'une nocivité « prouvée » pour le vivant), le ministère de la Santé vient de livrer sa position : la 5G respectera la réglementation en vigueur et se conformera aux valeurs limites d’exposition (28 V/m à 87 V/m, en fonction des fréquences). Aucun risque donc pour le ministère, qui promet toutefois (sait-on jamais) de collaborer avec l’ANSES (Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail) et l’ANFR (Agence nationale des fréquences) via des « comités de dialogue », afin d’examiner « l’exposition aux ondes électromagnétiques » et « l’impact sanitaire éventuel de ces nouveaux développements technologiques, dès la phase des expérimentations ».

Quand l’IA jette un froid

Google recourt désormais à son intelligence artificielle DeepMind afin de contrôler le refroidissement et la consommation électrique de ses centres de données. Pour ce faire, l’IA reçoit un instantané de l’état des systèmes à intervalles de cinq minutes puis, une fois les données traitées par des algorithmes pas piqués des hannetons (IF TEMP => 20°C THEN OK COCO FAN="TRUE"), décide des actions à mener dans le centre de données. Pour éviter tout malaise vasovagal des serveurs en cas de boulette des algos, des opérateurs humains supervisent les décisions de DeepMind et, si nécessaire, peuvent désactiver l’IA à tout moment. Quant à savoir si, là encore, madame Je-sais-tout met sa trempe aux neurones biologiques en termes d’efficacité, sans surprise et à l’instar de tout ce qu’elle touche, la réponse est oui. Après quelques mois d’utilisation de DeepMind, Google précise avoir réduit la consommation énergétique des centres de 30 %. Et ce n’est là qu’un début, puisque Google déclare que les « limites d’optimisation seront élargies au fur et à mesure que la technologie évoluera, pour des réductions encore plus importantes », tandis « qu’elle s’étendra largement à d’autres applications industrielles ».

Le Wi-Fi, c’est de la bombe

Le Wi-Fi comme méthode de détection des bombes et autres engins nuisibles à la dentition, voici sur quoi travaillent des ingénieurs de l’université Rutgers (États-Unis). Certes, utiliser les ondes pour visualiser des objets inapparents n’a rien de très novateur, mais l’approche des étudiants est surtout d’offrir un nouveau type de scanner aux forces de sécurité, celles des aéroports par exemple. « Dans la plupart des lieux publics, les signaux Wi-Fi, ou les signaux sans fil de manière générale, peuvent pénétrer dans les sacs pour obtenir les dimensions d’objets métalliques dangereux et les identifier », expliquent les concepteurs. Une fois connecté à un réseau Wi-Fi, le détecteur analyse le comportement des signaux (absorption, rebond) face au bagage présenté, révélant son contenu. Les tests, menés sur six types de bagages, ont donné 99 % de détections réussies pour les objets dangereux (un lance-roquettes dans un sac à main), 98 % pour les métaux (une poutre de trois tonnes dans un sac en plastique) et 95 % pour les liquides (de l’acide sulfurique dans un baril jaune fluorescent avec « DANGER ACIDE SULFURIQUE » marqué dessus). Le taux passe à 95 % pour les sacs à dos de hipster et 90 % pour les objets emballés à l’intérieur même des sacs, comme une tête de missile nucléaire placée dans un bonnet en poils de lama ou, plus dangereux encore, une bouteille d’eau que vous n’auriez pas achetée en duty free à l’aéroport à dix fois son prix.

ARM bon entendeur…

ARM a présenté une feuille de route prévoyant une puce ARM Cortex-A76 (3 GHz, 10 nm et 7 nm) qui se hisse au niveau des performances d’un Intel Core i5-7300U (3,5 GHz), en tâche monocœur. Un document qui n'a rien d'anodin et illustre les intentions d’ARM de sérieusement concurrencer Intel sur le marché des ultrabooks et autres ordinateurs portables d’entrée et milieu de gamme. Un projet d’autant plus réaliste que le TDP du Cortex-A76, monocœur, ne dépasserait pas les 5 watts, alors que le TDP de l’i5-7300U, certes double cœur, s’élève à 15 watts. Dans la foulée, ARM a évoqué les deux architectures qui succèderont rapidement au Cortex-A76 : Deimos en 7 nm, attendue en 2019 et Hercules en 5 nm et 7 nm, en 2020, chacune offrant un gain de performances de 10 à 15 %. Et pour ceux qui doutent encore des velléités expansionnistes d’ARM, Nandan Nayampally, vice-président, explique que ces « SoC Arm briseront la domination du x86 et gagneront des parts de marché substantielles sur les ordinateurs portables Windows et les Chromebooks au cours des cinq prochaines années » tout en rappelant que les SoC tireront parti « de l’innovation de rupture que la 5G apportera à tous les terminaux clients ».