386
Sortie en kiosque
le 1 septembre 2018

S'abonner
Numéro actuel
Par L-F. Sébum | le 22 août 2018

Canard PC 386 : Édito

News Hardware du CanardPC N°386

GPU

C’est reparti pour un turing

C’est reparti pour un turing P

endant que vous faisiez du gras sur la plage en ingurgitant des chichis plus huilés qu’un culturiste en mode compet’, Nvidia a officialisé Turing, sa nouvelle architecture GPU fébrilement attendue par la foule. Le caméléon n’hésite d’ailleurs pas à présenter sa technologie comme « la plus grande avancée depuis l’invention du GPU CUDA en 2006 » (voire depuis le tire-comédons). Car après les unités de calcul CUDA et consorts, enfin… Tensor (dédiés à l’IA), Turing introduit cette fois les RT cores, des unités de calcul chargées de calculer du lancer de rayon en temps réel (ray tracing). La vitesse de calcul, mesurée en GigaRays/seconde, est annoncée jusqu’à « 25 fois supérieure à l’architecture Pascal ». Pour le reste, la puce est constituée de 18,6 milliards de transistors répartis sur 754 mm2, supporte le NVLink 100 Go/s, le HDR natif, le DisplayPort 8K et la mémoire GDDR6 à 14 Gbps. Les premières Turing annoncées sont celles réservées au pros, avec les Quadro RTX 8000 (10 GigaRays/s), RTX 6000 et RTX 5000, embarquant jusqu’à 48 Go de GDDR6, 4068 cœurs CUDA, 576 cœurs Tensor et facturées de 2 300 à 10 000 dollars. Pour les joueurs, c’est dans l’autre dépêche…


Smartphone

Samsung se plie en quatre

Le PDG de Samsung l’a confirmé haut et fort, il souhaite être le premier à lancer une famille de smartphones pliables, comprendre avant Huawei, le second fabricant mondial de moquette. Quant à ceux qui se posent des questions sur l’intérêt d’un appareil contorsionniste, d’un, chacun ses fantasmes, et de deux, Samsung explique se « focaliser sur le développement d’innovations qui seront acceptées et appréciées par les utilisateurs ». Comme s’assoir avec le smartphone dans la poche fessière sans le tordre ?


GPU

C’est reparti pour un turing (suite)

C’est reparti pour un turing (suite) C

ontinuons à gloser sur les GPU Turing de Nvidia, avec cette fois les cartes destinées aux joueurs, présentées quelques jours après les Quadro et disponibles à compter du 20 septembre. À l’issue d’une conférence vantant et revantant la surpuissance de l’architecture pour le rendu du ray tracing en temps réel (mis en avant avec des démos pleines de réfractions de lumière), le caméléon a présenté trois modèles de GeForce grand public, toutes équipées d’une puce gravée en 12 nm. Avant de les détailler, on remarquera que Nvidia utilise une nouvelle mesure pour qualifier la puissance des GPU via les performances en ray tracing, les RTX-OPS, exprimés en trillons (xxT). Nous avons donc : la RTX 1070 (TU104, 45T RTX-OPS, 2 304 cœurs CUDA, 1410 MHz/1710 MHz, 8 Go de GDDR6 à 14 Gbps, bus 256-bit, bande passante de 448 Go/s, TDP de 175 à 185 watts, 639 euros), la RTX 2080 (TU104, 60T RTX-OPS, 2944 cœurs CUDA, 1515 MHz/1800 MHz, 8 Go de GDDR6 à 14 Gbps, bus 256-bit, bande passante de 448 Go/s, TDP de 215 à 225 watts, 849 euros) et la RTX 2080 Ti (TU102, 78T RTX-OPS, 4352 cœurs CUDA, 1350 MHz/1635 MHz, 11 Go de GDDR6 à 14 Gbps, bus 352-bit, bande passante de 616 Go/s, TDP de 250 à 260 watts, 1259 euros). Les tarifs sont indicatifs et varient en fonction des modèles Custom et Founders Edition.

 


CPU

La petite neuvième d’Intel

Selon le Web (restons prudents), Intel commercialisera les Core de 9e génération en octobre prochain. Puisque la sortie des Canon Lake en 10 nm a été repoussée en 2019, la 9e portée consisterait de fait en un rafraîchissement de la gamme actuelle en 14 nm. Les premiers modèles seront débridés (9600K, 8700K, 9900K), avec en vedette le Core i9-9900K, un CPU pêchu mais qui visera le grand public : 8C/16T, 3,6 GHz/5 GHz, puce graphique Intel UHD 620, 16 Mo de cache L3, capsule de dissipation thermique soudée pour évincer la pâte thermique de seconde zone.


CPU

ARM bon entendeur…

ARM bon entendeur… A

RM a présenté une feuille de route prévoyant une puce ARM Cortex-A76 (3 GHz, 10 nm et 7 nm) qui se hisse au niveau des performances d’un Intel Core i5-7300U (3,5 GHz), en tâche monocœur. Un document qui n'a rien d'anodin et illustre les intentions d’ARM de sérieusement concurrencer Intel sur le marché des ultrabooks et autres ordinateurs portables d’entrée et milieu de gamme. Un projet d’autant plus réaliste que le TDP du Cortex-A76, monocœur, ne dépasserait pas les 5 watts, alors que le TDP de l’i5-7300U, certes double cœur, s’élève à 15 watts. Dans la foulée, ARM a évoqué les deux architectures qui succèderont rapidement au Cortex-A76 : Deimos en 7 nm, attendue en 2019 et Hercules en 5 nm et 7 nm, en 2020, chacune offrant un gain de performances de 10 à 15 %. Et pour ceux qui doutent encore des velléités expansionnistes d’ARM, Nandan Nayampally, vice-président, explique que ces « SoC Arm briseront la domination du x86 et gagneront des parts de marché substantielles sur les ordinateurs portables Windows et les Chromebooks au cours des cinq prochaines années » tout en rappelant que les SoC tireront parti « de l’innovation de rupture que la 5G apportera à tous les terminaux clients ».


Sans fil

Le Wi-Fi, c’est de la bombe

L

e Wi-Fi comme méthode de détection des bombes et autres engins nuisibles à la dentition, voici sur quoi travaillent des ingénieurs de l’université Rutgers (États-Unis). Certes, utiliser les ondes pour visualiser des objets inapparents n’a rien de très novateur, mais l’approche des étudiants est surtout d’offrir un nouveau type de scanner aux forces de sécurité, celles des aéroports par exemple. « Dans la plupart des lieux publics, les signaux Wi-Fi, ou les signaux sans fil de manière générale, peuvent pénétrer dans les sacs pour obtenir les dimensions d’objets métalliques dangereux et les identifier », expliquent les concepteurs. Une fois connecté à un réseau Wi-Fi, le détecteur analyse le comportement des signaux (absorption, rebond) face au bagage présenté, révélant son contenu. Les tests, menés sur six types de bagages, ont donné 99 % de détections réussies pour les objets dangereux (un lance-roquettes dans un sac à main), 98 % pour les métaux (une poutre de trois tonnes dans un sac en plastique) et 95 % pour les liquides (de l’acide sulfurique dans un baril jaune fluorescent avec « DANGER ACIDE SULFURIQUE » marqué dessus). Le taux passe à 95 % pour les sacs à dos de hipster et 90 % pour les objets emballés à l’intérieur même des sacs, comme une tête de missile nucléaire placée dans un bonnet en poils de lama ou, plus dangereux encore, une bouteille d’eau que vous n’auriez pas achetée en duty free à l’aéroport à dix fois son prix.

 


Intelligence artificielle

Bande d'écranssistés

Bande d'écranssistés

Des rumeurs évoquent la commercialisation d’un écran connecté Google, parce qu’il serait dommage de ne pas fourrer des assistants partout. L'écran pourrait être proposé pour la fin de l’année, avec trois millions d’unités disponibles pour remplir les chaussettes. La source ne fait pas mention du tarif. Concluons en rappelant que Google Assistant est déjà présent dans le Smart Display de Lenovo, en attendant ceux de JBL, LG et Sony, également partenaires.


Intelligence artificielle

Quand l’IA jette un froid

G

oogle recourt désormais à son intelligence artificielle DeepMind afin de contrôler le refroidissement et la consommation électrique de ses centres de données. Pour ce faire, l’IA reçoit un instantané de l’état des systèmes à intervalles de cinq minutes puis, une fois les données traitées par des algorithmes pas piqués des hannetons (IF TEMP => 20°C THEN OK COCO FAN="TRUE"), décide des actions à mener dans le centre de données. Pour éviter tout malaise vasovagal des serveurs en cas de boulette des algos, des opérateurs humains supervisent les décisions de DeepMind et, si nécessaire, peuvent désactiver l’IA à tout moment. Quant à savoir si, là encore, madame Je-sais-tout met sa trempe aux neurones biologiques en termes d’efficacité, sans surprise et à l’instar de tout ce qu’elle touche, la réponse est oui. Après quelques mois d’utilisation de DeepMind, Google précise avoir réduit la consommation énergétique des centres de 30 %. Et ce n’est là qu’un début, puisque Google déclare que les « limites d’optimisation seront élargies au fur et à mesure que la technologie évoluera, pour des réductions encore plus importantes », tandis « qu’elle s’étendra largement à d’autres applications industrielles ».


GPU

2020, l’odyssée du pixel

2020, l’odyssée du pixel

Quelques jours avant que Nvidia ne dévoile les GPU Turing pour joueurs, Intel a profité du Siggraph 2018 pour rappeler au monde qu’en 2020, il faudra compter avec un troisième fournisseur de GPU destinés au jeu vidéo. Si le trailer promotionnel ne livre aucun détail technique sur le projet Arctic Sound, le message est clair : Intel veut en découdre avec AMD et Nvidia. Reste à savoir sur quel segment de GPU il entend mener la rixe, avec seulement deux ans devant lui pour concurrencer deux adversaires expérimentés et se préparer à l’arrivée du ray tracing en temps réel.


Sans fil

5G même pas mal

A

vec le déploiement généralisé de la 5G d’ici quelques années, le débat portant sur les ondes et leur impact sanitaire n’est pas près de s’apaiser. Interpellé sur le sujet par la députée Emmanuelle Anthoine en avril dernier (relayant une demande de moratoire sur la 5G formulée l’an dernier par 170 scientifiques internationaux, arguant d'une nocivité « prouvée » pour le vivant), le ministère de la Santé vient de livrer sa position : la 5G respectera la réglementation en vigueur et se conformera aux valeurs limites d’exposition (28 V/m à 87 V/m, en fonction des fréquences). Aucun risque donc pour le ministère, qui promet toutefois (sait-on jamais) de collaborer avec l’ANSES (Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail) et l’ANFR (Agence nationale des fréquences) via des « comités de dialogue », afin d’examiner « l’exposition aux ondes électromagnétiques » et « l’impact sanitaire éventuel de ces nouveaux développements technologiques, dès la phase des expérimentations ».