News

Toutes les dépêches envoyées par nos professionnels patentés, implantés dans la Silicon Valley depuis 1835.

Fishbone le 29 avril 2018
Parce que la LED est la meilleure amie du joueur après le hamburger à la merguez (essayez, vous m’en direz des nouvelles), MSI a décroché le brevet concernant l’adjonction de loupiotes sous la dalle de ses moniteurs incurvés pour joueurs, comme l'Optix MPG27. Les diodes ont pour fonction de transmettre des informations au joueur, son niveau de santé ou la quantité de munitions disponibles, tout en lui permettant de rester concentré sur l’action.
Fishbone le 29 avril 2018
Vous vous souvenez du service de livraison à domicile Prime, qui autorise le livreur Amazon à déposer la commande à l’intérieur de la chaumière du client en son absence ? Eh bien, Amazon étend désormais ce service aux véhicules, pour l’heure dans une trentaine de villes nord-américaines. Les cartons sont directement déposés à l’intérieur de la voiture, pour autant qu’elle soit compatible. Pour en bénéficier, un abonnement chez Volvo on Call ou OnStar doit être souscrit en plus du service Prime.
Pendant ce temps, chez AMD

Lisa Su, PDG d’AMD, a indiqué que l’arrivée de GPU Vega gravés en 7 nm était prévue pour très bientôt. Selon elle, les laboratoires du Radeon Technologies Group disposent actuellement de puces 7 nm fonctionnelles, la production d’échantillons étant planifiée pour cette année. Notez que ces puces sont optimisées pour les calculs d’apprentissage (machine learning) et d’intelligence artificielle. La fabrication des premiers modèles sera assurée par TSMC, dont le processus de gravure en 7 nm est présenté comme « mûr », mais AMD fera également appel à Globalfoundries pour atteindre cette même finesse. Par ailleurs, Lisa Su a également évoqué un CPU pour serveur en 7 nm, dont les échantillons seront également distribués en cours d’année. Ainsi, des Ryzen 3000 7 nm pourraient fort bien être commercialisés dès 2019. Du côté de la concurrence, Intel vient d’annoncer le report des puces en 10 nm. Mais avant de crier victoire, rappelons aux supporters d’AMD qu’entre réalité technique et terminologie marketing, les chiffres donnés pour qualifier les finesses de gravure ne correspondent aujourd’hui plus à grand-chose, et que c’est devenu un tel bordel qu’une maman castor n’y retrouverait pas ses castoritons.

Pendant ce temps, chez Nvidia

Les supputations concernant les prochains GPU Nvidia pour joueurs étant plus nombreuses que les comédons frontaux du petit cousin saucissonophile, difficile d’évoquer le sujet en toute confiance. Mais tentons quand même le diable en relayant les informations fournies par Chicots Passion, qui évoque une GTX 2080, voire GTX 1180, disponible au troisième trimestre 2018 afin de dépenser l’allocation de rentrée scolaire. Si l’architecture de la puce reste encore bien mystérieuse, la « GV104 » Volta 12 nm de 3 584 cœurs CUDA et 224 unités de texture semble emporter les suffrages. La mémoire HBM2 de la Tesla V100 serait remplacée par de la GDDR6, plus abordable (mais tout de même 20 % plus chère que la GDDR5), à hauteur de 12 Go pour les modèles haut de gamme ; de quoi assurer les rendus qui font chaud au slip (au passage, notez que 3D Mark proposera bientôt un benchmark dédié au raytracing). En revanche, les prophéties n'abordent pas le gain de performance brute escompté par rapport à une GTX 1080 Ti. Terminons avec les tarifs : la GTX 2080 de base flirterait autour des 700 dollars, tandis que  les modèles overclockés des partenaires se négocieraient entre 800 et 1 000 dollars. Vous connaissez le dicton : quand il n’y a pas de concurrence, il n’y a pas de gêne.

L’Arezolution est en marche

Videocardz a relayé une information en provenance d’une taupe de chez Asus, concernant le prochain changement de stratégie commerciale du fabricant vis-à-vis des cartes graphiques AMD. Asus prévoirait de créer une nouvelle marque réservée aux Radeon d’AMD, baptisée Arez, où aucune mention d’Asus ou de ROG (Republic of Gamers) ne serait faite. La gamme ROG, populaire s’il en est, serait alors uniquement réservée aux cartes Nvidia, un phénomène ségrégationniste qu'on retrouve sous une forme à peu près similaire chez MSI et Gigabyte. La cause de ce changement de politique se trouverait dans le Geforce Partner Program (GPP), récemment (et discrètement) mis en place par Nvidia. Ce programme octroie aux adhérents un statut de client privilégié qui, bien que le contenu n'en soit pas public, consisterait principalement en un accès prioritaire aux nouveautés du caméléon. L’une des conditions d’adhésion serait l’interdiction faite au fabricant de regrouper les Radeon et les Geforce au sein d’une même famille ou marque Gaming. Dans cette optique, le GPP serait avant tout une arme commerciale pour nuire à la concurrence. Se poserait alors la question d’une pratique anticoncurrentielle. À suivre.

Fishbone le 10 avril 2018
Nvidia a mis un terme au support des cartes graphiques équipées de puce Fermi, à savoir les GF100, GF104, GF106, GF108, GF110, GF114, GF116, GF117 et GF119. Des mises à jour de sécurité seront toutefois proposées jusqu’en janvier 2019. Même punition pour les pilotes en 32 bits des OS, dont la mise à jour est interrompue mais qui, à l’instar des puces Fermi, bénéficieront d’éventuels patchs de sécurité jusqu’en 2019.
Bond Magique Un pas vaporeux

Les premiers retours sur les lunettes semi-autonomes de réalité augmentée Magic Leap One (issus de sources externes au projet puisque les développeurs sont tenus au secret le plus total) indiquent que le prototype est bel et bien viable. Il faut dire que les mesures de confidentialité entourant le périphérique ont soulevé le doute chez certains, même si les brevets en rapport « ne sont pas du vent », précise Pierre-Alexandre Blanche, spécialiste en holographie et optique diffractive à l’université d’Arizona. Un ex-employé de Magic Leap raconte de son côté que les lunettes ne sont pas un vaporware, mais qu’elles sont toujours en développement. Il parle également d’images « très nettes », même si elles manquent encore de stabilité. Un investisseur enfin, pas forcément objectif, explique que le rendu est supérieur à celui des autres casques de réalité augmentée qu’il a testés, l’Hololens de Microsoft compris. Rappelons que Magic Leap One ne nécessite pas d’être connecté à un ordinateur standard, mais que les calculs sont néanmoins déportés sur un module externe dénommé Lightpack. Question tarif, elles coûteront le prix d’un ordinateur de bureau haut de gamme. La sortie du Magic Leap One est prévue cette année.

Fishbone le 10 avril 2018
AMD prévoit de sortir l’architecture Zen 5 en 2021. Les esprits affûtés noteront immédiatement un bug dans la matrice, avec une ZEN+ aujourd’hui disponible, une Zen 2 attendue pour 2019 et une Zen 3 pour 2020. Alors, qui a tué Zen 4 ? Le coupable en est la culture chinoise principalement, qui bannit le chiffre quatre autant que faire se peut en raison de sa proximité phonétique avec le mot mort. Reconnaissons qu’une architecture Zen morte, c’est moyennement vendeur.
Fishbone le 10 avril 2018
Pour l’anecdote, apprenez que la démo de Star Wars présentée par Disney à l’occasion du GTC 2018, exploitant à outrance le lancer de rayon (ray tracing) dans un rendu en temps réel époustoutiflant, exploite pas moins de huit Nvidia Quadro P6000. Un bousin d’entrée de gamme vendu entre 5 600 et 6 000 euros pièce, je vous laisse faire la multiplication pour comprendre à quel point vous n’êtes pas près de la faire tourner dans votre chambre.
Fishbone le 10 avril 2018
AMD a dévoilé sept nouvelles références de cartes graphiques, des Radeon 5xxX allant de la 500X à la RX 580X. Toutefois, selon notre envoyé spécial au Pacha Kebab, il semblerait que ces cartes ne soient destinées qu’aux OEM, afin d’écouler des RX 500 Polaris aux fréquences légèrement augmentées. Selon LaptopMedia, la RX 560X est ainsi une RX 560M tournant à 1275 MHz, au lieu de 1202 MHz.
Alter-communication insonore

Le Masseàchouquettes Instityoutubeur en Teckelogie (MIT) a présenté un périphérique conçu par sa branche Media Lab. Alter Ego consiste en une interface homme-machine chargée de retranscrire les mots qu’un utilisateur verbalise silencieusement, en détectant les imperceptibles signaux neuromusculaires associés. Le dispositif est constitué d’un casque installé sur le côté du visage, équipé d’électrodes afin de capter lesdits signaux. Le système est alors entraîné pour associer les signaux à des mots spécifiques, pour l’heure au nombre d’une vingtaine. Les premiers tests ont révélé une précision de 92 % dans la communication avec l’utilisateur. Alter Ego s’appuie également sur l’ostéophonie – la transmission du son par conduction osseuse – afin de diffuser l’audio à l’utilisateur et permettre ainsi une communication « interne » de bout en bout. L’objectif d’Arnav Kapur, l’étudiant en charge du projet, est d’aboutir un jour prochain à une conversation complète, afin qu’Alter Ego vienne en aide aux personnes handicapées ou encore aux professionnels travaillant dans des environnements bruyants, comme un monastère, le fond d'un puits ou le désert.

À l’Artic de la naissance

Après le départ de Raja Koduri d’AMD pour Intel (où il était en charge des Radeon et de Vega) et l’intégration surprise d’un GPU AMD dans les CPU Kaby Lake G, les velléités du fondeur à disposer de puces graphiques de gourmet apparaissent chaque jour un peu plus évidentes. Le dernier indice allant dans ce sens provient d’Ashraf Eassa, chroniqueur pour The Motley Fool (une société de conseils en investissements), qui dans un tweet évoque une puce Artic Sound Intel dédiée aux centres de données et aux services de streaming. Il aurait également l’intention de proposer une déclinaison jeu de la puce, avec l’idée « d’entrer sur ce marché en faisant bang ». Ce n’est pas la première fois qu'Intel gonfle le torse en parlant GPU avant de se déballonner, nous resterons donc calmes et courtois en attendant d’en apprendre plus sur une potentielle Jupiter Sound, intégrant un échantillon de détonation pour effrayer la concurrence. Quant à la date de sortie, on parle d'un jeudi de 2020, au mieux. Si l’architecture adoptée relève du mystère le plus total, sur le principe, l’arrivée d’un troisième larron sur le marché des GPU de loisir constituerait une enthousiasmante nouvelle.

Une consommation photoniquée

La jeune pousse Ayar Labs, constituée d’anciens du Massagechaussetttes Institutouffe Tecktonik (plus connu sous l’acronyme MIT), a séduit GlobalFoundries avec un Brillant projet. Brillant, c’est le nom donné à leur puce opto-électronique, qui sera fabriquée par Gloflow et commercialisée en 2019, à destination des centres de données – et des supercalculateurs dans un second temps. Brillant se distingue de ses concurrents par le remplacement du cuivre par de la lumière (bref, des photons), afin d’assurer la communication entre les puces. Les plus informés sauront que le concept n’est pas nouveau, mais toujours est-il que la puce d’Ayar Labs possèderait de nombreux avantages. La société évoque une bande passante multipliée par dix et une consommation des circuits reliant les puces réduite de 95 %. Toujours selon Ayar Labs, cela représenterait une baisse de 30 à 50 % de la consommation globale des gros serveurs. Avant de nous emballer en appelant de nos vœux le développement de modèles grand public, attendons que les concepteurs nous apportent la preuve que leur technologie est fiable sur le long terme.

Google sur la mauvaise Pentagone

Dans une subite prise de conscience quant à la nature de leur employeur, 3 000 employés de Google ont signé une lettre ouverte demandant à la direction d’annuler un partenariat passé avec le ministère de la Défense des États-Unis. L’accord vise à « aider le Pentagone à développer une intelligence artificielle d’analyse d’images de drones », permettant d’identifier précisément les méchants et ainsi limiter les dommages collatéraux (en termes moins hypocrites, tenter de pulvériser un peu moins d’innocents depuis un fauteuil tout confort situé du bon côté de la planète). Les signataires pensent que Google « ne devrait pas être dans le business de la guerre » et appellent leur entreprise à ne jamais construire de technologie à usage militaire. Selon les candides, derrière l’analyse des images, se trouverait la volonté de développer des armes autonomes, ce que démentent à la fois le Pentagone et Google. La position des salariés rebelles est à la fois touchante et naïve, à croire qu’ils pensent sincèrement travailler pour une association humanitaire empreinte d’idéalisme et d’altruisme sans gluten. « Don’t be Evil » était le slogan de Google, « Don’t be Débil » pourrait être le leur.

ASIC soit-il

Le temps de la pénurie de cartes graphiques et des tarifs gonflés par l’appétit des mineurs de cryptomonnaies est (peut-être) compté, avec l'arrivée prochaine des cartes application-specific integrated circuit (ASIC) dédiées au minage d’Ethereum. C’est du moins ce qu'affirme Christopher Rolland, analyste pour la firme wallstreetienne Susquehanna. Relatant son dernier voyage en Asie, il explique dans une note adressée à ses clients que le fabricant Bitmain, spécialiste de l’ASIC, s’apprête à commercialiser une solution Ethereum au second trimestre 2018, tandis qu’au moins trois autres compagnies travaillent également sur des produits dédiés à cette cryptomonnaie. Pour cette raison et selon ses estimations, la demande en GPU diminuera à hauteur de 20 % des revenus actuels d’AMD, de 10 % pour Nvidia. Si le caméléon devrait encaisser cette baisse assez facilement grâce à sa mainmise sur le marché du jeu, la situation risque d’être plus tendue pour AMD, dont les derniers GPU n’ont pas réussi à détrôner Nvidia dans le cœur d'une majorité de passionnés.

Fishbone le 3 avril 2018
D’après Gamers Nexus, SK Hynix commencera à produire des modules mémoire GDDR6 en juin 2018, soit près de six mois après Samsung. Côté spécifications, il est question de puces de 8 et 16 Go offrant des transferts jusqu'à 16 Go/s pour une consommation inférieure à la GDDR5. À l’inverse, à sa sortie le tarif serait 20 % plus élevé que cette dernière. Enfin, la rumeur prétend que ces mémoires équiperont la prochaine génération de GPU Nvidia. Attendons de voir.
Titan IV, XCIX

The Register a recueilli les propos d’un ingénieur anonyme expliquant que la Titan V de Nvidia fournit des résultats variables à des calculs scientifiques identiques, sous certaines conditions. Un problème loin d’être anodin pour des applications exigeantes qui ne supportent pas l’approximation. Le mystérieux ingénieur indique que, sur les quatre Titan V utilisées dans le cadre d’une simulation d’interaction entre une protéine et une enzyme, deux livraient des résultats erronés une fois sur dix. Les résultats incorrects seraient imputables à des erreurs de lecture de la mémoire HBM, inhérentes aux exigences de performance, et non pas à des erreurs de calcul en tant que telles. Nvidia a invité les personnes concernées par ce problème à les contacter. Le Caméléon explique par ailleurs que sa gamme Tesla est conçue pour des simulations de haute performance, puisqu’à la différence de la Titan V, elle intègre la technologie error-correcting code memory (ECC) prévue pour palier ce type de mésaventure. La Titan V étant orientée calculs IA, apprentissage profond et jeu, l’absence d’ECC n’aurait ici pas de conséquence néfaste.

Vers un Internet plus Muské

Le projet Starlink de SpaceX, consistant à fournir Internet en très haut débit aux zones aujourd’hui délaissées depuis l’espace, a été autorisé par la Federal Communications Commission nord-américaine (FCC). Une constellation de 4 425 microsatellites sera ainsi déployée en orbite basse, exploitant les fréquences des bandes Ku (11/14 GHz) et Ka (20/30 GHz). À terme, l’objectif est bien de fournir « une connexion internet mondiale », aussi bien en milieu rural qu’urbain, afin que personne ne puisse échapper aux publicités ciblées de Google, aux statuts Facebook et aux photos de dessert Instagram. La FCC a accordé un délai de neuf années à SpaceX pour déployer la constellation, mais la firme estime avoir besoin de plus de temps. Pour autant, 1 600 satellites seront déjà envoyés dans les six prochaines années, et le service activé dès que de 800 à 900 de ces bestioles batifoleront dans les cieux. Rappelons que SpaceX n’est pas la seule agence spatiale sur le coup, avec notamment le projet OneWeb dans lequel Richard Branson a investi quelques dollars.

Fishbone le 3 avril 2018
Les autorités chinoises ont donné le feu vert à la société SF Express pour mettre en place un réseau de livraison par drone, une première dans le pays. L’entreprise commencera son activité dans la zone de Ganzhou, mais compte étendre son service à d’autres régions chinoises, puis à l’étranger, puis à Montargis avant de descendre vers Batilly-en-Puisaye. Un déploiement du service du côté de Sainte-Colombe-sur-Loing n’est pas à exclure.
Fishbone le 3 avril 2018
Microsoft se réorganise, avec notamment le départ de Terry Myerson, en charge de la division Windows and devices, qui sera abandonnée. À la place, Microsoft intégrera trois entités, la « cloud + AI platform », la « AI + research » et « experiences & devices », en charge d’unifier les matériels aux logiciels et services. Windows conservera une unité dédiée, de même que la Xbox, Surface et Hololens.
Impact avec l’IA

Un accident mortel impliquant une Model X de Tesla est survenu fin mars en Californie. Le véhicule s’est encastré dans un séparateur de voies alors que le pilote automatique était engagé. Cet événement a relancé le débat sur la fiabilité des véhicules dit autonomes, alors que ces systèmes n’en sont encore qu’au stade de l’assistance à la conduite. C’est d’ailleurs le mantra défensif favori de Tesla qui, à chaque accident, explique que, pilote automatique engagé ou pas, l’usager doit garder ses mains sur le volant et rester attentif à la conduite, le système ne pouvant garantir un risque zéro. Soit, mais le fait d’appeler autopilot ce qui n'est donc qu'une assistance à la conduite n’aide pas à faire passer le message – d’autant que l’IA fonctionne sans accroc la plupart du temps. Dans le cas présent, Tesla relève que le conducteur n’a pas réagi aux alertes visuelles et sonores lui demandant de garder les mains sur le volant pendant le trajet, et qu’il a disposé de cinq secondes et 150 mètres pour réagir avant l’impact. Ce qu’il n’a pas fait. Enfin, Tesla indique que la portion de route concernée a été empruntée 80 000 fois par des Tesla depuis 2015, jusqu’alors sans accident.

Fishbone le 2 avril 2018
Foxconn Interconnect Technology (FIT), une filiale de Foxconn fabriquant des câbles, antennes et autres connecteurs pour renards, vient d’acquérir le nord-américain Belkin (Linksys, Phyn, Wemo) et ses 700 brevets, pour la somme de 866 millions de dollars. La vente doit maintenant être validée par l’administration états-unienne, certainement sensible aux 10 milliards de dollars que Foxconn investit dans la construction d’une usine robotisée dans le Wisconsin, capable de résister aux attaques de Dogmen.
Quantum va bien pour Microsoft

Une équipe constituée de chercheurs du Niels Bohr Institute danois et de Microsoft annonce avoir isolé des fermions de Majorana. Même si vous aurez certainement lu « fermes de Marijuana » pour une raison que j’ignore, sachez que ces particules (dont l'existence a été théorisée par le physicien Ettore Majorana en 1937) ne sont pas destinées à un usage thérapeutique le samedi soir entre amis, mais à la réalisation d'ordinateurs quantiques. Il s’agirait même d’une avancée importante pour la fabrication de processeurs qubits plus fiables car, contrairement aux CPU quantiques de Google, IBM et compagnie, sur le papier, les qubits constitués de particules de Majorana bénéficieraient d’un taux d’erreur largement inférieur grâce à leur stabilité. L’équipe doit maintenant démontrer sa capacité à fabriquer des qubits Majorana, car tous ne sont pas convaincus de leur réelle efficacité. Le professeur John Morton de l’University College London, dont les travaux portent sur des qubits à base de silicone, fait ainsi partie des sceptiques, redoutant un effet d’annonce. Pour sa part, Microsoft promet la commercialisation de son premier calculateur quantique d’ici cinq ans.

Prix(se) de conscience

Nvidia a profité de sa GPU Technology Conference pour présenter une nouvelle version du DGX, un serveur prêt à l’emploi dédié core et RAM (je sais, je la fais à chaque fois, mais que voulez-vous, je l'aime bien) aux calculs d’apprentissage profond si chers aux IA. La DGX-2 promet ainsi la coquette puissance de 2 pétaflops, fournie par les Tensor Cores présents dans 16 GPU Tesla V100 désormais équipés de 32 Go de mémoire HBM2. C’est également la fête du slip du côté de la bande passante, avec 2,4 To par seconde au total et un temps d’accès jusqu’à 5 fois plus rapide que la génération précédente. Sur ce point, Nvidia parle ainsi de performances multipliées par douze (max) par rapport au DGX. Merci qui ? Merci la nouvelle structure réseau NVSwitch chargée d’interconnecter les GPU en remplacement du PCIe. Dans le cas où l’idée d’acquérir un DGX-2 vous traverserait l’esprit pour remplacer votre DX2-66, rien de plus simple, il suffira de disposer de 400 000 dollars. À ce prix, Nvidia n’est pas chien, en plus des 16 GPU vous disposerez d’une guirlande clignotante, d’une boîte à meuh, de deux processeurs Xeon Platinum, d'1,5 To de mémoire et de 30 To de stockage en cartouches Syquest. À moins que ce ne soit en SSD NVMe, je confonds toujours.