News
Toutes les dépêches envoyées par nos professionnels patentés, implantés dans la Silicon Valley depuis 1835.
Orange évincera définitivement l’ADSL d’ici 2023 au profit de la fibre optique 10 Gbit/s. « Cela se fera de manière très progressive de façon à accompagner l’ensemble des utilisateurs du réseau dans la transition vers la fibre : après une première phase d’expérimentation, le décommissionnement du cuivre démarrera dès 2023 et devrait aboutir en 2030 », explique l’opérateur. Je connais des voleurs de cuivre qui te torcheraient ça en une nuit, mais passons.
Le fondeur TSMC se dit prêt pour la production de puces en « 3 nm » dès 2022, comme prévu. Rappelons que, dans la jungle brumeuse qu’est devenue la nomenclature des finesses de gravure, 3 nm définit un procédé de production (nœud de gravure). En l’occurrence, et à l’instar du 3 nm que fomente Samsung, il indique surtout le recours à des transistors GAA-FET (Gate-All-Around Field Effect Transistor, utilisant trois nano-circuits coquinement superposés).
En réponse au boycott de Huawei par les Américains situés entre le Mexique et le Canada (je ne peux pas être plus précis, je ne veux pas d'emmerdes), la Chine a décidé de bannir les matériels et logiciels d’origine étasunienne de l’ensemble des institutions gouvernementales et publiques d’ici 2022, soit un marché de 20 à 30 millions d’appareils. Une manne financière qui retombe ainsi dans la poche de Lenovo, Huawei et Oppo, qui en plus d'être subventionnés sont devenus fournisseurs agrémentés.
Le prochain SoC haut de gamme de Qualcomm, le Snapdragon 865 (CPU Kryo 585, GPU Adreno 650), promet jusqu’à 25 % de performances supplémentaires ainsi que des calculs IA deux fois plus rapides par rapport au modèle précédent. Et puisqu’il vous en faut toujours plus, ajoutons à la liste le support du Wi-Fi 6 et de toutes les bandes 5G mondiales, le modem autorisant un débit grimpant jusqu’à 7,5 Gbps. Disponible au premier trimestre 2020.
Des CPU Moore AMDbitieux
Dans une entrevue avec les gens de Tom’s Hardware US, Mark Papermaster, directeur technique d’AMD, n’a pas fait grand mystère de son ouverture à l’idée de proposer des CPU Ryzen 32C/64T au grand public. Et d’expliquer que « ce n’est qu’une question de temps pour que les logiciels tirent parti de l’approche multi-cœur » que « maintenant de plus en plus d’applications peuvent tirer profit du multi-core et du multi-threading » et qu’à court terme, il ne voit « pas de point de saturation pour les cœurs » en réponse au ralentissement de la loi de Moore. Eh bien ok Mark, c’est quand tu veux, parce que de mon côté j’ai des VST qui bouffent comme quatre et entendre mon 6C/12T couiner de douleur en fin de mixage est une vraie torture. Par ailleurs, Mark a indiqué que l’Infinity Fabric continuera d’évoluer pour accompagner l’arrivée de la mémoire DDR5 et du PCIe 5.0, fin 2021 ou 2022, ainsi que d’une nouvelle plateforme mettant un terme à la carrière du socket AM4. Concluons avec un rappel en rapport, celui qu’AMD passera au 7 nm + ZEN 3 avec les Ryzen 4000 dès 2020, tandis que le ZEN 4 sera en 5 nm.
Refroidissement à la Jetcool
À moins que les CPU à ondes magnétiques, thermiquement inoffensifs, ne fassent leur apparition avant l’extinction de l’espèce humaine (cf. « Calculs rebouteuiques »), la question de la dissipation de la chaleur des puces constitue une préoccupation majeure dans la conception des architectures. En attendant, en bout de chaîne, cela passe forcément par l’utilisation de ventilateurs, dissipateurs et autres refroidissements liquides à l’efficacité relative, selon les modèles, les prix, la qualité du montage, la pâte thermique et la température ambiante. Parce que oui, moi aussi j’ai le droit d’enfoncer des portes ouvertes de temps à autre. Mais voici qu’une nouvelle et audacieuse solution existera bientôt, imaginée par la jeune pousse Jetcool (fondée par d’anciens chercheurs du MIT). Cette dernière a développé le « refroidissement microconvectif », un système exploitant la convection générée par de micro-jets de liquide, soit au-dessus de la puce, soit directement en son sein, pour une efficacité multipliée par 10 selon Jetcool. La commercialisation du bidet intime pour CPU pourrait débuter dès 2020.
Les bons conseils de tonton FBI
Le FBI vous aime, le FBI est votre ami et à l’ère de l’explosion de l’Internet des Objets (IoT), l’agence gouvernementale étasunienne pense aussi très très fort à votre sécurité numérique. Dans l’un de ses bulletins hebdomadaires, elle préconise ainsi aux utilisateurs de ne pas mélanger les torchons et les serviettes, à savoir ne pas connecter les objets… connectés (électroménager, etc.) au même réseau Wi-Fi que les ordinateurs et smartphones. « Votre réfrigérateur et votre ordinateur portable ne devraient pas être sur le même réseau », peut-on lire, afin de conserver les données « les plus confidentielles et les plus personnelles sur un système distinct ». Il est vrai que la sécurisation des objets connectés étant ce qu’elle est – le royaume des failles de sécurité associées à la non-modification des mots de passe par défaut par l’utilisateur moyen/ignorant/fainéant –, l’IoT offre des accès privilégiés aux piratins et autres colporteurs de ransomwares. Le plus simple est alors de créer un réseau Wi-Fi virtuel, une option présente dans les routeurs récents. Ou alors d’arrêter Internet, ça fonctionne aussi.
Pupuce est nerveuse
L’Homme étant un robot comme un autre, des chercheurs de l’université de Bath (Royaume-Uni) ont développé une puce se rapprochant énormément du fonctionnement d’une cellule nerveuse biologique, produisant une « méthode robuste pour reproduire les propriétés électriques des neurones réels dans les moindres détails ». Pour autant, il reste du chemin à crapahuter pour imiter parfaitement mère Nature, car la cellule artificielle en question ne mime que le fonctionnement individuel de la cellule nerveuse hippocampique (mémoire) et respiratoire, non pas (encore) les interconnexions avec ses congénères via des ramifications, appelées dendrites. Les chercheurs précisent également qu’avant de pouvoir fabriquer des implants biomédicaux pour lutter contre les maladies neurodégénératives (ou pour s’augmenter pépère à la sauce transhumaniste, car évidemment que ce sera la prochaine étape), « d’autres caractéristiques des cellules nerveuses devront être prises en considération » : couleur des yeux, tour de taille, préférences cinématographiques, plutôt crêpe ou plutôt gaufre, etc.
Calculs rebouteuiques
Pendant que tout le monde s’excite sur l’énorme potentiel calculatoire des ordinateurs quantiques, le MIT explore une ancienne-nouvelle voie technologique, celle d’un transistor fonctionnant uniquement à l’aide des ondes magnétiques. Une idée loin d’être farfelue, puisque les chercheurs – après avoir été refusés par Pif Gadget, très sélectif –, ont finalement publié leurs travaux dans le journal Science, plus souple. Avant d’en détailler basiquement le principe, apprenez que l’énorme avantage d’un circuit dit « spintronique » est de ne presque pas nécessiter d’électricité pour fonctionner. Et qui dit abstinence énergétique, dit absence de dégagement thermique. Le beurre et l’argent du beurre, en quelque sorte, même si la technologie n’en est encore qu’à ses prémices. Techniquement parlant, il est question de modifier les ondes à l’aide d’un nanofilm de matériaux magnétiques en cobalt et nickel, nanofilm dont la position est très légèrement modifiée en fonction du signal d’entrée, permettant alors d’identifier deux états, 0 ou 1. Pour plus de détails techniques et pour éviter que je ne dise trop de bêtises, c’est ici : http://cpc.cx/qc3
Au nom du daron
L’architecture Xe d’Intel, sur laquelle reposent les futures puces graphiques pour cartes dédiées de la firme, ne semblent pas vouloir faire dans la demi-mesure, ne serait-ce qu’au sens strict du terme. Dans un tweet affichant une photo de l’équipe en charge d’Xe et basée à Bengalore, Raja Koduri – à la tête de la division Core and Visual Computing Group – parle du GPU comme du « Père de tous ». Comprendre la plus imposante puce graphique jamais conçue en Inde, mais également l’une des plus grosses au monde. D’ailleurs, les rumeurs vont bon train puisqu’elles évoquent une superficie de 750 à 800 mm², à peu près celle d’un studio d’étudiant, ce qui laisse effectivement présager des performances élevées. Mais aussi, revers de la médaille d’une puce farcie de transistors jusqu’à la glotte, d’un bilan énergétique qui pourrait être en rapport.
Vous qui aimez suivre la passionnante actualité des puces FPGA (field-programmable gate array), apprenez qu’Intel vient d’exploser un record en la matière. Le Stratix 10 GX 10M possède ainsi 43,3 milliards de transistors, 10,2 millions d’éléments logiques, 6,5 To/s de débit. Sous le capot, la puce est constituée de deux FPGA, communiquant entre elles à l’aide de 260 000 connexions.
Les étudiants et personnels de l’Université de Houston (Texas) peuvent désormais se faire livrer un repas sur le campus par un robot. Les commandes s’effectuent depuis l’app Starship Deliveries comme dans un service de livraison classique. Les responsables de l’université estiment que la livraison robotisée va créer de l’emploi en amont de la chaîne, grâce à l’augmentation attendue du nombre de clients.
Ampere, la prochaine architecture GPU 7 nm de Nvidia, devrait être disponible avant août 2020. Rien d’officiel pour autant, mais cela va dans le sens du vent. Remarquez que la gravure sera cette fois assurée par Samsung, désormais préféré à un TSMC dont les lignes de production sont largement utilisées par Apple et AMD. Nvidia compte ainsi éviter les risques de pénurie tout en profitant d’un tarif avantageux proposé par Samsung. Puis, après Ampere, viendra le temps d’Hopper.
Slava Makkaveev de CheckPoint.com a publié un papier dans lequel il expose une (ex-)faille des SoC Qualcomm – plus précisément du Qualcomm's Secure Execution Environment, ou QSEE – permettant de compromettre la sécurité et autoriser le piratage de données sensibles. Mais rassurez-vous bonnes gens, trouvée en juin dernier et immédiatement transmise à Qualcomm, la faille est aujourd’hui comblée.
Intel fait le pont
Pont Vecchio, tel est le nom de code du premier GPU Intel 7 nm architecture Xe dédié aux supercalculateurs et autres centres de données, attendu pour 2020/2021. Le nom emprunté au pont médiéval de Florence (Italie) fait directement référence à la technologie d'interconnexion Compute eXpress Link (CXL) du fondeur, chargée de relier différents GPU entre eux, à l’instar de l’Infinity Fabric d’AMD ou du NVLink de Nvidia. C’est d’ailleurs la puce qui sera exploitée par le projet Aurora prévu en 2021, à savoir un calculateur exascale composé de deux CPU Sapphire Rapids Xeon et de six GPU Ponte Vecchio. Au-delà du CXL, l’architecture Intel Xe repose principalement sur un packaging 3D Intel Foveros (superposition de composants offrant des finesses de gravure différentes) et de la mémoire HBM. Si les solutions HPC/Exascale seront les premières servies, Intel compte bien décliner les GPU Xe dans tous les secteurs du marché graphique, de la station de travail aux ordinateurs ultra-portables, de l’IA au Cloud GFX, sans oublier – faut-il le préciser – le jeu.
Quant à l’évasion fiscale génétique…
Des chercheurs de l’université du Maryland ont développé une intelligence artificielle capable de contourner la censure du Net mise en place dans certains pays. Baptisée Geneva, malicieuse contraction de « Genetic Evasion », l’IA a fait ses preuves sur le terrain en déjouant les blocages en vigueur en Chine, mais aussi en Inde et au Kazakhstan. Une douzaine de stratégies ont été employées pour exploiter des failles, « quasiment impossibles à trouver manuellement pour des humains ». L’IA hackeuse s’inspire de la mécanique génétique, et notamment de l’ADN. Pour faire simple, alors que la censure repose sur le blocage de paquets de données prédéfinis, Geneva reconfigure l’agencement des données dans les paquets, se gaussant ainsi les filtres. Également, elle déploie une stratégie de mutation en supprimant/ajoutant des instructions en fonction des échecs/réussites précédents. Désireux de distribuer librement le code de Geneva, les concepteurs anticipent la riposte des autorités en suggérant que l’IA soit directement installée sur les serveurs des sites communément bloqués comme Wikipédia, coupant l’herbe sous le pied aux contremesures « sans nécessiter de configurer quoi que ce soit sur son ordinateur ».
Mauvaise impression à l’armaison blanche
Le feuilleton judiciaire nord-américain sur les armes imprimées en 3D vient de connaître un énième rebondissement. Le juge Robert Lasnik de Seattle a statué que le partage ou la vente en ligne de plans pour imprimer des armes 3D – une activité soutenue par l’administration Trump – violerait la loi fédérale. Cette décision fait suite à l’affaire Cody Wilson, fondateur de Defense Distributed, qui en 2012 vendait des fichiers CAD de pièces permettant de fabriquer une arme à feu, certes basique, mais surtout indétectable du fait de sa conception tout-plastique. L’administration Obama avait alors interdit ce commerce via une ordonnance, rapidement contournée par Cody en adoptant une distribution basée sur les donations. De nouveau bloqué par les autorités, Cody avait toutefois retrouvé la joie de vivre avec l’arrivée de l’administration Trump, cette fois ouvertement favorable à sa belle initiative. Nul doute que la Maison-Blanche fera appel de la décision, pour aider à l’avènement d’un monde meilleur et plus sûr.
La CNIL ne sait face pas
Face à la montée en puissance de la reconnaissance faciale et à la volonté des autorités de l’employer massivement en la couplant à la vidéosurveillance, la CNIL (Commission nationale de l’informatique et des libertés) tente de poser quelques garde-fous afin de limiter la casse. Elle rejoint ainsi, en partie, la position de la Quadrature du Net, qui considère cette technologie comme « un danger pour nos libertés », ajoutant que « ces systèmes automatisés devraient toujours être écartés au profit de pratiques humaines ». Plus frileuse, la CNIL ne s’oppose pas à la reconnaissance faciale sur le principe, mais demande à ce que les expérimentations soient strictement encadrées selon trois axes : respect du cadre juridique actuel (interdiction de certains usages), respect de la personne (information et demande d’accord préalable, mise en garde contre des pseudo-expérimentations qui n’auraient d’autre but que de « préparer le terrain à un déploiement plus poussé ») et, enfin, une « véritable démarche expérimentale » (comprendre une évaluation « rigoureuse, contradictoire, pluridisciplinaire et menée dans des délais raisonnables »). Rappelons que ce haussement de ton ne changera rien à la donne, puisque la CNIL n’a d’autre pouvoir que celui de rendre des avis consultatifs et d’être régulièrement méprisé par les politiques.
Techlépathes au gruyère
Cnetfrance.fr s’est penché sur les travaux des transhumanistes concernant la télépathie, ou plus exactement, la « techlépathie ». Ces excités de l’augmentation prévoient l’arrivée de ce moyen de communication non verbal « dans un avenir proche », grâce à la généralisation des interfaces et implants cérébraux. Et l’article de citer Kevin Warwick (« body hacker », professeur de cybernétique à l’université de Reading (Angleterre) et « premier cyborg » auto-déclaré de l’Histoire) dont les recherches portent sur la connexion du système nerveux aux ordinateurs. On notera que des systèmes captant les signaux électriques du cerveau pour les transformer en commandes externes sont déjà une réalité, à l’instar du Braingate destiné aux personnes tétraplégiques. Plus récemment, le MIT a présenté l’an dernier « AlterEgo », un casque couplé à une IA capable « d’entendre et comprendre » les mots via la « subvocalisation », puis de « répondre » silencieusement par ostéophonie. Le neurochirurgien Eric Leuthardt prédit pour sa part l’arrivée de la techlépathie d’ici quelques décennies, tandis qu’Elon Musk nous promet la même chose avec Neuralink – navigation sur Internet en sus.
Quant IBM et Intel tiquent
« Suprématie quantique utilisant un processeur supraconducteur programmable ». Voici en substance le titre d’un article récemment publié par des chercheurs de Google AI Quantum dans la revue Nature. Le papier expose le « bond en avant informatique » effectué à l’aide du processeur quantique Sycamore de la firme, développé en collaboration avec la Nasa, une puce de 53 qubits capable d’effectuer un calcul qui prendrait « 10 000 ans au supercalculateur le plus rapide du monde » en 200 secondes, sans transpirer des cuisses. Présenté comme ça, la différence de puissance n’est pas si impressionnante, manifestement le CPC 6128 a encore de beaux jours devant lui. De plus, à la vitesse où le temps défile, on sort à peine de 10 000 ans qu’on est déjà à Noël. Quantiqu’à savoir ce que ces gens entendent par « suprématie quantique », au-delà d’un processeur portant un capirote, elle consiste en la preuve expérimentale que le calcul quantique a pris l’avantage sur le classique, marquant le passage à une nouvelle ère de l’informatique. Pour autant, certains comme IBM remettent en cause l’annonce, parlant « au pire » de deux jours et demi de calculs par un supercalculateur classique, non pas 10 000 ans. Et si Intel félicite Google poliment, il n’accorde que peu d’importance à cette « suprématie », visant pour sa part le « réalisme quantique » et estimant que seuls des processeurs de centaines ou milliers de qubits fonctionnant de manière fiable pourront dépasser les supertrucs aujourd’hui en place.