Moral Machine est sorti cet été et, du coup, il a failli échapper aux mailles de notre filet. Pour une fois, il ne s’agit pas à proprement parler d’un jeu. C’est bien plus sérieux que cela. Moral Machine, développé par le Media Lab du Massachussetts Institute of Technology, consiste en une série de situations impliquant une voiture autonome, des piétons et des passagers. Le MIT vous propose de choisir, pour chaque situation d’accident, la façon la plus morale de la résoudre. Vaut-il mieux que la voiture tue les deux passagers qu’elle transporte ou bien les deux piétons qui traversent ? Et s’il n’y a qu’un passager pour cinq piétons ? L’inverse ? Si les piétons sont en tort ? Les situations, générées aléatoirement, mélangent les paramètres : certains piétons seront identifiables en tant que femmes, enfants, personnes âgées, en surpoids, voleurs en cavale ou médecins ; certains n’auront pas respecté le code de la route, d’autres seront des animaux de compagnie… Et bientôt, même si l’on s’est assigné une règle claire (je pars du principe que les piétons n’ont rien demandé et je les privilégie toujours par rapport aux passagers), on arrive, en quelques minutes, à prendre la mesure de la complexité des interrogations éthiques que soulèvent les voitures autonomes. Par défaut, vos réponses seront collectées – anonymement – par les chercheurs. Il est possible de désactiver cette option, ou, à l'inverse, d’expliciter vos choix.