Téléscopage des échelles de temps: alors qu’on nous promet un nouveau pont au-dessus du Saint-Laurent d’ici 2018 et peut-être un système sur rail d’ici 2023, Google lance la production d’une mini-série de voiture autonome. Ce qu’on nous promettait pour dans une vingtaine d’année voilà deux ans est sur le point d’entrer en période de test intensif dans les mois à venir. On peut facilement comparer cela à la phase III des tests de médicament, celle qui précède la commercialisation.
Inutile de dire que d’ici à ce qu’on voit un système léger sur rail, son utilité sera peut-être rendue caduque par la révolution des transports qui nous pend au nez. La voiture autonome fait partie des innovations technologiques toujours promise, synonyme de futur prometteur mais jamais réalisée; pourant aujourd’hui elle semble plus probable qu’on pont avec un train dessus.
Le dilemme du tramway
Ceci dit, il faudra franchir plusieurs étapes avant de remplacer nos vulgaires voitures à assistance humain par le nec plus ultra de l’intelligence artificielle. Et ces questions seront moins d’ordre technologique que d’ordre légal et éthique.
Scenario “de base”: un être vivant (chien, enfant, cycliste faisant une chute) tombe juste devant une voiture autonome. Si cette dernière tente un évitement, elle va entrer en collision avec un autre véhicule (autonome ou pas) arrivant en sens inverse. Que faire? Si la voiture continue, c’est la mort assuré de celui qui est tombé devant la voiture. Si elle évite, il y a une certaine probabilité, inconnue au demeurant, de tuer ou blesser grièvement les occupants de la voiture autonome et possiblement de l’autre véhicule. Mais peut-être pas.
C’est ce que met en évidence le dilemme du tramway (ici et là), sauf que ce dilemme met en jeu des situations avec des certitudes. La réalité n’est pas aussi claire, rendant encore plus difficile le choix.
Dans les faits, la voiture autonome est un progès: une voiture autonome a tout ce qu’il faut pour prendre en tout temps la “meilleure” décision: rapidité de calcul, controle parfait des réactions de la voiture et connaissance exacte de l’environnement à 360 degrés. Mais là où l’humain est faillible et où donc on pardonnera son erreur ou son incapacité à réagir pour éviter le pire, l’ordinateur (ou plutôt son concepteur) peut se rendre coupable de ne pas avoir eu la même compréhension de ce qu’est la meilleure décision que les proches d’une victime.
La pris en otage
Autre scenario: dans un monde futur où les Google Car sont devenues courantes, des manifestants contre l’augmentation des loyers font une manifestation où ils décident de s’allonger dans la rue devant les roues de Google Car. Puis, la pression montant la foule commence à s’en prendre au véhicule commençant à faire craindre pour la sécurité des passagers. Que faire?
Encore une fois, des manifestants n’oseraient pas trop faire cela devant une voiture conventionnelle: Les craintes seraient beaucoup élevées que ,sous le coup de la peur, le conducteurs appuie sur le champignon (d’ailleurs ça arrive à l’occasion). Là encore, la faillibilité de l’humain est aussi ce qui le sauve.
Par ailleurs, un conducteur lambda ne représente rien. Personne ne se jetera devant une voiture pour protester contre les marques de voiture ou la pollution, parce qu’on sait qu’on s’en prend surtout au conducteur qui finalement ne fait que conduire. En revanche, une Google Car, peu importe son passager, représente Google ou plus généralement le progrès technologique.
Le piratage
Règle incontournable de l’univers numérique: toute chose fonctionnant avec un logiciel finit par être piratée. C’est inévitable. Déjà plusieurs personnes s’amusent à reprogrammer l’ordinateur de bord de leur voiture. Peu importe ce qui sera mis en place, la même chose se produira pour les voitures autonomes. Certains voudront s’amuser, piloter leur voiture avec joystick, paramétrer tel ou tel aspect. Sauf qu’étant donné la compléxité des algo derrière une voiture autonome, inutile de dire les effets que cela pourrait engendrer. Et je ne parle même d’une attaque concertée comme cela pourrait s’imaginer.
Le réflexe pourrait être d’empêcher monsieur tout-le-monde de posséder une telle voiture, rendant ainsi impossible de bidouillage maison. Toutefois les voitures autonome seront hautement connectées et il sera donc inutile d’avoir un accès physique pour espérer les pirater. On peut imaginer une défaillance comme Heartbleed pourrait permettre d’accéder au système gouvernant la voiture.
⁂
Évidemment, je n’ai pas de solution magique, tout comme il n’y a pas de solution parfaite au dilemme du tramway. Ce qui est certain, ce que ce sont des choix de société. Ça ne peut pas être des entreprises qui décident, en ce domain -comme bien d’autre- on ne peut pas se fier à la seule loi du code informatique. C’est maintenant que ces questions doivent être discutées.
Les grandes règles qui ressortiront de telles discussions devront être transcrites sous forme de bancs de test que devront passer tous les modèles de voiture autonome. Quand je travaillais à la Bourse, nos organismes de régulation nous fournissaient des cas de test et nous devions demontrer notre capacité à les faire passer. Par ailleurs, nous avions aussi des systèmes de surveillance qui vérifiaient en tout temps le comportement des systèmes de trading à la recherche d’erreurs. Certains diront que ça n’a pas empêché le flash crash et autres éléments du genre, mais ceci est justement dû aux lacunes de la réglementation générale qu’aux mesures techniques mises en place.
Bref, les véhicules autonomes qui seront produit de séries devront subir de tels bancs de test, autant le logiciel seul que des voitures complètes en situation réelles pour vérifier l’intégration des composantes logicielles et matérielles.
Advenant notre incapacité à controler le fonctionnement des voitures autonomes, nous ne ferons pas seulement face à de possibles tragiques accidents, nous serons confronté d’une manière quasi-irrémédiable à notre incapacité à mettre au pas la loi du code.
⁂
Quelques liens pertinents