L’open source contre la régulation ?

Il y a peu, nous évoquions rapidement Comma.ai, une startup lancée par un hacker de 26 ans, George Hotz, visant à fournir un kit pour rendre n’importe quelle voiture semi-autonome, depuis une simple caméra embarquée (une dashcam comme on appelle ces caméras de tableau de bord). Alors que les géants de l’automobile et de la technologie dépensent des milliards pour construire des voitures autonomes, Hotz annonçait à l’automne qu’il souhaitait vendre son kit logiciel et matériel pour moins de 1000 $. « Nous voulons être le système d’exploitation Android des voitures autonomes », déclarait-il (alors même qu’il semble que ce soit justement le nouveau positionnement de Waymo, la voiture autonome de Google, qui souhaite désormais proposer un système tout-en-un pour les constructeurs automobiles).

Quelque temps après cette annonce faite lors de la conférence TechCrunch Disrupt, Hotz reçu une lettre d’avertissement de l’administration de la sécurité des transports américaine, rapporte le Washington Post, lui demandant des informations détaillées sur la sécurité du produit qu’il avait l’intention de lancer. Découragé par la procédure couteuse de demande d’autorisation de mise en circulation, le jeune homme décida de reporter le lancement de son kit et déposa le code logiciel de son système de pilotage semi-autonome sur Github, en open source, le rendant ainsi accessible à tous.


Image : l’avenir de la voiture autonome via Backchannel.

Pour l’instant, faire fonctionner le kit et logiciel n’est bien sûr pas si simple, il ne fonctionne d’ailleurs qu’avec certains modèles de téléphones, de caméras et de voitures.

Mais la libération du code de Hotz pose de nombreuses questions, notamment sur les responsabilités qui pourraient être liées à son usage – un débat qui fait écho à celui sur l’impression d’arme à feu depuis des imprimantes 3D. Pour sa défense, Hotz souligne que l’autorité des transports américaine ne régule que les véhicules commerciaux, ce qui n’est plus le cas du code qu’il a produit, puisque le jeune homme ne vend rien. Mais ce n’est pas si simple. Pour un spécialiste interrogé par le Washington Post, les autorités ont tout pouvoir pour retirer de la route un véhicule qui présente un danger imminent. Pour lui, la libération du code de Hotz est scandaleuse et constitue une menace évidente pour la sécurité routière : tout conducteur qui l’utiliserait se mettrait assurément en infraction, notamment parce qu’en Californie, les véhicules autonomes ne sont pas autorisés à circuler sur les routes publiques sans autorisation, sans assurance spécifique et sans formation pour le pilote. Hotz se défend en expliquant que son code ne permet pas de créer une voiture autonome, mais seulement un pilote automatique et ne tombe donc pas sous le coup de la loi. Reste que pour les autorités, la libération du code sur l’internet rend le contrôle et la régulation bien plus difficile.

Pourtant, si l’on en croit EETimes, l’avenir des voitures autonomes repose sur des logiciels open source, parce que les systèmes open source sont bien meilleurs pour résoudre les problèmes les plus difficiles. L’article pointe d’autres acteurs que comma.ia qui développent des prototypes open source, comme OSCC ou Elektrobit. Mais surtout, pose des questions sur les modalités nécessaires pour tester et valider la sécurité des voitures autonomes fonctionnant depuis des intelligences artificielles. Pour l’ingénieur Philip Koopman, l’un des enjeux des voitures autonomes est que les systèmes d’IA quelles utilisent soient capables de prouver qu’ils sont sans danger, explique-t-il dans IEEE Spectrum, mais la difficulté est de parvenir à décrire (et écrire) les exigences de sécurité minimales et nécessaires. Comment prouver qu’un système fonctionne bien ? questionne Matthieu Roy, ingénieur en fiabilité logicielle au CNRS. C’est-à-dire comment tester qu’une voiture autonome répond correctement à tous les scénarios qu’elle pourrait rencontrer ? Alessia Knauss, doctorante à la Chalmers University of Technology de Göteborg, travaille à établir un test pour labéliser les véhicules autonomes.

Pour Philipp Koopman, les fabricants de véhicules doivent pouvoir démontrer à une agence indépendante que leurs systèmes sont sans dangers, en expliquant les caractéristiques de leurs systèmes, la représentativité des données qu’ils utilisent et en faisant réagir leurs systèmes à différents scénarios pareils à des sortes de crashs-tests. Reste que pour l’instant, la sécurité routière américaine a récemment dévoilé des lignes directrices pour les voitures autonomes, sans rendre les tests de sécurité indépendants obligatoires. Tout l’enjeu est de spécifier les modalités de contrôles de sécurité indépendants sans divulguer le fonctionnement des algorithmes, sur le modèle de ce que fait déjà l’industrie aéronautique, estime Koopman, qui en appelle à une certaine forme de transparence.

Un autre article d’IEEE Spectrum revient sur la question de la responsabilité du programme mis au point par George Hotz. Si certaines entreprises comme Tesla ou Volvo ont déclaré qu’elles seraient responsables de leurs logiciels, reste à savoir si une juridiction estimerait que le logiciel de Hotz est réellement responsable. Reste que ce n’est pas parce que le code est open source et que son inventeur se protège par une déclaration de non-responsabilité que ça suffit à le dégager de toute responsabilité.

À lire aussi sur internetactu.net