Le système Autopilot de Tesla responsable d'un accident?


Le Guide de l'Auto

Article par Alain Morin

Lundi dernier, sur une autoroute de Culver City, près de Los Angeles en Californie, une Tesla Model S s’est encastrée dans l’arrière d’un camion de pompier immobilisé de façon sécuritaire sur le côté de la route, à cause d’une intervention. Personne n’a été blessé, mais la voiture a été très amochée. Même le camion a été quelque peu brisé. Au moment de l’impact, la vitesse de la Tesla aurait été de 105 km/h (65 mi/h).

Le conducteur de la voiture a raconté aux policiers que son Model S était sur l’Autopilot, le système de conduite autonome de Tesla. Le National Transportation Safety Board (NTSB), une agence fédérale américaine indépendante chargée d’enquêter sur des accidents routiers, aériens, ferroviaires, marins et même ceux qui mettent en cause des pipelines, vient d’ailleurs d’ouvrir une enquête pour comprendre les causes de l’accident et ainsi pouvoir faire des recommandations s’il y a lieu.

Rappelons-nous qu’en Floride, le 7 mai 2016, Joshua Brown perdait la vie alors que son Model S s’est engouffré sous la remorque d’un camion. La fonction Autopilot était aussi engagée.

Responsabilité partagée
Dans le plus récent cas, comme dans le premier, il y a fort à parier que Tesla ait une part de responsabilité. Juste le fait de nommer la fonction Autopilot peut induire le conducteur en erreur. D’ailleurs, les constructeurs automobiles font très attention à l’appellation de leur système : ProPILOT Assist pour Nissan, Driving Assistance Plus pour Mercedes-Benz, HDA2 (Highway Driving Assist 2) pour Hyundai. Aucun ne va aussi loin que Tesla à ce chapitre. Pourtant, le constructeur californien précise que le pilote doit toujours garder ses mains sur le volant et être constamment alerte pour compenser les lacunes du système d’aide au pilotage. On est donc loin d’un système autonome.

Si la voiture accidentée cette semaine était vraiment en mode Autopilot, elle a peut-être été victime d’une erreur de programmation ou de défaillance d’un des nombreux capteurs. Mais, dans ce dernier cas, d’autres capteurs auraient pris la relève. Quoi qu’il en soit, elle s’est retrouvée dans un camion de pompier.

Le principal problème… l’humain
Si vous voulez mon avis, c’est plutôt le conducteur qui devrait être blâmé, à condition, bien entendu, qu’il n’ait pas eu un malaise. S’il n’a pas vu venir un camion de pompier aux gyrophares allumés, c’est qu’il était loin d’être concentré sur la route. Tout comme Brown, qui aurait été en train de regarder une vidéo lors de son accident fatal.

Tant que les systèmes d’aide à la conduite ne seront pas 100% infaillibles et qu’ils seront utilisés par des humains très faillibles, ce type d’accident se produira. Malgré tout, je suis persuadé que ces systèmes ont déjà sauvé beaucoup plus de vies qu’ils n’en ont enlevé.

Il est à souhaiter que General Motors et Ford, qui se disent prêts à produire des voitures parfaitement autonomes, prennent des notes…