L’Autopilot de Tesla génère-t-il plus d’accidents qu’il n’en évite ?

L’Autopilot de Tesla génère-t-il plus d’accidents qu’il n’en évite ?
Innovation

La NHTSA, l’agence en charge de la sécurité routière aux États-Unis, a décidé d’approfondir son enquête sur les accidents impliquant des voitures Tesla utilisant l’Autopilot. Il semblerait que son utilisation rende les conducteurs moins attentifs et qu’en cas de danger les signalements arrivent trop tard.

Tesla a largement communiqué sur les accidents que l’Autopilot, son système d’aide à la conduite, ont permis d’éviter, notamment via le déclenchement du freinage d’urgence.

La NHTSA étend son enquête sur Tesla et son Autopilot

Mais le système n’est-il pas, au final, plus dangereux qu’une conduite « humaine » ? C’est sur cette question qu’enquête la NHTSA, l’agence nationale en charge de la sécurité routière aux États-Unis, qui a décidé, en juin 2022, d’étendre le champ de son enquête sur les accidents provoqués par des Tesla utilisant l’Autopilot.

L’agence va donc se pencher sur les données de 830 000 voitures (Model Y, Model X, Model S et Model 3) vendues depuis 2014 par Tesla – soit la quasi-totalité des véhicules commercialisés par la marque. L’enquête, lancée en 2021, portait à l’origine sur 11 collisions d’une Tesla avec un véhicule stationné en urgence sur la voie publique. Six autres accidents de ce type se sont depuis ajoutés à la liste.

17 cas de collisions où la « responsabilité » de l’Autopilot semble pouvoir être engagée

Les premières analyses de la NHTSA sont plutôt accablantes. Elles indiquent que le système de freinage d’urgence n’est intervenu que dans la moitié des cas. Et que, alors que les personnes ou véhicules présents sur la chaussée étaient visibles en moyenne huit secondes avant l’impact, Autopilot n’a demandé au conducteur de reprendre le contrôle de son véhicule qu’une seconde avant, en moyenne !

Aucun conducteur n’a d’ailleurs pris de mesures d’évidement entre 2 et 5 secondes avant l’impact, alors qu’ils avaient tous les mains sur le volant. Il semble donc que les conducteurs aient respectés les recommandations mises en place par Tesla. Mais que l’Autopilot s’est avéré insuffisant pour éviter l’impact et, pire, qu’il l’a peut-être provoqué en réduisant l’attention du conducteur.

Des conducteurs pas assez réactifs quand l’Autopilot est actif

La NHTSA entend donc, dans cette partie finale de son enquête, « explorer la mesure dans laquelle Autopilot et les systèmes Tesla associés peuvent exacerber les facteurs humains ou les risques de sécurité comportementaux en sapant l’efficacité de la supervision du conducteur ».

La piste semble sérieuse, puisque la NHTSA a également analysé 106 autres accidents impliquant des Tesla utilisant l’Autopilot : dans près de la moitié des cas, le conducteur était « insuffisamment réactif ». Une étude du MIT a d’ailleurs montré une baisse de l’attention chez les conducteurs de Tesla quand l’Autopilot est enclenché.

La NHTSA livrera ses conclusions finales d’ici un an. Mais les conséquences pour Tesla pourraient être dramatiques, puisqu’elles peuvent aller jusqu’au retrait des véhicules jugés responsables des collisions. La marque pourrait sans doute s’en tirer en désactivant totalement l’Autopilot de l’ensemble de ses véhicules. Mais ce serait un spectaculaire camouflet pour son image, d’autant que le système d’aide à la conduite a largement été mis en avant parmi les technologies qui rendaient les Tesla si révolutionnaires.

Waymo se frotte les mains

Cette affaire pourrait donner encore davantage raison à la stratégie de Google sur la conduite autonome : le géant du web, via sa filiale Waymo dédiée à la conduite autonome, se moque régulièrement de l’Autopilot de Tesla, jugeant cette approche vouée à l’échec.

Pour Waymo, proposer, comme Tesla, un soutien à la conduite humaine, en laissant le conducteur responsable du véhicule, générera forcément des soucis comme cette perte d’attention, et ne pourra jamais aboutir à une conduite 100 % autonome.

A l’inverse, Waymo affirme que sa stratégie, qui vise à remplacer la conduite humaine en déresponsabilisant totalement le conducteur, prendra plus de temps à être mise en service à grande échelle. Mais elle assurera, à terme, une fiabilité quasi-totale.