Автопилот под следствием: компании Tesla грозит отзыв 765 тысяч электромобилей - «Tesla»
Власти США, наконец, решили провести полномасштабное расследование аварий с участием электромобилей Tesla, находившихся в режиме автопилота.
Tesla предложила своим клиентам так называемый автопилот в 2014 году, а в мае 2016 года в штате Флорида случилось первое смертельное ДТП с его участием: водитель Tesla Model S активировал программу и отвлёкся от дороги, автопилот не распознал пересекавшую дорогу фуру и направил электромобиль прямо под неё. В марте 2019 года в том же штате произошла ещё одна точно такая же авария, в которой погиб водитель Tesla Model 3. После этого американский Национальный совет по безопасности на транспорте (NTSB) забил тревогу и обвинил Национальное управление безопасностью дорожного движения (NHTSA) — структуру Минтранса США — в том, что оно не уделяет достаточного внимания самоуправляемым автомобилям, число которых на дорогах растёт, в основном стараниями компании Tesla.
Бдительный NTSB не обладает законодательными и регулирующими полномочиями, а чиновники из NHTSA, действительно, долгое время смотрели сквозь пальцы на очевидные прорехи в законодательном регулировании автопилота. Как сообщает газета The Detroit News, сейчас NHTSA известно о 25 авариях с участием автопилота Tesla, в которых погибли 10 человек, но ведомство никак на них системно не отреагировало — не было ни предписаний ограничить работу автопилота на электромобилях Tesla, ни законодательных инициатив, которые регулировали бы работу подобных систем на машинах других производителей.
Теперь же под давлением администрации президента США Джозефа Байдена, который не сильно благоволит компании Tesla (Илона Маска не пригласили на недавнюю отраслевую встречу по поводу квот на продажи электромобилей), NHTSA зашевелилось и объявило о начале комплексной проверки безопасности автопилота Tesla, которая затронет 765 тысяч машин (Model S, Model X, Model 3 и Model Y), то есть все Теслы, реализованные в США с момента релиза первой версии программы. При этом расследоваться будут не все аварии, а только те, в которых самоуправляемые электромобили врезались в машины экстренных служб — таких случаев зафиксировано 11, в них травмы разной степени тяжести получили 17 человек и один человек погиб. В этот «куст» попала и авария 2019 года в штате Коннектикут, о которой рассказывали Kolesa.ru: тогда, напомним, Tesla Model 3 врезалась в стоящий на дороге патрульный Ford Taurus со включёнными проблесковыми маячками.
По итогам расследования, которое может занять год и даже больше, NHTSA может установить правила, чётко регулирующие/ограничивающие область применения автопилота, и ужесточить контроль вовлечённости водителя, то есть сделать так, чтобы автопилот не работал, если водитель не следит за дорогой. Также по итогам расследования NHTSA может обязать Tesla провести отзыв всех машин с автопилотом для их перекалиборовки. Не исключён и вариант, что никаких последствий у расследования не будет и чиновники отделаются формулировкой в духе «дело ясное, что дело тёмное».
Между тем в октябре прошлого года Tesla запустила в США массовое потребительское бета-тестирование программы Full Self-Driving (FSD), то есть автопилота нового поколения, который позволяет водителю на протяжении всей поездки не касаться руля и педалей. С точки зрения функционала FSD можно назвать автопилотом 4 уровня по классификации SAE, но с юридической точки зрения FSD, как и система прошлого поколения, — автопилот 2 уровня, при котором вся ответственность за безопасность на дороге лежит на водителе. Шагнуть выше 2 уровня и перенести ответственность с человека на машину не позволяет законодательство, о чём мы много раз рассказывали, в том числе на совсем свежем примере краха беспилотного проекта Daimler и Bosch.
В 2020 году Euro NCAP в рамках большой сессии испытаний систем автономного вождения на десяти новых автомобилях раскритиковал Tesla Model 3 за использование слова «автопилот» в ассистирующей, по сути, программе и за её неадекватную реакцию на попытку водителя объехать внезапно возникшее на дороге препятствие.
Несмотря на сгущающиеся вокруг автопилота тучи, Tesla продолжает «допиливать» FSD: в мае компания объявила, что отказывается от радаров и делает ставку исключительно на камеры в сочетании с нейросетевым алгоритмом распознавания образов.