Автопилот Tesla стал причиной как минимум 13 аварий с летальным исходом. Об этом сообщает газета The Guardian.
Узнайте больше в полной версии ➞В пятницу в Национальной администрации безопасности дорожного движения (NHTSA) США заявили, что своей рекламой автопилота Full Self-Driving (FSD) Tesla вводит потребителей в заблуждение. По словам представителей регулятора, с 2021 года было выявлено как минимум 13 ДТП с летальным исходом, в которых была признана вина FSD.
Авторы отчета заявили, что во всех случаях функция помощи водителю вела себя непредсказуемо. В том числе владельцы автомобилей были излишне уверены в том, что находятся в безопасности. В NHTSA назвали проблемы FSD «серьезным пробелом» и начали новое расследование в отношении корпорации.
В агенстве отметили, что в Tesla реагировали на проблемы автопилота. Однако в корпорации выпускали обновления системы, но не инициировали кампании по отзыву автомобилей. Tesla никак не прокомментировала выводы NHTSA.
В середине апреля владельцы электрокаров Tesla пожаловались на проблемы с автопилотом из-за наезда на бордюры. По их мнению, машина наезжает на препятствия, так как слишком сильно «режет» угол при повороте.