Взлом автопилота Tesla объяснил природу фатальных аварий

WSJ: ошибки автопилота Tesla могли привести к тяжелым ДТП

Фото: Joel Angel Juarez / Reuters

Специалисты по безопасности объяснили, каким образом автомобили Tesla с автопилотом попадали в аварии. Об этом сообщает The Wall Street Journal (WSJ).

Журналисты газеты получили доступ к бортовым компьютерам Tesla с программным обеспечением Full Self-Driving (FSD), которое в медиа для упрощения называют автопилотом. Взломанные и изученные «белыми хакерами» данные помогли объяснить природу фатальных дорожно-транспортных происшествий с участием электрокаров Tesla.

С помощью официальных отчетов и видеозаписей специалисты смогли воссоздать 222 инцидента с участием автомобилей американского бренда. Так, в 44 случаях машина резко меняла траекторию движения, а в 31 случае автомобиль, не имея преимущества, отказывался уступать дорогу.

По словам экспертов, проблема, судя по всему, заключается в ошибках искусственного интеллекта (ИИ). Так, в одном из ДТП компьютер FSD не распознал прицеп на автомобиле, и поэтому машина Tesla въехала в него на высокой скорости. В ряде случаев проблема может заключаться в неправильной интерпретации данных, полученных с камер.

В заключении отмечается, что беспилотные автомобили Tesla выходят из строя как по аппаратным, так и по программным причинам.

В середине июля стало известно, что корпорация Tesla отменила выпуск роботакси, запланированный на август. Мероприятие должно состояться в августе.

Лента добра деактивирована.
Добро пожаловать в реальный мир.
Бонусы за ваши реакции на Lenta.ru
Как это работает?
Читайте
Погружайтесь в увлекательные статьи, новости и материалы на Lenta.ru
Оценивайте
Выражайте свои эмоции к материалам с помощью реакций
Получайте бонусы
Накапливайте их и обменивайте на скидки до 99%
Узнать больше