Наука и техника
13:01, 1 августа 2024

Взлом автопилота Tesla объяснил природу фатальных аварий

WSJ: ошибки автопилота Tesla могли привести к тяжелым ДТП
Андрей Ставицкий (Редактор отдела «Наука и техника»)
Фото: Joel Angel Juarez / Reuters

Специалисты по безопасности объяснили, каким образом автомобили Tesla с автопилотом попадали в аварии. Об этом сообщает The Wall Street Journal (WSJ).

Узнайте больше в полной версии ➞

Журналисты газеты получили доступ к бортовым компьютерам Tesla с программным обеспечением Full Self-Driving (FSD), которое в медиа для упрощения называют автопилотом. Взломанные и изученные «белыми хакерами» данные помогли объяснить природу фатальных дорожно-транспортных происшествий с участием электрокаров Tesla.

С помощью официальных отчетов и видеозаписей специалисты смогли воссоздать 222 инцидента с участием автомобилей американского бренда. Так, в 44 случаях машина резко меняла траекторию движения, а в 31 случае автомобиль, не имея преимущества, отказывался уступать дорогу.

По словам экспертов, проблема, судя по всему, заключается в ошибках искусственного интеллекта (ИИ). Так, в одном из ДТП компьютер FSD не распознал прицеп на автомобиле, и поэтому машина Tesla въехала в него на высокой скорости. В ряде случаев проблема может заключаться в неправильной интерпретации данных, полученных с камер.

В заключении отмечается, что беспилотные автомобили Tesla выходят из строя как по аппаратным, так и по программным причинам.

В середине июля стало известно, что корпорация Tesla отменила выпуск роботакси, запланированный на август. Мероприятие должно состояться в августе.

< Назад в рубрику