Специалисты по безопасности объяснили, каким образом автомобили Tesla с автопилотом попадали в аварии. Об этом сообщает The Wall Street Journal (WSJ).
Узнайте больше в полной версии ➞Журналисты газеты получили доступ к бортовым компьютерам Tesla с программным обеспечением Full Self-Driving (FSD), которое в медиа для упрощения называют автопилотом. Взломанные и изученные «белыми хакерами» данные помогли объяснить природу фатальных дорожно-транспортных происшествий с участием электрокаров Tesla.
С помощью официальных отчетов и видеозаписей специалисты смогли воссоздать 222 инцидента с участием автомобилей американского бренда. Так, в 44 случаях машина резко меняла траекторию движения, а в 31 случае автомобиль, не имея преимущества, отказывался уступать дорогу.
По словам экспертов, проблема, судя по всему, заключается в ошибках искусственного интеллекта (ИИ). Так, в одном из ДТП компьютер FSD не распознал прицеп на автомобиле, и поэтому машина Tesla въехала в него на высокой скорости. В ряде случаев проблема может заключаться в неправильной интерпретации данных, полученных с камер.
В заключении отмечается, что беспилотные автомобили Tesla выходят из строя как по аппаратным, так и по программным причинам.
В середине июля стало известно, что корпорация Tesla отменила выпуск роботакси, запланированный на август. Мероприятие должно состояться в августе.