Эксперт по робототехнике из Стэнфордского университета Хизер Найт (Heather Knight) подняла новую волну споров о безопасности беспилотных машин. В электромобиле Tesla Model S она выяснила, что система не принимает велосипедистов за людей, что может привести к печальным последствиям. О том, как беспилотные автомобили становятся виновниками ДТП и сколько жертв на их счету, — в материале «Ленты.ру».
В своем блоге на Medium Найт рассказала о своих впечатлениях от электрокара, а также опубликовала результаты собственного исследования. В целом она положительно отзывается о беспилотнике: машина отлично перестраивается из ряда в ряд без участия водителя и самостоятельно поворачивает. Но статью свою назвала красноречиво: «Велосипедисты умрут».
«По моим оценкам, автопилот в потоке правильно определяет около 30 процентов автомобилей и всего 1 процент велосипедистов. Невозможность классифицировать объект не говорит о том, что Tesla его не видит. Но, когда на кону человеческая жизнь, мы рекомендуем НИКОГДА НЕ ИСПОЛЬЗОВАТЬ АВТОПИЛОТ TESLA ВОЗЛЕ ВЕЛОСИПЕДИСТОВ», — предостерегает Найт.
Другими словами, Tesla не понимает, что перед ней человек, и воспринимает велосипед как маленький автомобиль. Поэтому Найт в очередной раз напомнила, что сейчас автопилот — это не более чем ассистент, который поможет перестроиться в другой ряд или предупредит об опасности, но никак не полноценная замена человеку.
В июле 2016 года в Норвегии система не смогла идентифицировать транспортное средство, и Model S наехала на мотоциклиста сзади, нанеся ему серьезные травмы.
Норвежская ассоциация мотоциклистов NMCU (Norsk Motorcykkel Union) написала открытое письмо министру транспорта королевства Кетилу Солвик-Олсену (Ketil Solvik-Olsen) и главе Tesla Илону Маску (Elon Musk) с требованием разобраться в случившемся. Байкеры уточнили, что ни в коем случае не выступают против технического прогресса. Но, по их мнению, систему необходимо тщательно проверить, пока она не готова к массовому использованию. Позже к норвежцам присоединились мотоклубы Нидерландов и Федерация европейских ассоциаций мотоциклистов (FEMA). Все они уверены, что технология Tesla слишком сырая и ее нельзя давать в руки обычных водителей.
В марте 2017 года в Фениксе (штат Аризона, США) Tesla Model X столкнулась сразу с двумя полицейскими мотоциклами. Двое стражей порядка остановились перед светофором. Следовавший за ними на автопилоте электрокар сперва притормозил, но спустя мгновение продолжил движение. Полицейским пришлось бросить мотоциклы и ретироваться.
Первое и пока единственное ДТП со смертельным исходом с участием автопилота Tesla произошло в мае прошлого года (хотя в компании о нем рассказали лишь в конце июня). Джошуа Браун (Joshua Brown) двигался по шоссе в Уиллистоне, штат Флорида на своей Model S, когда на полосу перпендикулярно направлению движения выехал седельный тягач с полуприцепом. Ни водитель, ни машина не среагировали на светлую фуру на фоне яркого неба, и тормозная система не включилась.
По версии национальной администрации безопасности дорожного движения (NHTSA), автопилот бездействовал потому, что датчики Tesla находятся слишком низко и система не среагировала из-за большого дорожного просвета фуры.
Как бы то ни было, в январе 2017 года эксперты NHTSA виновным в ДТП признали самого водителя. В расследовании говорится, что автопилот выполняет вспомогательную роль и у Брауна было порядка семи секунд, чтобы среагировать на опасность. По иронии судьбы, за месяц до аварии Браун опубликовал ролик о том, как система Tesla спасла его от столкновения с грузовиком.
В Tesla тоже считают, что в ДТП с участием их автомобилей виноваты сами водители. Никто никогда и не говорил, что текущая версия их ПО обеспечивает полностью автономное управление. Это лишь помощник, которого можно активировать только на шоссе, и даже тогда не следует терять бдительность.
Свой беспилотник предложила и компания Uber, однако дело не пошло. В октябре прошлого года в Питтсбурге, штат Пенсильвания, один из тестовых автомобилей с системами автономного управления уличили в нарушении ПДД. Беспилотник пытался выехать на улицу с односторонним движением в противоположную сторону. Также машины Uber порой спокойно проезжают на красный сигнал светофора.
В марте 2017 года Volvo XC90 с оборудованием Uber в штате Аризона выехал на перекресток на желтый сигнал светофора. Другой участник движения пытался свернуть налево и не уступил дорогу беспилотнику. В результате столкновения тестовый автомобиль перевернулся. После этого амбициозный проект был остановлен.
Других участников этой гонки автопилотов тоже преследуют неудачи. Так, в Google, уже много лет работающей над беспилотным автомобилем, только за 2015 год зафиксировали 272 ошибки своей системы. За первые шесть лет тестов «гугл-мобиль» попал в 11 аварий, хотя и не по своей вине. В компании считают, что автомобили ведут себя слишком «вежливо» и их необходимо сделать агрессивнее.
В истории Google была всего одна авария по вине автопилота. В феврале прошлого года Lexus RX 450h с системой автономного управления столкнулся с автобусом при объезде препятствия. Машина решила не пропускать общественный транспорт, тем самым спровоцировав столкновение. В ДТП никто не пострадал, но Google пообещала улучшить свое ПО.
Неприятные инциденты случались и у Volvo, планирующей приступить к продаже своих беспилотных автомобилей уже в 2021 году. Во время демонстрации новой версии функции автоматического торможения кроссовер «не заметил» группу людей и на полном ходу сбил их. В Volvo объяснили, что автомобиль и не был оборудован системой обнаружения пешеходов, потому что его владельцы отказались докупать эту опцию.
И все же никто из крупных производителей, кроме Tesla, пока не рискует делать громких заявлений о работе своего автопилота. Да и последствия большинства ДТП с беспилотными седанами и хетчбэками не кажутся столь катастрофическими. Но необходимо понимать, что это только начало и в мире не так много машин с автопилотом. Страшно представить, что будет твориться, если в нынешнем состоянии систем автономного вождения на дороги выйдут различные беспилотные КамАЗы или фуры Tesla.
Стоит разделять понятия «полностью автономный» автомобиль и просто «автопилот». К сожалению, многие не видят разницы и отдают все управление на откуп системе. Но на данный момент ни один автомобиль не может самостоятельно принимать решения и зачастую лишь информирует водителя об опасности. Эта оговорка позволяет крупным компаниям не брать на себя ответственность и винить в произошедших ДТП либо других участников движения, либо самих владельцев машин с автопилотом.