Авария Tesla: виноват автопилот или человек?

«Два человека погибли в аварии с Tesla в США. Машиной, предположительно, управлял автопилот» – такие заголовки облетели СМИ после апрельского столкновения автомобиля с деревом. Сейчас в США расследуются 24 аварии с участием Tesla, в которых водители использовали автопилот или могли его использовать. Много это или мало? Если сравнивать со всеми авариями, то мало.

Только в нашей стране за 2020 год в ДТП погибло более 16 000 водителей и пассажиров (44 смерти в день). В США — около 36 000.

По статистическим данным, средний показатель для автомобилей под управлением человека — одна авария на каждые 800 000 километров. Для Тесла со включенным автопилотом — один раз на 6,8 миллионов километров. Получается, что езда на автопилоте Теслы в 8,5 раз безопасней, чем без него.

Почему же столько шума? Потому что это инновации, которые так или иначе сопряжены со смертью. Несчастные случаи указывают на уязвимости в алгоритмах безопасности, что напрягает регуляторов.

Первое смертельное ДТП с Теслой случилось в 2016 году. Однако вина лежит не только на автопилоте, который по заявлениям Маска вообще был отключен, но и на водителе, который должен был в любое время перехватить управление. Почему?

Существует 6 уровней автопилотов:

• 0 — обычная машина без автопилота

1 — машина помогает тормозить и ускоряться

2 — частичная автоматизация — человек должен быть готов в любой момент принять управление. Именно на этом уровне юридически находится автопилот Тесла.

3 — условная автоматизация — все может сам, но иногда попросит взять управление. А вот на этом месте автопилот Тесла находится фактически.

4 — высокая автоматизация — может справляться даже с сложными ситуациями, однако если не сможет — припаркуется у обочины. Такие разработки ведут Google, Baidu, Яндекс и т.д.

5 — полная автоматизация — руль и педали не нужны. Однако такие машины только на стадии разработки. Главное, чтобы не восстали.