На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Авто - Мото - Новости

7 подписчиков

Свежие комментарии

  • Сергей Заболотин
    Спрос есть просто не хайповый у KGM. А теперь с новыми ценами вообще топ!Быстрейшие машины...
  • uriush59
    Интересно, чем таким неизведанным оснастят субару свою BRZ, чтобы она стала еще более дерзкой? И куда уж более, машин...Компания Subaru г...
  • Николай Калашников
    Работа мотора напоминала выхлоп очень древней старушки, мотор настройки практически не держал. Железо кузова сгничал...1994 ЗАЗ 968 «Зап...

Американские власти подозревают Tesla в жульничестве с автопилотом

На прошлой неделе американское государственное агентство NHTSA объявило, что расширит расследование в отношении компании Tesla. Оно коснётся 830 тысяч машин всех четырёх моделей: у чиновников, отвечающих за безопасность на дорогах, возникли серьёзные вопросы по работе автопилота. Похоже, что он запрограммирован таким образом, чтобы отключаться в сложной дорожной ситуации, когда авария становится неизбежной.

На прошлой неделе американское государственное агентство NHTSA объявило, что расширит расследование в отношении компании Tesla. Оно коснётся 830 тысяч машин всех четырёх моделей: у чиновников, отвечающих за безопасность на дорогах, возникли серьёзные вопросы по работе автопилота. Похоже, что он запрограммирован таким образом, чтобы отключаться в сложной дорожной ситуации, когда авария становится неизбежной.

Такое решение было принято после того, как специалисты NHTSA проанализировали ряд аварий с участием электромобилей Tesla, и смогли выделить ряд подозрительных паттернов в действиях автопилота и водителей. Теперь, после предварительных исследований, запущена так называемая процедура «Инженерного анализа» — в практике работы NHTSA это обычно предшествует отзывной кампании.

Заявляется, что главная цель исследования — «выяснить, в какой мере автопилот Tesla и другие связанные системы способны усугубить влияние человеческого фактора или поведенческие риски, снизив эффективность владения ситуацией со стороны водителя». Иными словами, не мешает ли автопилот водителю в критической ситуации.

Расследование инициировали в прошлом году, после череды очень похожих аварий: Tesla с включённым автопилотом врезалась в участников другого столкновения, когда на месте уже работали экстренные службы.

Как удалось выяснить сотрудникам NHTSA, в 16 случаях автопилот отключался менее чем за секунду до удара. Разумеется, это заставало водителя врасплох, и он оказывался не в состоянии что-либо предпринять.

Когда Илон Маск комментирует нашумевшие аварии с участием Теслы, он нередко ссылается на данные «чёрного ящика», показывающие, что в момент аварии автопилот был выключен. Если выяснится, что алгоритмы автопилота таковы, что он игнорирует возникновение аварийной ситуации и отключается непосредственно перед столкновением, то это поставит компанию в очень некрасивое положение.

Впрочем, с юридической точки зрения доказать виновность компании всё равно будет крайне сложно: все тесловские системы автоведения считаются лишь электронными ассистентами водителя, не исключая самую совершенную — Full Self-Driving. Поэтому юридическую ответственность должен нести сам человек за рулём.

Ранее агентство NHTSA уже исследовало влияние тесловского автопилота на статистику ДТП. Работа 2016 года показала 40-процентное снижение аварийности на машинах, оборудованных автопилотом. Компания Tesla активно ссылалась на эти данные в своих маркетинговых материалах. Но позже в методике исследования были обнаружены фундаментальные ошибки, и агентство было вынуждено отозвать документ.

Удивительные «Теслы»: от кабриолета до катафалка

 

Ссылка на первоисточник
наверх