dorvalois: (Default)
[personal profile] dorvalois

Тесловский автопилот – ни в манду ни в красную армию






Владелец автомобиля Tesla едва не врезался в движущийся поезд в режиме “автономного вождения” (и он говорит, что это было не в первый раз!)

Владелец Теслы обвиняет функцию полного самоуправления автомобиля в том, что тот свернул в сторону встречного поезда, прежде чем он успел вмешаться. Крейг Доти II из Огайо ехал по дороге ночью в начале этого месяца. На записи с камеры наблюдения было видно, как его Tesla быстро приближается к проходящему поезду без признаков замедления.


Он утверждает, что в тот момент его автомобиль находился в режиме полного автономного вождения (FSD – Full Self-Driving) и не сбавил скорость, несмотря на пересекающий дорогу поезд, но не уточняет марку или модель машины. На видео водитель, похоже, был вынужден вмешаться, проехав прямо через знак железнодорожного переезда и остановившись в нескольких футах от движущегося поезда.

Tesla столкнулась с многочисленными судебными исками от владельцев, утверждающих, что функция FSD или Autopilot стала причиной аварии, поскольку не остановилась перед другим автомобилем или свернула с пути и врезалась в какой-то объект, что в некоторых случаях унесло жизни водителей.

The Tesla driver claimed his vehicle was in Full Self-Driving (FSD) mode but didn't slow down as it approached a train crossing the road. In the video, the driver was allegedly forced to swerve off the road to avoid colliding with the train Pictured: The Tesla vehicle after the near-collision

На фото: Автомобиль Tesla после столкновения

По данным Национальной администрации безопасности дорожного движения США (NHTSA), по состоянию на апрель 2024 года системы автопилота Tesla моделей Y, X, S и 3 с 2019 года стали причиной 17 смертельных случаев и 736 аварий.

Доти сообщил о проблеме на сайте Tesla Motors Club, заявив, что владеет автомобилем менее года, но “за последние шесть месяцев он дважды пытался въехать прямо в проходящий поезд, находясь в режиме FSD”.

По словам Доти, он пытался сообщить об инциденте и найти похожие случаи, но не нашел адвоката, который согласился бы принять его дело, поскольку он не получил значительных травм – только боль в спине и ушиб. Tesla предостерегает водителей от использования системы FSD при плохом освещении или плохих погодных условиях, таких как дождь, снег, прямые солнечные лучи и туман, которые могут “значительно ухудшить работу”.

Это связано с тем, что такие условия мешают работе датчиков Tesla, которые включают ультразвуковые датчики, использующие высокочастотные звуковые волны для отражения от близлежащих объектов. Также используются радарные системы, которые излучают низкие частоты света, чтобы определить, есть ли поблизости автомобиль, и 360-градусные камеры. Все эти системы собирают данные об окружающем пространстве, включая дорожные условия, интенсивность движения и близлежащие объекты, но в условиях плохой видимости они не могут точно определить обстановку вокруг.

Craig Doty II reported that he had owned his Tesla vehicle for less than a year but the full self-driving feature had already caused almost two crashes. Pictured: The Tesla approaching the train but does not slow down or stop

Крейг Доти сообщил, что владеет своим автомобилем Tesla менее года, но функция полного самообучения уже успела стать причиной двух аварий. На фото: Tesla приближается к поезду, но не замедляет ход и не останавливается

Tesla is facing numerous lawsuits from owners who claimed the FSD or Autopilot feature caused them to crash. Pictured: Craig Doty II's car swerving off the road to avoid the train

Компания Tesla столкнулась с многочисленными исками от владельцев, утверждающих, что функция FSD или Autopilot стала причиной аварии. На фото: Автомобиль Крейга Доти съезжает с дороги, чтобы избежать столкновения с поездом

На вопрос о том, почему он продолжал использовать систему FSD после первого столкновения, Доти ответил, что верил в ее правильную работу, поскольку в течение некоторого времени у него не возникало никаких других проблем.

После некоторого времени использования системы FSD вы начинаете доверять ее правильной работе, как и в случае с адаптивным круиз-контролем”, – сказал он.

Вы полагаете, что автомобиль замедлится при приближении к впереди идущему автомобилю, пока это не произойдет, и вам внезапно придется взять управление на себя”.

Такая самоуверенность может со временем развиться из-за того, что система обычно работает как надо, поэтому подобные инциденты вызывают особую тревогу”.

В руководстве Tesla водителей предостерегают от того, чтобы они полагались только на функцию FSD, говоря, что им необходимо постоянно держать руки на руле, “помнить о дорожных условиях и окружающем движении, обращать внимание на пешеходов и велосипедистов и всегда быть готовыми к немедленным действиям”.

Систему автопилота Tesla обвиняют в том, что она стала причиной огненной аварии, в которой погиб мужчина из Колорадо, ехавший домой с поля для гольфа, согласно иску, поданному 3 мая.

Семья Ханса фон Охайна утверждает, что 16 мая 2022 года он пользовался системой автопилота Tesla Model 3 2021 года выпуска, когда автомобиль резко свернул вправо с дороги, но Эрик Росситер, который был пассажиром, говорит, что в момент аварии водитель находился в состоянии сильного алкогольного опьянения.

Охайн попытался вернуть контроль над автомобилем, но не смог и погиб, когда машина столкнулась с деревом и вспыхнула.

Позднее вскрытие показало, что в момент смерти в его организме в три раза превышалась допустимая норма алкоголя.

В 2019 году мужчина из Флориды также погиб, когда автопилот Tesla Model 3 не успел затормозить, когда на дорогу выехал полугрузовик, в результате чего автомобиль проскользнул под прицепом – мужчина погиб мгновенно.

В октябре прошлого года Tesla выиграла свой первый иск в связи с обвинениями в том, что функция “Автопилот” привела к гибели мужчины из Лос-Анджелеса, когда Model 3 съехала с шоссе и врезалась в пальму, после чего вспыхнула.

NHTSA провело расследование аварий, связанных с функцией автопилота, и заявило, что “слабая система вовлечения водителя” способствовала крушению автомобилей.

Функция автопилота “привела к предсказуемому неправильному использованию и авариям, которых можно было избежать”, говорится в отчете NHTSA, и добавляется, что система не “в достаточной степени обеспечивала внимание водителя и надлежащее использование”.

В декабре Tesla выпустила обновление программного обеспечения для двух миллионов автомобилей в США, которое должно было улучшить работу систем автопилота и FSD, но теперь NHTSA предположило, что этого обновления было недостаточно в свете новых аварий.

Элон Маск не прокомментировал отчет NHTSA, но ранее он уже говорил об эффективности систем автономного вождения Tesla, утверждая в сообщении 2021 года на сайте X, что люди, использующие функцию автопилота, в 10 раз реже попадают в аварии, чем среднестатистические автомобили. Люди гибнут из-за ошибочного доверия к возможностям автопилота Tesla. “Даже простые шаги могут повысить безопасность”, – сказал CNBC Филипп Купман, исследователь автомобильной безопасности и профессор компьютерной инженерии в Университете Карнеги-Меллон. Tesla могла бы автоматически ограничивать использование автопилота предназначенными для него дорогами на основе картографических данных, уже имеющихся в автомобиле”, – продолжил он. – Tesla могла бы улучшить мониторинг, чтобы водители не могли регулярно уделять всё своё внимание мобильным телефонам во время работы автопилота”.

Исток.

ЧИТАЙТЕ ТАКЖЕ на английском: Новое шокирующее видео показывает огненный шар, охвативший Tesla во время аварии ( Shocking new video shows fireball engulfing Tesla in crash )

Читать больше на английском. Водитель “Теслы”, убивший двух человек во время использования автопилота в Лос-Анджелесе, избежал тюремного заключения и был оштрафован на 23 000 долларов – после того, как компания объявила об отзыве более двух миллионов автомобилей – Tesla driver who killed two people while using autopilot in Los Angeles avoids jail sentence and is instead fined $23,000 – after company announced recall of more than two million cars


Profile

dorvalois: (Default)
dorvalois

January 2026

S M T W T F S
    123
45 678910
11121314151617
18192021222324
25262728293031

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Jan. 22nd, 2026 09:06 pm
Powered by Dreamwidth Studios