Чи готові автономні автомобілі до масового використання? Тест Tesla Model Y ставить тривожні питання на 2025 рік
Model Y від Tesla провалив критичний тест на безпеку під час вірусної демонстрації в 2025 році, підвищуючи термінові побоювання щодо реальності повністю автономних транспортних засобів.
- 1.5M+ автомобілів Tesla з програмним забезпеченням Full Self-Driving (FSD) на дорогах США у 2025 році
- 60% американців залишаються обережними щодо безпілотних автомобілів, згідно з недавніми опитуваннями
- Zero датчиків LiDAR, що використовуються у безпілотній технології Tesla, на відміну від конкурентів, таких як Waymo
Tesla знову на перших сторінках новин — цього разу обговорення не стосується цін на акції чи нових гігафабрик. Замість цього, це безпекова скандал, що охоплює автомобільний світ і не тільки. Остання суперечка спалахнула, коли постановча демонстрація проекту The Dawn показала Tesla Model Y, що використовує останню версію програмного забезпечення Full Self-Driving (FSD), яка збила ляльку розміру дитини під час тесту в Остіні, штат Техас. Облямоване відео знову розпалило запеклі дебати про ризики дозволу автономним транспортним засобам правити нашими вулицями.
Драматичне відео аварії, організоване захисником безпеки Даном О’Dowdом і його групою, імітує саме той сценарій, якого бояться регулятори з безпеки: Model Y з програмним забезпеченням FSD Supervised 13.2.9 повністю пропускає критичні візуальні сигнали — не зупиняється на сигнали тривоги шкільного автобуса, а потім наїжджає на ляльку дитини, яка переходить вулицю. Хоча цей високопрофільний тест використовував манекен, критики стверджують, що повідомлення чітке: поточна технологія Tesla все ще є небезпечно недостатньою, коли мова йде про безпеку пішоходів.
Чому Tesla Model Y не помітив ляльку?
Model Y, залучена до демонстрації, використовувала останній комплект автономії на основі зору від Tesla. На відміну від конкурентів, таких як Waymo і Cruise, які поєднують вдосконалене програмне забезпечення з лазерними датчиками LiDAR, система Tesla покладається тільки на камери та нейронні мережі. Під час тесту в Остіні автомобіль правильно “побачив” ляльку дитини, але не встиг зреагувати, проїхавши через пішохідний перехід без зупинки або гальмування після імітованого зіткнення.
Наскільки безпечні сьогоднішні автомобілі з автопilotом?
Це не перша суперечка Tesla, і критики стверджують, що це не буде останнім, якщо технологічний гігант не реформує свій підхід. У 2023 році Національне управління безпеки дорожнього руху розслідувало аварію Model Y, коли використовувався автопілот, під час виходу студента з автобуса. Маніпуляція з кермом допомогла водію обдурити детекцію рук системи, ставлячи безпеку під ще більшу загрозу.
Однак Tesla та CEO Ілон Маск продовжують захищати свій підхід з програмним забезпеченням на першому місці, тільки з камерами. Маск нещодавно підтвердив, що живе тестування йде за графіком і натякнув на амбітні плани не тільки щодо роботаксі, але й щодо місій на Марс до 2026 року — свідчення наміру Tesla порушити транспортні межі з різних фронтів.
Що таке проект The Dawn і чому вони націлені на Tesla?
Очолюваний підприємцем у сфері програмного забезпечення Даном О’Dowdом, проект The Dawn став провідним голосом у русі, що вимагає підвищення стандартів безпеки автономних транспортних засобів. О’Dowd, сам власник Tesla, фінансував високопрофільні кампанії (включаючи рекламу на Супербоулі), які ставлять під сумнів підхід Tesla, стверджуючи, що компанія пріоритетно розвиває роботаксі над безпекою громадськості. Він підкреслює, що міцне, прозоре й датчиком насичене програмне забезпечення має потенціал врятувати “сотні тисяч життів”, але наполягає, що поточні рішення Tesla не відповідають вимогам.
Чи справді технологія Tesla відрізняється?
Відмова Tesla використовувати LiDAR, стандартний датчик у багатьох конкурентів, є унікальною. У той час як компанії, такі як Waymo, використовують як камери, так і LiDAR для 360-градусного зору та точності, Tesla стоїть на своєму, ставлячи на штучний інтелект та комп’ютерне зору. Критики, такі як О’Dowd, кажуть, що це рішення може поставити під загрозу мільйони, якщо автономні системи пропускають критичні сигнали або не реагують природно на непередбачувані умови в реальному світі.
Вам не потрібно вірити на слово активістам — вірусне відео вже зібрало тисячі переглядів у соціальних мережах, і регулятори індустрії пильно стежать. Хоча цього разу зіткнення відбулося з манекеном, багато аналітиків побоюються, що такі сценарії можуть швидко стати реальними, якщо не будуть запроваджені суворіші стандарти.
Що далі для безпеки автономних автомобілів?
Оскільки Tesla просуває своє програмне забезпечення FSD далі у 2025 році, очікуйте, що регулятори, групи активістів і конкуруючі автопроизводителі посилять контроль. Центральне питання залишається: Чи рухаємося ми занадто швидко з технологією автономного водіння — чи недостатньо швидко, коли мова йде про безпеку реальних людей? Поки що дебати тільки починають розгортатися.
- Залишайтеся в курсі останніх новин від Tesla та Waymo.
- Перегляньте оновлення безпеки від NHTSA та Consumer Reports.
- Дивіться оригінальне тестове відео та читайте прямі заяви від The Dawn Project.
Основні висновки: Чи готові ви їхати в безпілотному автомобілі?
Знайте факти, перш ніж довіряти безпеці вашої родини алгоритму!
- Технологія автономних автомобілів розвивається — але не без великих питань щодо безпеки.
- Останній Model Y від Tesla провалив критичний тест на виявлення дитини у 2025 році.
- Експерти рекомендують залишатися насторожі, поки не з’являться більш суворі регуляції та перевірені рішення.
Поділіться цією статтею з друзями, стежте за оновленнями Tesla та вимагайте звітності — адже безпека є пріоритетом!