Czy autonomiczne samochody są gotowe na wielką scenę? Test Tesla Model Y budzi niepokojące pytania na rok 2025
Model Y Tesli nie zdał krytycznego testu bezpieczeństwa podczas wirusowej demonstracji w 2025 roku—budząc pilne obawy dotyczące rzeczywistości całkowicie autonomicznych pojazdów.
- 1,5 mln+ pojazdów Tesla wyposażonych w oprogramowanie Full Self-Driving (FSD) na drogach USA w 2025 roku
- 60% Amerykanów pozostaje ostrożnych wobec pojazdów bez kierowców, według recentnych badań
- Zero czujników LiDAR używanych w technologii autonomicznej Tesli, w przeciwieństwie do rywali takich jak Waymo
Tesla znowu jest na czołówkach wiadomości—tym razem nie chodzi o ceny akcji czy nowe gigafabryki. Zamiast tego, mamy do czynienia z kryzysem bezpieczeństwa, który przetacza się przez świat motoryzacji i nie tylko. Najnowsza kontrowersja wybuchła, gdy przygotowana demonstracja z The Dawn Project pokazała, jak Tesla Model Y, działająca na najnowszym oprogramowaniu Full Self-Driving (FSD), wjeżdża w manekina dziecięcego podczas testu w Austin w Teksasie. Przerażające nagranie wznowiło intensywną debatę na temat ryzyk związanych z dopuszczeniem autonomicznych pojazdów do naszych ulic.
Dramatyczne wideo z kolizji, zorganizowane przez rzecznika bezpieczeństwa Dana O’Dowda i jego grupę, odzwierciedla dokładnie ten scenariusz, którego obawiają się regulatorzy bezpieczeństwa: Model Y z oprogramowaniem FSD Supervised 13.2.9 całkowicie pomija kluczowe wskazówki wizualne—nie zatrzymuje się na światłach ostrzegawczych autobusu szkolnego, a następnie przejeżdża nad manekinem dziecka przechodzącym przez ulicę. Chociaż ten głośny test użył manekina, krytycy twierdzą, że komunikat jest jasny: obecna technologia Tesli nadal zagraża bezpieczeństwu pieszych.
Dlaczego Model Y Tesli nie zauważył manekina?
Model Y użyty w demonstracji korzystał z najnowszego zestawu autonomii opartego na wizji Tesli. W przeciwieństwie do konkurentów takich jak Waymo i Cruise, które łączą zaawansowane oprogramowanie z czujnikami LiDAR opartymi na laserach, system Tesli polega wyłącznie na kamerach i sieciach neuronowych. W teście w Austin samochód poprawnie „zobaczył” manekina dziecka, ale nie zareagował, przejeżdżając przez przejście dla pieszych bez zatrzymywania się czy hamowania po symulowanym uderzeniu.
Jak bezpieczne są dzisiejsze samochody autonomiczne?
To nie jest pierwszy przypadek kontrowersji związanej z Teslą, a krytycy twierdzą, że nie będzie to ostatni, chyba że technologiczny gigant zreformuje swoje podejście. W 2023 roku National Highway Traffic Safety Administration zbadała wypadek Modelu Y, w którym korzystano z Autopilota podczas, gdy student wychodził z autobusu. Manipulacja kierownicą pomogła kierowcy oszukać system detekcji rąk, stawiając bezpieczeństwo w dalszej niepewności.
Tesla i dyrektor generalny Elon Musk jednak nadal bronią swojego podejścia opartego na oprogramowaniu i kamerach. Musk niedawno potwierdził, że testy na żywo przebiegają szybciej niż planowano, a także zasugerował ambitne plany nie tylko dotyczące robotaxi, ale również misji na Marsa do 2026 roku—świadcząc o dążeniu Tesli do zakłócenia transportu na wielu frontach.
Co to jest The Dawn Project i dlaczego celują w Teslę?
Pod przewodnictwem przedsiębiorcy oprogramowania Dana O’Dowda, The Dawn Project stał się wiodącym głosem w ruchu domagającym się wyższych standardów bezpieczeństwa pojazdów autonomicznych. O’Dowd—samo będący właścicielem Tesli—finansował głośne kampanie (w tym reklamę w Super Bowl) kwestionujące podejście Tesli, argumentując, że firma priorytetowo traktuje wprowadzanie robotaxi ponad bezpieczeństwo publiczne. Zwraca uwagę, że solidne, przejrzyste i bogate w czujniki oprogramowanie ma potencjał, by „uratować setki tysięcy żyć”, ale upiera się, że obecne rozwiązania Tesli nie są do tego zdolne.
Czy technologia Tesli jest naprawdę inna?
Odmowa Tesli do stosowania LiDAR, standardowego czujnika dla wielu rywali, jest wyjątkowa. Podczas gdy firmy takie jak Waymo stosują zarówno kamery, jak i LiDAR do 360-stopniowej wizji i precyzji, Tesla stawia na sztuczną inteligencję i wizję komputerową. Krytycy, tacy jak O’Dowd, twierdzą, że ta decyzja może narażać miliony, jeśli systemy autonomiczne przeoczą kluczowe wskazówki lub nie zareagują w sposób naturalny na nieprzewidywalne warunki rzeczywiste.
Nie musisz brać za dobrą monetę słów aktywistów—wiralowe wideo już zgromadziło tysiące wyświetleń w mediach społecznościowych, a regulatorzy branżowi uważnie obserwują sytuację. Chociaż kolizja wykorzystała tym razem manekina, wielu analityków obawia się, że takie scenariusze mogą szybko stać się rzeczywiste, jeśli nie zostaną wprowadzone surowsze standardy.
Co dalej z bezpieczeństwem samochodów autonomicznych?
W miarę jak Tesla rozwija swoje oprogramowanie FSD dalej w 2025 roku, można się spodziewać, że regulatorzy, grupy rzecznicze i konkurujące marki motoryzacyjne zwiększą kontrolę. Kluczowe pytanie pozostaje: Czy idziemy zbyt szybko z technologią autonomiczną—czy może nie wystarczająco szybko, gdy chodzi o bezpieczeństwo ludzi? Na razie debata dopiero się zaczyna.
- Bądź na bieżąco z najnowszymi informacjami z Tesli i Waymo.
- Przeglądaj aktualizacje bezpieczeństwa od NHTSA i Consumer Reports.
- Obejrzyj oryginalne nagranie z testu i przeczytaj bezpośrednie oświadczenia z The Dawn Project.
Najważniejsze wnioski: Czy jesteś gotowy, aby jechać w samochodzie bez kierowcy?
Znaj najważniejsze fakty zanim zaufać bezpieczeństwu swojej rodziny algorytmowi!
- Technologia samochodów autonomicznych rozwija się—ale nie bez poważnych pytań o bezpieczeństwo.
- Najnowszy Model Y Tesli nie zdał krytycznego testu wykrywania dzieci w 2025 roku.
- Eksperci zalecają pozostanie czujnym do czasu pojawienia się silniejszych regulacji i sprawdzonych rozwiązań.
Podziel się tym artykułem z przyjaciółmi, śledź aktualizacje Tesli i domagaj się odpowiedzialności—bo bezpieczeństwo jest najważniejsze!