Zijn Autonome Auto’s Klaar voor de Hoofdpodium? Tesla Model Y Test Roept Alarmerende Vragen Op voor 2025
De Model Y van Tesla faalt voor een cruciale veiligheidstest in een virale demonstratie uit 2025—wat dringende zorgen oproept over de werkelijkheid van volledig autonome voertuigen.
- 1,5M+ Tesla-voertuigen uitgerust met Full Self-Driving (FSD) software op de Amerikaanse wegen in 2025
- 60% van de Amerikanen blijft voorzichtig over voertuigen zonder bestuurder, volgens recente peilingen
- Geen LiDAR-sensoren gebruikt in Tesla’s technologie voor voertuigen zonder bestuurder, in tegenstelling tot concurrenten zoals Waymo
Tesla staat weer in de schijnwerpers—dit keer is de ophef niet over beurskoersen of nieuwe gigafabrieken. In plaats daarvan gaat het om een veiligheidsschandaal dat door de auto-industrie en daarbuiten razend gaat. De laatste controverse ontstond toen een opgevoerde demonstratie van The Dawn Project een Tesla Model Y toonde, die zijn nieuwste Full Self-Driving (FSD) software draaide en een kind-groot dummy raakte tijdens een test in Austin, Texas. De haunting beelden hebben een felle discussie doen oplaaien over de risico’s van het toestaan van autonome voertuigen op onze wegen.
De dramatische crashvideo, georganiseerd door veiligheidsepos Dan O’Dowd en zijn groep, imiteert het exacte scenario waar veiligheidstoezichthouders bang voor zijn: Een Model Y met FSD Supervised 13.2.9 software mist volledige cruciale visuele signalen—de auto stopt niet voor de waarschuwingslichten van een schoolbus en rijdt vervolgens over een kinderdummy die de straat oversteekt. Terwijl deze hooggeprofileerde test een mannequin gebruikte, beweren critici dat de boodschap duidelijk is: De huidige technologie van Tesla schiet nog steeds gevaarlijk tekort als het gaat om de veiligheid van voetgangers.
Waarom Mist de Tesla Model Y de Dummy?
De betrokken Model Y in de demonstratie gebruikte Tesla’s nieuwste op visie gebaseerde autonomie suite. In tegenstelling tot concurrenten zoals Waymo en Cruise—die geavanceerde software combineren met laser-gebaseerde LiDAR-sensoren—steunt Tesla’s systeem alleen op camera’s en neurale netwerken. In de test in Austin “zag” de auto de kinderdummy correct, maar reageerde niet, en reed door het zebrapad zonder te stoppen of te remmen na de gesimuleerde impact.
Hoe Veilig Zijn de Huidige Zelfrijdende Auto’s?
Dit is niet de eerste controverse voor Tesla, en critici beweren dat het ook niet de laatste zal zijn, tenzij de techreus zijn aanpak hervormt. In 2023 onderzocht de National Highway Traffic Safety Administration een Model Y-ongeluk waarbij Autopilot in gebruik was toen een student een bus verliet. Manipulatie van het stuur hielp de bestuurder om het handdetectiesysteem te misleiden, waardoor de veiligheid verder in gevaar werd gebracht.
Tesla en CEO Elon Musk blijven echter hun software-eerste, camera-alleen benadering verdedigen. Musk bevestigde onlangs dat de live-tests voorlopen op schema en hintte naar ambitieuze plannen, niet alleen voor robotaxi’s, maar ook voor missies naar Mars tegen 2026—aantoonbaar de ambitie van Tesla om transport op meerdere fronten te verstoren.
Wat Is The Dawn Project, en Waarom Zijn Ze Tesla aan het Bestrijden?
Onder leiding van software-ondernemer Dan O’Dowd is The Dawn Project een leidende stem geworden in de beweging die hogere veiligheidsnormen voor autonome voertuigen eist. O’Dowd—zelf een Tesla-eigenaar—heeft hooggeprofileerde campagnes gefinancierd (inclusief een Super Bowl-advertentie) die de aanpak van Tesla uitdaagt, en betoogt dat het bedrijf de uitrol van robotaxi’s boven de openbare veiligheid stelt. Hij wijst erop dat robuuste, transparante en sensor-rijke software het potentieel heeft om “honderdduizenden levens te redden,” maar hij staat erop dat de huidige oplossingen van Tesla niet aan de taak voldoen.
Is de Technologie van Tesla Echt Verschillend?
Tesla’s weigering om LiDAR te gebruiken, een industrie-standaard sensor voor veel rivalen, is uniek. Terwijl bedrijven zoals Waymo zowel camera’s als LiDAR inzetten voor 360-graden visie en precisie, staat Tesla alleen door te wedden op kunstmatige intelligentie en computerzicht. Critici, zoals O’Dowd, zeggen dat deze beslissing miljoenen in gevaar kan brengen als autonome systemen kritieke signalen missen of niet op een natuurlijke manier reageren op onvoorspelbare omstandigheden in de echte wereld.
Je hoeft activisten niet op hun woord te geloven—de virale video heeft al duizenden weergaven op sociale media verzameld, en de toezichthouders in de industrie houden nauwlettend in de gaten. Hoewel de botsing deze keer een dummy gebruikte, vrezen veel analisten dat soortgelijke scenario’s snel werkelijkheid kunnen worden als er geen strengere normen worden gehandhaafd.
Wat Is de Volgende Stap voor de Veiligheid van Autonome Auto’s?
Terwijl Tesla zijn FSD-software verder pusht in 2025, verwachte regulators, belangenbehartigingsgroepen en concurrerende autofabrikanten meer toezicht. De centrale vraag blijft: Bewegen we te snel met zelfrijdende technologie—of niet snel genoeg als het gaat om de veiligheid van echte mensen? Voor nu begint de discussie pas echt.
- Blijf op de hoogte van het laatste nieuws van Tesla en Waymo.
- Bekijk veiligheidsupdates van de NHTSA en Consumer Reports.
- Kijk naar de originele testbeelden en lees directe verklaringen van The Dawn Project.
Belangrijkste Aannames: Ben Jij Klaar om in een Zelfrijdende Auto te Rijden?
Ken de feiten voordat je de veiligheid van je gezin toevertrouwt aan een algoritme!
- De technologie van autonome auto’s ontwikkelt zich—maar niet zonder grote veiligheidsvragen.
- De nieuwste Model Y van Tesla faalde voor een cruciale kinddetectietest in 2025.
- Experts raden aan om waakzaam te blijven totdat sterkere reguleringen en bewezen oplossingen opduiken.
Deel dit artikel met vrienden, volg de updates van Tesla en vraag om verantwoordelijkheid—want veiligheid komt op de eerste plaats!