De droom van volledig autonome voertuigen is er een die technologische bedrijven al jaren najagen. Ze hebben immers centen geroken. Ze willen de dienst verkopen. Ze willen de taximarkt overnemen. Op z’n minst willen ze een procentje op de film die je onderweg huurt. Maar terwijl de marketing overtuigend klinkt, groeit het aantal incidenten dat aantoont hoe onvolwassen de technologie nog altijd is. Amazon-dochter Zoox moest afgelopen maand 270 van haar robotaxi’s terugroepen na een potentieel levensgevaarlijk softwareprobleem. Het incident past in een bredere trend van technische tekortkomingen, ethische vragen en toenemend maatschappelijk verzet. Ja, zelfs in Californië – de West-Europese bakermat voor de technologie.
Robottaxi probeert voetganger te overrijden
Op 8 mei in San Francisco botste een e-stepgebruiker tegen een stilstaande robotaxi van Zoox en viel op de grond, pal naast het voertuig. Tot overmaat van ramp begon het voertuig net daarna opnieuw te rijden in autonome modus. De software bleek niet in staat om een persoon die op de grond lag, direct naast het voertuig, correct te detecteren bij het herstarten. Dat lijkt toch een minimum, niet? Alleen geluk voorkwam een ernstiger afloop.
Zoox voerde een software-update uit en hervatte daarna de operaties, maar het incident laat een bittere nasmaak. In plaats van vertrouwen te winnen, lijken zelfrijdende voertuigen keer op keer het tegendeel te bewijzen.
Lijst van incidenten en controverses bij zelfrijdende systemen
Zelf Zoox, relatief nieuw in de markt, is zeker niet de enige die in opspraak kwam. Hier is een (niet-exhaustieve) lijst van andere opmerkelijke incidenten, vertragingen en beleidswijzigingen:
- Uber / Volvo – Dodelijk ongeval in Arizona (2018)
Tijdens een test met een zelfrijdende Volvo XC90 werd een voetgangster dodelijk aangereden. Het systeem had haar wel als voetganger herkend, maar de AI had haar vervolgens als ‘onbekend object’ geherclassificeerd en gewoon aangereden. Uber trok zich na het incident volledig terug uit de autonome sector.
- Tesla – Controverse rond Full Self Driving (FSD)
Tesla zou zijn FSD-software zo programmeren dat het systeem zichzelf vlak vóór een onvermijdelijk ongeval uitschakelt. Hierdoor zou Tesla juridische verantwoordelijkheid kunnen ontlopen. De praktijken zorgen al jaren voor hevige kritiek van experts en juristen.
- Cruise (General Motors)
Cruise moest in 2023 zijn operaties in Californië stilleggen nadat een robotaxi een vrouw die al was aangereden, nog eens meesleurde over tientallen meters. De publieke reactie was scherp en het bedrijf verloor zijn testvergunning.
- Waymo (Alphabet/Google)
Waymo’s wagens veroorzaakten verkeerschaos door zonder reden te stoppen op kruispunten of zich vast te rijden in wegenwerken. Pogingen van agenten om in te grijpen werden door de software soms genegeerd.
- Tesla – Meerdere dodelijke crashes onder FSD
Tesla’s systeem faalde herhaaldelijk bij het herkennen van stilstaande voertuigen, afritten of verkeersborden. Onderzoeken lopen nog in meerdere landen, waaronder de VS en Duitsland.
- Californië – Hulpdiensten vragen beperkingen
Brandweer en politie in onder andere San Francisco riepen op om autonome voertuigen te beperken of te verbieden nadat deze tijdens interventies noodvoertuigen hinderden of verkeersinstructies negeerden.
- China – Verstrenging van regels na recente incidenten (2024-2025)
China heeft begin 2025 nieuwe beperkingen opgelegd aan tests met autonome voertuigen na meerdere ongelukken, waaronder een fataal incident in Shenzhen waarbij een zelfrijdende wagen op hoge snelheid een fietser aanreed. Autoriteiten eisen sindsdien dat voertuigen altijd een menselijke bestuurder als back-up aan boord hebben tijdens openbare tests. Ook cameratoezicht en realtime monitoring werden verplicht.
Veel belofte, weinig vooruitgang
Hoewel bedrijven blijven herhalen dat autonome voertuigen op termijn veiliger zullen zijn dan menselijke bestuurders, tonen de feiten voorlopig vooral het tegenovergestelde. De technologie blijkt nog steeds fundamenteel tekort te schieten bij het herkennen van onvoorspelbare menselijke situaties, bij ethische afwegingen én bij uitzonderlijke verkeersscenario’s
Dat is vooral pijnlijk als je weet hoe lang deze technologie al wordt aangeprezen. De industrie overspoelde het publiek de voorbije jaren met grootse beloftes over hoe snel we in zelfrijdende auto’s zouden zitten. Een bloemlezing:
- Tesla voorspelde in 2016 een volledig autonome rit van kust tot kust in de VS “binnen het jaar”. In 2019 volgde de claim dat er tegen 2020 “een miljoen robotaxi’s” op de baan zouden zijn. Geen enkele van die beloftes werd waargemaakt. Tesla’s FSD blijft voorlopig in testfase, en vereist menselijke tussenkomst.
- Nissan kondigde in 2017 aan dat het in 2020 wagens zou aanbieden die volledig autonoom rijden op snelwegen. In realiteit ging het om een licht geavanceerde rijstrookassistent.
- Renault-Nissan-Mitsubishi beloofde in 2018 vijftien autonome modellen tegen 2022. Geen enkel daarvan heeft ooit het productiestadium gehaald.
- Volvo stelde in 2015 dat autonome technologie “vanaf 2020” rijp zou zijn voor echte inzet op de weg. De Zweedse constructeur houdt het vandaag bij ‘assistentie’, met beide handen aan het stuur.
- BMW mikte op 2021 voor niveau 3-autonomie in de 7 Reeks. De deadline werd nooit gehaald en het systeem bleef steken op niveau 2.
- Toyota zette in op publieke demonstraties rond de Olympische Spelen in Tokio. Maar na een ongeval met een atleet in 2021 werd het programma ingetrokken. Toyota spreekt vandaag niet langer over deadlines.
De lijst is lang. Ondertussen neemt het aantal incidenten in het echte verkeer toe.
De nieuwe terugroepactie bij Zoox is geen alleenstaand geval, maar past in een duidelijke trend: ondanks miljardeninvesteringen en torenhoge verwachtingen blijft de technologie achterophinken. In plaats van een revolutie, zien we vandaag vooral een reality check. Intussen is nog maar de vraag of de zelfrijdende auto er ooit komt.