Een dodelijk ongeluk met een zelfrijdende testwagen van Uber is veroorzaakt door fouten in de software, zegt de National Transportation Safety Board (NTSB) in een rapport. Vorig jaar reed de zelfrijdende auto in de Verenigde Staten een vrouw aan die met haar fiets aan de hand de straat overstak. Volgens de onderzoekers van de NTSB herkende het voertuig haar niet als mens, en remde daardoor te laat. De bestuurder die toezicht moest houden keek volgens de Amerikaanse politie televisie.
Te laat remmen
Volgens de NTSB was het systeem niet berekend op voetgangers die op willekeurige plekken de straat oversteken. Daardoor traden de remmen pas 1,2 seconden voor de botsing in werking. Na revisie van de software claimt Uber dat de sensoren nu voetgangers op 88 meter herkent, en de auto 4,5 seconden heeft om te remmen.
37 ongelukken
In de loop van het testprogramma, in een periode van anderhalf jaar voor het dodelijke ongeluk, waren autonoom rijdende testauto’s van Uber volgens de NTSB betrokken bij nog eens 37 botsingen. Bij 33 van die ongelukken waren het andere auto’s die tegen de Uber-auto’s aanreden. Eind november zal de NTSB definitief uitspraak doen over het ongeluk.