Ik denk dat ik dit onderwerp lang genoeg heb vermeden. Het soort vragen waarmee de industrie vaak wordt geconfronteerd, is:Hoe zal het voertuig beslissen wie het gaat doden:de bestuurder of andere mensen? En zal het voertuig kennis hebben om de beslissing te nemen over welke mensenlevens waardevoller zijn? Moet het voertuig mikken op de fietser met helm (die beschermd is) in plaats van op de fietser zonder? Tot op heden is Duitsland de enige overheidsinstantie die een standpunt heeft ingenomen over dit onderwerp. Zoals vermeld in dit artikel, schetste de minister van Transport van het land drie regels als uitgangspunt voor toekomstige wetten:
Interessant is dat de autofabrikanten en technologieontwikkelaars vrij stil zijn over dit onderwerp. Ik ben niet verrast. Ik geloof dat de media en de academici er een veel groter probleem van maken dan het in werkelijkheid is (zie enkele voorbeelden van de hype hier, hier en hier). Wanneer was de laatste keer dat je aan het rijden was dat je werd geconfronteerd met een beslissing om zelfmoord te plegen in plaats van iemand anders? En als u tot de zeer kleine groep behoort die met die situatie wordt geconfronteerd, hoe heeft u dan de beslissing genomen? Was er zelfs tijd om een beslissing te nemen?
MIT heeft een Moral Machine ontwikkeld om een "menselijk perspectief te verzamelen op morele beslissingen die worden genomen door machine-intelligentie, zoals zelfrijdende auto's." De realiteit is dat de ontwikkelaars die werken aan voertuigen zonder bestuurder de technologie verfijnen om om te gaan met voetgangers, fietsers, slecht weer, slechte wegmarkeringen en bouwplaatsen... Ondanks dat deze uitdagingen elke dag voorkomen, heeft onze samenleving veel nadruk gelegd op morele beslissingen... is dat nodig?