Il robot uccide. Non è un titolo di un film di fantascienza, uno di quelli splatter vietati ai minori (esistono ancora?). E’ accaduto davvero, qualche settimana fa, a Tempe in Arizona, negli Stati Uniti. Una donna è stata investita e uccisa da un’auto di Uber – la popolare società di noleggio auto con conducente tanto odiata dai tassisti di tutto il mondo per i suoi prezzi concorrenziali – durante un test a guida autonoma. Il sistema di arresto d’emergenza del veicolo, un suv, non ha funzionato. All’interno del veicolo c’era un addetto di Uber, ma non ha potuto intervenire in tempo per evitare l’irreparabile. Doppio fallimento quindi per i sistemi di sicurezza: prima quello legato a software e sensori, poi quello umano.
Un incidente terribile, che ha obbligato la società a sospendere i test che erano in corso a che a Pittsburgh, Toronto, San Francisco e Phoenix. Ovviamente Uber si è subito messa a disposizione degli inquirenti e ha espresso dolore e vicinanza alla famiglia della vittima. Ma il punto è un altro. Potremo mai fidarci della tecnologia al punto da affidarle la nostra vita? Si potrebbe obiettare che in realtà è così da tempo. Grandi navi, aerei, treni veloci ad esempio hanno da tempo dei sistemi di guida automatica, con il pilota pronto a intervenire in caso di necessità o di condizioni difficili. Ma qui l’obiettivo è un altro: arrivare, in un futuro non troppo lontano, a vedere circolare per strada auto senza conducenti in mezzo al traffico veicolare. Traffico, una parola che implica intrisecamente confusione, rischio e affollamento. Uber, per interderci, non è l’unico attore del mercato, e i tentativi andranno avanti. Basteranno dei sensori, artificiali e quindi con un margine di errore o guasto, a garantire la sicurezza? Può l’errore essere ridotto a statistica? Lo vedremo presto.