Il video che sta girando in rete, che mostra l’incidente di una Tesla a seguito di una sterzata, interpretata come una decisione autonoma presa dalla self-driving cars per evitare di investire un pedone, offre lo spunto per una serie di riflessioni che spaziano dagli aspetti etico/filosofici, a quelli ingegneristici, fino ad arrivare alle possibili conseguenze giuridico-legali.
Occorre premettere, come correttamente sottolineato nello stesso articolo che mostra il video, che al momento non ci sono evidenze che la Tesla fosse in self-driving mode, pertanto è assolutamente possibile che la decisione di sterzare per evitare di investire un pedone sia in realtà da attribuire a chi era al momento alla guida.
Allo stesso modo, aggiungiamo noi, non essendo disponibile un contenuto video “autoritativo”, che garantisca quantomeno l’affidabilità della fonte, se non l’integrità e veridicità materiale dello stesso, non si può escludere se si tratti di Deep Fakes o meno.
Malgrado ciò, o forse proprio in forza delle summenzionate precisazioni, è possibile trarre una serie di considerazioni su diversi fronti “caldi”.
Prova o petizione di principio?
Inutile dire che il video è stato subito interpretato dai sostenitori di Tesla (e soprattutto del suo patròn Elon Musk, considerato da molti una sorta di “profeta dell’innovazione”), come la dimostrazione dell’autenticità delle capacità decisionali “autonome” delle self-driving car, e della asserita loro maggiore sicurezza rispetto ai guidatori umani.
Quale migliore prova della bontà e auspicabilità di introdurre tali vetture nel traffico cittadino, direbbero gli entusiasti sostenitori, se non quella mostrata nel video in questione, che come titola enfaticamente lo stesso articolo, dimostra come la vettura a guida autonoma “avrebbe salvato la vita di un pedone” con una sterzata provvidenziale?
Al solito, a pensar male si fa peccato, però spesso ci si azzecca…
In primo luogo, anche a voler escludere che la decisione di sterzare sia attribuibile al guidatore, piuttosto che al meccanismo di guida autonoma, il fatto stesso che la macchina possa aver sterzato a esito di una “decisione” volta a preservare l’incolumità del pedone (mettendo al contempo a rischio sia quella degli occupanti la vettura, che degli altri occupanti le vetture nell’altro senso di marcia), potrebbe rivelarsi nel migliore dei casi una petizione di principio, se non addirittura un boomerang…
Una petizione di principio, in quanto è intesa a dimostrare la presenza di una “agentività autonoma” attribuita alla vettura, che in realtà è assunta come presupposta:
in altri termini, potremmo altrettanto fondatamente ipotizzare che la sterzata non sia dovuta alla “decisione” di non investire il pedone, ma sia l’esito di una “allucinazione” predittiva, dovuta ad elementi contingenti che non hanno alcuna attinenza con la lettura “intenzionale” che ne possono dare gli osservatori umani senzienti.
Un ennesimo caso di pareidolìa, per intenderci.
Del resto, che le macchine possano prendere decisioni “giuste” ma per le ragioni sbagliate, non è una novità, ed è inoltre una caratteristica tipica delle self-driving cars, che non a caso abbiamo in altra sede definito “macchine irresponsabili”…
Scelta etica o “cattiva coscienza”?
Ma anche a voler credere alla lettura che ne danno gli entusiasti sostenitori, ovvero che la decisione di sterzare sia realmente attribuibile alla macchina, ciò rischia di rivelarsi un clamoroso autogoal dal punta di vista non solo etico, ma anche giuridico.
Salireste su una vettura che possa essere stata programmata per mettere a rischio la vostra stessa incolumità, sulla base di una decisione presa “a monte” e in maniera opaca dai progettisti della vettura, nel rispetto di un preciso codice morale, come quello tipico di alcune culture asiatiche e medio-orientali, che privilegia la vita degli anziani a discapito di quella dei giovani?
Discorso analogo, ovviamente, e a parti invertite, nel caso in cui i progettisti avessero invece deciso di allinearsi all’ethos invalso comunemente nei paesi occidentali…
Alle considerazioni in merito alla legittimità di una simile “impostazione di default”, si aggiungono quelle relative alla trasparenza di tali decisioni, spesso elusa col pretesto della tutela (sic!) dei segreti industriali dei produttori…
Dal falso materiale a quello ideologico
Ulteriori considerazioni possono poi essere formulate in merito all’attendibilità che è possibile attribuire alle “evidenze” offerte dal video.
Incidentalmente, si ripropongono anche in questo caso le spinose questioni di stretta attualità in merito alla affidabilità stessa delle testimonianze digitali, in un’epoca in cui il vero use-case di successo finora conseguito dalla Generative AI sembra essere la falsificazione e la disinformazione, di cui i Deep Fakes rappresentano la manifestazione più eclatante.
Poichè non si dispone, come accennato in premessa, di un video “ufficiale” su cui poter effettuare analisi di merito del caso in oggetto, le conclusioni che possiamo trarre sono necessariamente congetturali.
Tuttavia, già ictu oculi è lecito supporre che il video in questione integri sia un falso materiale che un falso ideologico.
La presenza di possibili “glitches” (elementi incoerenti) nella geometria della sterzata (che appare forzata), suggeriscono quantomeno l’opportunità di ulteriori indagini.
In realtà, è proprio la pretestuosità delle conclusioni suggerite dalla visione delle immagini, volte ad attestare la tesi preconcetta della “agentività” delle vetture a guida autonoma, come argomentato sopra, a rendere verosimile l’ipotesi di un falso ideologico e a far dubitare della genuità dell’intera vicenda rappresentata…
Del resto, come sostenuto in altra sede, l’unica bussola affidabile per orientarsi in una jungla infestata da “falsi autentici” quali i Deep Fakes, rimane la valutazione critica del messaggio che ci viene offerto, in relazione al contesto in cui si inserisce e alle finalità di comunicazione che intende perseguire.
© Alessandro Parisi - All rights reserved
Vietato l'uso dei contenuti per l'addestramento di Intelligenze Artificiali Generative