Quando parliamo di Intelligenza Artificiale (A.I.) e della facoltà di “scegliere” ecco che ci troviamo difronte ai veri limiti, solo attuali, di queste nuove tecnologie.

L’Intelligenza Artificiale non esiste, ma esistono un insieme di software che analizzano molti più dati di quanti siamo in grado di fare noi esseri umani e quindi che ci possono aiutare nel fare scelte migliori o possono fare per noi scelte che abbiamo addestrato a fare.

Tutto si spiega piuttosto bene con il “trolley problem” o problema o dilemma del Trolley. In italiano siamo arrivati a tradurlo anche dilemma del carrello (ferroviario).

Trolley Problem: la scelta

Tutto parte dal Problema Didattico di dover fare una scelta inevitabile e violenta, cruciale: a chi salvo la vita e invece a chi la tolgo?
Detta così sembra ancora più violenta, ma è importante partire da presupposti semplici, basilari per capire, ad esempio, le scelte della prossima generazione di automobili con guida automatica.

“Sei alla guida di una auto, in caso di incidente inevitabile, devi investire un pedone. A destra un bambino, a sinistra un anziano. Dove sterzi?”

Se questa domanda ti pone delle riflessioni è corretto, ma se dovessi fare una scelta istintiva la risposta è già dentro di te (come direbbe un famoso comico “ed è pure sbagliata” cit. Quelo.)

A parte gli scherzi, la risponsta non è sbagliata, ma è sicuramente già scritta, perchè tu hai un insieme di considerazioni già fatte, di episodi vissuti, di scelte già prese in passato e quindi ti muoverai di conseguenza. Come già scritta dentro di sè, la risposta, la scelta da fare, dovrà averla l’Intelligenza Artificiale che guida le autovetture del prossimo futuro: dovrà sterzare l’auto a destra o a sinistra e lo farà seguendo l’istruzione scritta.

Quale è la risposta? Svolta a destra o Svolta a Sinistra? Dipende da tanti fattori e da che parte di Mondo vivi.

Intelligenza Artificiale a Occidente o a Oriente?

Ho affermato poco prima che l’Intelligenza artificiale è un insieme di software, di comandi, di istruzioni che qualcuno ha scritto ed ha dettato alla automobile per fare le sue manovre e scelte.
Se ci troviamo in Occidente abbiamo una cultura che si basa molto sulla Nascita, sulla creazione della nuova vita, vista come prosperità futura (ad esempio la cultura contadina del 800 che vedeva nel nuovo nato più forza lavoro nei campi per contivare e produrre di più).
Se ci trovaviamo in Oriente vi è una cultura molto più rivolta verso le persone anziane viste come portatrici di valori e contenuti, persone che sanno guidare il popolo e che portano ad una strada migliore.

Analizziamo la tipica frase urlata nel massimo momento di bisogno ed emergenza: “Salvate Donne, Bambini e Anziani!” e dopo gli uomini, in senso maschile del termine.
Non è un elenco casuale.
Prima le donne come fonte unica di sopravvivenza del genere umano, probabilmente.
E poi l’elenco parla prima di bambini e poi di anziani.

Torniamo ai nostri ingegneri informatici, come programmeranno le automobili, dovranno farle svoltare a sinistra e uccidere l’anziano o a destra e uccidere il bambino?

Il team di ingegneri, in base ai propri valori, detterà queste scelte alle A.I. oppure queste ultime, analizzando miliardi di dati, interpreterà che in occidente la scelta da prendere è svoltare a sinistra a sacrificio dell’anziano a favore del bambino, mentre l’auto se si trova in Oriente potrebbe scegliere di svoltare a destra con le conseguenze opposte.

Ma andiamo oltre la didattica.

Punti di Vista Diversi: Etica Utilitaristica, Deontologica e la Società

Una delle principali questioni sollevate dal problema “Trolley Problem” è se l’etica di un’azione sia determinata esclusivamente dalle sue conseguenze.

Etica Utilitaristica
Secondo l’approccio utilitaristico, l’azione “corretta” è quella che massimizza il benessere complessivo. In questo caso, potrebbe significare salvare il maggior numero di persone possibili, indipendentemente dall’età o da altri fattori.

Etica Deontologica
Questa prospettiva enfatizza il dovere e le regole. Potrebbe suggerire che la macchina non dovrebbe mai prendere una decisione attiva per danneggiare un individuo, anche se ciò comporta un numero maggiore di vittime complessive.

Considerazioni Pratiche
Ci sono anche questioni pratiche e legali. Ad esempio, come può un’auto valutare l’età o altre caratteristiche delle persone? E quali sarebbero le implicazioni legali delle decisioni prese dall’intelligenza artificiale in tali scenari?

Questo dilemma solleva questioni fondamentali sulla programmazione morale delle macchine e sulle decisioni etiche in situazioni di vita o di morte.
Le risposte non sono semplici.
Questo dilemma evidenzia l’importanza di un dibattito pubblico e di una regolamentazione in quest’area emergente della tecnologia.

Ti lascio con una domanda che complica ancora di più il pensiero: se invece di svoltare un volante ci fosse da spingere di sotto da una torre o premere un grilletto di una pistola quanto sarebbe alta la tua resistenza alla azione rispetto a quello che può fare una macchina?

Blu7 è una Agenzia di Marketing e Pubblicità di Firenze che scrive con il solo scopo di informare e che è molto attiva nello studio e realizzazione di prodotti che utilizzano l’ausilio della Intelligenza Artificiale.
Piccola parte di questo testo si è avvalso di più intelligenze artificiali incrociate tra loro.

Fonti: Wikipedia, Stanford Encyclopedia of Philosophy, The Atlantic, Vox, Wired USA, ChatGPt, Writesonic.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.