di Alessandro Sottocornola, Blu7

In questi giorni si stanno combattendo guerre visibili e altre meno che vedono contrapposti uomini e macchine, uomini e computer. Non tutti gli uomini stanno dalla stessa parte ed hanno la stessa visione e nemmeno tutte le macchine stanno dalla stessa parte ed hanno la stessa visione. A questo aggiungiamo l’etica, Trump e la Guerra in Iran, il pensiero profondo e tutto diventa molto complicato.
A scuola insegnamo che un problema complicato ha spesso una soluzione, un problema complesso molto meno.
I fratelli Amodei, toscani di Massa Marittima, erano tra i fondatori di OpenAI, la società dietro ChatGPT. Se ne sono andati presto, sbattendo la porta: non approvavano la direzione etica che stava prendendo il progetto. Da lì hanno fondato Anthropic, la loro AI, che conosciamo come Claude.ai.
Quanto è potente questa ultima A.I.? Uscita l’ultima versione di Claude.ai il 5 febbraio, la borsa USA è crollata di circa 285 miliardi di dollari in pochi giorni: crollati Sap, IBM, Adobe, Salesforce, Intuit, Oracle, Apple, Microsoft, Intel …
Molto potente.
I fratelli Dario e Daniela Amodei in Anthropic fanno AI etico, costituzionale (così si auto definiscono): un modello addestrato su principi etici, una coscienza incorporata nel codice, quindi non può essere consegnato senza limiti a chi per mestiere opera in scenari di guerra.

Belli. Coraggiosi. Anche un po’ ingenui. Perché dall’altra parte c’è il Pentagono di Trump.

E il Pentagono non vuole una macchina con la coscienza. Vuole una macchina veloce, precisa, senza freni quando serve non averne, è la logica militare, è antica quanto la stessa guerra: l’incertezza costa vite umane e anche tanto denaro, ogni rallentamento è un rischio, ma anche uno spreco di risorse, quindi, fuori i limiti etici, dentro la potenza piena.

Il punto non è la tecnologia. Il punto è chi la usa e come.

Perché l’ufficiale che firma l’autorizzazione a colpire un bersaglio non sceglie nel vuoto, sceglie tra le opzioni che l’algoritmo ha già selezionato per lui, filtra milioni di dati, restituisce cento “obbiettivi di alto valore”, ne ordina la lista per priorità.
L’ultima firma è umana, ci tengono molto a dirtelo, ma l’agenda è algoritmica. L’uomo è nel cerchio delle decisioni, dicono. Sì, ma in quale punto del girotondo?

Anthropic ha risposto di no a Trump, non avrete la nostra A.I. a fini militari ed ha tenuto duro su tre punti chiave: nessun sistema applicato ad armi sarà completamente autonomo, nessuna sorveglianza di massa su popolazioni civili, nessuna “porta nascosta” per disattivare i controlli etici del modello. Tre paletti, tre no.

La risposta dell’amministrazione Trump è arrivata puntuale come un copione già scritto: bando progressivo delle tecnologie Anthropic dalle agenzie federali ed uno strano black out di qualche minuto nella giornata successiva.
Nel frattempo si sono genuflessi al potere della casa bianca tutti gli altri: Chatgpt, Gemini di Google, Copilot di Microsoft, Meta di Zuckerberg … tutti a disposizione delle forze armate targate U.S.A. Ufficialmente: sicurezza, per non avere una unica dipendenza da un singolo fornitore. Ufficiosamente: da che parte stai? Te lo chiede il tuo Presidente.

È una domanda antica travestita da problema tecnico.

La cosa che trovo davvero inquietante — e ci rifletto spesso — è che nel frattempo le forze armate, con decreto di Mister Trump, continuano a usare esattamente la A.I. guardando il dito e non la Luna, vincendo una battaglia e perdendo di vista l’orizzonte. Una volta che un sistema entra nelle catene di comando, nei manuali operativi, nell’addestramento del personale, nella testa delle persone, diventa struttura cognitiva. Ti abitui a decidere con quel supporto. A fidarti di quelle sintesi. A leggere il campo di battaglia attraverso quelle lenti.

Staccare la spina non ti riporta indietro. E allora la disputa tra Anthropic e il Pentagono non è solo una storia di aziende, contratti, miliardi di dollari, è la stessa domanda che attraversa tutto ciò che scrivo su questo tema: chi decide cosa arriva sul tavolo della guerra? Chi stabilisce cosa è pensabile, fattibile, proponibile? Google con UCP decide cosa può essere venduto. Con il gemello digitale di Khaby Lame decide chi ha comprato i diritti digitali e con l’AI militare decide chi ha scritto il modello della intelligenza militare.

Vendere l’anima all’intelligenza artificiale.

La coscienza, a quanto pare, si esternalizza benissimo, basta metterci un prezzo. Si impacchetta, si vende, chi non la pensa così viene espulso per decreto presidenziale.

Quello che resta fuori dall’equazione siamo noi. Come sempre. A chiederci se qualcuno stia ancora tenendo in mano qualcosa che assomigli davvero a una scelta.
E lo dico da appassionato di Intelligenza Artificiale come strumento, come utensile, non come mio sostituto.

PS: migliaia di sviluppatori che hanno un’etica forte stanno disdettando gli abbonamenti alle A.I. che supportano Trump a favore di nuovi abbonamenti per Anthropic, anche noi di Blu7.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.