Verso una coscienza artificiale?

«Se alla fine di questa storia dell’intelligenza artificiale, l’uomo dovesse produrre un’entità critica dotata di capacità riflessiva cosciente e autocosciente, allora significa che l’uomo avrebbe partorito l’uomo». Con queste parole (a cui aggiungiamo che allora l’uomo si sarebbe fatto Dio), Aldo Stella ha chiuso il suo intervento al seminario tenutosi all’Università di Chieti lo scorso 18 luglio dal titolo Verso una coscienza artificiale? Il convegno è stato organizzato dal prof. Stefano Sensi, del Dipartimento di Neuroscienze, Imaging e scienze cliniche, e dalla prof.ssa Federica De Felice (vice presidente di Ritiri Filosofici), del dipartimento di Scienze filosofiche, pedagogiche e sociali dell’Università D’Annunzio di Chieti. All’evento, che ha visto protagonisti numerosi giovani ricercatori di neuroscienze, ha partecipato anche Antonio Lieto dell’Università di Salerno che ha presentato una relazione sulla fallacia di ascrizione nell’IA a partire dal Test di Turing. 

La distinzione tra cognizione e conoscenza
Per capire il fenomeno dell’intelligenza artificiale, la lectio magistralis di Stella si è concentrata sulla distinzione tra cognizione e conoscenza. Si è trattato di una prima panoramica per capire che cosa abbiamo a che fare quando parliamo di IA. La cognizione è fondata su processi meccanici e inconsci; la conoscenza, al contrario, non può prescindere dalla coscienza ed è sempre consapevole di sé. 

L’intelligenza artificiale si è sviluppata sul modello cognitivista e sul presupposto (decisivo) in base al quale la funzione viene distinta dalla struttura biologica. Ecco nascere l’analogia mente-computer in cui i processi mentali non sono altro che calcoli computazionali. Base della psicologia cognitivista è l’analogia tra mente e computer e l’emergere del concetto di funzione, grazie al quale la mente viene traslata nel computer che ora, senza riguardo alla struttura biologica, può svolgere i compiti che prima erano svolti dalla mente. Tale analogia ha poi costituito il fondamento, grazie a Norbert Wiener, della nascita della cibernetica.

A partire da ciò, ecco l’emersione degli algoritmi la cui essenza consiste nella conformità a regole date, cioè al presupposto della meccanicità. Con una decisiva nota critica in base alla quale si deve osservare che l’essere conforme a regola non significa seguire una regola: la prima è inconsapevole, la seconda implica consapevolezza  e quindi responsabilità rispetto alla decisione presa.

Con Alan Turing, il paradigma della funzionalità diventa esplicito e l’intelligenza può ormai essere considerata in modo astratto a prescindere dalla condizione biologica: il ragionamento è ormai un calcolo in cui la logica (come sosteneva il logico e filosofo Irving Copi) non serve a pensare, bensì a procedere senza pensare.

Con lo sviluppo delle neuroscienze, si passa infine dal cognitivismo al riduzionismo funzionalista in cui la funzione viene regolata a partire dai neuroni e dove la coscienza viene eliminata del tutto. 

I due livelli della coscienza
Tuttavia, insiste Stella (i cui articoli anche su questo sito, non mancano di ricordarcelo), dobbiamo distinguere due livelli di coscienza: un senso cronologico-esistenziale e uno ontologico. Utilizzando  una terminologia kantiana, il primo è il livello empirico, il secondo è quello trascendentale. Dal punto di vista empirico, la coscienza non è il prius: il bambino appena nato non ha coscienza, così come i fenomeni inconsci che addirittura circondano la coscienza stessa (l’isola kantiana circondata dal mare tempestoso). E tuttavia, se non ci fosse stata la coscienza trascendentale, non solo non avremmo potuto formulare una teoria che confuti la coscienza, ma nemmeno immaginare qualcosa che preceda la coscienza stessa. Sul piano ontologico, la coscienza è la condizione fondante che consente di spiegare la coscienza empirica: in tal modo la coscienza trascendentale vale come fondamento grazie al quale possiamo teorizzare e pensare. 

Con l’avvertenza (anche questa decisiva) che il concetto di coscienza può essere declinato in ambito scientifico proprio perché pensato in ambito filosofico. La coscienza infatti è fondamento oggettivante che non può venire oggettivato: se venisse oggettivato dovremmo chiedere un’altra coscienza con valore oggettivante e via dicendo all’infinito. 

Proprio per questo la coscienza filosofica è ciò in virtù di cui si misura e quindi non è oggetto di misurazione: in altre parole, essa è conditio a parte ante senza la quale non potrebbe darsi neanche la negazione della coscienza stessa. 

La coscienza artificiale
La possibilità di una coscienza artificiale è ormai un tema ampiamente dibattuto. Interessante sotto questo punto di vista, un libro di recente pubblicazione dal titolo Coscienza artificiale di Lorenzo Perilli, professore ordinario a Tor Vergata, filologo e storico del pensiero antico. Il libro, che reca come sottotitolo Come le macchine pensano e trasformano l’esperienza umana, parte dal presupposto che, in generale, la coscienza può essere riprodotta artificialmente grazie al principio della invarianza organizzativa. Tale principio prevede che se si riproduce la struttura biologica con altro materiale si generano le stesse esperienze: prospettiva oggi resa attuale dallo sviluppo delle cosiddette reti neuronali che lo stesso Turing, fondatore dell’IA, preconizzava nel momento in cui osservava che i circuiti elettrici sembravano avere le stesse caratteristiche dei sistemi nervosi. 

Siamo cioè all’interno dello schema funzionalista ma con una diversa impostazione che ha generato numerose conseguenze. Grazie alle reti neurali infatti, tra la fine degli anni ’90 e l’inizio del Duemila, l’intelligenza artificiale ha abbandonato l’approccio simbolico, fondato sulla manipolazione di simboli e regole logiche, per orientarsi verso un nuovo paradigma fondato sul cosiddetto Deep Learning. Grazie ad esso, una sorta di forma multistrato caratterizzata da numerosi livelli nascosti, l’apprendimento si è affermato grazie all’aumento della potenza di calcolo e alla disponibilità di vasti contenitori di dati utili per l’addestramento (training set). In questo modo il processo di sviluppo dell’intelligenza artificiale tende a diventare nascosto generando così ansie e preoccupazioni.

Uno degli effetti di questo cambiamento è, secondo Perilli, il cambiamento radicale del rapporto tra soggetto e oggetto: «le macchine diventano soggetto attivo, mentre noi ci ritroviamo come fruitori passivi di fronte all’attività e alle decisioni prese dalle macchine. Macchine a cui noi stessi abbiamo demandato la presa di decisione». Conseguenza di tale capovolgimento sarà così l’impossibilità del controllo umano sui “sistemi intelligenti”.

Quale fondamento: l’umano o la coscienza? Il problema del linguaggio
In tale contesto vale la pena sottolineare come spesso, nel definire un comportamento intelligente, si fa riferimento all’umano. Si tratta di una conseguenza di quel peccato originale consistente nello stabilire il parametro dell’intelligenza artificiale sull’umano. 

Tuttavia, se usiamo la categoria dell’umano come se questa avesse valore di fondamento, ha osservato Stella, allora non potremmo uscire da un grave circolo vizioso: quello cioè di porre un ente finito, e quindi fondato, come fondamento, finendo così per scambiare il fondato per il fondante.

Dovremmo invece porre come fondamento la coscienza. Questo perché la coscienza è per definizione ciò che, non solo è cosciente dell’altro, ma che è anche cosciente di sé. Solo perché è cosciente di sé è cosciente dell’altro: se infatti un soggetto non fosse presente a se stesso, nulla sarebbe presente a quel soggetto. Ecco allora l’importanza del fondamento, che le scienze evitano sistematicamente, costituito dalla presenza a sé del soggetto. Se manca questo, manca la possibilità di fare qualsiasi discorso, anche quello scientifico. 

Senza dimenticare inoltre che la coscienza è fondamento sia perché la negazione della coscienza è un atto della coscienza, sia perché il linguaggio, se è espressione, è sempre espressione di qualcosa. Segue quindi che il linguaggio, se non fosse espressione della coscienza, non sarebbe espressione di nulla. Gli LLM, ovvero i modelli di linguaggio allargati, possono essere larghi quanto vogliono: se il linguaggio è espressione, esso non potrà mai essere il fondamento.

Tutti questi argomenti, uniti ad una prospettiva storica sullo sviluppo della Filosofia, saranno gli argomenti del prossimo ritiro filosofico che si svolgerà ad ottobre a Nocera Umbra.

Foto di Shawn Day su Unsplash

Insegnante con dottorato di ricerca in Filosofia. Vive e lavora a Nocera Umbra, autore del podcast che prende il nome dal suo motto: Hic Rhodus Hic salta.

Lascia un commento

*