Cervelli rigidi: spazio a misura di IA e riduzione della complessità

L’introduzione dell’Intelligenza Artificiale (IA) nelle diverse dimensioni della vita ha già avuto un impatto profondo sul modo in cui il soggetto si relaziona con l’ambiente, nonché il senso stesso della soggettività. Il mutamento dello status ontologico è triplice: il soggetto, l’oggetto e la relazione che intercorre fra i due. L’identità, nell’era dell’on-life (Floridi, 2017), è divisa fra lo spazio del virtuale e lo spazio fisico. Le nuove generazioni condividono questa strutturale scissione fra uno spazio fisico e lo spazio virtuale che si fa sempre più ampio, de-corporizzato, de-storicizzato ma non meno reale.

Ridisegnare l’ambiente
Se questo tipo di analisi cambia radicalmente sia i connotati della filosofia dell’io, sia quelli dell’epistemologia che dell’ontologia (rimanendo in una prospettiva filosofica), essa restituisce l’impatto che l’IA ha sul soggetto anche dal punto di vista psicologico e della costruzione dell’identità individuale. Un mondo “a misura di IA” è un mondo controllabile, veloce, ottimizzato. La prospettiva etica oggi tenta di analizzare quali siano i limiti con cui ridisegnare questi spazi onde evitare di diminuire la complessità e l’esposizione del soggetto all’incertezza (Gigerenzer, 2023). Un esempio fra tutti è l’attuale decisione delle politiche urbanistiche di installare impianti di illuminazione sulle strisce pedonali, per evitare che le persone, attraversando la strada con lo sguardo sullo smartphone, possano essere vittime di incidenti.

Questo tipo di intervento origina due tipi di lettura:

  1. tutela: una forma di supporto digitale garantito dai processi di policy making che mira a ridurre i rischi di incidenti stradali, causati da persone disattente;
  2. paternalismo: un intervento che riduce la complessità dell’ambiente, esonerando l’individuo dall’esercitare abilità cognitive di base come l’attenzione e la vigilanza, in quanto è vigilato da un ambiente controllato.

Un approccio di tipo interdisciplinare, nello specifico neurobiologico e neuroscientifico, può meglio aiutare a comprendere i rischi insiti in questo tipo di interventi. Scrive Arnaldo Benini:

«Il dinamismo del sistema consiste nelle modificazioni strutturali (e quindi funzionali) del cervello a seconda del rapporto col mondo esterno (la cultura) e a seconda della riflessione. La famiglia, l’ambiente, la scolarità, le condizioni sociopolitiche, le lingue che s’imparano, le amicizie e le inimicizie, gli affetti, le riflessioni, le emozioni, e tutto quanto fa parte della vita modificano la struttura del cervello. La plasticità della corteccia cerebrale e la sua capacità di codificare ogni informazione e di riorganizzare la propria struttura e il suo funzionamento a seconda delle nuove condizioni sono la base naturale che spiega la vita mentale nel suo svolgersi e le sue modificazioni con l’esperienza» (Benini, 2022, 44)

Come si può comprendere dall’analisi condotta da Benini, la presenza di ambienti plastici, di un piano ontologico flessibile è il fondamento stesso dello sviluppo della soggettività, sia sotto il profilo etico, sia sotto il profilo cognitivo. L’incertezza è un parametro fondamentale del rapporto fra soggetto e oggetto che permette all’individualità di ridefinirsi continuamente in un processo evolutivo e di relazione con l’ambiente esterno. Gerd Gigerenzer, infatti, nell’ambito di una teoria dell’IA psicologica e del decision making, definisce l’intelligenza come un sistema di gestione dell’incertezza (Gigerenzer, 2023). Parlando di intelligenza, si farà riferimento a questa definizione.

Ambienti rigidi per cervelli rigidi
Sotto un profilo psico-antropologico, la soggettività si costruisce sulla base di relazioni di feedback continuative fra organismo e ambiente. Da un punto di vista neurobiologico, questo rapporto vede il soggetto come parte di una relazione organica che comporta una strutturale e continua revisione dei propri sistemi conoscitivi e pratici: partendo dalla plasticità dell’ambiente esterno si allena la plasticità del “sistema interno”, ossia quello cerebrale (nello specifico la corteccia prefrontale). Questo sviluppo complessivo non è solo di tipo filogenetico, ma anche ontogenetico. Le scienze che si occupano dello sviluppo e, nello specifico, di età evolutiva definiscono dei periodi critici per l’acquisizione di abilità cognitive, motorie, emotive, relazionali che partono dalla relazione con lo spazio esterno e il modo in cui esso permette al soggetto di svilupparsi e di crescere.

L’approccio di etica e antropologia della tecnica ha promosso e pensato modelli di co-abitabilità con le tecnologie emergenti. Strategicamente si è operato in due sensi: (a) ridisegnando gli spazi e (b) ridisegnando i sistemi di regole che permettono il coordinamento uomo-macchina (McFarlane & Latorella, 2002). Oggi, con un’IA che diviene sempre più pervasiva, autonoma e adattiva, il pericolo di ridurre la complessità dei sistemi-ambiente costituisce il limite etico di applicabilità degli stessi sistemi di IA. Recentemente, Parlamento e Consiglio Europeo hanno raggiunto un’intesa sul primo strumento legislativo trasversale ai Paesi membri, l’AI Act. La sua funzione è quella di controllare l’uso dei sistemi di IA in alcuni casi e di proibirli, in altri, partendo da un sistema di classificazione del rischio. Nello specifico, tra i sistemi proibiti di “rischio inaccettabile” si collocano quello di manipolazione degli utenti e dei sistemi di sorveglianza legati al social scoring. Se lo scenario fino a poco tempo fa era associabile a opera di fantascienza o da serie thriller come Black Mirror, oggi diviene più che mai urgente ripensare il modo in cui si decide di convivere con sistemi il cui livello di autonomia è crescente, oltre che costituire un pericolo per la privacy degli utenti (Zuboff, 2019). L’intrinseco e nascosto pericolo etico è quello di un’inversione dell’adattamento dell’essere umano alla macchina, un’inversione imitativa che dà origine a tre sostanziali emergenze etiche:

  1. appiattimento dell’idea complessa di intelligenza umana (pecezione, emozione, coscienza) sulla computazione;
  2. creazione di ambienti e strumenti confortevoli, fruibili, veloci che rischiano di generare un alto livello di dipendenza dell’essere umano dalla macchina;
  3. riduzione del livello di autonomia umana a causa di una continua devoluzione delle abilità umane (anche le più complesse) ai sistemi di IA.

Confrontando questo quadro all’analisi neurobiologica condotta da Benini, il pericolo che può essere messo in evidenza dal punto di vista interdisciplinare è quello di una riduzione del livello di plasticità cerebrale, laddove i sistemi di IA possono arrivare a determinare ambienti iper-controllati nei diversi spazi relazionali del soggetto. Un’ontologia artificiale che irrimediabilmente modifica soggetto e oggetto, depotenziando le abilità di adattamento e gestione dell’incertezza dell’individualità. Tale scenario richiama alla mente l’immaginario di Matrix dei fratelli Wachowski, in cui le macchine costruiscono delle camere ecoiche e dei sistemi “bolla” che inibiscono lo sviluppo di abilità base, come ad esempio quelle di sviluppo del pensiero critico e laterale, fondamentali per la coscienza critica e filosofica.

Frame analysis e virtù dianoetiche
L’idea della flessibilità dello spazio è fortemente connessa con il valore ontologico della complessità e con quello epistemologico dell’incertezza. La connessione fra una teoria della conoscenza, una riflessione intorno allo statuto ontologico degli ambienti e una teoria dell’azione trova un punto di convergenza importante nella teoria della complessità. Di fatto, assumendo l’incertezza come modello instabile e dinamico (O’Neil, 2017) – ossia come insieme di variabili non controllabili – e considerando come l’individuo vi si collochi dentro, l’incertezza stessa può essere filosoficamente ed eticamente considerata come cruciale per lo sviluppo intellettuale, sociale, emotivo e morale.

È l’intrinseca complessità dei sistemi in cui il soggetto è inserito che favorisce lo sviluppo di abilità complesse, partendo da un processo di interazione con il mondo esterno e con gli altri agenti morali. Lo scenario di incertezza, infatti, richiede un intervento immediato, delle risposte simultanee e capacità di deliberazione morale (Aristotele, 2005) tali da produrre risposte inedite, e quindi autentiche, rispetto a scenari incerti.

Un modello stabile, al contrario, è connotato da staticità. A questo tipo di ambienti rigidi riescono a rispondere i sistemi di IA, poiché lavorano su dataset storici (Floridi, 2022). Il processo di elaborazione dei dati non è sintetico, ma eticamente analitico e aprioristico. Questo significa che la risposta morale alla specifica situazione è vincolata ai dati forniti in fase di programmazione, il che non permette né di produrre nuove conoscenze sotto il profilo epistemologico, né nuove azioni sotto il profilo etico. Quello che è mancante in un ambiente rigido in cui l’IA opera è il valore etico dell’autorialità del soggetto agente (Tiribelli, 2023), che è prerequisito fondamentale dell’autenticità e della novità dell’atto etico.

La conoscenza e l’agire etico, oltre le ricerche sulla neurobiologia della volontà su cui ci si sofferma in questo articolo (Benini, 2022), hanno un’implicazione sullo sviluppo cerebrale, grazie alle proprietà plastiche sia dell’ambiente, sia in riferimento alla neurobiologia. Da questo esercizio di risposta continua all’ambiente, da situazioni che richiedono attenzione, vigilanza, capacità di scelta, prontezza e deliberazione deriva lo sviluppo della coscienza morale soggettiva. Su questa base si costruisce il valore etico dell’incertezza e di una educazione all’incertezza (Holmes & Porayska-Pomsta, 2023). Come scrive Jean Ladrière: «L’azione effettiva si svolge necessariamente in circostanze specifiche, che possono essere anche molto complesse e che in generale non si possono considerare semplicemente come casi particolari di un tipo universale» (Ladrière, 1999, p. 27). Questa abilità etica individuale di ricercare le soluzioni adatte alla singola situazione e quindi manifestando sensibilità al contesto richiede abilità di analisi dello scenario (frame analysis). Un tipo di disposizione alla risoluzione dei conflitti morali che è tutto meno che rigida, ma che anzi richiede flessibilità e revisione continua dei principi per individuare quali siano quelli prima facie e definendo gerarchie valoriali di volta in volta diverse che non possono rispondere a un rigido modello deontologico.

Il pericolo delle forze oracolari
Un sistema rigido e statico può permettersi di offrire soluzioni comuni e contesti diversi, proprio perché tali contesti non possiedono un alto livello di variabili, ma si cristallizzano su database storicizzati e non flessibili. L’esposizione del soggetto ad ambienti rigidi ed eccessivamente stabili, soprattutto nelle fasi in cui il senso morale è in fase di sviluppo, non garantisce le precondizioni per la crescita del senso morale individuale e della coscienza come un dialogo interno (Arendt, 2014) che parte da un’attività riflessiva sia in senso retrospettivo (ciò che si è compiuto e come si sarebbe potuto fare altrimenti), sia in senso prospettico-simulativo (come ci si dovrebbe comportare).

L’IA come sistema di controllo rigido di contesti, situazioni, eventi, persone è strettamente correlata all’idea di interventi aprioristici, essenzialmente basati su modelli predittivi che pretendono di conoscere gli strumenti e le soluzioni efficaci, proprio perché basate su un procedere logico-matematico che, per definizione, non possono sbagliare (i.e. bias di automazione). Quello che subentra è una rinnovata fiducia in un sistema meccanicistico che, indipendentemente dalle condizioni reali, pretende di passare da un piano descrittivo a un piano prescrittivo, ossia di individuare contenuti etici, leggi pratiche, in senso aprioristico e formale, rimanendo su un piano deontologico che non tiene conto delle condizioni reali: «Non dobbiamo più osservare il sistema per molti anni e costruire un modello empirico. Abbiamo invece un modello meccanicistico che usa una costruzione algoritmica, ovvero un insieme di istruzione e calcoli matematici, per prevedere il futuro» (Vespignani & Rijtano, 2019, p. 25).

L’ambiente rigido è meccanicistico e aprioristico; l’ambiente plastico è libero e a posteriori. Come si può comprendere, immaginare un mondo pieno di ambienti artificiali conduce alla necessità di cercare soluzioni per scenari altamente controllati, ossia soluzioni algoritmiche. Si verifica dunque uno scivolamento improprio dal piano della descrizione a quello della prescrizione: da un piano di fatti a un piano di valori. Questo sta già avvenendo, con ripercussioni non indifferenti sullo sviluppo delle abilità critico-interpretative della realtà, nonché con possibili sotto-sviluppi delle abilità di gestione dell’incertezza.

Tornando sulla prospettiva neurobiologica, che in senso interdisciplinare integra l’analisi etica ed epistemologica qui condotta, scrive Wolf Singer del Max Planck Institute for Brain Research: «In order to be able to evolve in an ever-changin enviroment, organisms have evolved cognitive systems that allow them to analyze the actual conditions of their embedding enviroment, to match them with the internal mode, derive predictions and adapt future actions to the actual requirements» (Singer, 2021, p. 18).

I sistemi di IA, se assunti come modelli matematici infallibili, come verità inviolabili e assolute, utili a prendere decisioni dal punto di vista politico, diventano sistemi tirannici che rischiano di demolire:

  • il valore del libero dibattito come ricerca di soluzioni contestuali e che mostrino sensibilità al contesto in senso pluralistico e democratico;
  • il valore intrinseco di cui è portatore ogni singolo scenario che contribuisce alla costruzione di modelli, valori e principi condivisi mediante incontro e argomentazione.

I cervelli rigidi sono il corrispettivo neurobiologico di una grande assenza: l’assenza cioè dell’attività di pensiero come critica e decostruzione delle verità assolute e dogmatiche. Il problema non è creare sistemi e ambienti di IA che possano tornare utili a migliorare la qualità della vita, esonerandoci da diverse funzioni ripetitive e noiose; il vero problema sorge nel momento in cui la delega al sistema diviene esonero assoluto anche in processi decisionali che, al contrario, richiedono un approccio complesso e a più voci. In definitiva, il rischio è creare un sistema che raggiunga un livello tale di autonomia ed efficienza, da deresponsabilizzare il soggetto non dalle azioni in sé e dalle conseguenze, quanto dall’esercizio dell’intelligenza come abilità di adattamento e di ricerca di soluzioni critiche e divergenti dalla consuetudine.

 

Riferimenti bibliografici

  • Arendt, Hannah. 2014. Vita Activa. La condizione umana. Milano: Bompiani.
  • Aristotele. 2005. Etica Nicomachea. (C. Natali, A cura di) Roma-Bari: Laterza.
  • Benini, Arnaldo. 2022. Neurobiologia della volontà. Milano: Raffaello Cortina.
  • Floridi, Luciano. 2017. La quarta rivoluzione. Come l’infosfera sta trasformando il mondo. Milano: Raffaello Cortina.
  • Floridi, Luciano. 2022. Etica dell’Intelligenza Artificiale. Sviluppi, opportunità, sfide. Milano: Raffaello Cortina.
  • Gigerenzer, Gerd. 2023. Perché l’intelligenza umana batte ancora gli algoritmi. Milano: Raffaello Cortina.
  • Harari, Yuval Noah. 2014. Sapiens. Da animali a dei. Milano: Bompiani.
  • Holmes, Wayne, & Porayska-Pomsta, Kaśka. 2023. The Ethics of Artificial Intelligence in Education. Practices, Challenges, and Debates. New York: Routledge.
  • Ladrière, Jean. 1999. L’etica nell’universo della razionalità. Milano: Vita e Pensiero.
  • McFarlane, Daniel, & Latorella, Kara. 2002. The Scope and Importance of Human Interruption in Human-Computer Interaction Design. Human-Computer Interaction, p. 1-61.
  • O’Neil, Cathy. 2017. Weapons of Math Destruction. How Big Data increases inequality and threatens Democracy. London: Penguin.
  • Singer, Wolf. 2021. Differences Between Natural and Artificial Cognitive Systems. In J. Von Braum, S. M. Archer, M. G. Reichberg, & M. S. Sorondo, Robotics, AI, and Humanity. Science, Ethics, and Policy (p. 17-28). Gewerbestrasse 11, 6330 Cham, Switzerland: Springer.
  • Tiribelli, Simona. 2023. Identità personale e algoritmi. Una questione di filosofia morale. Roma: Carocci.
  • Vespignani, Alessandro, & Rijtano, Rosita. 2019. L’algoritmo e l’oracolo. Come la scienza predice il futuro e ci aiuta a cambiarlo. Milano: Il Saggiatore.
  • Zuboff, Shoshana. 2019. Il capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri. Roma: LUISS.

Foto di Steve Johnson su Unsplash

Laureato in Scienze Filosofiche all’Università della Calabria. È Ph.D. Student in Learning Sciences and Digital Technologies, docente nelle secondarie di secondo grado, esperto e membro del Comitato Direttivo “Inventio” e membro della Società italiana per l’Etica dell’Intelligenza Artificiale (SIpEIA). Si è laureato con una tesi in Filosofia e Antropologia della scienza, conducendo il lavoro di ricerca presso l’Università Aix Marseille con Carlo Rovelli (supervisore prof.ssa Ines Crispini). Dal 2018 svolge attività di ricerca con la cattedra di Etica e Antropologia filosofica presso l’Università della Calabria e si occupa di etica e IA, etica narrativa e didattica della Filosofia.

1 Comment

  1. Condivido quanto affermato nell’articolo. In natura l’organo che non esercita la sua funzione tende a contrarsi e, in prospettiva, a decadere. Così per l’essere umano e per le facoltà non più da lui esercitate. Già Platone (Lettera VII e altro) invitava a considerare la filosofia (esempio di vita autentica) costituita non dai meri insegnamenti (i dati), ma dall’esercizio del ragionamento: l’attività della ricerca concettuale in primo luogo, in cui i contenuti hanno un valore strumentale e non finale.

Lascia un commento

*