L’ospite invisibile. Spazio, privacy e intelligenza artificiale

This paper focuses on the concept of space and how it changes in contemporary world due to introduction of Artificial Intelligence. AI can be defined as a “invisible guest” in three different spatial levels: (i) smartphone as individual space; (ii) house as domestic and familiar space; (iii) city as social space of interaction. In all of them we’ve allowed the introduction of AI systems. Due to this introduction, we’re modeling the private and public spaces in order to adapt them to AI. This threats not only privacy as a value, but complexity too.

Lo spazio, oggi
Oggi, definire il concetto di spazio significa dover tenere conto di due rilevanti modi in cui intenderlo in termini funzionali: 

(a) in riferimento alla fisica post-newtoniana che ne ha de-assolutizzato la struttura, invitando a intenderlo: lo spazio si modifica in relazione alla prospettiva dell’osservatore, così implementando il valore filosofico della sua relatività; 

(b) in riferimento allo spazio come ambiente, principio indissociabile di osmosi con l’organismo. 

Questa considerazione preliminare permette di concepire lo spazio nei termini di una continua costruzione di luoghi familiari, rendendo note porzioni di sistemi di per sé complessi. La conoscenza del mondo-sistema passa da una sua graduale riconfigurazione dall’ignoto al noto per singole porzioni che aiutano meglio a renderlo agibile – qui entra strettamente in gioco il valore dello spazio come relativo e adattabile. Questo meccanismo, che Niklas Luhmann (Luhmann 2011) attribuiva alla fiducia, permette di passare da un livello di ignoranza a uno di conoscenza, incrementando il livello di controllo sull’ambiente circostante. Lo spazio, dunque, qui lo intendiamo non in senso assoluto, ma come luogo controllato. Ne derivano varie configurazioni, come ad esempio la classificazione sociale: luogo privato, luogo pubblico, luogo domestico, lavorativo, scolastico, quello dell’intrattenimento. Esistono anche classificazioni individuali: i luoghi dell’infanzia, dei rapporti intimi. Un insieme eterogeneo di classificazioni che possono fra loro collimare e talvolta coincidere. 

Lo spazio in quanto matrice illimitata, viene riconfigurato come chora sulla base della costruzione individuale e collettiva di zone di delimitazione, per renderlo più praticabile, familiare e, in definitiva, controllabile. Il richiamo a questo proposito è alla Fisica di Aristotele che in 212a 15 propone la sua notoria definizione: «il luogo è il limite immobile primo del contenente» (Aristotele, Phi, 212a 15).

Questa concezione funzionale dello spazio la consideriamo alla luce dello sviluppo del virtuale e dell’intelligenza artificiale. Per quanto riguarda il primo aspetto, sul quale non ci soffermeremo, emerge un problema di comprensione dei confini nel processo continuo di de-corporizzazione e de-personalizzazione dello spazio. Porremo, invece, la nostra attenzione sul rapporto tra spazio – come luogo delimitato e controllato – rispetto all’IA e lo faremo in un duplice senso: 

  1. in generale, inquadrando il meccanismo di ri-ontologizzazione (Floridi 2021; Floridi, Cabitza 2021) della realtà/ambiente che comporta sempre di più la costruzione di luoghi a misura di IA; 
  2. nel caso di specie, in cui emerge una possibile invadenza della sfera dello spazio pubblico rispetto a quello privato, sottolineando i problemi etici posti dall’utilizzo dell’IA (Coeckelbergh  2020). 

Lo smartphone
Il rapporto tra privato e pubblico inizia da un primo micro-spazio in cui si configurano questioni etiche legate all’intelligenza artificiale e, in generale, al digitale: lo smartphone. Ormai diffuso in maniera capillare, lo smartphone diviene il primo luogo in cui si definisce il limite dell’identità personale e sociale. È uno strumento che mette in relazione il soggetto con il mondo esterno e con i mondi possibili, ampliando i confini dello spazio in quanto ambiente ignoto. Diviene uno strumento performativo in termini individuali e sociali, eppure mezzo dalle ambigue potenzialità. È dalla nostra interazione con lo smartphone che transcodifichiamo l’identità in un luogo che supponiamo essere fisico e limitato, ma che è invece virtuale e illimitato. Qui, i problemi legati alla privacy diventano questioni etiche e giuridiche di estrema rilevanza (Commissione Europea 2019), sia per quanto riguarda i modelli di hard ethics, sia di soft ethics ma anche in riferimento alla compliance (Floridi 2021). In altre parole, siamo passati da una prima fase di orientamento etico mediante l’utilizzo di un modello prescrittivo, per arrivare alla formalizzazione giuridica attraverso norme e linee guida, e dunque a un modello che ripropone il rapporto potere-dovere. “Se so che posso nuocere all’individuo con software e algoritmi che ne influenzano le scelte e ne violano la privacy, allora devo fare in modo che vi sia per l’utente una tutela che egli possa consapevolmente attuare”. Questo significa, ad esempio, l’inserimento di informazioni relative al trattamento dei dati quando apriamo un sito web – il che costituisce una prima forma di tutela. Tuttavia, lo spazio privato individuale è sempre soggetto a rischio a causa di una carenza informativa e formativa in merito all’IA, alla sua onnipervasività, alla sua invisibilità, ai suoi scopi e al suo uso. Il fatto che guardare un reel su Instagram per 10 o 30 secondi, o riguardarlo, o mettere un “like” dica qualcosa di noi all’algoritmo non è una conoscenza così diffusa fra gli utenti. Questo sollecita due importanti riflessioni etiche legate all’invasione del luogo privato: 

  1. L’utilizzo del surplus comportamentale (Zuboff 2019) che, inconsciamente (nell’estrinsecazione soggettiva e nella loro registrazione oggettiva), lasciano trapelare interessi e tendenza senza che si possa accettare e/o firmare un “consenso informato” (Mori 2013); ne consegue che
  2. la privacy risulta violata, sulla base dell’ignoranza diffusa in merito ai processi di registrazione e analisi attuati dagli algoritmi; questo comporta
  3. un allontanamento dell’individuo da processi di pensiero critici e plurali (Donatelli 2020), in quanto dirottato solo verso i propri interessi e in un circolo vizioso di autoconvincimento. 

Se una persona con un buon livello di insipienza guarda video dei terrapiattisti (fosse anche solo per divertirsi), man mano l’algoritmo indirizza verso quel tipo di contenuti che corrispondono a un certo modo di ragionare e vedere il mondo. L’equazione è chiara: un maggior numero di video che dimostrano il terrapiattismo e un buon grado di insipienza comporta un maggior numero di terrapiattisti o, in generale, dogmatici indisposti al dialogo come apertura. Per paradossale che sembri, il luogo delle conoscenze del soggetto – come insieme delle esperienze e delle informazioni – tende a essere ridimensionato, partendo dall’insinuazione dell’algoritmo nel suo spazio individuale attraverso lo smartphone.

Questo stesso strumento può (1) o aumentare il livello di ignoranza e insipienza, (2) oppure aprire a una complessità maggiore, nel momento in cui il soggetto si rende conto delle potenzialità di espansione delle proprie conoscenze offerte dallo smartphone. In entrambi i casi, il rischio di esposizione della privacy permane, soprattutto quando aumenta la ricerca di dati ai fini di una costruzione critica di una conoscenza. Più ricerca effettuiamo, più dati immettiamo, più il nostro smartphone diviene uno strumento che ci espone al rischio di essere osservati. 

La casa
Oltre lo smartphone come luogo dell’individualità, ne esiste uno più esterno e ad esso immediatamente adiacente: il luogo domestico che coincide tendenzialmente con i confini dell’abitazione. Qui inizia a sdoppiarsi la discussione etica in riferimento all’IA, avendo quest’ultima un maggiore impatto performativo sul luogo in senso fisico. Di fatti, non solo la domotica comporta problemi relativi alla privacy, ma nell’ organismo semi-collettivo (la famiglia), si attua la prima trasformazione dell’ambiente a misura di IA, una prima riscrittura dello spazio per renderla adatta all’intelligenza artificiale. Luciano Floridi sostiene che l’intelligenza artificiale non proietta verso una nuova forma di intelligenza, quanto verso una «re-ontologizzazione della modernità» (Floridi 2021, 31). 

L’effetto attraverso cui ridisegniamo gli spazi, in maniera funzionale all’intelligenza artificiale, tale da avvolgere l’IA per renderle più semplici i compiti di natura esecutiva per cui è programmata, coincidono non solo con un re-design della realtà stessa, ma anche del nostro modo di concepire gli spazi. Per cui, affinché la robotica possa tornarci utile nelle faccende domestiche, sostituiamo la struttura angolare delle pareti con quella curvata per facilitare al robot aspirapolvere la pulizia. Allo stesso modo, per vivere in maggiore sicurezza le nostre case quando siamo per lunghi periodi fuori, installiamo sistemi di sorveglianza raffinatissimi, in modo tale da poter tenere sotto controllo la casa anche quando siamo a chilometri di distanza, mediante l’uso di internet. È pur vero, però, che quelle videoriprese sono in quella dimensione a-topica che è il web, infinita, illimitata sede di dati a cui qualcuno potrebbe facilmente accedere e osservare la nostra casa dall’interno. Quando installiamo Alexa in tutta la casa e sappiamo che il software recepisce i comandi vocali in entrata, dobbiamo essere altrettanto consapevoli che è in ascolto, una sorta di ospite invisibile.

Ecco che emergono due urgenze etiche: 

  1. Tutelare maggiore sicurezza e privacy può paradossalmente comportare un effetto negativo, in quanto condividiamo, sempre inconsapevolmente, informazioni in uno spazio pubblico e invisibile attraverso l’IA.
  2. Re-ontologizzare il mondo significa schiacciare la complessità, comprimerla, semplificarla – lo stesso Pedro Domingos sostiene che la complessità è il principale nemico dell’IA (Domingos 2020). Quando, nel passo citato, Floridi accennava a una trasformazione della mentalità moderna, questo può essere inteso in senso anche negativo, proprio perché si verifica un fenomeno uguale e inverso a quello che indusse Turing a pensare all’intelligenza artificiale come intelligenza imitativa di quella umana, ossia il rischio che l’intelligenza umana venga gradualmente e pericolosamente adattata al modello computazionale (Pisano, 2021). Ridurre la complessità sia dal punto di vista epistemologico sia dal punto di vista pratico partendo da una controllabilità fisica dello spazio, risponde all’esigenza di riduzione dell’incertezza e delle variabili. Non è un caso che l’IA non sia intelligente in senso pieno o in senso umano, proprio perché non è capace di reagire froneticamente a una nuova situazione. L’adattività dell’IA è molto più lungo come processo rispetto a quello umano, il che implica maggiore tempo per autonomizzarsi (ammesso che vi riesca). Per velocizzare questo adattamento, mentre implementiamo l’IA, costruiamo intorno ad essa ambienti su misura.

Se l’antropologia filosofica guarda all’essere umano in senso evolutivo, una specie che continuamente mira a costruire un proprio habitat a causa della carenza di istinti specializzati (Gehlen, 1983), si sta aprendo una nuova fase in cui alla costruzione dell’IA (risultante ultima dell’implementazione tecnica) si affianca un design dello spazio che è co-habitat per l’essere umano e l’IA. Il topos, il luogo diviene funzionale all’Intelligenza artificiale, “il primo limite utile contenente le intelligenze esecutive e interattive”: un involucro costruito intorno all’IA e ad essa funzionale e relativo.

Tutto questo avviene proprio partendo dallo spazio domestico, da quelle mura originariamente nate per delimitare, rassicurare e difendere e che ora, al loro interno, vengono minacciate dal doppio sguardo dello smartphone e di una casa che custodisce e osserva. Questo secondo passaggio, quello relativo all’ambiente domestico, costituisce l’organismo semi-collettivo che si rapporta all’ambiente e da cui prende avvio il capitalismo della sorveglianza che non utilizza armi ed eserciti ma «impone il proprio potere tramite l’automazione e un’architettura computazionale sempre più presente, fatta di dispositivi, oggetti e spazi smart interconnessi» (Zuboff, 18).

La città
Il terzo luogo come spazio delimitato di enti con le loro specifiche necessità è quello della città. Qui la intendiamo sempre nella relazione osmotica ambiente-organismo, laddove quest’ultimo arriva a massimizzare la sua presenza in quanto collettività o comunità agente. Avviene un primo importante passaggio dalla sfera domestica a quella pubblica proprio passando dal luogo-casa al luogo-città. Lo spazio pubblico è quello che determina il passaggio dalla dimensione individuale a quella comunitaria. Qui il soggetto non solo opera, ma agisce attuando la propria libertà nella relazione con gli altri. Il pubblico è «inter homines esse» (Arendt 2014, 7), il luogo delimitato in cui si aprono le relazioni dell’individualità con il mondo esterno, con gli altri uomini ma anche con tutti gli agenti presenti nella cerchia immediatamente esterna a quella domestica.

Anche e soprattutto in questi spazi, dove la necessità di supervisione aumenta a causa del dispiegarsi di relazioni inter-soggettive e della libertà dell’individuo, esistono da tempo sistemi di sorveglianza e vigilanza che permettono di contenere i comportamenti socialmente nocivi. La nuova società dell’informazione ha creato sistemi di controllo più capillare quali i sistemi di video-sorveglianza, in cui oggi sono installati software di riconoscimento facciale. Camminiamo per strada, entriamo nei negozi e siamo monitorati in un sistema che viene appositamente trasformato per aumentare la sicurezza. Se da una parte questo permette di vivere meglio e con più tranquillità, dall’altra mostra un risvolto della medaglia che ha una curvatura profondamente distopica e che incentiva il capitalismo della sorveglianza, soprattutto nel caso delle smart cities progettate a misura di IA. Un’altra volta si impone all’attenzione una re-ontologizzazione del reale che in questo senso amplia ulteriormente il proprio campo di applicazione a uno spazio urbano. Questo diviene involucro per favorire l’IA nei processi di controllo sociale. La degenerazione è auto-evidente anche per il più positivo degli intenti immaginabili: chi controlla questi sistemi, in quali e quante mani si affidano i dati che giornalmente vengono estrapolati.  

Il controllo dell’ambiente-città, se oggetto di una supervisione e registrazione continua, mette a rischio la libertà individuale, pur manifestando il nobile intento della sua tutela, con ricadute gravi sulla democrazia. Partendo dallo smartphone, passando per lo spazio domestico e arrivando a quello cittadino, di luogo in luogo, oggi il capitalismo della sorveglianza ha bisogno del surplus comportamentale da utilizzare come dati per i prodotti predittivi che «vengono venduti in un nuovo mercato basato sui comportamenti futuri» (Zuboff, 108). In questa raccolta dati macroscopica, Google ha avuto un ruolo determinate, ritagliandosi un ruolo di creazione di identità virtuali e imponendosi tanto sulla creazione di account singoli quanto di quelli collettivi. Questo a discapito della privacy nei contesti di vita extra-domestici, in quello spazio pubblico in cui si aggira l’ospite invisibile – basti pensare ad app come Maps o Earth che permettono a chiunque di accedere in una qualsiasi parte del mondo. Il confine fra privato e pubblico arriva così a sfumare e le eterotopie virtuali diventano un intrecciato sistema di supervisione dell’individuo: nella sua vita in quanto singolo, nella sua vita in quanto membro di un nucleo familiare, nella sua vita in quanto cittadino. Lo spazio, così disposto a involucri, sempre più supervisionato e riadattato alle nuove esigenze della robotica e dell’intelligenza artificiale, vede una interconnessione fra questi luoghi che mettono eticamente a rischio l’esistenza individuale. Ciò avviene non solo per la privacy ma anche in riferimento alla storicità, alla memoria e all’identità di alcuni luoghi, nel momento in cui la loro complessità viene ridotta e riadattata alle nuove leggi dell’IA.

Vale, però, anche il contrario. La domotica e le smart cities sono il nuovo modo con cui stiamo nei luoghi e viviamo i luoghi, riconfigurando lo spazio per renderlo co-abitabile, anche per sgravarci da compiti ripetitivi e noiosi per poter investire meglio il nostro tempo. A fronte di una sempre maggiore pervasività dell’IA, l’etica non entra in gioco in senso prescrittivo, quanto come un orientamento verso un nuovo modo di configurare il mondo come spazio complesso e l’essere umano che vive al suo interno.

 

Riferimenti blibliografici

  • Aristotele. 1967. La Fisica. Napoli: Loffredo.
  • Arendt, Hannah. (2014) Vita Activa. La condizione umana. Milano: Bompiani. 1958.
  • Coeckelbergh Mark. 2020. AI Ethics. Cambridge, MA: MIT Press.
  • Floridi, Luciano. 2021. Etica dell’intelligenza artificiale. Sviluppi, opportunità, sfide. Milano: Raffaello Cortina.
  • Floridi Luciano, Cabitza Federico. 2021. Intelligenza artificiale. L’uso delle nuove macchine, Milano: Bompiani.
  • Gehlen, Arnold. (1983) L’uomo, la sua natura e il suo posto nel mondo. Milano: Feltrinelli.
  • Pisano, Aldo. (2021) Big Data e sedimentazioni etiche. La memoria tra il simbolico e il sub-simbolico. “Mechané. International Journal of Philosophy and Anthropology of Technology”: 2. Napoli: Mimesis.
  • Domingos, Pedro. 2020. L’algoritmo definitivo. La macchina che impara da sola e il futuro del nostro mondo. Torino: Bollati Boringhieri.
  • Donatelli, Piergiorgio. 2020. La filosofia e la vita etica. Torino: Einaudi.
  • Luhmann, Niklas. 2011. Fiducia. Bologna: Il mulino.
  • Mori, Maurizio. 2013. Manuale di bioetica. Verso una civiltà biomedica secolarizzata. Firenze: Le lettere.
  • Zuboff, Shoshana. 2019. Il capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri. Roma: LUISS.
  • Commissione Europea, Orientamenti etici per un’IA affidabile, 8 aprile 2019.

Foto di Michael Dziedzic su Unsplash

Laureato in Scienze filosofiche, ha condotto il lavoro di tesi magistrale all’Università di Marsiglia con il prof. Carlo Rovelli. Attualmente è docente a tempo indeterminato presso il liceo “P. Secco Suardo” di Bergamo e Phd student in Learning Sciences and Digital Technologies, presso l’Università della Calabria per la cattedra di Etica del digitale (Prof.ssa Ines Crispini). I suoi ambiti di interesse scientifico sono Etica e Intelligenza Artificiale, Etica narrativa e Didattica della Filosofia.

Lascia un commento

*