Giovanni Scarafile

Posts Tagged ‘etica applicata’

When you’re suffering, that’s when you’re most real. Coscienza artificiale e relazioni in Westworld.

In Film Review, Filosofia, la perigliosa frontiera, Visioni on 23 May 2020 at 9:07 AM

Emma Bufardeci

Cosa succederebbe se un giorno si costruissero robot indistinguibili dagli esseri umani? Finora, una delle risposte più creative e raffinate si trova in Westworld, serie televisiva americana del 2016: l’ambientazione vede un enorme parco a tema Old West alle soglie del terzo millennio. I visitatori del parco sono umani in cerca di avventure, a cui è concesso interagire in qualsiasi modo con gli androidi residenti. Questi sono programmati in modo da non poter nuocere agli umani, da cui spesso subiscono violenti soprusi. E quando un robot viene danneggiato, sono previste riparazioni e riprogrammazioni di vario genere: da quella fisica e al reset dei ricordi legati all’ultima violenza subita, fino allo stravolgimento del personaggio e della storia assegnati[1].

A un certo punto, i supervisori del parco riscontrano delle anomalie: ci sono dei residenti che sembrano sognare a occhi aperti. Alcuni urlano come in preda agli incubi oppure parlano da soli. Ognuno di loro sembra rivolgersi a un fantomatico interlocutore di nome “Arnold”. Così, il capo della Divisione Programmazione, Bernard, riferisce la situazione al direttore creativo nonché unico fondatore in vita del parco, il Dottor Ford. Si aprono allora una serie di digressioni narrative, dove vediamo il cofondatore del parco, per l’appunto, Arnold, battersi strenuamente per la costruzione di una “vera” coscienza per gli androidi. Ma, come narra lo stesso Ford, Arnold arriva a malapena a creare una sorta di “linea guida”: la percezione di una voce interiore, la sua, nella speranza che un giorno questa venga sostituita da una voce interamente derivata dall’androide stesso. Scopo di questa è far salire i gradini di una “piramide”, con alla base la memoria, poi l’interesse personale poi l’improvvisazione.

 

Ma l’incapacità di definire la punta della piramide porta Arnold alla pazzia. In realtà, il motivo per cui Arnold non trovasse la punta della piramide viene svelato in un flashback dallo stesso: «Consciousness isn’t the journey upward but a journey inward; not a pyramid but a maze.  Every choice could bring you closer to the center or send you spiralling to the edges to madness». L’immagine del labirinto contiene un doppio significato: l’esperienza di un percorso dove la scelta ad ogni bivio ha una conseguenza, e, al contempo, la ricerca di una meta ben precisa, il centro del labirinto. Esso rappresenta la più intima consapevolezza di sé: il punto in cui l’androide, guardandosi indietro, può finalmente rispondere alla domanda “chi sono io?”[2]. Il modello del labirinto, per quanto esemplificativo, ci permette di rappresentare come l’idea di una vera e propria umanità robotica possa prendere forma. L’immagine denota un’idea del tutto originale: il programmatore allestisce solo la struttura del viaggio, non lo prefigura per intero. In fin dei conti, nessun labirinto corrisponde all’esatto percorso che ciascuno dei visitatori farà all’interno di esso. Lo stesso ingresso nel labirinto non è una condizione che si pone automaticamente con la costruzione del robot. Ed è in questa medesima condizione che giace il vero motivo concernente il reset dei traumi subiti: dietro alla sensatissima idea di un atto di carità da parte dei capi del parco, si cela, in realtà, la negazione dei “biglietti d’ingresso” al labirinto dell’interiorità[3].

Il poster originario del film “Westworld” (1973)

La coscienza dei protagonisti, in quanto frutto di un viaggio, ha bisogno di tempo. Tuttavia, anche quando interamente simulata, essa è in grado di evocare le stesse reazioni di un essere umano[4]. A tal proposito, una delle questioni future potrebbe essere costituita dall’illusione di eguagliare una relazione umano-robot (HRR) a una umano-umano (HHR). Tale rischio deriverebbe dal dimenticare lo scopo per cui si costruisce un robot: il soddisfacimento di un’esigenza umana.  Antropomorfizzare un robot comporterebbe, quindi, la pretesa di ritrovare le dinamiche di una HHI in una HRI o viceversa. Proviamo a immaginarne le conseguenze: da un lato, l’illusione di aver trovato l’equivalente di una HHR nella pseudo-relazione HRR sbatterà contro il dato di una programmazione cucita su misura per il proprio utente[5]; dall’altro, la pretesa di rivedere le stesse appaganti dinamiche di una HRR in una HHR verranno deluse, portando a conseguenze alienanti. Inversamente, ipostatizzare l’elemento dell’artificio porterebbe all’eccesso opposto dell’antropomorfizzazione: la reificazione dell’androide. Essa consiste nell’adozione di una serie di comportamenti crudeli giustificati dal fatto di non avere una vera persona davanti. Le maggiori argomentazioni volte a contrastare una eventuale normalizzazione del fenomeno ci provengono dalle contaminazioni fra psicologia ed etica della virtù: l’individuo umano trarrebbe un piacere che deriva esclusivamente dall’antropomorfismo estetico e comportamentale dell’androide. Lo stesso piacere difficilmente sarebbe ottenuto dal maltrattamento di un dispositivo che non riproduce alcun tipo di attività o sembianze umane. Inoltre, nella HRR la reiterazione di un comportamento violento rimane, comunque, un problema per l’umano che lo assume: egli, appagando un’inclinazione tossica, ne favorisce la crescita. I rischi per le sue effettive relazioni sociali sono tangibili per almeno due motivi: la disposizione compiaciuta è sita in una dimensione prerazionale per cui è irrilevante se l’esperienza di rafforzamento derivi da un umano vero o da una simulazione di esso[6]; consolidare qualsiasi attitudine rivolta al potere incontrastato implica automaticamente una disgregazione di tutte quelle inclinazioni che favoriscono le relazioni sociali. In altre parole:

Such privilege towards robots is likely to encourage self-indulgent and complacent habits, boost the self-awareness of the human users, erode their inhibitions, spoil their sense of empathy, and – worst-case scenario – motivate them to tolerate, justify, or even replicate abusive behaviours against actual living creatures. If these dynamics were replicated on a massive scale, they could exacerbate social tensions in large communities and deteriorate civil cohesion.[7]

Pertanto, più che delle istruzioni per l’uso, l’intelligenza artificiale ha e avrà bisogno di una educazione alla relazione con essa. Un punto di partenza per l’indagine filosofica potrebbe essere il ripensamento, a partire dal contesto, proprio di quella dicotomia soggetto/oggetto che per prima fonda il rischio di un abuso autodistruttivo.

 

 

Note

[1] La totale incoscienza dell’androide a riguardo è esemplificata dalle varie scene in cui una delle protagoniste, Dolores, succube di una routine prestabilita, comincia ogni giornata allo stesso identico modo: stessi pensieri, stessi scambi con l’androide programmato per rivestire il ruolo di padre e le stesse azioni finalizzate agli incontri con i visitatori.

[2] A. Ourri, An Analysis of Identity in Artificial Intelligence as presented in Westworld (p. 5).

[3] Il fulcro di questa tesi è racchiuso in un dialogo fra il Dottor Ford e Bernard, il quale, nel frattempo, ha scoperto di essere non solo egli stesso un androide, ma perfino la medesima copia del defunto Arnold:

«B- (…) I do not understand the things that I feel. Are they real, the things I experienced? My wife? The loss of my son?

F- Every host needs a backstory, Bernard.  You know that.  The self is a kind of fiction, for hosts and humans alike. It’s a story (…) and every story needs a beginning. Your imagined suffering makes you lifelike.

B- Lifelike…but not alive? Pain only exists in the mind – it’s always imagined. So, what’s the difference between my pain and yours? Between you and me? ». Durante il controllo di alcuni assetti, i programmatori scoprono elementi nuovi, le reverie, sfumature del linguaggio corporeo ricollegate a ricordi cancellati, riattivate da Ford, ai fini di fornire ad alcuni androidi “segretamente” l’accesso al labirinto.

[4] Un esempio più semplice ed emblematico potrebbe essere quello del tecnico Henri Li che copre l’androide nudo durante una riparazione. Il robot non può sentire freddo, non può provare vergogna. E il tecnico lo sa bene. Ma la mera visione di una presenza identica a quella umana tocca la dimensione prerazionale della compassione e genera spontaneamente una risposta che è indifferente alla conoscenza della macchina.

[5] È il caso di William, il quale, dopo aver vissuto una serie di peripezie con Dolores, ne perde le tracce. Forte della presenza di un sentimento genuinamente ricambiato dall’androide, la ritrova l’indomani a compiere lo stesso identico gesto che aveva portato alla loro conoscenza, con un altro ospite.

[6] M.L Capuccio, A. Peeters, W. McDonald, Sympathy for Dolores. Moral Consideration for Robots based on Virtue and Recognition (pp. 6-9).

[7] Ivi, pag.  18