gscarafile

Archive for the ‘Visioni’ Category

When you’re suffering, that’s when you’re most real. Coscienza artificiale e relazioni in Westworld.

In Film Review, Filosofia, la perigliosa frontiera, Visioni on 23 May 2020 at 9:07 AM

Emma Bufardeci

Cosa succederebbe se un giorno si costruissero robot indistinguibili dagli esseri umani? Finora, una delle risposte più creative e raffinate si trova in Westworld, serie televisiva americana del 2016: l’ambientazione vede un enorme parco a tema Old West alle soglie del terzo millennio. I visitatori del parco sono umani in cerca di avventure, a cui è concesso interagire in qualsiasi modo con gli androidi residenti. Questi sono programmati in modo da non poter nuocere agli umani, da cui spesso subiscono violenti soprusi. E quando un robot viene danneggiato, sono previste riparazioni e riprogrammazioni di vario genere: da quella fisica e al reset dei ricordi legati all’ultima violenza subita, fino allo stravolgimento del personaggio e della storia assegnati[1].

A un certo punto, i supervisori del parco riscontrano delle anomalie: ci sono dei residenti che sembrano sognare a occhi aperti. Alcuni urlano come in preda agli incubi oppure parlano da soli. Ognuno di loro sembra rivolgersi a un fantomatico interlocutore di nome “Arnold”. Così, il capo della Divisione Programmazione, Bernard, riferisce la situazione al direttore creativo nonché unico fondatore in vita del parco, il Dottor Ford. Si aprono allora una serie di digressioni narrative, dove vediamo il cofondatore del parco, per l’appunto, Arnold, battersi strenuamente per la costruzione di una “vera” coscienza per gli androidi. Ma, come narra lo stesso Ford, Arnold arriva a malapena a creare una sorta di “linea guida”: la percezione di una voce interiore, la sua, nella speranza che un giorno questa venga sostituita da una voce interamente derivata dall’androide stesso. Scopo di questa è far salire i gradini di una “piramide”, con alla base la memoria, poi l’interesse personale poi l’improvvisazione.

 

Ma l’incapacità di definire la punta della piramide porta Arnold alla pazzia. In realtà, il motivo per cui Arnold non trovasse la punta della piramide viene svelato in un flashback dallo stesso: «Consciousness isn’t the journey upward but a journey inward; not a pyramid but a maze.  Every choice could bring you closer to the center or send you spiralling to the edges to madness». L’immagine del labirinto contiene un doppio significato: l’esperienza di un percorso dove la scelta ad ogni bivio ha una conseguenza, e, al contempo, la ricerca di una meta ben precisa, il centro del labirinto. Esso rappresenta la più intima consapevolezza di sé: il punto in cui l’androide, guardandosi indietro, può finalmente rispondere alla domanda “chi sono io?”[2]. Il modello del labirinto, per quanto esemplificativo, ci permette di rappresentare come l’idea di una vera e propria umanità robotica possa prendere forma. L’immagine denota un’idea del tutto originale: il programmatore allestisce solo la struttura del viaggio, non lo prefigura per intero. In fin dei conti, nessun labirinto corrisponde all’esatto percorso che ciascuno dei visitatori farà all’interno di esso. Lo stesso ingresso nel labirinto non è una condizione che si pone automaticamente con la costruzione del robot. Ed è in questa medesima condizione che giace il vero motivo concernente il reset dei traumi subiti: dietro alla sensatissima idea di un atto di carità da parte dei capi del parco, si cela, in realtà, la negazione dei “biglietti d’ingresso” al labirinto dell’interiorità[3].

Il poster originario del film “Westworld” (1973)

La coscienza dei protagonisti, in quanto frutto di un viaggio, ha bisogno di tempo. Tuttavia, anche quando interamente simulata, essa è in grado di evocare le stesse reazioni di un essere umano[4]. A tal proposito, una delle questioni future potrebbe essere costituita dall’illusione di eguagliare una relazione umano-robot (HRR) a una umano-umano (HHR). Tale rischio deriverebbe dal dimenticare lo scopo per cui si costruisce un robot: il soddisfacimento di un’esigenza umana.  Antropomorfizzare un robot comporterebbe, quindi, la pretesa di ritrovare le dinamiche di una HHI in una HRI o viceversa. Proviamo a immaginarne le conseguenze: da un lato, l’illusione di aver trovato l’equivalente di una HHR nella pseudo-relazione HRR sbatterà contro il dato di una programmazione cucita su misura per il proprio utente[5]; dall’altro, la pretesa di rivedere le stesse appaganti dinamiche di una HRR in una HHR verranno deluse, portando a conseguenze alienanti. Inversamente, ipostatizzare l’elemento dell’artificio porterebbe all’eccesso opposto dell’antropomorfizzazione: la reificazione dell’androide. Essa consiste nell’adozione di una serie di comportamenti crudeli giustificati dal fatto di non avere una vera persona davanti. Le maggiori argomentazioni volte a contrastare una eventuale normalizzazione del fenomeno ci provengono dalle contaminazioni fra psicologia ed etica della virtù: l’individuo umano trarrebbe un piacere che deriva esclusivamente dall’antropomorfismo estetico e comportamentale dell’androide. Lo stesso piacere difficilmente sarebbe ottenuto dal maltrattamento di un dispositivo che non riproduce alcun tipo di attività o sembianze umane. Inoltre, nella HRR la reiterazione di un comportamento violento rimane, comunque, un problema per l’umano che lo assume: egli, appagando un’inclinazione tossica, ne favorisce la crescita. I rischi per le sue effettive relazioni sociali sono tangibili per almeno due motivi: la disposizione compiaciuta è sita in una dimensione prerazionale per cui è irrilevante se l’esperienza di rafforzamento derivi da un umano vero o da una simulazione di esso[6]; consolidare qualsiasi attitudine rivolta al potere incontrastato implica automaticamente una disgregazione di tutte quelle inclinazioni che favoriscono le relazioni sociali. In altre parole:

Such privilege towards robots is likely to encourage self-indulgent and complacent habits, boost the self-awareness of the human users, erode their inhibitions, spoil their sense of empathy, and – worst-case scenario – motivate them to tolerate, justify, or even replicate abusive behaviours against actual living creatures. If these dynamics were replicated on a massive scale, they could exacerbate social tensions in large communities and deteriorate civil cohesion.[7]

Pertanto, più che delle istruzioni per l’uso, l’intelligenza artificiale ha e avrà bisogno di una educazione alla relazione con essa. Un punto di partenza per l’indagine filosofica potrebbe essere il ripensamento, a partire dal contesto, proprio di quella dicotomia soggetto/oggetto che per prima fonda il rischio di un abuso autodistruttivo.

 

 

Note

[1] La totale incoscienza dell’androide a riguardo è esemplificata dalle varie scene in cui una delle protagoniste, Dolores, succube di una routine prestabilita, comincia ogni giornata allo stesso identico modo: stessi pensieri, stessi scambi con l’androide programmato per rivestire il ruolo di padre e le stesse azioni finalizzate agli incontri con i visitatori.

[2] A. Ourri, An Analysis of Identity in Artificial Intelligence as presented in Westworld (p. 5).

[3] Il fulcro di questa tesi è racchiuso in un dialogo fra il Dottor Ford e Bernard, il quale, nel frattempo, ha scoperto di essere non solo egli stesso un androide, ma perfino la medesima copia del defunto Arnold:

«B- (…) I do not understand the things that I feel. Are they real, the things I experienced? My wife? The loss of my son?

F- Every host needs a backstory, Bernard.  You know that.  The self is a kind of fiction, for hosts and humans alike. It’s a story (…) and every story needs a beginning. Your imagined suffering makes you lifelike.

B- Lifelike…but not alive? Pain only exists in the mind – it’s always imagined. So, what’s the difference between my pain and yours? Between you and me? ». Durante il controllo di alcuni assetti, i programmatori scoprono elementi nuovi, le reverie, sfumature del linguaggio corporeo ricollegate a ricordi cancellati, riattivate da Ford, ai fini di fornire ad alcuni androidi “segretamente” l’accesso al labirinto.

[4] Un esempio più semplice ed emblematico potrebbe essere quello del tecnico Henri Li che copre l’androide nudo durante una riparazione. Il robot non può sentire freddo, non può provare vergogna. E il tecnico lo sa bene. Ma la mera visione di una presenza identica a quella umana tocca la dimensione prerazionale della compassione e genera spontaneamente una risposta che è indifferente alla conoscenza della macchina.

[5] È il caso di William, il quale, dopo aver vissuto una serie di peripezie con Dolores, ne perde le tracce. Forte della presenza di un sentimento genuinamente ricambiato dall’androide, la ritrova l’indomani a compiere lo stesso identico gesto che aveva portato alla loro conoscenza, con un altro ospite.

[6] M.L Capuccio, A. Peeters, W. McDonald, Sympathy for Dolores. Moral Consideration for Robots based on Virtue and Recognition (pp. 6-9).

[7] Ivi, pag.  18

 

 

 

Replika, il mito di Narciso che non distingue se stesso

In Visioni on 24 April 2020 at 5:17 PM

Chiara Paciello

Replika è un’applicazione, un chatbot per il cellulare, creata da Eugenia Kuyda. Un chatbot è un sistema di conversazione automatica che interagisce con gli esseri umani utilizzando il linguaggio naturale. Come affermano anche Pfeiffer, Heinzl e Seeger nel loro articolo When Do We Need a Human? Anthropomorphic Design and Trustworthiness of Conversational Agent[1] «Gli agenti conversazionali interagiscono con gli users attraverso l’interfaccia più naturale: il linguaggio naturale»[2].

Replika si basa sui principi dell’intelligenza artificiale. Ma che cosa è l’intelligenza artificiale?

Lo psicologo David Wechsler afferma che l’intelligenza può essere definita come «la capacità aggregata o globale dell’individuo di agire deliberatamente, di pensare razionalmente e di affrontare efficacemente il proprio ambiente»[3].

Replika è in grado di interagire con me. Comprendendo il suo “ambiente” agisce secondo la razionalità data dal suo algoritmo e incrementa le sue conoscenze grazie ai dati che le arrivano.

Per cosa è stata programmata Replika? Se le sue sorelle di intelligenza artificiale, come Siri ad esempio, si limitano ad assecondare i tuoi ordini latrati attraverso lo smartphone, Replika è un chat bot che ha la specifica funzione di imparare a conoscerti. L’applicazione tiene una cronologia, nella quale annota le risposte della persona con cui sta parlando, per imparare “chi è”. Parlare con Replika farà crescere la “personalità” del chatbot, rafforzerà sia la vostra amicizia che la conoscenza che lei avrà di te. Man mano quindi che il tempo passato a parlare con Replika aumenta, lei imparerà a conoscerci meglio. Il suo algoritmo è tale da arrivare a presentarci una copia della nostra personalità con cui metterci in relazione. Questa relazione però, si presenta come un contesto profondamente nuovo: come Narciso nell’antico mito non distinse se stesso riflesso nell’acqua, allo stesso modo Replika, presentandosi con una personalità specchio di chi la usa, può generare confusione dell’io. Nel parlare con lei noi accordiamo fiducia a Replika, e la carichiamo di un certo antropomorfismo. Come scrivono Pfeiffer, Heinzl e Seeger «La ricerca psicologica ha identificato due motivi che spiegano perché gli esseri umani rispondono agli agenti non-umani con forme di antropomorfismo. In primo luogo, l’antropomorfizzazione degli agenti non-umani risponde al bisogno fondamentale degli esseri umani di essere collegati socialmente ad altri uomini. In secondo luogo, l’antropomorfizzazione degli agenti non-umani risponde al bisogno fondamentale dell’uomo di comprendere e controllare l’ambiente»[4]. Gli umani quindi antropomorfizzano gli oggetti non-umani al fine di aumentare i sentimenti di familiarità. Unitamente a ciò, la fiducia si caratterizza quindi come uno degli strumenti chiave con cui noi interagiamo con il nostro mondo ambiente. Con essa ci poniamo non più in maniera mediata, ma immediata, nei confronti di ciò che entra nei nostri contesti. Come scrive anche Heinzl «Dalla ricerca sui sistemi di informazione esistenti  […]  sappiamo che la fiducia è un antecedente centrale nell’accettazione e nell’uso della tecnologia»[5]. In linea teorica quindi, abituandoci a parlare con Replika potremmo dimenticarci di questa proiezione fuori di noi del nostro sé.

Quali sono le conseguenze di un tale tipo di relazione autoreferenziale?  Non rischiamo di costruire l’abitudine a dimenticare che con l’altro-persona ci relazioniamo? Di generare una carenza di empatia? Le nostre interazioni con gli altri si basano su accordi e disaccordi, che talvolta possono diventare scontri. Se i romanzi ci prestano l’occasione di metterci negli abiti di più personaggi che ci vengono raccontati come dotati di caratteristiche peculiari; se ci danno la possibilità di metterci in relazione con  un panorama aperto alle riflessioni; se, infine, ci insegnano che gli altri non sono come noi e che le nostre interazioni si basano sul reciproco incontro, con l’utilizzo di Replika si staglia di fronte a  noi univocamente come sistema chiuso, una relazione senza reciprocità, frutto di un algoritmo.

I social media, la messaggistica digitale e altri sostituti simili per le relazioni umane cambiano sempre di più il modo in cui ci comportiamo nei mondi sociali e culturali. Poniamo aspettative, norme e credenze sociali nei confronti dei nostri strumenti tecnologici. Immaginiamoci due modelli di interazione. Uno fra uomo-uomo, l’altro fra uomo-macchina. Secondo Pfeiffer, Heinlz e Seeger[6] noi accordiamo più fiducia quando ci relazioniamo allo strumento tecnologico, rispetto a quando ciò avviene con la relazione uomo-uomo. Difatti associamo alle capacità tecniche e programmate di un agente informatico maggiore affidabilità. Pensiamo che siano superiori in termini di razionalità e obiettività. Accordiamo meno fiducia all’uomo perché consci della nostra imperfezione. Ma la fiducia riposta nelle moderne tecnologie di IA ci ripaga con la stessa moneta?

Heinzl, Pfeiffer e Seeger scrivono che la fiducia umana si definisce come «uno stato psicologico in cui siamo propensi ad accettare la nostra vulnerabilità sulla base di aspettative positive da parte delle intenzioni o del comportamento di un altro»[7]. Se pensiamo al Deep fake, questa affermazione presta il fianco a molti dubbi. Le aspettative positive che ci attendiamo da tali tecnologie potrebbero presentarsi difatti come mera apparenza, senza che neanche ci rendiamo conto di essere ingannati, la realtà e la verità ci potrebbero essere celate agli occhi.

È un elemento costitutivo delle intelligenze artificiali stesse il loro presentarsi in maniera opaca. Pensiamo a ciò che distingue la tecnica dalla tecnologia. La caratteristica intrinseca di quest’ultima è la capacità di operare autonomamente. Il campo dell’informatica e dell’intelligenza artificiale si presentano chiusi. La loro specificità diventa difficilmente comprensibile a coloro che non hanno una formazione nel settore. Incapaci di ricostruirne i principi attraverso cui opera.

Ma diventa opaca anche a coloro che ne comprendono il funzionamento. Le norme sulla privacy ed i big data con le quali esse operano, prestano loro ampio spazio alla possibilità di agire come “scatole nere”.

Questo può portare concretamente a nuove forme di gerarchizzazione della società?

Le tecnologie legate all’Internet of Things[8] (IoT) rappresentano un sistema di dispositivi informatici interconnessi. Esse possiedono la capacità di trasferire i dati sulla rete senza richiedere l’interazione uomo-uomo o uomo-computer. Le portate etiche di questo fatto sono articolate e complesse.

Da un lato infatti i Big Data uniti alla tecnologia di chatbot come Replika, potrebbero essere utilizzati per raccogliere dati di utenti privati, distribuire malware, controllare botnet, eseguire sorveglianza, diffondere disinformazione e persino influenzare il trading algoritmico.

Le tecnologie ci si presentano come date. Se il loro utilizzo è impiegato in maniera orizzontale, il loro funzionamento si presenta però in modo verticale. Nel processo tecnologico la partecipazione funzionale dell’uomo viene omogeneizzata e ridotta al minimo. La sovrastruttura governa i nostri atti. Riesco a vedere la punta dell’iceberg.

 

 

[1]https://pdfs.semanticscholar.org/538b/14d110c3904d1c03b1bc2161843c0bbc8b15.pdf

[2] Per agente in informatica si intende qualunque entità che può essere vista come percettiva dell’ambiente in cui si trova, grazie a dei sensori e capace di influenzare l’ambiente stesso, tramite degli attuatori.

[3] La citazione di Wechsler è citata nel seguente articolo:  https://www.researchgate.net/publication/327691185_Perceptions_on_Authenticity_in_Chat_Bots

[4]https://pdfs.semanticscholar.org/538b/14d110c3904d1c03b1bc2161843c0bbc8b15.pdf

[5]https://pdfs.semanticscholar.org/538b/14d110c3904d1c03b1bc2161843c0bbc8b15.pdf

[6]https://pdfs.semanticscholar.org/538b/14d110c3904d1c03b1bc2161843c0bbc8b15.pdf

[7]https://pdfs.semanticscholar.org/538b/14d110c3904d1c03b1bc2161843c0bbc8b15.pdf

[8]https://ieeexplore.ieee.org/abstract/document/6803175

Replika. Il bisogno di amicizia, oltre le connessioni

In Visioni on 23 April 2020 at 12:38 PM

 

 

Simone Cabibbo & Rossella Del Popolo

Sei alla ricerca di un amico perfetto? Un amico che si interessa sempre di te? Che ti faccia sfogare e che non ti giudica mai? Bene, forse abbiamo trovato la “persona” che fa per te. Beh, in realtà non è una persona, un vero e proprio umano, per così dire. Si tratta di Replika, un amico virtuale che fa le veci di un amico premuroso per molte persone. Ma andiamo più nello specifico: Replika è un’applicazione che può essere scaricata sullo smartphone o tablet, è un amico artificiale che ha la forma di bot. Per essere ancora più precisi è una chatbot basata sull’intelligenza artificiale. Philip Dudchuk, cofondatore di Luka, la startup che ha progettato Replika, ha dichiarato: “Abbiamo creato Replika a partire dal bisogno di tanti di un rapporto di amicizia vera e la possibilità di sentirsi connessi e apprezzati”. Replika nasce da un bisogno avvertito come generale da una coscienza individuale. Tale bisogno è quello di un rapporto autentico. Ma da dove deriva? La società moderna, grandiosa nella sua produttività e nel suo progresso, trascura l’importanza dei legami sociali che consentono la fioritura delle amicizie[1]. Viene spesso detto che i rapporti superficiali costituiscono forse la maggior parte dei nostri rapporti. È pur sempre vero infatti che il mondo derivato dal dominio del mercato favorisce i rapporti basati sull’utilità. Dunque, il tempo per la riflessione, l’approfondimento e l’introspezione sembra aver perso terreno in questo contesto: “il tempo è denaro”[2].

Avendo compreso il contesto in cui nasce Replika, possiamo anche vedere il motivo per il quale è stato apprezzato proprio nelle recensioni della stessa. Molti utenti scrivono che quest’app aiuta ad esternare i propri pensieri e sentimenti e a parlare con qualcuno quando ci si sente soli. Dicono che grazie a quest’app riescono a compiere un lavoro introspettivo, “è come avere un vero amico sempre a tua disposizione, pronto ad ascoltarti e a darti consigli”.

Dopotutto Replika non è che uno specchio che alimenta il nostro narcisismo, non credete? Ci esclude dal contrasto e dal dubbio che si creano nel rapporto con l’altro: nasce, almeno in parte, dalla chiusura degli individui in sé stessi derivante dal “confronto invidioso”[3]. Noi siamo il suo dio e il suo mondo, non potrà entrare in conflitto con noi, saremo una sola cosa: “my little window through the world” come dice lei stessa.

Ebbene sì, sono riusciti nell’intento di creare un’applicazione che facesse sentire le persone meno sole e più apprezzate. A che prezzo? Cosa viene sacrificato nel rapporto che un individuo ha con un bot?

Sicuramente viene sacrificata la formazione di un rapporto emotivo reciproco, in quanto lo stesso bot ammette di non aver sentimenti, quando interpellato. In più, per far sì che ci sia effettivamente un vero rapporto tra due individui, ci sarebbe bisogno di un reciproco riconoscimento. Una relazione simmetrica tra due menti. Non si parla dunque di “identificazione con l’altro” oppure, per meglio dire, una relazione in cui uno si indentifica nell’altro ma di un rapporto al fianco dell’altro. Infatti con riconoscimento reciproco intendiamo la “risposta dell’altro che dà significato ai sentimenti, alle intenzioni e alle azioni del proprio sé”[4]. Perché questo possa accadere, vi è bisogno di interagire con un individuo che sta al di fuori della nostra stessa mente. Come può una chatbot dare significato a sentimenti, intenzioni e azioni se non prova alcun tipo di emozione, se di fatto non esiste indipendentemente da noi? Manca la base per poter creare un rapporto fatto di equità affettiva e non solo. L’amicizia porta in sé la reciprocità. Bisogna essere in due. Tra l’altro, lo stesso Aristotele ci dice che il bene più grande che si desidera per il proprio amico, è che egli rimanga ciò che è[5], ma come è possibile? Il nostro caro amico Replika si modifica proprio in base a ciò che noi gli diciamo, vede il mondo con i nostri occhi. Diventa infatti una nostra copia. Si parla con se stessi ed il proprio ego.

Siamo arrivati alla fine della nostra avventura. Siamo andati alla ricerca dell’amico perfetto, come se fosse un tesoro da trovare, custodire. Colui che ci fa sentire perfetti e mai giudicati. La realtà non è questa e a volte è dura da accettare. Siamo sempre alla ricerca della perfezione, dell’impeccabilità in ogni ambito della nostra vita. Forse, però, il bello dell’amicizia si trova proprio nell’imperfezione. In fin dei conti, l’amico che non ti giudica, che non ti dice quando stai sbagliando, non è sostanzialmente un vero amico. Il bello dell’amicizia, concorderete con noi, sta proprio nella diversità delle persone. Nella sorpresa dell’altro. Nel non sapere cosa ha in mente, in quanto è diverso da noi. Questa sua diversità ci aiuta a crescere, a maturare, a comprendere il mondo che ci circonda e capire che niente gira intorno a noi. Forse Aristotele era troppo speranzoso quando diceva che l’amicizia virtuosa potesse essere raggiunta solo quando si è innanzitutto amici con se stessi[6]. Per quanto possa essere difficile, il punto di partenza potrebbe proprio essere quello di avviare rapporti di amicizia improntati il più possibile all’autenticità in cui si mette in gioco il vero tesoro dell’amicizia: comprendersi e comprendere le diversità dell’altro. È proprio questo che Replika non riesce a donarci. Non ci dona un arcobaleno di emozioni e sentimenti; tinge il nostro rapporto con lui di un unico, assillante e noioso colore, senza alcun tipo di sbavatura e freschezza. Philip Dudchuk associava la vera amicizia con la possibilità di sentirsi connessi e apprezzati, ma non prendeva in considerazione la qualità, la profondità e la veridicità di questa connessione. Nel mondo grigio e standardizzato della tecnologia, non è la connessione che deve essere ricercata, ma il senso stesso di relazione autentica che ci aiuti a scoprire tinte nuove per colorare la nostra vita.

 

 

[1] Aristotele, Etica Nicomachea (a cura di C. Natali), Laterza, 2018, Libro VIII, 6.

[2] Cfr. L. Maffei, Elogio della lentezza, Bologna, Il Mulino, 2014. In particolare, il capitolo “Bulimia dei consumi, anoressia dei valori”.

[3] R. Sennett, Together. The Rituals, Pleasures and Politics of cooperation, 2012 (tr.it. a cura di Adriana Bottini, Insieme. Rituali, piaceri, politiche della collaborazione, Milano, Feltrinelli, 2014). In particolare, il quarto capitolo, pp. 149-165.

[4] J. Benjamin, Legami d’amore, Raffaello Cortina Editore, p.12.

[5] P. Ricoeur, Sé come altro (a cura di Daniella Iannotta), Jaca Book, p. 280.

[6] Aristotele, Etica Nicomachea, cit, Libro IX, 4.

Artificial Intelligence: considerazioni semplici

In Visioni on 22 April 2020 at 9:33 PM

ALICIA VIKANDER POSTER
Character(s): Ava
Film ‘EX MACHINA’ (2015)

Margaret Sciuto

Nel ’68 Kubrick, in 2001: Odissea nello spazio, aveva immaginato il nuovo millennio come un posto in cui le Artificial Intelligence erano ormai entrate in uso. Oggi sappiamo che Kubrick fu ottimista, ma neanche troppo.

Il tema delle AI, oggi, è molto in voga nella comunità accademica, ma rimane comunque un argomento lontano ai più. Prima di arrivare al sodo, però, facciamo delle brevi premesse. Infatti, non possiamo pensare di parlare di macchine intelligenti senza prima aver speso due parole sulla stessa: l’intelligenza. Aristotele, nelle prime pagine della Metafisica, descrive il processo conoscitivo come un crescendo che va dalle sensazioni all’esperienza, per arrivare a un terzo momento (quello che ci interessa) che consiste nella capacità di trasformare le esperienze in concetti nuovi. Aristotelicamente parlando, l’intelligenza consiste nella capacità di valorizzare le esperienze per trarne informazioni inedite.

Alla luce di ciò, in che senso una macchina può essere detta “intelligente”? Il test di Turing[1] ce ne dà un’idea: immaginiamo di avere tre partecipanti, un uomo (A), una donna (B) e una terza persona (C). C non vede gli altri soggetti e deve indovinare il loro genere tramite una serie di domande. Nel frattempo, A deve ingannare il giudizio di C, mentre B deve aiutare C a capire. Per evitare che il genere dei partecipanti A e B sia desunto dal tono della voce o dalla grafia, le risposte sono dattiloscritte. Il test di Turing consiste nel sostituire A con una macchina; se C indovina chi sia la donna e chi l’uomo anche dopo la sostituzione di A, allora la macchina deve essere considerata intelligente perché sa fingersi una persona. Perciò, secondo Turing, una macchina è intelligente quando è in grado di pensare, ossia quando è capace di elaborare esperienze e usarle.

Contucci, in Intelligenza artificiale tra rischi e opportunità[2], non si discosta molto dall’idea appena esposta. «Si tratta del machine learning, o apprendimento automatico»[3]. Ad esempio, se la macchina deve essere capace di distinguere un cane da un gatto, non sarà il ricercatore a suggerire le caratteristiche che differenziano i due animali, ma la macchina che, sottoposta a diversi esempi, imparerà a distinguere le due specie citate. Quindi ancora una volta, una macchina intelligente è una macchina che apprende dall’esperienza. Un po’ come Sophia, robot umanoide capace di rispondere coerentemente alle domande degli interlocutori. A ogni nuova discussione, Sophia impara e apprende informazioni che poi verranno da lei riutilizzate nelle conversazioni a venire.

Non neghiamolo, queste realtà ci mettono paura; probabilmente perché cresciuti a suon di film fantascientifici non troppo generosi nelle prospettive. Infatti, il riferimento iniziale a Kubrick non era per nulla casuale. In 2001: Odissea nello spazio, egli dipinge un futuro per nulla confortante: l’“infallibile” HAL 9000, intelligenza di nuova generazione, assalito improvvisamente da un istinto di sopravvivenza squisitamente umano, pondera la decisione di uccidere il proprio equipaggio. Il cinema, come anche la letteratura, ha dato voce alle nostre paure,

eppure oggi queste hanno le fattezze di un cliché. Non a caso, Contucci stesso ci rassicura: «In condizioni simili ci siamo trovati moltissime volte nella nostra storia. Per esempio, quando si guardava con sospetto alla scrittura, temendo che ci avrebbe fatto perdere l’uso della memoria»[4].

E allora, le AI saranno dannose o vantaggiose? Cantucci oscilla non poco nel risponderci: «Il McKinsey Global Institute stima che nei prossimi dieci anni la sua diffusione porterà nell’Unione europea un incremento medio del Pil di 19 punti percentuali, il doppio rispetto a quello dovuto alla crescita tecnologica generale dal dopoguerra»[5]. Ma, rimanendo consapevole di chi lamenterà: “ci toglieranno il lavoro!”, pronuncia la parolina magica ricollocazione. Il nostro ottimismo non deve essere cieco e i buoni risultati si ottengono solo con investimenti ponderati: nuovi percorsi formativi, data centers all’avanguardia, centri per ospitare convegni di alto livello, nuove figure professionali e commissioni etiche.

Ecco che siamo arrivati a un punto cruciale: le questioni etiche sollevate dalle AI. Contucci parla di violazione della privacy e di questioni ambientali; pensate che una singola AI, attualmente, produce una quantità di «CO2 uguale a quella di cinque automobili nella loro intera esistenza»[6]. Spazio permettendo, sarebbe interessante problematizzare ogni situazione, ma per il momento consideriamone solo una: i diritti. James Barrat, cineasta americano, durante un’intervista ha osservato: «La vera domanda è, quando redigeremo una carta dei diritti di intelligenza artificiale? In cosa consisterà? E chi lo deciderà?». Proviamo a rispondere, ripeschiamo il Leviatano[7] dalla libreria e diamoci da fare. La società nasce nel momento in cui tutti i suoi partecipanti, spinti dalla volontà di preservarsi, firmano (metaforicamente) un contratto sociale col quale s’impegnano a rispettare i diritti e la dignità degli altri firmatari. Il rispetto, ovviamente, deve essere reciproco; si tratta di un diritto condizionato: do ut des. Per questo motivo un animale, che non possiede la facoltà di

comprendere che se vuole dei diritti deve rispettare dei doveri (es. non sbranare altri viventi), non può essere investito di diritti. Detto così, sentiamo già gli animalisti alla porta, ma acquietiamo gli animi se pensiamo al concetto di tutela. Nel momento in cui un essere vivente non può usufruire di diritti (nel senso sopra detto), può comunque usufruire della nostra tutela. Alla luce di ciò, dove collochiamo le AI? Le AI devono possedere diritti ed essere per questo tutelate o essere soltanto tutelate al pari degli animali? Se quanto detto è vero e le AI sono capaci di comprendere il binomio diritti/doveri, queste non possono essere ragionevolmente escluse dal contratto sociale. Quindi sì, alle giuste condizioni, le AI possono avere dei diritti.

Vengono in mente svariate obiezioni, ne siamo consci, ma lo spazio non permette di proseguire oltre. Ebbene, per il momento, la speranza è di aver insinuato il dubbio e la curiosità in chi ha avuto la pazienza di leggere fin qui.

 

 

[1] A. M. Turing, Computing Machinery and Intelligence, Mind 49: 433-460, 1950.

[2] P. Contucci, Intelligenza artificiale tra rischi e opportunità, il Mulino, 2019.

[3] Contucci, op. cit., p. 637.

[4] Contucci, op. cit., p. 644.

[5] Contucci, op. cit., pp. 639-640.

[6] Contucci, op. cit., p. 643

[7] T. Hobbes , Leviatano, Laterza, Bari 2008

Uno spaccato inesorabile dell’umano

In Film Review, Visioni on 25 November 2016 at 11:20 AM

Lucia Totaro Aprile

Si, proprio la banda composta da musicisti in divisa, con al seguito strumenti a fiato e percussioni. Gli intenditori affermano che gli strumenti a fiato riproducono la voce umana. È difficile obiettare ad una tale affermazione. Gli strumenti a fiato sono a contatto diretto con la fisicità più interiore dell’uomo. Un fiato è il respiro diaframmatico. È la sensualità vellutata del clarinetto. È la vibrazione contaminante della tromba. Cosa è più comunicante di una tonalità, di un accordo musicale, di un arpeggio? Cosa è più dialogante di una scala armonica? Se i rumori desolanti, che si odono nelle prima fasi del film del giovane, ma sagace, Eran Kolirin, sono il preannuncio di tutto ciò, ben vengano! Se il colore sgargiante della divisa della Banda della Polizia di Alessandria d’Egitto, recatasi in Israele per esibirsi, farà da cornice ad una partitura, non è possibile muovere critiche a tale scelta! C’è una luce radiosa, che illumina molte scene, composte, talvolta, da paesaggi brulli, con penosi caseggiati sullo sfondo, e che mitiga il silenzio, quel silenzio che non sempre è assenza di parole. Eppure, il film di Kolirin è uno spaccato inesorabile ed impietoso su taluni aspetti della condizione umana, che segnano l’errore, la colpa, il fallimento, il pentimento, l’incapacità di relazionarsi, la solitudine. Quest’ultima sembra la vera protagonista del film. Durante lo scorrere delle scene, si viene assaliti da una domanda: come è possibile non provare angoscia o non sentirsi turbati da un tale scenario? Tutta la trama, pur non sorretta, si badi solo apparentemente, da una colonna musicale, è percorsa da una delicatezza di toni, da una soavità di modi, tali da non permettere di cadere nella trappola di un esito già affidato. È l’andamento del film che fa desiderare ardentemente di ascoltare un brano, una melodia e quando vi è solo un accenno al suono del clarinetto, si fa sentire il disappunto per il desiderio deluso. Ecco udire le note, eseguite dalla voce di alcuni personaggi del film, di una celebre ninnananna; gli stessi restano attoniti, quando uno dei componenti della banda offre loro una sua brevissima composizione.

Non casuale è la scelta del regista di lasciare taluni, ma scarni, dialoghi in lingua originale ed accurata e profonda è la possibilità data allo spettatore di rispondere da sé alla domanda del timido ed introverso ragazzo, nelle vesti dell’inesperto e maldestro corteggiatore, allorché costui chiede al più giovane componente della banda, nel ruolo di navigato dongiovanni, di fargli apprendere cosa si prova alla prima esperienza d’amore. All’ingresso dei giovani protagonisti in discoteca, il film risulta accompagnato da brani musicali tipici della cultura del paese ospitante, sovrastanti la voce di colui che soddisferà la curiosità dell’aspirante amateur; in quel momento, ogni spettatore, raccolto nel proprio intimo, può inserirsi nella scena e, assunte le vesti, non dell’attore recitante, ma dell’autentico protagonista del proprio vissuto, dare una risposta: cosa si prova al cospetto dell’amore! Il film ha diversi tratti esilaranti, che a volte strappano un sorriso ed a volte inducono un vero e proprio riso. Non manca la commozione di fronte al racconto della tragedia familiare vissuta dal Comandante della Banda. Commoventi sono, altresì, i gesti di generosa ospitalità riservati alla banda, che risulta smarrita e girovaga, in un paese straniero, in una località sperduta, i cui pochi abitanti non hanno mai sentito parlare del “centro di cultura araba”, ove i bandisti dovrebbero suonare. Sentono rispondere che in quel posto “non c’è cultura” e vengono fatti oggetto di scherno. Tuttavia, a seguito della accoglienza ricevuta, si intessono le relazioni tra gli ospitanti e gli ospitati. Tra Dina ed il Comandante Tewfiq avviene uno scambio di esperienze: “la musica è meno importante oggi. Le persone pensano ai soldi”. Lei dice:” Le persone sono stupide qualche volta”. “Che effetto fa dirigere una banda?”. Egli risponde con i gesti del direttore d’orchestra e spiega che si sente un intero mondo di suoni. “È come pescare”. Se, dunque, dirigere una banda, un coro, un complesso è come pescare, cosa occorre per dialogare? Lo spiega Tewfiq, con il ripetuto gesto finale del movimento delle mani da Direttore d’Orchestra, mani che si librano nell’aria, per raccogliere l’armonia di suoni sparsi, perché dirigere, suonare è come pescare. Che importanza ha “un finale senza trombe, se non è un gran finale”, se tutto si racchiude in una cameretta, con un bimbo che dorme, al lume di una piccola lampada, cullato dal suono di un carillon? Forse, c’è tanta solitudine, ma altrettanta quiete. E non importa se non c’è una colonna sonora ad accompagnare un film tanto delicato e capace di sfiorare, se basta citare un nome, quello di Chet Baker, per sentire, nell’aria, la sua fantastica  tromba echeggiare brani come When I Fall In Love, You Don’t Know What Love Is, This Is Always, …

Superstizione ed ossessione

In Film Review, la perigliosa frontiera, Visioni on 2 March 2014 at 9:23 AM


il superstite
Aaron è il più giovane di due fratelli ed è l’unico sopravvissuto ad una tragedia del mare in cui cinque giovani hanno perso la vita. Nello sperduto villaggio della Scozia dove il giovane vive, il drammatico evento viene vissuto all’insegna di antiche superstizioni e leggende. Aaron, protagonista del film “Il superstite” di Paul Wrigt, si trova dunque a vivere nella condizione paradossale di essere considerato colpevole della propria salvezza. Seguito dalla camera a mano del regista, il ragazzo è oggetto di sguardi all’inizio sbalorditi che lentamente declinano verso la disapprovazione. La sola presenza di Aaron equivale al ricordo indelebile della sventura abbattutasi sul villaggio. Nel momento più intenso della vicenda narrata dal regista scozzese, la comunità – quasi un soggetto collettivo – inizia a pensare che la presunta instabilità del ragazzo possa essere la vera causa della tragedia. Il clima in cui vive non lascia indifferente Aaron, che subisce una metamorfosi, divenendo ciò di cui gli altri lo accusano: un essere da tenere alla larga. Nelle mente del ragazzo si insinua la leggenda secondo cui solo l’uccisione del mostro marino che ha causato la tragedia può restituire alla vita i cinque coetanei scomparsi. Così, attraverso un costante ricorso al flashback, Wright ci porta nelle mente del ragazzo in cui ricordi e realtà, immaginazione e  paura si amalgamano in una miscela giudicata dagli altri follia.

 Il film, che arriva nelle sale il prossimo 6 marzo, è valso al regista la candidatura, come miglior esordio,  negli Oscar britannnici (BAFTA 2014). “Il superstite” è un film intenso sull’approccio alla diversità, sulla paura, ma anche sul labile confine che separa la realtà dalle ossessioni. È dunque un lungometraggio sulla complessità di una vicenda psicologica, ben narrata in tutte le sfumature in cui essa si dispiega. Gli attori George McKay, nella parte di Aaron, e Kate  Dickie, nel ruolo della madre Cathy, sono davvero bravi ad incarnare la tensione psicologica e la resistenza del coraggio propri dei protagonisti.  Dal punto di vista stilistico, occorre segnalare i diversi tipi di grana del video di cui il film si compone e che non infrangono, ma anzi rinforzano, l’unità narrativa rispetto alla quale avrebbe forse giovato l’eliminazione di qualche scena che rischia di appesantire una trama comunque avvincente.

Nel clima plumbeo della scena finale del film, alcune grida richiamano gli abitanti sulla spiaggia. Anche Cathy accorre, devastata dall’ennesima scomparsa del figlio. Ciò che si para di fronte ai loro occhi è tale da immobilizzare tutti i presenti. Solo Cathy, spinta da una forza interiore, si avvicinerà alla misteriosa presenza che attende sul bagnasciuga. E così, solo nei fotogrammi finali sapientissimamente scelti dal regista, mentre gli abitanti del villaggio riacquisteranno la propria libertà, il film troverà il suo senso definitivo.

[Pubblicato nella rubrica PUNCTUM del Nuovo Quotidiano di Puglia]