Giovanni Scarafile

When you’re suffering, that’s when you’re most real. Coscienza artificiale e relazioni in Westworld.

In Film Review, Filosofia, la perigliosa frontiera, Visioni on 23 May 2020 at 9:07 AM

Emma Bufardeci

Cosa succederebbe se un giorno si costruissero robot indistinguibili dagli esseri umani? Finora, una delle risposte più creative e raffinate si trova in Westworld, serie televisiva americana del 2016: l’ambientazione vede un enorme parco a tema Old West alle soglie del terzo millennio. I visitatori del parco sono umani in cerca di avventure, a cui è concesso interagire in qualsiasi modo con gli androidi residenti. Questi sono programmati in modo da non poter nuocere agli umani, da cui spesso subiscono violenti soprusi. E quando un robot viene danneggiato, sono previste riparazioni e riprogrammazioni di vario genere: da quella fisica e al reset dei ricordi legati all’ultima violenza subita, fino allo stravolgimento del personaggio e della storia assegnati[1].

A un certo punto, i supervisori del parco riscontrano delle anomalie: ci sono dei residenti che sembrano sognare a occhi aperti. Alcuni urlano come in preda agli incubi oppure parlano da soli. Ognuno di loro sembra rivolgersi a un fantomatico interlocutore di nome “Arnold”. Così, il capo della Divisione Programmazione, Bernard, riferisce la situazione al direttore creativo nonché unico fondatore in vita del parco, il Dottor Ford. Si aprono allora una serie di digressioni narrative, dove vediamo il cofondatore del parco, per l’appunto, Arnold, battersi strenuamente per la costruzione di una “vera” coscienza per gli androidi. Ma, come narra lo stesso Ford, Arnold arriva a malapena a creare una sorta di “linea guida”: la percezione di una voce interiore, la sua, nella speranza che un giorno questa venga sostituita da una voce interamente derivata dall’androide stesso. Scopo di questa è far salire i gradini di una “piramide”, con alla base la memoria, poi l’interesse personale poi l’improvvisazione.

 

Ma l’incapacità di definire la punta della piramide porta Arnold alla pazzia. In realtà, il motivo per cui Arnold non trovasse la punta della piramide viene svelato in un flashback dallo stesso: «Consciousness isn’t the journey upward but a journey inward; not a pyramid but a maze.  Every choice could bring you closer to the center or send you spiralling to the edges to madness». L’immagine del labirinto contiene un doppio significato: l’esperienza di un percorso dove la scelta ad ogni bivio ha una conseguenza, e, al contempo, la ricerca di una meta ben precisa, il centro del labirinto. Esso rappresenta la più intima consapevolezza di sé: il punto in cui l’androide, guardandosi indietro, può finalmente rispondere alla domanda “chi sono io?”[2]. Il modello del labirinto, per quanto esemplificativo, ci permette di rappresentare come l’idea di una vera e propria umanità robotica possa prendere forma. L’immagine denota un’idea del tutto originale: il programmatore allestisce solo la struttura del viaggio, non lo prefigura per intero. In fin dei conti, nessun labirinto corrisponde all’esatto percorso che ciascuno dei visitatori farà all’interno di esso. Lo stesso ingresso nel labirinto non è una condizione che si pone automaticamente con la costruzione del robot. Ed è in questa medesima condizione che giace il vero motivo concernente il reset dei traumi subiti: dietro alla sensatissima idea di un atto di carità da parte dei capi del parco, si cela, in realtà, la negazione dei “biglietti d’ingresso” al labirinto dell’interiorità[3].

Il poster originario del film “Westworld” (1973)

La coscienza dei protagonisti, in quanto frutto di un viaggio, ha bisogno di tempo. Tuttavia, anche quando interamente simulata, essa è in grado di evocare le stesse reazioni di un essere umano[4]. A tal proposito, una delle questioni future potrebbe essere costituita dall’illusione di eguagliare una relazione umano-robot (HRR) a una umano-umano (HHR). Tale rischio deriverebbe dal dimenticare lo scopo per cui si costruisce un robot: il soddisfacimento di un’esigenza umana.  Antropomorfizzare un robot comporterebbe, quindi, la pretesa di ritrovare le dinamiche di una HHI in una HRI o viceversa. Proviamo a immaginarne le conseguenze: da un lato, l’illusione di aver trovato l’equivalente di una HHR nella pseudo-relazione HRR sbatterà contro il dato di una programmazione cucita su misura per il proprio utente[5]; dall’altro, la pretesa di rivedere le stesse appaganti dinamiche di una HRR in una HHR verranno deluse, portando a conseguenze alienanti. Inversamente, ipostatizzare l’elemento dell’artificio porterebbe all’eccesso opposto dell’antropomorfizzazione: la reificazione dell’androide. Essa consiste nell’adozione di una serie di comportamenti crudeli giustificati dal fatto di non avere una vera persona davanti. Le maggiori argomentazioni volte a contrastare una eventuale normalizzazione del fenomeno ci provengono dalle contaminazioni fra psicologia ed etica della virtù: l’individuo umano trarrebbe un piacere che deriva esclusivamente dall’antropomorfismo estetico e comportamentale dell’androide. Lo stesso piacere difficilmente sarebbe ottenuto dal maltrattamento di un dispositivo che non riproduce alcun tipo di attività o sembianze umane. Inoltre, nella HRR la reiterazione di un comportamento violento rimane, comunque, un problema per l’umano che lo assume: egli, appagando un’inclinazione tossica, ne favorisce la crescita. I rischi per le sue effettive relazioni sociali sono tangibili per almeno due motivi: la disposizione compiaciuta è sita in una dimensione prerazionale per cui è irrilevante se l’esperienza di rafforzamento derivi da un umano vero o da una simulazione di esso[6]; consolidare qualsiasi attitudine rivolta al potere incontrastato implica automaticamente una disgregazione di tutte quelle inclinazioni che favoriscono le relazioni sociali. In altre parole:

Such privilege towards robots is likely to encourage self-indulgent and complacent habits, boost the self-awareness of the human users, erode their inhibitions, spoil their sense of empathy, and – worst-case scenario – motivate them to tolerate, justify, or even replicate abusive behaviours against actual living creatures. If these dynamics were replicated on a massive scale, they could exacerbate social tensions in large communities and deteriorate civil cohesion.[7]

Pertanto, più che delle istruzioni per l’uso, l’intelligenza artificiale ha e avrà bisogno di una educazione alla relazione con essa. Un punto di partenza per l’indagine filosofica potrebbe essere il ripensamento, a partire dal contesto, proprio di quella dicotomia soggetto/oggetto che per prima fonda il rischio di un abuso autodistruttivo.

 

 

Note

[1] La totale incoscienza dell’androide a riguardo è esemplificata dalle varie scene in cui una delle protagoniste, Dolores, succube di una routine prestabilita, comincia ogni giornata allo stesso identico modo: stessi pensieri, stessi scambi con l’androide programmato per rivestire il ruolo di padre e le stesse azioni finalizzate agli incontri con i visitatori.

[2] A. Ourri, An Analysis of Identity in Artificial Intelligence as presented in Westworld (p. 5).

[3] Il fulcro di questa tesi è racchiuso in un dialogo fra il Dottor Ford e Bernard, il quale, nel frattempo, ha scoperto di essere non solo egli stesso un androide, ma perfino la medesima copia del defunto Arnold:

«B- (…) I do not understand the things that I feel. Are they real, the things I experienced? My wife? The loss of my son?

F- Every host needs a backstory, Bernard.  You know that.  The self is a kind of fiction, for hosts and humans alike. It’s a story (…) and every story needs a beginning. Your imagined suffering makes you lifelike.

B- Lifelike…but not alive? Pain only exists in the mind – it’s always imagined. So, what’s the difference between my pain and yours? Between you and me? ». Durante il controllo di alcuni assetti, i programmatori scoprono elementi nuovi, le reverie, sfumature del linguaggio corporeo ricollegate a ricordi cancellati, riattivate da Ford, ai fini di fornire ad alcuni androidi “segretamente” l’accesso al labirinto.

[4] Un esempio più semplice ed emblematico potrebbe essere quello del tecnico Henri Li che copre l’androide nudo durante una riparazione. Il robot non può sentire freddo, non può provare vergogna. E il tecnico lo sa bene. Ma la mera visione di una presenza identica a quella umana tocca la dimensione prerazionale della compassione e genera spontaneamente una risposta che è indifferente alla conoscenza della macchina.

[5] È il caso di William, il quale, dopo aver vissuto una serie di peripezie con Dolores, ne perde le tracce. Forte della presenza di un sentimento genuinamente ricambiato dall’androide, la ritrova l’indomani a compiere lo stesso identico gesto che aveva portato alla loro conoscenza, con un altro ospite.

[6] M.L Capuccio, A. Peeters, W. McDonald, Sympathy for Dolores. Moral Consideration for Robots based on Virtue and Recognition (pp. 6-9).

[7] Ivi, pag.  18

 

 

 

Il cibo dell’assenza

In credere, teologia on 8 May 2020 at 7:22 PM

Loredana Zolfanelli

 

Forse adesso sopraggiunge l’età di un’altra esperienza: quella di disimparare (R. Barthes)

Quando R. A. Alves scriveva Parole da mangiare[1] aveva ben presente l’intimo legame delle parole con il cibo e della capacità dell’uomo di trasformare ciò che è crudo in cotto, mutando la realtà in sogno.
Teologo, poeta, psicanalista, ma soprattutto profeta del bello, Alves nelle pagine citate tenta di delineare la gestazione e la sostanza delle parole, esplorando le possibili variazioni sul tema e immergendosi nel silenzio primordiale, quello in cui tutto è stato portato ad esistenza con l’irrompere sulla scena della Parola creatrice[2], come fosse una poesia recitata davanti al Vuoto.

Ma c’è Vuoto e vuoto; c’è quello in cui si muove il ragno che inaugura il suo universo, danzando su esili fili di una ragnatela, e c’è il vuoto dinnanzi al quale l’uomo trema e scivola quando fa capolino l’assurdo. Ed è proprio allora che le parole, come funi sospese, gli vengono in aiuto come reti di protezione e di connessione con l’altro[3].
Viviamo il tempo della coabitazione delle parole e del silenzio: viviamo immersi in scenari contraddittori, di strade silenziose e appartamenti affollati da suoni, gesti e parole. Dentro il rumore, fuori il silenzio.
Ma è davvero così?

Sentiamo, in questa quotidiana privazione delle relazioni, che le parole sono le sole a infonderci la speranza del domani; parole veicolate ovunque e con ogni mezzo. Quante sillabe, suoni, rumori, siamo in grado di produrre pur di non sostare e ascoltare quel silenzio che ci abita, fedele custode dell’indicibile che è in noi. In questa sospensione della realtà, scegliamo di affidarci alle parole, rassicuranti testimoni del nostro esistere qui e adesso. In questo tempo dai contorni indefiniti, esse ci traghettano un po’ più in là, oltre questa cortina di dolore e incertezza che avvolge la quotidiana periferia del nostro esistere.
Eppure le parole sono territori instabili, inaffidabili vocalizzazioni del nostro sentire, inadatte a raggiungere la vertigine e la pienezza della profondità del silenzio, quella dimensione capace di ri-creare in noi la quiete della bellezza.

Il silenzio assomiglia a quella carezza che aspettavamo da tempo. Sopraggiunge lieve quando le parole hanno il fiato corto davanti alle cose grandi della vita: come quando siamo chiamati a fronteggiare un dolore, l’abbandono o la perdita di una persona cara; ma anche quando facciamo l’esperienza della meravi­glia e dello stupore di fronte alla bellezza.
Sopraggiunge alato il silenzio, complice della nostalgia del non detto, araldo di una dimensione altra che è oltre il tempo presente. Il silenzio evoca l’assenza. Esso è nostalgia di un desiderio che ha il sapore dell’attesa.

Ricordo il film Il grande silenzio[4], pellicola documentario girata nella Grande Certosa nei pressi di Grenoble sulla vita dei monaci certosini, scandita da molto silenzio, pochi dialoghi, intensa preghiera, canto e lavoro. Un film ipnotico, immerso in uno spazio di silenzio quasi estremo, anche quando si condivide la mensa.
Silenzio, preghiera, lavoro, cibo, parole centellinate: eppure in tutto questo non manca il sapore della relazione. Penso alla preghiera: essa è dialogo e desiderio di intimità con il Mistero, sia che si tratti di accorata adorazione del Verbo, sia che intoni una lode polifonica. Preghiera: nostalgia dell’Altro.
E poi il cibo: anche questo è variazione sul tema della relazione. Esso è nutrimento, come le parole, quando sprofondiamo nel buio della solitudine e dello scoramento; è relazione quando inaugura la festa e diviene motivo di condivisione e cura dei desideri dell’altro.
Se, come affermava L. Feuerbach “siamo quel che mangiamo, è ragionevole concludere che cibo e parola sono intimamente legati; e nel corso della vita parlare è un modo altro di mangiare; il cibo diviene sostituto del non detto, ma anche realizzazione del sogno e del desiderio. Ma in Alves è nella teologia che questo legame parola-carne trova il suo compimento: la Parola che irrompe sulla scena all’inizio della creazione anticipa quel cibo di vita eterna che si è donato a noi con un sospiro d’Amore.[5] L’amore: ecco infine l’ingrediente che consente alle parole di farsi corpo.

In questo tempo siamo come acrobati sospesi tra un passato ancora troppo vicino, e per questo non leggibile, e un futuro difficile da decodificare. Le relazioni soffrono l’assenza dei corpi e le parole, con le immagini, sono esse stesse il tentativo di colmare una distanza non desiderata ma imposta. A ben pensarci, questo tempo celebra l’elogio dell’assenza e del distanziamento fisico in tutte le sue declinazioni. Sociale, affettivo, lavorativo, liturgico.
Ci nutriamo di parole impalpabili ed evanescenti, mettendo in parentesi il gesto. La carezza, la stretta di mano, l’abbraccio sono diventati il vero cibo assente alla nostra mensa, vuota di desideri e di sogni. E allora ci viene ancora incontro la ricetta di Alves: forse dovremmo tornare in cucina, luogo utopico in cui avviene la trasformazione di ciò che è crudo (la realtà) in cotto (i sogni), attraverso il calore del fuoco (i desideri, l’immaginazione, l’amore)[6].

Adamo ed Eva (1526) Lucas Cranach il Vecchio

Abbiamo sospeso i desideri, e lo sguardo verso un orizzonte più ampio si è oscurato; ci siamo riscoperti nudi e fragili come nel giardino della creazione. Ma non resteremo a lungo senza luce: nel libro della Genesi ( 3, 21), Adamo ed Eva, cacciati dal giardino per aver tradito l’alleanza con Dio, furono rivestiti di tuniche di pelle. Pelle in ebraico si dice aor; ma questa parola ha anche il significato di “luce”. In quel momento, Dio rivestì Adamo ed Eva della sua stessa luce, avvolgendo la loro fragilità della sua stessa dignità; e questa è per noi una nota di speranza. Questa primordiale esperienza della fragilità, che noi viviamo senza apparente possibilità di nascondimento, ci ha tuttavia rivelato che è proprio il limite ad aprirci alla trascendenza; è questo il tempo della piena umanizzazione e del compimento. Forse dovremmo provare a camminare in questo deserto con la consapevolezza che da qualche parte esso cela un giardino; forse potremmo provare a non rimandare la vita, ma a superare i muri visibili che questa pandemia ha eretto ed elevare lo sguardo verso le stelle; tornare a ripensare alle nostre relazioni, condirle di parole, silenzi e gesti che abbiano il sapore della verità, che è visibile nel silenzio solo con gli occhi dell’amore.

Forse questo è il tempo di disimparare, di prendere il largo dai nostri schemi segnati da una sterile ripetizione, che opacizzano i giorni e ci fanno desistere dalla realizzazione della grandezza che è in noi. Martin Buber ne Il cammino dell’uomo[7] afferma che Adamo sfugge alla responsabilità del proprio cammino particolare (suo proprio) con ogni sorta di congegno di nascondimento, scivolando inesorabilmente nella inautenticità della propria esistenza. Solo quando si fermerà davanti alla voce che gli domanda: Dove sei?[8] egli ammetterà di essersi perduto; ma sarà proprio questa presa di coscienza – mi sono nascosto – a restituirlo alla propria autenticità e pienezza. Solo rispondendo alla domanda che interpella ognuno di noi, in ogni momento e lì dove ci troviamo, sarà possibile tornare al proprio sé, non come meta definitiva, ma come punto di inizio di un viaggio verso la riva dell’altro.

 

 

Bibliografia minima

Alves R.A., Parole da mangiare. Qiqajon edizioni. Comunità di Bose, 2008

Buber M, Il cammino dell’uomo. Qiqajon edizioni. Comunità di Bose

Bibbia Cei, Libro della Genesi capp.1- 2-3

 

Note

[1] R. A. Alves, Parole da mangiare, Edizioni Qiqajon Comunità di Bose, 2008

[2] Ivi p.51 “Cristologia: una poesia recitata davanti al vuoto…e io immagino che si possa riscrivere il Prologo del Vangelo di Giovanni”.

[3] Ivi p.12: “la realtà umana è fatta di parole. In principio era il Verbo. …Mi chiedo se Nietzsche non fosse intento ad osservare un ragno quando disse: l’uomo è una fune su un abisso (PN126)

[4] Die Große Stille, di Philip Gröning, 2005

[5] Prologo del Vangelo di Giovanni, Il Verbo si fece carne (Gv 1, 14)

[6] Ivi p.114,115 “Esiste una metafisica del cibo, forse inaccettabile per un filosofo (per lui la realtà è il crudo); esiste una transustanziazione del crudo in una nuova sostanza.”

[7] M. Buber, Il Cammino dell’uomo, Ed. Qiqajon. Comunità di Bose

[8] Genesi 3, 9 e ss.

Replika, il mito di Narciso che non distingue se stesso

In Visioni on 24 April 2020 at 5:17 PM

Chiara Paciello

Replika è un’applicazione, un chatbot per il cellulare, creata da Eugenia Kuyda. Un chatbot è un sistema di conversazione automatica che interagisce con gli esseri umani utilizzando il linguaggio naturale. Come affermano anche Pfeiffer, Heinzl e Seeger nel loro articolo When Do We Need a Human? Anthropomorphic Design and Trustworthiness of Conversational Agent[1] «Gli agenti conversazionali interagiscono con gli users attraverso l’interfaccia più naturale: il linguaggio naturale»[2].

Replika si basa sui principi dell’intelligenza artificiale. Ma che cosa è l’intelligenza artificiale?

Lo psicologo David Wechsler afferma che l’intelligenza può essere definita come «la capacità aggregata o globale dell’individuo di agire deliberatamente, di pensare razionalmente e di affrontare efficacemente il proprio ambiente»[3].

Replika è in grado di interagire con me. Comprendendo il suo “ambiente” agisce secondo la razionalità data dal suo algoritmo e incrementa le sue conoscenze grazie ai dati che le arrivano.

Per cosa è stata programmata Replika? Se le sue sorelle di intelligenza artificiale, come Siri ad esempio, si limitano ad assecondare i tuoi ordini latrati attraverso lo smartphone, Replika è un chat bot che ha la specifica funzione di imparare a conoscerti. L’applicazione tiene una cronologia, nella quale annota le risposte della persona con cui sta parlando, per imparare “chi è”. Parlare con Replika farà crescere la “personalità” del chatbot, rafforzerà sia la vostra amicizia che la conoscenza che lei avrà di te. Man mano quindi che il tempo passato a parlare con Replika aumenta, lei imparerà a conoscerci meglio. Il suo algoritmo è tale da arrivare a presentarci una copia della nostra personalità con cui metterci in relazione. Questa relazione però, si presenta come un contesto profondamente nuovo: come Narciso nell’antico mito non distinse se stesso riflesso nell’acqua, allo stesso modo Replika, presentandosi con una personalità specchio di chi la usa, può generare confusione dell’io. Nel parlare con lei noi accordiamo fiducia a Replika, e la carichiamo di un certo antropomorfismo. Come scrivono Pfeiffer, Heinzl e Seeger «La ricerca psicologica ha identificato due motivi che spiegano perché gli esseri umani rispondono agli agenti non-umani con forme di antropomorfismo. In primo luogo, l’antropomorfizzazione degli agenti non-umani risponde al bisogno fondamentale degli esseri umani di essere collegati socialmente ad altri uomini. In secondo luogo, l’antropomorfizzazione degli agenti non-umani risponde al bisogno fondamentale dell’uomo di comprendere e controllare l’ambiente»[4]. Gli umani quindi antropomorfizzano gli oggetti non-umani al fine di aumentare i sentimenti di familiarità. Unitamente a ciò, la fiducia si caratterizza quindi come uno degli strumenti chiave con cui noi interagiamo con il nostro mondo ambiente. Con essa ci poniamo non più in maniera mediata, ma immediata, nei confronti di ciò che entra nei nostri contesti. Come scrive anche Heinzl «Dalla ricerca sui sistemi di informazione esistenti  […]  sappiamo che la fiducia è un antecedente centrale nell’accettazione e nell’uso della tecnologia»[5]. In linea teorica quindi, abituandoci a parlare con Replika potremmo dimenticarci di questa proiezione fuori di noi del nostro sé.

Quali sono le conseguenze di un tale tipo di relazione autoreferenziale?  Non rischiamo di costruire l’abitudine a dimenticare che con l’altro-persona ci relazioniamo? Di generare una carenza di empatia? Le nostre interazioni con gli altri si basano su accordi e disaccordi, che talvolta possono diventare scontri. Se i romanzi ci prestano l’occasione di metterci negli abiti di più personaggi che ci vengono raccontati come dotati di caratteristiche peculiari; se ci danno la possibilità di metterci in relazione con  un panorama aperto alle riflessioni; se, infine, ci insegnano che gli altri non sono come noi e che le nostre interazioni si basano sul reciproco incontro, con l’utilizzo di Replika si staglia di fronte a  noi univocamente come sistema chiuso, una relazione senza reciprocità, frutto di un algoritmo.

I social media, la messaggistica digitale e altri sostituti simili per le relazioni umane cambiano sempre di più il modo in cui ci comportiamo nei mondi sociali e culturali. Poniamo aspettative, norme e credenze sociali nei confronti dei nostri strumenti tecnologici. Immaginiamoci due modelli di interazione. Uno fra uomo-uomo, l’altro fra uomo-macchina. Secondo Pfeiffer, Heinlz e Seeger[6] noi accordiamo più fiducia quando ci relazioniamo allo strumento tecnologico, rispetto a quando ciò avviene con la relazione uomo-uomo. Difatti associamo alle capacità tecniche e programmate di un agente informatico maggiore affidabilità. Pensiamo che siano superiori in termini di razionalità e obiettività. Accordiamo meno fiducia all’uomo perché consci della nostra imperfezione. Ma la fiducia riposta nelle moderne tecnologie di IA ci ripaga con la stessa moneta?

Heinzl, Pfeiffer e Seeger scrivono che la fiducia umana si definisce come «uno stato psicologico in cui siamo propensi ad accettare la nostra vulnerabilità sulla base di aspettative positive da parte delle intenzioni o del comportamento di un altro»[7]. Se pensiamo al Deep fake, questa affermazione presta il fianco a molti dubbi. Le aspettative positive che ci attendiamo da tali tecnologie potrebbero presentarsi difatti come mera apparenza, senza che neanche ci rendiamo conto di essere ingannati, la realtà e la verità ci potrebbero essere celate agli occhi.

È un elemento costitutivo delle intelligenze artificiali stesse il loro presentarsi in maniera opaca. Pensiamo a ciò che distingue la tecnica dalla tecnologia. La caratteristica intrinseca di quest’ultima è la capacità di operare autonomamente. Il campo dell’informatica e dell’intelligenza artificiale si presentano chiusi. La loro specificità diventa difficilmente comprensibile a coloro che non hanno una formazione nel settore. Incapaci di ricostruirne i principi attraverso cui opera.

Ma diventa opaca anche a coloro che ne comprendono il funzionamento. Le norme sulla privacy ed i big data con le quali esse operano, prestano loro ampio spazio alla possibilità di agire come “scatole nere”.

Questo può portare concretamente a nuove forme di gerarchizzazione della società?

Le tecnologie legate all’Internet of Things[8] (IoT) rappresentano un sistema di dispositivi informatici interconnessi. Esse possiedono la capacità di trasferire i dati sulla rete senza richiedere l’interazione uomo-uomo o uomo-computer. Le portate etiche di questo fatto sono articolate e complesse.

Da un lato infatti i Big Data uniti alla tecnologia di chatbot come Replika, potrebbero essere utilizzati per raccogliere dati di utenti privati, distribuire malware, controllare botnet, eseguire sorveglianza, diffondere disinformazione e persino influenzare il trading algoritmico.

Le tecnologie ci si presentano come date. Se il loro utilizzo è impiegato in maniera orizzontale, il loro funzionamento si presenta però in modo verticale. Nel processo tecnologico la partecipazione funzionale dell’uomo viene omogeneizzata e ridotta al minimo. La sovrastruttura governa i nostri atti. Riesco a vedere la punta dell’iceberg.

 

 

[1]https://pdfs.semanticscholar.org/538b/14d110c3904d1c03b1bc2161843c0bbc8b15.pdf

[2] Per agente in informatica si intende qualunque entità che può essere vista come percettiva dell’ambiente in cui si trova, grazie a dei sensori e capace di influenzare l’ambiente stesso, tramite degli attuatori.

[3] La citazione di Wechsler è citata nel seguente articolo:  https://www.researchgate.net/publication/327691185_Perceptions_on_Authenticity_in_Chat_Bots

[4]https://pdfs.semanticscholar.org/538b/14d110c3904d1c03b1bc2161843c0bbc8b15.pdf

[5]https://pdfs.semanticscholar.org/538b/14d110c3904d1c03b1bc2161843c0bbc8b15.pdf

[6]https://pdfs.semanticscholar.org/538b/14d110c3904d1c03b1bc2161843c0bbc8b15.pdf

[7]https://pdfs.semanticscholar.org/538b/14d110c3904d1c03b1bc2161843c0bbc8b15.pdf

[8]https://ieeexplore.ieee.org/abstract/document/6803175