Leggere la mente dell’altro è una necessità evoluzionistica. Ma se l’altro fosse un robot…?
Cercare nella comunicazione una conferma di ciò che l’altro pensa, non rappresenta solo una conquista sul piano relazionale ma, come visione, è l’idea di dipingere la traccia mentale dei nostri interlocutori, di renderla tangibile, quale centro di gravità della stessa comunicazione; una necessità.
Nella mia tesi (“La teoria della mente nell’interazione uomo-robot in una prospettiva evoluzionistica e in relazione alla teoria della complessità”) tra gli argomenti portanti, vengono messi in evidenza i punti in comune tra l’Interazione Uomo-Robot (HRI) e l’Interazione Uomo-Uomo (HHI) che conducono alla domanda: “Come pensiamo ai robot?”.
Un individuo può pensare ciò che gli altri hanno in mente,
pur senza vederliPremack e Woodruff (1978)
Leggere la mente dell’altro: la Teoria della Mente (ToM)
La Teoria della Mente (‘Theory of Mind’, ToM) o Mentalizing (Frith, Frith, 1999) è la capacità di capire noi stessi e gli altri, dal punto di vista sia implicito che esplicito, in termini di stati soggettivi e di processi mentali (Fonagy, Bateman, 2006; 2008).
Quando un individuo è in grado di comprendere che un determinato comportamento è guidato da credenze personali – e che tali credenze non sono un preciso riflesso della realtà – si afferma che, quell’individuo, possiede una ToM: la capacità di vedere il mondo dal punto vista degli altri, la presa in carico di una prospettiva differente, non propria, appunto, altrui.
È possibile caratterizzare la ToM sul piano relazionale, come il risultato di una routine di simulazioni per mezzo della quale possiamo immaginare di metterci nei “panni” degli altri ed usare la nostra mente come un modello per comprendere la mente altrui (Gordon, 1986; Harris, 1989; Goldman 1989, 1992, 1993, 2000).
Una questione di sopravvivenza
La sopravvivenza dell’individuo all’interno di un gruppo sociale sembra strettamente correlata allo sviluppo di una sensibilità acuta verso informazioni sociali quasi impercettibili (Humphrey, 1976).
Gli esseri umani sono costantemente coinvolti in interazioni complesse di varia natura: cooperano e competono tra di loro, comunicano per scambiarsi informazioni, acquisiscono nuove competenze osservando e imitando gli altri. Un’idea emergente nell’ambito delle neuroscienze cognitive è che per gestire in modo adeguato questa complessità gli esseri umani hanno evoluto meccanismi neurocognitivi specificamente deputati (Adolphs, 2001).
Tra il settimo e il nono mese il cucciolo della nostra specie fa la scoperta, estremamente rilevante, di poter condividere con un altro uno stato mentale come l’intenzione. In altre parole, il bambino piccolo sviluppa una “teoria delle menti interfacciabile”.
Esistono forti necessità evolutive di modellare e prevedere il comportamento futuro degli altri (Biocca, Harms, 2002), di sviluppare quindi una ToM: la sopravvivenza può dipendere dalla capacità di cambiare il corso attuale delle azioni per rispondere a stimoli potenzialmente vantaggiosi o minacciosi.
La sopravvivenza, la riproduzione, la massima trasmissione delle proprie caratteristiche genetiche, fin dalle origini, venivano progressivamente affidate ad una serie di abilità che erano cognitive e sociali allo stesso tempo: la possibilità di procacciarsi cibo attraverso la caccia, di radunarsi in gruppo per difendersi dai predatori o da gruppi rivali poggiava sulla capacità dei maschi umani di formare alleanze così che si rivelasse cruciale saper fare previsioni e prendere il punto di vista degli altri, saperli manipolare. La cura dei piccoli da parte delle madri umane necessitava sapere porre attenzione ai loro bisogni, saperne prevedere le reazioni, prendere il punto di vista, essere in grado di decentrarsi e vedere il mondo con gli occhi del figlio (Attili, 2015).
Allo scopo di mantenere il gruppo coeso ed evitare di rimanere isolati; essere cooperativi al fine di trovare alleati; aiutare i propri consanguinei, era indispensabile poiché tramite essi si aumentava il proprio successo riproduttivo: manipolare gli altri sia al fine di perseguire i propri scopi di sopravvivenza (imbrogliare sulla localizzazione delle risorse, per esempio, facendo credere che esse si trovassero in un luogo piuttosto che un altro; allearsi con un individuo a scapito di un altro) e quelli riproduttivi (indurre nelle femmine la disponibilità alla copula attraverso il corteggiamento), sia al fine di far sì che i propri figli seguissero le indicazioni dei genitori in modo da portarli all’età adulta e farli divenire a loro volta genitori, richiedeva una vera e propria intelligenza machiavellica e in particolare la capacità di spiegare e predire i comportamenti altrui sulla base di stati mentali che non necessariamente dovessero coincidere con i propri (Byrne, Whiten, 1988; Humphrey, 1976; Whiten, Byrne, 1997). La scoperta della mente propria ed altrui sarebbe [dunque] una progressiva conquista evolutiva (Camaioni, 1998).
La teoria della mente nell’Interazione Uomo-Robot (HRI)
Le ricerche, per quanto concerne la ToM nell’HRI, suggeriscono che, dal punto di vista dell’utente, l’interazione con un’entità artificiale è simile all’interazione con gli altri umani (Krämer, et al., 2012), anche se l’intera ricerca che gravita attorno l’HRI mira a superare l’ipotesi dell’uncanney valley, ovvero quel senso di spiacevolezza e inquietudine nel momento in cui il robot raggiunge un livello di somiglianza paritetica all’uomo.
Non indagata nelle attuali ricerche la radice di tale ipotesi, tra le righe di questo articolo, l’uncanney valley è riconducibile ad aspetti prettamente evoluzionistici e letture freudiane, ovvero di uno stato di categorizzazione percettiva di incertezza “vivo o morto” dove ne scaturiscono giudizi percettivi necessari a produrre reazioni perturbanti come nel caso di statue, bambole e automi simili a umani.
Rendere più “vivi” i robot umanoidi può alleviare o sopperire ai sintomi dell’uncanney valley?
Complessità degli umanoidi artificiali interattivi, ToM e HRI – Conclusioni
In altri termini l’implementazione della complessità dei meccanismi cibernetici degli umanoidi artificiali interattivi con la coesistenza di una ToM artificiale – che possa consegnare quella “coerenza” dell’interazione tra uomo e robot – potrà permettere di superare l’uncanney valley, ovvero quella “dissonanza cognitiva” che proviene da un’incongruenza tra le prestazioni dell’hardware e il software (la perfezione estetica non rispecchia le competenze che gli si potrebbero attribuire con una conseguente uncanney valley). Una dissonanza calcolata in base al livello di trust delle persone in relazione alle skills dimostrate dal robot (Freedy, Amos, et al., 2007; Yagoda, Gillan, 2012; Salem, et al. 2015).
[amazon_link asins=’8842068616,8859015022,8815119663′ template=’ProductCarousel’ store=’francioalba-21′ marketplace=’IT’ link_id=’eece6bb2-2a6c-11e8-8f4c-57eeec6b6637′]
Riferimenti bibliografici
- PremacK D. e Woodruff G. (1978), Does the chimpanzee have theory of mind?, in «Behavioral and Brain Sciences».
- Frith C.D., Frith U. (1999). Interacting minds: A biological basis. Science, 286, 1692-1695.
- Fonagy, Peter, and Anthony Bateman. “Progress in the treatment of borderline personality disorder.” (2006): 1-3.
- Bateman, Anthony W., and Fonagy Peter. (2008) “Mentalization-based treatment for BPD.” Social Work in Mental Health 6.1-2. Pag. 187-201.
- Gordon, R. (1986), “Folk psychology as simulation”, Mind and Language, 1. Pag. 158-171.
- Harris, P. (1989), Children and Emotion, Oxford, Blackwell Publishers.
- Goldman, A. (1989), “Interpretation psychologized”, Mind and Language, 4. Pag. 161-185.
- Goldman, A. (1992), “In defense of the simulation theory”, Mind and Language, 7. Pag. 104-119.
- Goldman, A. (1993a), “The psychology of folk psychology”, Behavioral Brain Sciences, 16. Pag. 15-28. – Goldman, A. (1993b), Philosophical Applications of Cognitive Science, Boulder, Colo. , Westview Press.
- Goldman, A. (2000), “The mentalizing folk”, in Sperber, D. (ed.), Metarepresentation, London, Oxford University Press. Goldman, A. e Gallese, V. (2000), “Reply to Schulkin”, Trends in Cognitive Sciences, 4. Pag. 255-256.
- Adolphs, Ralph. “The neurobiology of social cognition.” Current opinion in neurobiology 11.2 (2001): 231-239.
- Biocca, Frank, and Chad Harms. “Defining and measuring social presence: Contribution to the networked minds theory and measure.” Proceedings of PRESENCE 2002 (2002): 1-36.
- Attili, Grazia. “L’evoluzione della Teoria della Mente.” Rivista internazionale di Filosofia e Psicologia 6.2 (2015): 222-237.
- Byrne R.W, Whiten A, editors. Machiavellian intelligence: social expertise and the evolution of intellect in monkeys, apes and humans. Oxford University Press; Oxford, UK: 1988
- Humphrey, Nicholas. A History of the Mind: Evolution and the Birth of Consciousness. Springer Science & Business Media, 1999.
- Krämer, Nicole C., Astrid von der Pütten, and Sabrina Eimler. “Human-agent and human-robot interaction theory: similarities to and differences from human-human interaction.” Human-computer interaction: The agency perspective. Springer Berlin Heidelberg, 2012. 215-240.
- Freedy, Amos, et al. “Measurement of trust in human-robot collaboration.” Collaborative Technologies and Systems, 2007. CTS 2007. International Symposium on. IEEE, 2007.
- Yagoda, Rosemarie E., and Douglas J. Gillan. “You want me to trust a ROBOT? The development of a human–robot interaction trust scale.” International Journal of Social Robotics 4.3 (2012): 235-248.
- Salem, Maha, et al. “Ti fideresti di un robot (difettoso) ?: Effetti dell’errore, tipo di compito e personalità sulla cooperazione e sulla fiducia dei robot umani.” Atti della decima conferenza annuale annuale ACM / IEEE sull’interazione uomo-robot.