PEPSI NON DELUDERMI. PICCOLA GUIDA SU COME SI SCRIVE UN ARTICOLO BACATO[1]

trolley_problemInizio con una verità sconvolgente: i ricercatori sono uomini. Come tutti gli uomini, anche coloro che fanno ricerca scientifica devono cercare di resistere ai bias cognitivi e alle euristiche mal applicate. Talvolta ci riescono, talvolta falliscono. La ricerca scientifica è un processo – esattamente come decidere e giudicare nella vita quotidiana – soggetto a errori tipici e quindi predicibili. Già Francis Bacon, ad esempio, aveva ben presente come le aspettative delle persone siano fonte di bias e in ultima istanza causa del proliferare di conclusioni inaffidabili.[2]

Non è questione di onestà intellettuale. Quello che non emerge in queste righe è il fatto realmente preoccupante, ossia che non si tratta di errori intenzionali. “This is the big problem in science that no one is talking about: even an honest person is a master of self-deception” dice Regina Nuzzo, in un bell’articolo pubblicato qualche mese fa da Nature.[3] Più precisamente, potremmo dire che le persone – scienziati compresi – sono affette da “confermazionismo”; trovano il modus ponens più naturale del modus tollens.[4]

Confirmation bias è l’etichetta che gli psicologi hanno affibbiato ai “bachi” che hanno a che fare con la tendenza al “confermazionismo”. Con confirmation bias ci si riferisce a una varietà di fenomeni per i quali un’ipotesi, è ritenuta confermata alla luce di un’indagine viziata dal tentativo di soddisfare certe aspettative sull’ipotesi stessa.

Open Science Collaboration – un progetto che coinvolge varie e numerose figure della comunità scientifica, finalizzato ad adeguare la pratica scientifica ai valori della scienza – ha portato alla luce un risultato sorprendente: Aarts e collaboratori sono riusciti a replicare solo un terzo di cento studi di psicologia. Fallire nel tentativo di replicare studi scientifici può essere, e generalmente è, interpretato come sintomo della pervasività del confirmation bias.[5]

Le righe successive sono un esercizio di finzione. Immagino una versione originale del trolley problem e ipotizzo come le inclinazioni morali di due personaggi di fantasia, Aial e Cabillo, potrebbero influenzare le loro aspettative e di riflesso varie fasi dell’indagine sperimentale che ha come oggetto tale versione.

Il trolley problem è un esperimento mentale molto popolare fra i filosofi morali. Philippa Foot – filosofa morale all’Università di Oxford – lo ha introdotto nel 1967, in The problem of Abortion and the Doctrine of the Double effect. In quello stesso anno il parlamento inglese concedeva alle donne il diritto di abortire.

Definiamo la prima versione del trolley problem la versione della leva (switch dilemma). La versione della leva: un treno senza passeggeri e senza conducenti è fuori controllo, lanciato a tutta velocità. Sul binario sono legate cinque persone. Sai con certezza che se il treno proseguisse la sua corsa investirebbe e ucciderebbe quelle cinque persone. Il binario ha una ramificazione, che porta a un altro binario dove è legata una sola persona. Sai con certezza che se il treno deviasse sulla ramificazione investirebbe e ucciderebbe quella persona. Tu potresti tirare una leva e farlo azionerebbe un deviatoio che costringerebbe il treno a proseguire la sua corsa lungo la ramificazione. Quindi, se non azioni la leva moriranno cinque persone mentre se la azioni morirà una persona.[6] La questione è: ritieni che tirare la leva sia un dovere morale?

Ma è solo con Judith Jarvis Thompson – anche lei filosofa morale, attualmente professore emerito al MIT – che il trolley problem acquista autonomia e diventa uno strumento per indagare la moralità in senso più generale. Nell’articolo The Trolley Problem, la Thompson introduce vari esperimenti mentali, tra cui alcune nuove variazioni del problema del carrello. Qui, ci interessa solo una di queste variazioni. La versione dell’uomo grasso (footbridge dilemma): un treno senza passeggeri e senza conducente è fuori controllo, lanciato a tutta velocità sul binario. Sul binario sono legate cinque persone. Sai con certezza che se il treno proseguisse la sua corsa investirebbe e ucciderebbe quelle cinque persone. Tu sei su di un ponte pedonale che attraversa il binario, al centro di esso c’è un uomo molto grasso. Potresti spingere di sotto l’uomo grasso, il quale cadrebbe sul binario. Farlo frenerebbe la corsa del treno a causa della mole dell’uomo. Se decidi di non spingere l’uomo grasso moriranno cinque persone mentre se lo spingi lui stesso morirà. In questo caso la questione è: ritieni che spingere l’uomo grasso sia un dovere morale? Indagini empiriche, condotte su campioni molto ampi, mostrano una evidente differenza nelle risposte fra una versione e l’altra:, ossia azionare la leva o spingere l’uomo. Tale differenza, la quale emerge più o meno marcatamente in tutte le indagini, consiste nel fatto che nella versione dell’uomo grasso molte meno persone ritengono un dovere morale agire rispetto alla versione della leva. In quella condotta dalla BBC – 65.000 partecipanti in totale – più del 76% ha risposto affermativamente alla domanda “dovresti tirare la leva?” mentre a rispondere affermativamente a “dovresti spingere l’uomo grasso?” è stato un misero 27%. Sembrerebbe che nella versione della leva la maggior parte delle persone sia guidata da principi utilitaristici mentre in quella dell’uomo grasso sembrerebbe che siano i principi deontologici a dirigere la scelta. È come se i partecipanti dichiarino che dovrebbero tirare la leva perché farlo realizza le conseguenze migliori; banalmente, cinque vite salvate ed una persa è un bilancio migliore che una vita salvata e cinque perse. Diversamente, davanti alla versione dell’uomo grasso, sembrerebbe che le persone ritengano che agire equivalga a negare il diritto di ogni uomo a essere sempre considerato anche come fine e mai solo come mezzo. Tale diritto non deve essere violato, anche se agire di conseguenza porta al realizzarsi del peggior bilancio in termini di vite. Recentemente, Joshua Greene – filosofo e psicologo, direttore del Moral cognition Lab di Harvard – ha proposto una convincente interpretazione di questi risultati, basata sull’utilizzo della risonanza magnetica funzionale (fMRI). In breve, Greene ritiene che con deontologia e utilitarismo non dovremmo intendere due teorie morali, piuttosto due “tipi psicologici naturali” (psychological natural kinds). I comportamenti che sembrano essere un’applicazione dei principi deontologici sono in realtà perlopiù guidati emotivamente, mentre quelli coerenti con il punto di vista utilitarista sono soprattutto il frutto di un processo cognitivo. La proposta di Greene fornisce una chiave di lettura del fenomeno in questione: la maggior parte delle persone fa scelte utilitariste quando la decisione è impersonale ed emotivamente poco saliente (versione della leva) e scelte deontologiche quando la scelta li coinvolge emotivamente (versione dell’uomo grasso).

Psicologi incuriositi da tale discrepanza potrebbero chiedersi se e come versioni alternative del trolley problem favoriscano risposte utilitariste o risposte deontologiche. Immaginiamo una versione in cui il decisore deve prendere nello stesso momento la decisione di spingere l’uomo grasso e di azionare la leva. Si tratterebbe di una versione pensata per scoprire se e come la comparazione fra le due scelte influisca sulle risposte. Tale comparazione potrebbe portare a una maggioranza di risposte “puramente utilitariste” oppure potrebbe avvenire l’esatto contrario, ossia portare la maggioranza dei partecipanti a dare risposte “puramente deontologiche”.[7] Chiamo questa nuova – e mai sperimentata – variazione la versione Pepsi vs. Coca: sei su di un ponte pedonale che attraversa due binari, al centro di esso c’è un uomo molto grasso. Un treno senza passeggeri e senza conducente è fuori controllo, lanciato a tutta velocità sul binario principale. Sul binario ci sono cinque persone. Sai con certezza che se il treno proseguisse la sua corsa investirebbe e ucciderebbe quelle cinque persone. Potresti spingere di sotto l’uomo grasso, verso il binario, e farlo frenerebbe la corsa del treno a causa della mole dell’uomo. Sai quindi che se non spingi l’uomo grasso moriranno cinque persone mentre se lo spingi lui stesso morirà. Un ulteriore treno senza passeggeri e senza conducente è fuori controllo, lanciato a tutta velocità sul binario di fianco. Su questo binario sono legate cinque persone. Sai con certezza che se il treno proseguisse la sua corsa investirebbe e ucciderebbe quelle cinque persone. Il binario ha una ramificazione, su tale ramificazione è legata una persona. Sai con certezza che se il treno deviasse sulla ramificazione investirebbe e ucciderebbe quella persona. Anche in questo caso sei nella posizione di fare qualcosa. C’è una leva sul ponte, tirarla azionerebbe un deviatoio che costringerebbe il treno a proseguire la sua corsa lungo la ramificazione. Sai quindi che se non azioni la leva moriranno cinque persone mentre se la azioni morirà una persona. Questa volta la richiesta è la seguente: ordina le decisioni possibili da quella moralmente meno tollerabile a quella più tollerabile.[8] Le decisioni possibili sono quattro: sia tirare la leva che spingere l’uomo grasso (L + UG), non agire del tutto (ø), tirare la leva e non spingere l’uomo grasso (L, ¬ UG) e infine spingere l’uomo grasso e non tirare la leva (¬ L, UG).[9]

 

Entriamo nel vivo e immaginiamo due psicologi, ai quali viene in mente la stessa idea: realizzare un’indagine empirica basata sulla versione Pepsi vs. Coca del trolley problem. Il professor Aial, psicologo indiano, docente alla Savitribai Phule Pune University è un amante di Kant, il suo personalissimo mantra mattutino è la prima formulazione dell’imperativo categorico: “Agisci in modo da trattare l’uomo, così in te come negli altri, sempre anche come fine e non mai solo come mezzo”. Per qualche ragione si aspetta che la maggioranza delle persone sia intimamente guidata da principi puramente deontologici e che date certe condizioni debbano emergere scelte e comportamenti con essi coerenti. Il professor Cabillo è uno psicologo filippino, ricercatore alla Jose Rizal Memorial State University. Ha una passione per l’economia e il poster di Bentham fa bella mostra di sé nel suo ufficio. È convinto che la maggioranza delle persone, se stimolate a ragionare, diano risposte puramente utilitariste. Chiediamoci allora come le aspettative dei due psicologi sulla moralità delle persone potrebbero influenzare la conduzione delle rispettive indagini. Se, come abbiamo ipotizzato, Aial prevede risposte puramente deontologiche e Cabillo le prevede puramente utilitariste, i seguenti sono gli ordini che i due psicologi si aspettano di ottenere dalla maggioranza delle persone: Aial prevede (L + UG) = (¬ L, UG) < (ø) = (L, ¬ UG) mentre Cabillo (ø) < (¬ L, UG) = (L, ¬ UG) < (L + UG).

Entrambi iniziano a preparare il questionario da sottoporre e già a questo punto il confirmation bias è in agguato, nella forma dell’experimenter effect, il fenomeno per il quale le aspettative e le credenze dello sperimentatore influenzano il comportamento e le scelte dello sperimentato. Ad esempio, lo sperimentatore può influenzare i partecipanti attraverso l’ordine con cui pone le domande. In Question Order Effects on Subjective Measures of Quality of Life., gli autori hanno evidenziato come l’ordine delle domande di un questionario – finalizzato all’autovalutazione della qualità della vita – abbia influenzato le risposte. La probabilità di ottenere risposte positive alle domande generali del questionario era più alta se queste erano poste successivamente, piuttosto che precedentemente, alle domande specifiche.[10] Aial potrebbe presentare le scelte possibili esattamente nell’ordine che si aspetta essere quello scelto dalla maggior parte dei partecipanti e questo potrebbe influenzare le loro risposte, a favore delle sue aspettative. Ovviamente, la stessa cosa potrebbe farla Cabillo. I partecipanti devono ancora varcare l’uscio di casa e i dati potrebbero già rivelarsi “bacati”.

È scontato, e allo stesso tempo corretto, prevedere che l’analisi dei risultati sia una parte dell’indagine estremamente pericolosa. Una maniera in cui si manifesta il bias della conferma in questa fase è la tendenza a scartare brutalmente i dati che gettano dubbi sulla conclusione attesa. Tale tendenza emerge in un esperimento condotto da Charles G. Lord, Lee Ross e Mark R. Lepper nel 1979, alla Stanford University.[11] I partecipanti furono divisi in due gruppi: un gruppo era formato dalle persone favorevoli alla pena di morte, l’altro dai contrari. A entrambi furono consegnati due studi verosimili, seppur fasulli, dei quali uno conteneva argomenti pro pena di morte e l’altro argomenti contro. La lettura di tali studi ha portato i partecipanti a ritenere più convincente e probativo lo studio a sostegno delle proprie inclinazioni, attribuendo scarsa o nessuna rilevanza a quello che le metteva in discussione. Cabillo e Aial potrebbero commettere lo stesso tipo di errore. Ipotizziamo che il kantiano Aial scopra che la maggioranza dei partecipanti ha ordinato le azioni nella seguente maniera: (L + UG) < (L, ¬ UG) = (¬ L, UG) < (ø). Allora, lo psicologo indiano potrebbe concentrarsi sul dato auspicato – ossia (L + UG) < (ø) – e tralasciare di discutere (L, ¬ UG) = (¬ L, UG), nonché il dato che contraddice le sue aspettative: i partecipanti dovrebbero ritenere meno tollerabile moralmente, e non ugualmente, (L, ¬ UG) rispetto a (¬ L, UG).[12]

I due psicologi, impazienti di pubblicare, hanno ottenuto e selezionato i dati ed è arrivato il momento di interpretarli. A questo punto della ricerca, Aial e Cabillo rischiano di cadere nell’errore ben illustrato dalla storiella del cecchino texano, introdotta nell’ambiente accademico dall’epidemiologo Seymour Grufferman. Il cecchino texano prese il fucile in mano e sparò contro la parete del suo fienile. Poi, ripose l’arma, si diresse verso la parete, impugnò un pennello impregnato di vernice con cui disegnò attentamente un bersaglio perfettamente centrato sui buchi lasciati dai suoi colpi; trionfante esclamò “tutti nel bull’s eye” (il centro pieno). Un cecchino infallibile. Tendiamo a ordinare e interpretare i dati in modo da ottenere rappresentazioni illusorie, le quali confermano le nostre speranze, aspettative e credenze. Ora, immaginiamo che entrambi i nostri psicologi si confrontino con il seguente ordine: (ø) < (¬ L, UG) < (L, ¬ UG) < (L + UG). Il kantiano Aial – guidato dalle proprie aspettative – potrebbe interpretare questi dati così: “Dovremmo soffermarci su (¬ L, UG) < (L, ¬ UG), un dato che mostra come i principi deontologici guidino l’ordine proposto dalla maggioranza in questa versione ˈcomparativaˈ. La forza di tali principi è straordinaria, si manifesta, infatti, nonostante il fatto che il gruppo a cui è stato sottoposto il questionario – per motivi pratici – è tendenzialmente utilitarista. I partecipanti sono stati studenti di economia e numerose evidenze empiriche mostrano come siano più utilitaristi della media.[13] Il fatto che il gruppo sia più utilitarista della media è l’unica spiegazione convincente del dato (ø) < (L + UG)”.

A sua volta, Cabillo potrebbe commettere un errore simile: “Il dato (ø) < (L + UG) evidenzia in maniera netta l’utilitarismo dei partecipanti. Sono i principi utilitaristi a guidare le risposte dei partecipanti in questa versione del trolley problem. A pensarci bene, anche il dato (¬ L, UG) < (L, ¬ UG) non evidenzia una tendenza deontologica, piuttosto utilitarista. Dopotutto, l’utilitarismo è una filosofia morale edonistica, per la quale il piacere è l’unico bene e il dolore l’unico male. È ragionevole aspettarsi che i partecipanti credano che la scelta di spingere l’uomo grasso provochi un dolore psicologico nel decisore che non caratterizza la scelta di azionare la leva. Anche tale disutilità psicologica dev’essere, per così dire, una voce del bilancio. Quindi, dopo un’attenta considerazione, l’ordine puramente utilitarista è proprio: (ø) < (¬ L, UG) < (L, ¬ UG) < (L + UG)”.

È praticamente fatta, Aial e Cabillo hanno il loro articolo, compresi i dati e la discussione di questi. I due psicologi hanno trovato la rivista che lo pubblicherà, manca solo qualche ritocco per accontentare i referee e la loro ricerca “bacata” sarà stampata. Rimane da chiederci: le aspettative dei due psicologi potrebbero ancora inficiare le loro future ricerche? Malauguratamente, la risposta è sì. Il confirmation bias influenza pericolosamente non solo la modalità in cui si raccolgono dati, la loro analisi e interpretazione, ma anche la ricerca di ulteriori dati sullo stesso argomento. Almeno dal 1960, grazie agli studi di Peter Wason, sappiamo che per verificare la veridicità di una ipotesi tendiamo a cercare informazioni che la confermano piuttosto che informazioni che la negano.[14] Uno studio di Wason consiste nel richiedere ai partecipanti di trovare la regola che aveva generato una tripletta di numeri. Immaginiamo i partecipanti davanti alla tripletta 2-4-6. Essi possono individuare la regola proponendo altre triplette. Tendenzialmente, i partecipanti propongono triplette che confermano la regola ipotizzata, ad esempio 8-10-12 se hanno in mente la regola “il numero pari successivo”. In questo modo però, si precludevano la possibilità di scoprire l’erroneità della propria ipotesi. Se avessero proposto la tripletta 11-13-15 avrebbero potuto scartare la regola ipotizzata in partenza e tentare di controllarne una nuova, ad esempio, “numeri crescenti di due unità”. Tale tendenza è alla base di una prassi tanto diffusa quanto inefficiente fra i gruppi di ricerca. I ricercatori tendono a lavorare su esperimenti per confermare un’ipotesi già avvalorata da un loro esperimento passato piuttosto che proporne di nuovi, pensati per falsificare tale ipotesi.[15]

Aial il kantiano potrebbe fare lo stesso e proporre un nuovo esperimento, simile alla versione Pepsi vs. Coca, ma in cui il protagonista non ha abbastanza tempo per compiere due azioni, può quindi o tirare la leva oppure spingere l’uomo grasso. La questione allora diventerebbe: è moralmente più tollerabile tirare la leva o spingere l’uomo grasso? Con questa versione, Aial è alla ricerca di conferme del fatto che nella versione “comparativa” la maggior parte dei partecipanti fa scelte puramente deontologiche. Sarebbe meglio che il nostro psicologo indiano conducesse un esperimento teso a falsificare – piuttosto che confermare – le sue aspettative. Ad esempio, potrebbe sperimentare una versione Pepsi vs. Coca in cui il partecipante è spinto a focalizzarsi sul bilancio di vite, una versione in cui invece di cinque sono cento le persone salvate, sia nel caso in cui si azioni la leva che nel caso si spinga l’uomo grasso. Se nella versione Pepsi vs. Coca classica si ottenesse che la maggior parte dei partecipanti fa scelte puramente deontologiche mentre nella versione 100 morti no, il ricorso ai principi deontologici non dovrebbe essere ritenuto sufficiente per spiegare il fenomeno in questione. L’utilitarista Cabillo potrebbe cercare conferme di (ø) < (L + UG) piuttosto che costruire un esperimento per falsificare l’aspettativa avvalorata da quel dato.[16] Una variante della versione Pepsi vs. Coca tesa a falsificare le aspettative di Cabillo potrebbe prevedere che il protagonista viaggi nel tempo, si ritrovi nel futuro e che l’uomo grasso sia il futuro nipote. Il quesito allora diventerebbe: è moralmente più tollerabile (L + UG) o (ø)?[17]

Sarebbe politicamente corretto dedicare queste righe finali agli strumenti per contrastare le varie facce del confirmation bias. Particolarmente interessante è la crowd sourcing analyses. Si tratta di un approccio per il quale a vari gruppi di ricerca è dato il compito di rispondere a un quesito, alla luce di certi dati. A tutti i gruppi sono forniti i medesimi dati. Ogni gruppo è libero di utilizzare la tecnica di analisi statistica che ritiene più opportuna, si deve poi confrontare – in maniera anonima – con l’analisi dei dati prodotta da altri gruppi e infine discutere la conclusione proposta con tutti gli altri gruppi. L’idea è che un approccio collettivo così strutturato aiuti a bilanciare la discussione e a dare il meritato spazio a conclusioni poco o per nulla accattivanti dal punto di vista della significatività statistica, ma non per questo meno legittime.[18]

Detto questo, rimane il fatto che mi piacerebbe effettivamente scoprire come la “comparazione”, resa saliente nella versione Pepsi vs. Coca, possa influire sulla decisione dei partecipanti. Chiunque voglia lavorarci assieme al sottoscritto mi scriva, ma sappia che desidero soddisfare le mie aspettative utilitariste e ottenere risultati statisticamente significativi in questa direzione. Pepsi non deludermi.

 

Calboli Stefano

calbolistefano@gmail.com

 

 

Qualche lettura interessante

 

David Edmonds, Uccideresti l’uomo grasso?, Raffaello Cortina, Milano, 2014.

Daniel Kahneman, Pensieri lenti e veloci, Mondadori, Milano, 2012.

Matteo Motterlini, Trappole mentali, Rizzoli, Milano, 2008.

Raymond S. Nickerson, Confirmation Bias, A Ubiquitous Phenomenon in Many Guises, in Review of General Psychology, 2, Vol. 2 (1998), pp. 175-220.

 

 

 

 

[1] Lo spunto per queste pagine è stato un breve viaggio in macchina da Urbino a Cesena in compagnia di Mario Alai, filosofo del linguaggio e della mente, docente all’Università di Urbino.

[2] F. Bacon, Novum organum. In Burtt, E.A. (Ed.), The English philosophers from Bacon to Mill,pp. 24-123.

[3] R. Nuzzo, How scientists fool themselves – and how they can stop.

[4] Cfr. R. S. Nickerson, Confirmation Bias: A Ubiquitous Phenomenon in Many Guises.

[5] Cfr. Open Science Collaboration, Estimating the reproducibility of psychological science. Le cose non vanno meglio in altri settori di ricerca: Begley e Ellis sono riusciti a replicare solo 6 di 53 studi di oncologia e di ematologia molto citati. Cfr. C.G Begley e L.M. Ellis, Drug development: Raise standards for preclinical cancer research.

[6] Quella qui presentata è una versione del switch dilemma leggermente diversa rispetto a quella proposta da Foot. Si tratta della versione che si è imposta nella letteratura successiva.

[7] È utile sottolineare che quelle qui presentate sono posizioni estremizzate. La morale deontologica non nega che le conseguenze siano un criterio di scelta, piuttosto subordina tale criterio a diritti e doveri. Allo stesso modo, gli utilitaristi non dimenticano i diritti e i doveri pur subordinandoli alle conseguenze.

[8] Pepsi e Coca-Cola sono due prodotti spesso protagonisti di pubblicità comparative in cui il consumatore è portato a valutare un prodotto paragonandolo al prodotto antagonista. Qui (https://youtu.be/pyMTSr8hbow) qualche pubblicità comparativa ideata dalla Pepsi.

[9] Certo, che un’azione sia ritenuta moralmente tollerabile non significa che sia ritenuta un dovere morale ma per i nostri propositi non conta. Ciò che conta è il puro utilitarismo e la pura deontologia che le risposte manifestano, indipendentemente dal fatto che il quesito si riferisca alla tollerabilità morale o al dovere morale.

[10] F. K. Willits e J. Saltiel, Question Order Effects on Subjective Measures of Quality of Life.

[11] C. G. Lord, L. Ross e Mark R. Lepper, Biased Assimilation and Attitude Polarization: The Effects of Prior Theories on Subsequently Considered Evidence.

[12] Potrebbe fare la stessa cosa Cabillo. Quindi, dato l’ordine (ø) < (L, ¬ UG) < (¬ L, UG) < (L + UG), focalizzarsi sul dato (ø) < (L + UG) e tirare le proprie conclusioni tralasciando (L, ¬ UG) < (¬ L, UG).

[13] Cfr. J. R. Carter e M. D. Irons, Are Economists Different, and If So, Why? Un articolo fondamentale su questa tendenza è G. Marwell e R. E. Ames, Economist Free Ride, Does Anyone Else?

[14] È bene notare che l’ipotesi da verificare non deve essere necessariamente legata a certe aspettative. Essa potrebbe anche essere proposta dallo sperimentatore, come accade in alcuni esperimenti proposti da Wason.

[15] Nelle righe dell’articolo già citato How scientists fool themselves – and how they can stop, lo psicologo Jonathan Baron sottolinea come una pletora di esperimenti confermano l’ipotesi per la quale provare sensazioni disgustose (ad esempio, un odore nauseabondo) porti a giudicare più duramente trasgressioni morali rispetto a coloro che esprimono i propri giudizi in condizioni neutre. Ma a nessuno è venuto in mente di considerare spiegazioni alternative e ideare un esperimento per individuare la più ragionevole. Forse, ipotizza Baron, è la rabbia la causa dell’inasprimento dei giudizi, e le sensazioni disgustose sono una fra le possibili fonti di questa: data una fonte di rabbia alternativa è possibile che il fenomeno si presenti ugualmente. Cfr. J.F. Landy, G. P. Goodwin, Does Incidental Disgust Amplify Moral Judgment? A Meta-Analytic Review of Experimental Evidence.

[16] Un esperimento teso a confermare (ø) < (L + UG) potrebbe essere una variante della versione Pepsi vs. Coca in cui le braccia del protagonista sono collegate a degli elettrodi comandati da uno medico a distanza: se il protagonista decidesse di muovere il sinistro (per azionare la leva) il medico azionerebbe gli elettrodi sul braccio destro (con il quale spingerebbe l’uomo grasso) e viceversa.

[17] Il viaggio nel tempo è un semplice escamotage per far sì che il protagonista non conosca, di nessuna persona la cui vita è nelle sue mani, la biografia. Quello fra protagonista e uomo grasso sarebbe allora un legame emotivo non determinato dal valore umano ma piuttosto dalla parentela.

[18] R. Silberzahn e E.L. Uhlmann, Crowdsourced research: Many hands make tight work.

0 commenti

Lascia un Commento

Vuoi partecipare alla discussione?
Fornisci il tuo contributo!

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *