IL PARADOSSO DEL MENTITORE PROBABILISTICO

Foto

 

Avete già visto questo rompicapo?

Da una ricerca online (non troppo approfondita), il primo avvistamento risulta risalire a questo post su Google+ del matematico Raymond Johnson di Boulder (Colorado), pubblicato il 20 ottobre del 2011. Non ho trovato occorrenze precedenti, ma non mi stupirei di certo se ce ne fossero. Oltre ai molti commenti al post di Johnson, è possibile trovare online alcune altre discussioni (come questa). Le soluzioni proposte variano parecchio, ma due reazioni sembrano piuttosto popolari.

(1)  È un problema mal posto: mancano le informazioni necessarie per identificare una singola risposta corretta.

(2)  Si tratta di un paradosso.

Nel seguito, spiegherò perché sia (1) sia (2) sono false, almeno rispetto a quella che considero l’interpretazione più plausibile del quesito iniziale. Una soluzione corretta c’è, anche se non è intuitiva. Non sono il primo a dirlo, sia chiaro, ma una spiegazione dettagliata potrà forse essere di interesse (per esempio, a chi volesse provare a servirsi del rompicapo per scopi didattici). Esistono comunque altre varianti del problema per cui è vera (1). Da un punto di vista teorico, d’altra parte, la cosa più interessante è capire se esistono versioni in cui sia vera (2). Secondo me sì, come spiegherò alla fine, aggiungendo però alcune cautele e un suggerimento per chi avesse voglia di approfondire.

 

Soluzione del problema iniziale

Innanzi tutto, darò per scontato che “scegliere a caso” in una lista di n opzioni significhi che ogni opzione ha la stessa probabilità di essere scelta (1/n). Si tratta di un presupposto che mi pare molto naturale, ma che è meglio esplicitare, perché in sua assenza il problema è effettivamente indeterminato.

Normalmente, in una domanda a scelta multipla con n opzioni, anche la probabilità di azzeccare scegliendo a caso (nel senso naturale che ho definito) è 1/n. Perché? Perché normalmente (i) la risposta corretta è compresa fra le opzioni elencate e (ii) ad ogni opzione di scelta corrisponde una risposta distinta. Nel problema più sopra, la condizione (ii) è ovviamente violata, e questo rende subito il quesito alquanto sospetto: ci sono due opzioni (A e D) che indicano una stessa risposta (25%). Quanto a (i), è importante notare che l’enunciazione del problema non stabilisce che ciò sia vero (o almeno questa è la mia lettura): è opportuno tenere in conto la possibilità che la risposta corretta non compaia in nessuna delle opzioni elencate. Come vedremo fra poco, questo è un punto critico.

Dunque non è il caso di presupporre né (i) né (ii). E quindi la probabilità di azzeccare scegliendo a caso non è necessariamente 1/n. Ma resta comunque stabilito un punto più generale. Con n opzioni, la probabilità che cerchiamo deve avere la forma m/n, con m intero e 0 ≤ mn. In un problema in cui, come nel nostro, n = 4, ci sono quindi esattamente e solamente cinque possibili valori della probabilità di azzeccare scegliendo a caso: 0%, 25%, 50%, 75% e 100%, a seconda che la risposta corretta compaia 0, 1, 2, 3 o 4 volte nella lista delle opzioni. Per identificare il valore corretto fra questi cinque, possiamo ora procedere per esclusione.

100% non è la soluzione: lo sarebbe solo se avessimo A = B = C = D = 100%. La soluzione 75% va esclusa per un motivo molto simile: la risposta 75% dovrebbe comparire esattamente in tre opzioni su quattro. Analogamente, la soluzione potrebbe essere 50% soltanto se esattamente due opzioni su quattro indicassero la risposta 50%, e non è così. Infine, la soluzione non può essere neppure 25%, perché nel nostro caso la risposta 25% compare in due opzioni su quattro — troppe: dovrebbe essere una sola. Così, la soluzione del problema è l’unica che resta: 0%. Nessuna delle opzioni a disposizione riporta la risposta corretta: scegliendo a caso fra quelle opzioni, non c’è nessuna possibilità di azzeccare.

Ci si potrebbe chiedere se esistono varianti del problema che hanno una soluzione precisa, ma diversa da 0%. Ebbene sì, esistono. Ecco, per esempio, una versione in cui la soluzione corretta è 1/3.

Scegliendo a caso una delle opzioni qui di seguito, qual è la probabilità che la risposta corrispondente sia corretta?

  1. A) 0
  2. B) 1/3
  3. C) 2/3

Se siete ancora sospettosi della vostra intuizione (è un buon segno!), considerate questa domanda: esiste un m (intero, e con 0 ≤ mn) tale che la risposta “m/n” compare esattamente m volte fra le n opzioni di scelta disponibili? Ogni volta che abbiamo n opzioni tali che uno e un solo m soddisfa questa condizione, abbiamo di fronte un esempio innocuo di questa classe di rompicapi, con una soluzione ben definita. (Nel caso qui sopra n = 3 e m = 1.)

Chiaro, no? Bene, allora: riuscite a generare un esempio in cui c’è una singola risposta corretta ed è 100%?

 

Un vero paradosso?

Analizziamo ora questa variante (che si trova anche, per esempio, qui):

Scegliendo a caso una delle opzioni qui di seguito, qual è la probabilità che la risposta corrispondente sia corretta?

  1. A) 0%
  2. B) 25%
  3. C) 25%
  4. D) 50%

Dato che n = 4, teniamo ferma l’idea che la probabilità di azzeccare con una scelta causale deve essere una fra queste: 0%, 25%, 50%, 75%, o 100%. Ma per le ultime quattro possibilità valgono le stesse osservazioni già fatte in riferimento alla versione iniziale: non può essere 100%, perché questa risposta dovrebbe comparire quattro volte; non può essere 75%, perché questa risposta dovrebbe comparire tre volte; non può essere 50%, perché questa risposta dovrebbe comparire due volte; e non può essere 25%, perché questa risposta dovrebbe comparire una sola volta. Ma in questo caso anche la risposta 0% è da escludere! Perché tale risposta fosse corretta, non dovrebbe esserci nessuna possibilità di sceglierla a caso, e invece in questa versione la risposta “0%” sarà selezionata casualmente con il 25% di probabilità.

Si tratta dunque di un vero paradosso? Io dico di sì. Dopotutto, sembra proprio che abbiamo derivato legittimamente due conseguenze fra loro contraddittorie, e cioè: che una risposta fra 0%, 25%, 50%, 75% e 100% è corretta; e anche che, al contrario, nessuna di queste è corretta. Però non ho fornito una ricostruzione rigorosa del paradosso: è un lavoro che resta da fare (io non l’ho trovata da nessuna parte). Sì, perché un paradosso può essere anche sorprendente, curioso o divertente, ma il suo principale interesse teorico non sta in questo. Occorre darne un’analisi formale approfondita per capire esattamente quali sono le premesse tacite e apparentemente innocue che contribuiscono a generare una contraddizione. Anche, poniamo, il paradosso di Russell potrebbe essere soltanto un trastullo per secchioni. Non è solo questo, invece, perché ci costringe a riconsiderare il principio di comprensione nella teoria degli insiemi. Per capire che cosa può insegnarci un paradosso, quindi, bisogna affilare le armi (logiche) e scoprire che cosa c’è dietro.

A questo punto, però, ho solo un piccolo suggerimento per i più abili e determinati. C’è chi ha studiato a fondo il comportamento logico di linguaggi formali molto espressivi, nei quali le proposizioni possono riguardare la probabilità di proposizioni, comprese se stesse (questo recente articolo di Catrin Campbell-Moore è fondamentale). Forse è proprio da quelle parti che dovremmo cercare per studiare il “paradosso della scelta casuale”, comprenderne il significato, e magari risolverlo!

Vincenzo Crupi

LA DIMENSIONE SPIRITUALE DELLA SCIENZA

World-Dual-finalLa vasta e non omogenea letteratura epistemologica, prodotta nell’intero Novecento, ha cercato di fare emergere quella che i suoi padri fondatori, come Federigo Enriques e Moritz Schlick, hanno chiamato rispettivamente  «la filosofia implicita» nelle scienze e la loro «anima filosofica in virtù della quale esse sono propriamente scienze». Ma dato che la dimensione filosofica «abita nel profondo di tutte le scienze, ma non in tutte è ugualmente pronta a rivelarsi»[1], è stato ed è ancora oggi più che mai necessario un lavorio costante di riflessione critica che faccia emergere le diverse articolazioni di tale ‘anima’, da quella più propriamente teoretico-conoscitiva a quella storica. Pertanto, i vari filoni di indagine venuti a maturazione in più paesi, che hanno arricchito di diverse ottiche e di precisi orientamenti quel vasto capitolo che è la filosofia della scienza, hanno indagato e indagano a vario modo la struttura e la storia del pensiero scientifico; com’è noto, si sono sviluppate diverse tradizioni di ricerca, a volte alternative fra di loro, ma nel loro insieme hanno contribuito a creare quello che abbiamo chiamato, sulla scia di Pierre Duhem e Ludovico Geymonat, un vero e proprio «patrimonio epistemologico» o, per dirla con Dario Antiseri, un autentico e sui generis «arsenale epistemologico-ermeneutico»[2] in grado di offrirci tecniche e strumenti concettuali sempre più adeguati a comprendere in profondità le diverse ‘anime’ della conoscenza scientifica. Ma tutti questi grandi, accesi e a volte pure contraddittori dibattiti hanno avuto come conseguenza la definitiva e irreversibile presa d’atto dell’autentico ‘valore’, nel senso di Henri Poincaré, culturale della scienza e della necessità di un sapere specifico in grado di comprenderne l’importanza strategica per ogni teoria della conoscenza, come aveva sottolineato a più riprese lo stesso Schlick; nello stesso tempo la ricca e dinamica letteratura epistemologica che ne è scaturita, a partire dai Problemi della scienza del 1906 di Federigo Enriques, ha portato, grazie al pieno riconoscimento della dimensione insieme teoretica e storica, a considerare la scienza nel suo complesso pensiero tout court come è stato ben messo in evidenza in particolar modo dalla tradizione di ricerca  francese e soprattutto dai lavori di Gaston Bachelard. Non è poi pertanto un caso se l’abbondante letteratura sulla ‘crisi della scienza’ nelle sue diverse variabili a partire dalla ‘reazione idealistica contro la scienza’, che com’è noto si è sviluppata a fine Ottocento e che si è protratta per gran parte del Novecento, abbia proprio insistito sul suo non essere ‘pensiero’, aspetto questo che, come ha detto ultimamente Dominique Lecourt, è stato ed è ancora spesso «il grande dimenticato da parte sia dello scientismo che dell’antiscienza»[3], opzioni a vario modo sempre in agguato.

Uno dei compiti, pertanto, della filosofia della scienza anche grazie al rilevante peso epistemico apportato dalla costituzione della storia delle scienze come sapere  sviluppatosi e consolidatosi parallelamente con proprie e specifiche metodologie, sin dal momento della sua costituzione come sapere critico-riflessivo, è stato e continua ad essere proprio quello di salvaguardarne l’aspetto storico-veritativo come  ‘pensiero’ tout court, in quanto  le diverse  conoscenze scientifiche  sono strategie di ordine cognitivo messe in atto per indagare, come già diceva Leonardo Da Vinci, le «infinite ragioni» del reale che vengono continuamente «disegnate» e costruite  dalla mente dello «speculatore delle cose» ed in grado, pertanto, di andare sempre oltre il dato empirico immediato in quanto tali ‘ragioni’ «non furono mai in isperienza»[4].

Questa intrinseca  e specifica dimensione della scienza che si potrebbe chiamare lato sensu ‘spirituale’, anche se è data quasi per scontata, non ha comunque ricevuto una costante e adeguata attenzione critica nell’ampia letteratura con qualche eccezione da parte di alcune figure di area francese come Gaston Bachelard, Hélène Metzger e Albert Lautman, di Federigo Enriques in Italia; negli anni ‘30 questi autori, preceduti dalle profonde riflessioni di Pavel Florenskij, grazie alla loro ottica storico-epistemologica al di là delle posizioni positivistiche, hanno considerato la scienza, come dice più propriamente la Metzger, «la corazza dello spirito umano» da coltivare continuamente per non farle assumere «il ruolo del diavolo tentatore»[5]. Nello stesso tempo se, come hanno sostenuto e continuano a sostenere posizioni di impronta strumentalista e convenzionalista, si considerano marginali le questioni relative ai suoi rapporti col reale, se come diceva Lautman si tende a «sopprimere i legami fra il pensiero ed il reale col rifiutare anche di dare alla scienza il valore di una esperienza spirituale, si rischia di avere solo un’ombra della scienza e di rigettare lo spirito alla conquista del reale verso attitudini violente con cui la ragione non ha nulla da fare. La filosofia delle scienze non può accettare questo atto di dimissione»[6].  La ragione scientifica grazie ai suoi processi di ristrutturazione  si autorigenera  continuamente col riconquistare la sua appartenenza alle forze spirituali dell’uomo entrando in dialogo costante  con le altre dimensioni, col comprendere sempre di più di trovare la sua «matrice costruttiva nelle forme di organizzazione della vita umana», così come diceva negli anni ’70 Aldo Gargani[7].

Pertanto occorre lavorare per fare in modo che la filosofia della scienza con l’aiuto della storia delle scienze non ‘si dimetta’ da questo essenziale compito, di contribuire a spazzare via quella che Popper in varie occasioni ha chiamato ‘filosofia dubbia’ nei  suoi confronti incapace di sviscerane le varie ‘anime’ e di capirne l’aspetto di fondo; nello stesso tempo, vero e proprio supplemento d’anima della scienza tipico di ogni autentica riflessione che si confronta con i percorsi di verità messi in atto, deve essere in grado in primis di prendere definitivamente atto di quella che recentemente Mauro Ceruti ha chiamato «la fine dell’onniscienza»[8] per  i processi di autocomprensione antropologica messi in atto.

Mario Castellana

[1] F. Enriques, Scienza e razionalismo, (1912), Bologna, Zanichelli, 1990, p. 145 e M. Schlick, Teoria generale della conoscenza, (1918), trad. it., Milano, F. Angeli Ed., 1986, p. 11.

[2] Cfr. ns.  Alle origini della ‘nuova epistemologia’. Il Congrès Descartes del 1937, Lecce, Il Protagora, 1990 e G. Reale-D. Antiseri, Quale ragione?, Milano, R. Cortina Ed., 2001, p. 226.

[3] D. Lecourt, «La philosophie  dans les sciences», in Revue de synthèse,  t. 126, 2, 2005, pp. 451-454.

[4] Leonardo Da Vinci, L’uomo e la natura,  a cura di M. De Micheli, Milano, Feltrinelli, 1982, pp. 52-53.

[5] H. Metzger, La scienza, l’appello alla religione e la volontà, trad. it, Lecce-Brescia, Pensa Multimedia-Pensée des sciences, 2014, p. 20; cf. anche F. Enriques, L’anima religiosa della scienza, Roma, Castelvecchi, 2015.

[6] A. Lautman, «Mathématiques et réalité» (1935) in Les mathématiques, les idées et le réel physique, Paris, Vrin,p. 50.

[7] A. Gargani, Il sapere senza fondamenti, Torino, 1975, p. VIII.

[8] Cf. M. Ceruti, La fine dell’onniscienza, Roma, Studium, 2014.

RITORNO A KANT E ARISTOTELE: NO ALLA LOBBY DEI TASSINARI

taxi_driverA partire dall’opera di Kripke e Lewis, si è imposto nella comunità filosofica il punto di vista secondo il quale sarebbe possibile stabilire a priori come può essere costituito il mondo. Compito della metafisica sarebbe quello di fissare tali criteri di possibilità metafisica, mentre alle scienze sarebbe lasciato il prosaico compito di decidere in quali di questi mondi possibili ci troviamo.

Aristotele ribadisce più volte che “l’essere si dice in molti modi” e Kant insegna che l’ontologia non può essere altro che analitica dei concetti delle scienze.

L’argomento decisivo contro questa prospettiva è metodologico. Le poche conoscenze riguardo a come è costituita la realtà che siamo riusciti a racimolare finora non provengono da tali elucubrazioni, ma da generalizzazioni ontologiche a partire dai modelli scientifici confermati. In altre parole, l’ontologia di fatto non è una scienza a priori, ma il risultato di processi induttivi a partire dalle scienze empiriche.

Negli stessi anni si è imposta nei circoli filosofici un’altra tesi, cioè quella secondo cui accanto a tale metafisica a priori esisterebbe anche un’epistemologia a priori, che detterebbe le regole della conoscenza. Gli epistemologi si porrebbero domande del tipo “che cosa è una giustificazione di p?”, “che cosa significa che Gigi conosce p?” ecc.

Aristotele nel secondo libro della Metafisica ricorda che il metodo dipende dall’oggetto. Kant deduce la sua epistemologia dalla fisica di Newton.

Domande generali di epistemologia, come quelle summenzionate, non possono che essere affrontate a partire dalla natura specifica di p. Anche qui si è commesso un drammatico hysteron-proteron. I processi conoscitivi sono basati anche su nozioni normative, ma la considerazione e l’analisi del piano normativo non può essere condotta nell’atmosfera rarefatta dell’a priori, ma solo nell’analisi concreta dei casi di studio delle scienze.

Sfrondiamo alcuni malintesi. Non sostengo un ritorno al neopositivismo, se non per l’assoluta centralità della conoscenza scientifica enfatizzata dal Circolo di Vienna. Contrariamente a quanto ritengono alcuni, che ancor oggi si rifanno a quelle tesi in modo superficiale, la metafisica esiste, ma è empirica e non a priori. Non solo, diversamente da quanto pensava Quine, l’epistemologia è una disciplina non riducibile al piano esplicativo della psicologia cognitiva, ma dotata di un’essenziale componente normativa. Il punto è però che tale normatività non vive nel mondo rarefatto dei filosofi puri, ma in quello concreto dei filosofi delle scienze.

Inoltre, quando parlo di scienze, mi riferisco a tutte le scienze, dalla fisica alla storia, il cui compito è semplicemente di provare a descrivere la realtà che ci circonda utilizzando modelli da sottoporre a controllo empirico.

Infine nulla ho detto sull’ampio ambito della filosofia politica e morale, che ha problemi e metodi diversi almeno in parte da quelli della filosofia delle scienze.

Per concludere vorrei lanciare un appello: purtroppo viviamo in un mondo in cui la difesa di interessi corporativi è la regola. Ho scelto di studiare filosofia proprio per evitare il più possibile compromissioni con questo atteggiamento ottuso ed egoista. Smettiamo allora di provare a costruire la corporazione dei filosofi, che si ritaglia il suo spazio, il suo oggetto, che deve per forza essere diverso da quello delle scienze. Noi filosofi siamo ormai come la lobby dei tassinari che è riuscita a impedire a Uber di sbarcare in Italia: “Ah, questa è nobile filosofia, non gretta scienza!”, “E no eh: questa è solo scienza, mica un genuino problema filosofico!”

Scienza e filosofia sono parti di un’unica impresa, all’interno della quale i filosofi sono più interessati alle questioni generali e normative, mentre gli scienziati mettono maggiore attenzione ai problemi particolari e alle spiegazioni.

Siamo tutti nella stessa barca di Aristotele e Kant, Newton e Einstein.

Vincenzo Fano

UNA BIBLIOTECA CHE GENERA SAPERE

imagesVale forse la pena di soffermarsi sul recente Framework for Information Literacy for Higher Education, un documento redatto da una commissione dell’Association of College & Research Libraries (ACRL) nel febbraio 2015, adottato nel gennaio 2016 e nel frattempo tradotto in italiano da un gruppo di studio dell’Associazione italiana biblioteche con il titolo Un quadro di riferimento per la competenza informativa per gli studi universitari.

Le problematiche dell’Information Literacy stanno assumendo una certa importanza nel settore delle biblioteche accademiche, molte delle quali organizzano corsi strutturati, in presenza o a distanza, di alfabetizzazione informativa e sfruttano momenti anche informali di orientamento degli studenti finalizzati a questo obiettivo.

Sta cambiando qualcosa: le biblioteche accademiche intendono sempre più caratterizzarsi come nodi di una rete globale e interconnessa di risorse, accessi e servizi e hanno riscoperto una loro peculiare funzione formativa, proponendosi come luoghi fisici e digitali nei quali possono essere trasmesse, e quindi acquisite dagli studenti, a) nuove competenze e abilità di ricerca, localizzazione e recupero di dati e risorse informative; b) nuove capacità nell’impiego efficace di queste risorse, per collegarle tra loro e situarle al meglio nei processi individuali e sociali di esperienza e conoscenza.

La rete – la crescente complessità e varietà di forme e ambienti che essa rende disponibili per le dinamiche della ricerca e della comunicazione scientifica – spinge le biblioteche accademiche verso approdi che oltrepassano le tradizionali funzioni di mediazione e accesso ai documenti: si realizzano oggetti, contenuti e collezioni digitali; si adottano soluzioni e dispositivi di servizio ad alta intensità tecnologica; si integrano fonti e materiali; si investe sul Web sociale e sul Web semantico; si praticano spazi e opportunità di progettazione comune con i docenti, i professionisti IT, gli aggregatori di risorse e così via. In particolare, si stanno affermando stili di relazione e interazione con gli utenti che puntano a dislocare il contributo delle biblioteche, e l’esercizio stesso della professione bibliotecaria, direttamente nei contesti (aule, laboratori, gruppi di progetto, riviste e archivi open access, sedi editoriali accademiche, anagrafe della ricerca ecc.) in cui si svolgono le attività didattiche, si aggregano dati e informazioni, maturano occasioni e presupposti di produzione scientifica e intelligenza collettiva. Sia pure con evidenti ritardi in alcuni atenei, le biblioteche accademiche tendono, in parte, a trasformarsi in laboratori nei quali la conoscenza è certo acquisita, conservata e diffusa, ma in più è variamente generata a vantaggio della comunità universitaria e della collettività.

Lo sviluppo di competenza informativa negli studenti è un passaggio fondamentale di questo discorso, passaggio che può essere affrontato efficacemente solo grazie alla collaborazione tra docenti sensibili e aperti e bibliotecari disposti a ripensare il proprio ruolo professionale.

Il Framework ACRL offre una discreta traccia di riflessione e lavoro. Rappresenta, peraltro, una svolta nella stessa letteratura sul tema, giacché ora l’accento cade, più convintamente che nel passato, non solo sulla trasmissione di abilità e capacità informative, ma anche sull’esigenza di coinvolgere gli studenti nei processi reali di trattamento e condivisione di dati, informazioni e conoscenze. La definizione stessa di Information Literacy ne esce apprezzabilmente arricchita: «La competenza informativa è un insieme di capacità integrate comprendente la scoperta riflessiva dell’informazione, la comprensione di come l’informazione è prodotta e valutata e l’uso dell’informazione per creare nuova conoscenza e partecipare eticamente alle comunità di apprendimento»[1].

Il documento da un lato invita i bibliotecari a intensificare gli scambi con i docenti e ad attuare programmi per la competenza informativa in grado di ampliare le opportunità di apprendimento per gli studenti, dall’altro chiede ai docenti di impegnare maggiormente i ragazzi in percorsi e attività focalizzati sulle idee e sui concetti chiave riguardanti l’informazione e la ricerca nelle singole aree. Si tratta, in altre parole, di far emergere le abilità informative che in un dato dominio disciplinare, o in uno spazio transdisciplinare, gli studenti devono procurarsi (per esempio, imparare a usare le fonti primarie nel caso della storia; recuperare e gestire set consistenti di dati nel caso delle scienze ecc.). Occorrerebbe, inoltre, aiutare «gli studenti a percepire se stessi come produttori di informazione, sia individualmente che in modo collaborativo»[2].

Il Framework si ispira dichiaratamente ai “concetti soglia” (threshold concepts) di Grant Wiggins e Jay McTighe[3]. Sono i concetti fondamentali da “attraversare” per raggiungere una piena e matura consapevolezza delle pertinenze di una disciplina, delle sue prospettive di ricerca, delle modalità operative, della strumentazione da utilizzare, di come crescere, esprimersi e relazionarsi in quel settore di studi ecc. I concetti soglia per la competenza informativa sono stati identificati, in questo caso, mediante un’indagine Delphi.

Il cuore metodologico del Framework, che comunque non vuole avere carattere prescrittivo, sta poi nell’uso di sei cornici concettuali[4], a ciascuna delle quali sono associati obiettivi di apprendimento sotto forma di pratiche di conoscenza (specifiche capacità o abilità derivanti dalla comprensione di un concetto soglia) e di un insieme di attitudini (propensione a pensare ovvero a operare in un determinato modo).

Senza ignorare il parere di chi considera fragile il fondamento scientifico di questo impianto, e ricordandosi di contestualizzarne linguaggio e retroterra concettuale, può partire da qui un confronto utile fra docenti, bibliotecari e studenti su come promuovere nelle università originali esperienze partecipative sia per la formazione di competenze disciplinari (e di pensiero critico) da spendere negli ambienti digitali e di rete sia per allargare le stesse basi produttive dell’informazione necessaria alla ricerca.

Giovanni Di Domenico

 

.

 

 

 

 

 

 

 

 

[1] ACRL, Un quadro di riferimento, cit.

[2] Ibidem.

[3] G. Wiggins, J. McTighe, Understanding by Design. Alexandria, VA: Association for Supervision and Curriculum Development, 2005.

[4]Le cornici sono definite così: «L’autorevolezza è il risultato di una costruzione ed è contestuale; la creazione di informazione è un processo; l’informazione ha valore; la ricerca è un’indagine; il sapere scientifico è una conversazione; il cercare è un’esplorazione strategica».

 

NE’ BUONI NE CATTIVI

Bad-Good-Earth-300x203Secondo quella che potremmo definire una declinazione culturalista del dualismo cartesiano, da un lato vi è la nostra parte più nobile, meno animalesca, meno “bassa” (l’anima, la coscienza, l’io, la mente razionale), legata alla razionalità autoconsapevole e alla civiltà, dalla quale solo può nascere una socialità ottimale, cooperativa, “matura”; dall’altro lato vi è la nostra parte istintivo-impulsiva, meno razionalmente consapevole, più immediata, meno riflessiva, più animalesca, asociale e magari anche distruttiva.

In questa prospettiva, la socialità è una realtà “secondaria”: l’individuo invece un soggetto primario isolato, “dato” a priori come autonomo, il quale poi si muove verso gli altri, vive socialmente, crea strutture. Questa concezione dell’individuo, che ha trovato la sua consacrazione più radicale nell’antropologia pessimistica di Hobbes, è posta da Freud a fondamento della sua teoria sociale. A partire dal 1914, con Totem e Tabù, e poi in vari scritti negli anni Venti e Trenta, il pensatore viennese sviluppa la filosofia antropologica già implicita nella sua teoria: l’individuo, portatore di propensioni pulsionali-istintuali intrinsecamente asociali e in buona parte antisociali, tenderebbe a “scaricare” queste energie istintuali; tuttavia, prima il padre (o se si vuole il patriarca tribale) e poi il mondo sociale lo costringono a reprimere queste tendenze: ne nascono situazioni di compromesso fra la repressione sociale e la tendenza alla “scarica” istintuale, situazioni che sono conflittuali e fonte di disagio [1].

Nel modello Hobbes-Freud, dunque, l’egoismo è naturale, la cooperazione un artifizio. Ma prendendo le mosse dagli animali e dai bambini piuttosto che dall’autocoscienza adulta, prima i biologi evoluzionisti e poi gli psicologi dello sviluppo hanno delineato un’ipotesi alternativa: l’attività adattivo-cooperativa è primaria, dunque contestuale alla definizione stessa dell’organismo individuale. Dunque, gli animali non sono separabili dal loro ambiente né da forme di cooperazione con altri individui; e nella specie umana, non esiste un individuo asociale né presociale.

Il superamento della tradizionale concezione filosofica e psicologica dell’individuo umano come un soggetto primario isolato, “dato” a priori come autonomo, è il portato di una prospettiva contestualista e sistemica, la quale colloca le problematiche psicologiche (sia comportamentali sia soggettive) dell’individuo nel contesto interindividuale e sociale in cui nascono e ricevono senso. In tale prospettiva, biologia (individuale) e relazionalità (sociale) sono inscindibili: l’individuo è preorganizzato al rapporto interpersonale fin dalla nascita. La vecchia contrapposizione fra un individualismo “egoista” da un lato, e dall’altro la socialità “matura” e “civile” è dunque una contrapposizione sbagliata, una contrapposizione moralistica. Le forme dello stare insieme (competizione, partecipazione, cooperazione, anche abnegazione) non sono imposte soltanto da interesse o da paura, come vorrebbe l’autoritarismo politico, ma possono sorgere dalle articolazioni man mano più complesse di ciò che è il substrato biologico di ogni individuo.

Questa tesi del carattere primario della socialità è il cuore della concezione dell’individuo umano propria di una psicologia dinamica imperniata sulla doppia tematica delle relazioni oggettuali primarie e del legame di attaccamento. Ogni individuo viene qui visto come portatore di una serie molto complessa di motivazioni; e queste sono sempre e fin dall’inizio relazionali, ossia tengono conto della presenza degli altri, e si articolano in un gioco interpersonale di strategie comunicative.

Questo è ben chiaro nella tassonomia proposta dallo psicoanalista Joseph D. Lichtenberg: un tentativo sistematico di ridescrivere, all’intersezione fra la tradizione psicoanalitica e le indagini sistematiche sull’infanzia, lo sviluppo del bambino a partire da cinque “sistemi motivazionali” [2]. Questi sistemi sono identificati dall’autore, rispettivamente, in istanze: (i) di autoregolazione delle esigenze fisiologiche; (ii) di attaccamento-affiliazione; (iii) esploratorie-assertive; (iv) opposizionali-aggressive; (v) sensuali-sessuali. Si noti, tuttavia, che il sistema avversativo-aggressivo e il sistema sensuale-sessuale sono largamente dipendenti, il primo dal sistema esplorativo-assertivo, il secondo dal sistema attaccamento-affiliazione. Ciò ha indotto lo psichiatra Giovanni Jervis a suggerire che gli orientamenti motivazionali fondamentali potrebbero essere due soli. In primo luogo, il sistema motivazionale interpersonale, cooperativo, elementarmente socializzante dell’attaccamento-affiliazione; in secondo luogo il sistema affermativo-esplorativo. Il primo potrebbe essere chiamato “modalità prosociale di base”, o “sistema delle strutture elementari del fare-insieme”. Il secondo invece “sistema delle strutture elementari dell’autonomia individuale”, o “dell’auto-assertività”, o “della competizione possibile”. Fra questi due sistemi si originano spontanee situazioni di compromesso, che possono essere intelligenti, articolate e ingegnose, e non sono caratterizzate dal disagio ma dal fatto che creano ricchezza e cultura [3].

Da ciò emerge una filosofia antropologica che non è né pessimista né ottimista: gli individui sono naturalmente portati alla competizione (e talora alla distruttività) ma anche a forme di socialità, di cooperazione, e perfino di altruismo. Di più: la competitività e la cooperazione vanno di pari passo. Non c’è cooperazione senza competitività e non c’è competitività senza cooperazione. Questo è un fondamento naturale del comportamento umano come anche del comportamento animale.

Massimo Marraffa

 

[1] M. Marraffa, “Giovanni Jervis: la ricerca della concretezza”, in G. Jervis, Contro il sentito dire. Psicoanalisi, psichiatria e politica, Bollati Boringhieri, Torino 2014.

[2] J.D. Lichtenberg, Psychoanalysis and Motivation, The Analytic Press, Hillsdale (NJ) 1989.

[3] G. Jervis, Psicologia dinamica, il Mulino, Bologna 2001.

 

PERCHE’ LA MATEMATICA E’ IMPORTANTE PER LA BIOLOGIA

 

cavolo1L’analisi del legame che unisce ambiente ed organismi viventi rappresenta il centro d’interesse della disciplina nota come “ecologia”. L’insieme delle interazioni tra popolazioni d’individui e luogo in cui tali popolazioni vivono e si riproducono definisce un ecosistema. A prescindere dai diversi fattori che caratterizzano un determinato tipo di ecosistema, per l’ecologia è di fondamentale interesse seguire le dinamiche di una popolazione, ad esempio comprenderne lo sviluppo demografico nel corso del tempo. L’interesse è motivato da una pluralità di questioni che vanno dai fini gestionali-economici (es. agricoltura) a scopi di preservazione dell’ambiente. Ma più in generale, è di facile intuizione capire come il funzionamento che regola un ecosistema sia connesso al numero di individui che lo abitano e all’azione biologica che vi esercitano.

Per monitorare l’evoluzione di un gruppo di organismi nel tempo, l’ecologia necessita di adeguati modelli matematici che ne simulino l’andamento reale. Il tempo può essere considerato come variabile continua oppure come variabile discreta. Per quel che riguarda la dinamica evolutiva di una popolazione, data la discontinuità cui, in maniera più o meno marcata, essa è soggetta nella realtà, più che l’utilizzo di equazioni differenziali, che mostrano la variazione continua nel tempo di un fenomeno, può essere utile far ricorso ad equazioni discrete. Queste ultime si esprimono, nel nostro caso, in intervalli di tempo discreti (t = 0, 1, 2 )  che separano la  generazione “x” costituita da un certo numero di individui, dalla generazione “x + 1″, cioè il numero di individui appartenenti alla generazione successiva. Ciò permette di verificare cosa accade alla variabile x nel tempo successivo x (t + 1)  data la situazione all’istante attuale x (t).

Il modello matematico che prenderemo in esame presenta una realtà evolutiva estremamente semplificata. Infatti presupponiamo che non vi siano né predatori né competizione per il cibo. Inoltre il potere riproduttivo “r“, dipendente dalla fitness o capacità riproduttiva degli individui, rimane invariato attraverso il susseguirsi delle diverse generazioni. Tenendo a mente le premesse esplicitate, è possibile stabilire una proporzionalità tra la generazione attuale x(t) e la generazione futura x(t + 1) tramite il parametro riproduttivo “r“. Avremo così l’equazione:

  • x(t + 1) = rx(t)

Se con x(0) indichiamo il numero di individui all’istante iniziale, allora il numero di individui della generazione al tempo uno è dato dal prodotto del parametro “r” con x(0). Allo stesso modo, il numero di individui facenti parte della generazione al tempo due sarà data dal prodotto di r2 con x(0). Dunque, come è ormai chiaro, l’equazione ricorsivamente stabilisce che il numero d’individui della generazione al tempo “n” scaturisce dal prodotto di rn  con x(0).

  • x(t + 1) = rx(0)
  • x(t + 2) = r2 x(0)
  • x(t + n) = rn x(0)

L’evoluzione del sistema nelle equazioni sopra riportate è determinata dal valore che assume “r”. Per r < 1, abbiamo una decrescita esponenziale che porta la popolazione all’estinzione, mentre per r > 1 si ha un esplosione demografica che spinge la popolazione verso un aumento indefinito. Per r = 1 l’andamento rimarrà stazionario.

Come abbiamo già notato una simile modellizzazione della realtà si rivela fin troppo semplicistica. Di fatto, la riproduzione degli individui non dà luogo ad aumenti o diminuzioni demografiche indefinite nel tempo. Il modello non tiene conto del fatto che, ad un numero considerevolmente alto di individui corrisponde una altrettanto elevata competizione tra gli stessi, al fine di ottenere il cibo che non basta più per sostentare tutti. Questo non può che portare ad una diminuzione del potere riproduttivo. In più, la riproduzione sessuale è influenzata da una multiformità di vincoli endogeni ed esogeni, quali: fertilità, selezione sessuale, capacità di sopravvivenza nell’ambiente, ecc. Insomma, la realtà nella sua ricchezza presenta innumerevoli variabili in funzione della determinazione di un singolo risultato, risultato che a sua volta diverrà variabile di un insieme di cause che produrranno ancora un altro effetto, e così via. A volte è possibile che la complessità dei fenomeni della natura, analizzata sotto la “veste formale” del linguaggio matematico, si esprima come caos deterministico. Vedremo a breve cosa si intende con questa apparentemente ossimorica definizione.

Per “aggiustare” il tiro del nostro modello troppo semplicistico di comprensione della realtà, dobbiamo aggiungere all’ equazione x(t + 1) = rx(t)  un termine (1 – x(t)) che tiene conto della competizione per il cibo e del modo in cui questa incide sul potenziale riproduttivo. Detto in altri parole (1 – x(t)) è un termine che “frena” o “limita” la crescita del parametro “r“.

  • x(t + 1) = rx(t)(1 – x(t))

Otteniamo in questo modo l’equazione che descrive la mappa logistica. Essa può essere intesa come una delle applicazioni che derivano dalla teoria del caos, teoria che studia sistemi deterministico-caotici nel loro comportamento dinamico. Ma come possiamo dire che un sistema caotico è anche deterministico?

Un sistema caotico è deterministico perché non è sottoposto ad una pura aleatorietà. Esso è invece un fenomeno che può essere rappresentato e determinato da precise equazioni di stato, equazioni non lineari che, date certe condizioni iniziali del sistema, permetterebbero di prevedere la sua evoluzione. Evoluzione che sarà però estremamente sensibile a variazioni anche molto piccole delle condizioni di partenza, e all’accumularsi di tali variazioni l’andamento assumerà comportamenti caotici. Esemplifichiamo un sistema deterministico caotico proprio tornando alla spiegazione del nostro caso specifico di studio di dinamica delle popolazioni.

L’evoluzione del sistema nel tempo può essere rappresentato da una mappa unidimensionale, poiché abbiamo a che fare con una sola variabile “x“. L’equazione della mappa connette rx(1 – x) in funzione di x, ovvero f(x) = rx(1 – x). Rappresentando la funzione con un diagramma cartesiano, otteniamo una parabola che interseca l’asse dell’ascisse in 0 e 1.

Il metodo grafico da utilizzare si struttura nel modo seguente. Sull’asse delle ascisse poniamo il numero di individui di una data generazione, su quello delle ordinate il numero di individui della generazione che segue quella data. Si disegna la bisettrice del primo e terzo quadrante. Si sceglie sull’ asse delle ascisse il punto x(0), che rappresenta la generazione di partenza. Si traccia dal punto (x(0), 0) un segmento verticale fino ad incontrare la parabola. L’ordinata dell’intersezione ottenuta è x(1), la quale sta ad indicare la prima generazione. Da qui possiamo ripetere il procedimento. Dall’ordinata x(1) ci riportiamo sull’asse delle ascisse, tracciando una retta orizzontale fino a intersecare la bisettrice nel punto (x(1), x(1)), in seguito tracciamo un’altra linea retta verticale fino ad intersecare la parabola, ove il punto d’intersezione rappresenta la seconda generazione, ovvero x(2). Così facendo reiteriamo la mappa, e otteniamo una rappresentazione dell’evoluzione temporale x(0), x(1), x(2), x(3) ecc. La reiterazione è possibile algebricamente e graficamente perché dato il parametro “r“, la nuova generazione dipende unicamente dalla precedente. La curva della parabola ci restituisce il numero d’individui della nuova generazione in funzione della precedente.

 

rsz_mappina_3

 

 

 

 

 

 

 

 

 

Quel che è interessante notare è l’andamento dell’evoluzione dinamica di una popolazione in relazione al parametro “r”.  Al crescere del valore di “r” l’andamento evolutivo assume comportamenti sempre più disordinati, caotici. Questo tipo di comportamento non è un’eccezione, ma accade piuttosto spesso nei sistemi biologici. Per concludere, abbiamo visto come sia importante per la comprensione della natura avvalersi in certi casi di modelli matematici che si esprimono in tempo discreto, a fronte di una realtà quanto mai complessa e frastagliata nelle sue dinamiche.

Luca Biccheri

EPISTEMOLOGIA DELL’AMORE

11282281_1636507239918026_1139056983_nSecondo l’impareggiabile Marcello Marchesi, “Nessuno è ateo in trincea”. Ora, al di là delle trincee di una vera guerra, che i più di noi fortunatamente non hanno praticato, c’è una sorta di trincea, nemmeno tanto metaforica, nella quale invece tutti noi ci siamo ritrovati invischiati a combattere, più o meno a lungo, certo, e più o meno consapevolmente, ma sempre (dis)armati fino ai denti e inzaccherati fino al midollo: quella dell’amore.
Non voglio dire che nella trincea dell’amore il nemico sia necessariamente l’amata/o, anche se può certo capitare, ma spesso e volentieri il nemico più subdolo e talvolta persino invincibile siamo proprio noi stessi. Ciò che ci frega è appunto il fatto che in trincea non possiamo essere atei, e dunque non possiamo non credere in qualcosa (nel senso che crediamo in qualcosa di più del semplice non credere in qualcosa). In altri termini, solitamente non riusciamo a restare pacati, oggettivi, ordinati, attenti osservatori e indagatori delle dinamiche psicologiche nostre interne e di quelle esterne riguardanti la relazione con la/il partner, né riusciamo a vivere il distacco zen dell’agnostico, a sospendere il giudizio o al più credere in qualcosa di razionalmente fondato. Siamo invece preda di quell’arabesco impazzito dei nostri desideri, ansie, delle nostre paure, insicurezze, debolezze, speranze, siamo insomma alla mercé, più o meno consciamente, più o meno subdolamente, di quella nostra irrazionalità “di default” che in un battibaleno ci trasporta verso l’autoinganno, e spesso con biglietto di sola andata.
E dunque, anche nelle storie d’amore più pacifiche (ma esistono?… va da sé che l’espressione è provocatoriamente ossimorica…), accade non di rado che momentanee rotture dell’equilibrio strategico ci catapultino in piccole e anche grandi battaglie tattiche, e quindi ci costringano ad approntare delle operazioni belliche che, siano esse difensive, o d’attacco, si risolvono comunque in epiche sconfitte – si noti: per entrambe le fazioni – sul campo della razionalità, nonostante a tavolino tali operazioni ci siano apparse ben pianificate, circostanziate, con tutti i crismi della ragione.
L’aspetto ridicolo e tragico assieme, tanto teneramente quanto abissalmente umano, è che, come dicevo, anche quando la/il partner sono nostri amici o fedeli alleati, almeno (al più!) temporaneamente, dunque anche quando non c’è un reale pericolo “là fuori”, noi comunque indefessamente ci agitiamo, nelle nostre trincee, per poi lanciarci urlanti in battaglie più o meno furiose, più o meno disperate, ma dove il nemico o l’amico traditore alla fine siamo banalmente noi stessi. Son spesso scontri creati dalla nostra irrazionalità, dai nostri equivoci, dai nostri errori cognitivi, quindi in un certo senso sono tensioni che al momento sentiamo reali ma che in fondo hanno un’origine illusoria. Nei pochi casi in cui ce ne rendiamo conto, sempre tardi e con un beffardo senno di poi, ci ritroviamo a sottoscrivere, se va bene con amara sconfortata ironia, quanto ammetteva Mark Twain: “Sono passato attraverso momenti davvero terribili nella mia vita, alcuni dei quali sono realmente accaduti”.
Ma tant’è, alla fine di ogni guerra siamo già dimentichi delle macerie attraversate, e in men che non si dica siamo lì con il piccone in mano a scavarne un’altra, di trincea, entusiasti di venir ricatturati dall’eroico grido di battaglia dei nostri imperituri sensi.
Altre volte, invece, non ci rendiamo nemmeno conto di essere impantanati in una trincea: mal interpretando fatti o parole o gesti, nostri o del partner, tramite quelle poche schegge residue di una logica ormai rimaneggiata dal dominio dei desideri, crediamo pacificamente che tutto va benone e… ed è così che, nel bel mezzo di una gragnola di pallottole vaganti, bel belli tiriam su la testa a rimirar le lumeggianti stelle del desio e…
A questo punto, se non vogliamo, o non possiamo, farci alleati quei mercenari degli analisti, psicoterapeuti, psicologi, e strizzacervelli vari, o se non vogliamo cader prigionieri di multiammalianti astrologie, e maghe, e fattucchiere e riti apotropaici d’ogni sorta, possiamo però farci fedele amica e alleata consigliera la filosofia. Sì, avete capito bene, la filosofia, ma non quella spicciola, da tasca o da salottino mondano, o quella consolatoria asciuga-lacrimuccia, né (con tutto il rispetto) quella morale, o ancora quella pacificatrice, misticheggiante, orientaleggiante, olisticheggiante, ecc. ecc. No, possiamo invece affidare le cure di quei nostri sparuti neuroni scampati all’apoptosi passionale a quella che è una epistemologia dell’amore, vale a dire, un approccio alle questioni amorose che usa le nozioni e i metodi dell’epistemologia. L’epistemologia dell’amore studia dunque la fondatezza delle credenze amorose, che sono credenze, dal punto di vista epistemologico, come tutte le altre: alcune ben giustificate, altre meno, altre per nulla. Per esempio, noi sappiamo – sulla scorta di quanto sostiene la quasi totalità della comunità astronomica mondiale – che l’universo si sta espandendo: ci possiamo credere perché abbiamo diverse giustificazioni a sostegno. Quindi, possiamo parlarne come di una conoscenza che abbiamo sull’universo, avendone appunto delle credenze vere e giustificate (per carità, sempre rivedibili). Ma possiamo dire di sapere che Giuseppina mi ama? Abbiamo, anzi ho – visto che dubito che questa liaison possa interessare alla comunità mondiale – valide giustificazioni per credere che certi comportamenti miei e soprattutto di Giuseppina fondino il suo amore per me?
Bene, se avete dei dubbi sulla vostra Giuseppina (li avete… li avete…), un buon punto di partenza per cominciare a scioglierveli, o almeno a riassettarli un tantinello, è un piccolo ma delizioso libro di due filosofi, José A. Diez e Andrea Iacona, Amori e altri inganni. Trattatello filosofico su ragioni e passioni (Indiana Editore, 2014). Il primo è docente di Epistemologia e Filosofia della Scienza all’Università di Barcellona, il secondo è docente di Logica all’Università di Torino. Sia allora chiaro: il tema è serio, nonostante questo mio scritto.
Perché riflettere su tali questioni, cioè sulle credenze amorose (in)giustificate, non da un punto di vista morale, sociologico, psicologico, sentimental-poetico, ma dal punto di vista dell’analisi epistemologica? La risposta è semplice: “In linea di massima, anche se non sempre, è meglio non credere piuttosto che credere senza giustificazione. La giustificazione è una guida verso la verità: se una credenza è giustificata, allora è ragionevole pensare che sia vera. E siccome le azioni si fondano sulle credenze, è generalmente più utile avere credenze vere che avere credenze false”, affermano gli autori (pp. 15-16). Orbene, volete credere nel vero amore? Studiatene l’epistemologia! Non ci volete credere? Studiatela lo stesso, almeno avrete delle valide giustificazioni da spiattellare in faccia ai più obnubilati idealisti!
Il libricino è ben scritto, piacevole, appagante, rigoroso e chiaro, e alla fine dispiace che sia finito così presto. Uno dei piaceri della sua lettura è che si sente quel ragionare “pulito” tipico di chi, nell’affrontare una questione per nulla banale, si libera via via degli orpelli distraenti, o comunque non direttamente pertinenti ad essa, e ne va, è proprio il caso di dirlo, al cuore. Così sentirete definire l’amore come uno stato disposizionale, dire che l’amore ammette gradi, che l’amore è una relazione non simmetrica, che x desidera y perché crede che p, mentre y crede che x non ami y perché x non fa z (eh sì, le formalizzazioni dell’amore non somigliano ad espressioni d’annunziane, ma sono precise, vivaddio, e almeno non attentano alla glicemia…), sentirete parlare di credenze di secondo ordine, troverete un’analisi delle fallacie “del perché sei tu”, “del perché sei così”, “dell’amor perduto”, “dei fiori”, “del Concorde”, e di altre ancora, riguardanti anche il disamore, e capirete cos’è il wishful thinking, e cos’è il wishful seeing, vere infestazioni per i cuori penanti. Il tutto con situazioni paradigmatiche prese dalla realtà, nelle quali, se siete sinceri, prima o poi vi ritroverete.
Brevissimamente, il wishful seeing, o “veder desideroso”, è quel fenomeno psicologico – racchiuso nel classico detto “l’amore è cieco” – che distorce le nostre percezioni di innamorati, e che ci fa percepire ciò che si vuol percepire, e non percepire quello che non si vuole. Il caso paradigmatico è quando la nostra amata ci appare – va da sé, digiuni da alcool, sostanze psicotrope e droghe varie – come una stangona, mentre di fatto è una tracagnotta. Naturalmente esistono infinite casistiche meno grossolane, ma ben più appiccicose e problematiche.
Simile fenomeno psicologico è il wishful thinking, o “pensar desideroso”, che consiste nel credere a qualcosa o a uno stato di cose sol perché desideriamo quel qualcosa o quello stato di cose, o, all’opposto, consiste nel non crederci, sol perché non lo desideriamo. Tipicamente, in questi casi non solo non abbiamo ragioni a sufficienza per le nostre credenze, ma talvolta abbiamo pure evidenze contrarie, che noi puntualmente sottostimiamo o addirittura non consideriamo. Crediamo alle nostre credenze appunto perché scatta un meccanismo che da una parte ci fa sopravvalutare l’evidenza favorevole ai nostri desideri, dall’altra ci fa sottovalutare l’evidenza contraria a questi. Ognuno di noi si è imbattuto (oltreché in se stessi, ma già l’avete capito) in casi in cui l’influsso dei desideri sulle credenze ha dato luogo a dei veri e propri travisamenti della realtà e conseguenti travasamenti nell’inganno, con conseguenze ridicole, spiacevoli o dolorose. L’esempio banale è quello di un amore non corrisposto: chi ama tende a leggere i comportamenti dell’altra/o, anche belli, d’affetto e d’apertura, come segni d’amore, quando invece possono anche essere solamente dei bei comportamenti, di solo affetto e di sola apertura; se poi magari questi ultimi sono pure accompagnati da altri evidenti comportamenti d’indifferenza o di lontananza, ma che non tangono le valutazioni sospiranti dell’innamorata/o, ecco in lei/lui comparire all’orizzonte, nei deserti della materia grigia, proprio i miraggi tipici del wishful thinking… Ma del resto bisogna riconoscere che non è banale smascherare i meccanismi dell’autoinganno, e che è assai duro accettare la realtà dei fatti, spesso nonostante le chiare evidenze empiriche: “Ti stai sbagliando chi hai visto non è, non è Francesca…”, cantava Lucio Battisti.
Qualcuno – magari poco avvezzo ai sanguinolenti piaceri conoscitivi della “dissezione” razionale – potrebbe pensare che passare al bisturi analitico le nostre credenze in amore possa far perdere quell’aura di magia e mistero, incertezza e batticuore, sogno e vattelapesca spiritual-misticheggiante, che questo sentimento si porterebbe appresso nei lidi dell’Assoluto. Ma rivelarne gli errori cognitivi non significa affatto intaccare in toto le emozioni, né tantomeno ritenere che esse siano sempre frutto di inganni. Significa piuttosto cercare di spazzar via la nebbia artificiale dei nostri inutili psicodrammi e far rilucere la bellezza di ciò che di reale, anche se talvolta doloroso, resta. Anzi: io credo a quanto diceva il geniale fisico Richard Feynman, ossia al fatto che conoscere come è fatto un fiore, la sua struttura interna, i suoi stami e pistilli e le loro funzioni, non intacca di un nonnulla la bellezza estetica del fiore, ma la arricchisce con la bellezza interiore legata alle meraviglie delle sue qualità nascoste, che solo agli occhi chirurgici dello scienziato si disvelano. Anche nei sentimenti forse è così: se imparassimo a leggere meglio le loro manifestazioni con gli occhiali filtranti della razionalità, dunque anche della filosofia (di una certa filosofia), riusciremmo magari a godere di racconti più veritieri e armoniosi, e di emozioni più cristalline: forse non saremmo necessariamente più felici, ma illudendoci e autoingannandoci meno, magari soffriremmo meno, vivremmo meglio l’amore conoscendolo meglio e incontrandolo forse meno ma meglio, insomma arrederemmo con un gusto un po’ più sensato le trincee quotidiane in cui ci arrabattiamo.
Intendiamoci, le mie sono solo “belle” e facili parole, e in fondo questo libricino non vi cambierà la vita: anche dopo la sua lettura tutti noi continueremo a sguazzare nei (malum)(buon)umori delle nostre orge autoingannatrici, visto che in ballo ci sono emozioni, belle e brutte, che sovrastano, almeno nei momenti più hot, le nostre capacità di discernimento. Ma è un primo passo per fare un po’ di pulizia e disincrostare qualche meccanismo psicologico, e magari cominciare a un esercizio guidato il nostro spirito critico sempre dannatamente atrofico in tema sentimentale, mettendo almeno a fuoco le due (ovviamente sto ignominiosamente semplificando) opzioni in gioco per decidere in quale tentare di dimenarsi: crogiolarsi nell’autoinganno e credere piacevolmente, ma senza averne valide giustificazioni, che Giuseppina mi ami, o ammettere dolorosamente che invece ci sono valide ragioni per credere che lei non mi ami? Beh, penso sia più dignitosa, e alla lunga salutare, la seconda opzione. Ho il sospetto, però, che, in fondo in fondo, checché se ne possa ritenere, non sia la più praticata. Esposta così la scelta è ovvia anche per un marziano, ma nelle infinite luciferine sfumature con cui ci si presenta sfacciatamente la vita, ho l’impressione che noi terrestri spesso stentiamo a riconoscere le fauci della prima, finendo così, quasi ignari, per scivolarci dentro, perché sì, confessiamocelo, alla fine della fiera è più allettante un “sentirsi bene” che un “sentire la verità”, e questo per qualche googolplex di motivazioni sulle quali non è qui il caso di soffermarsi, visto che ho già profanato a sufficienza la serietà dell’argomento.
Poi, fino a che punto la filosofia riesca a cogliere la “vera verità” in un campo tanto complesso qual è quello delle relazioni amorose, è un altro paio di maniche. Ricordate il grande filosofo A. J. Ayer? La filosofia “tends to show that we can’t really know lots of things which we think we know”. Già, ma anche questa tendenza, se puntualmente giustificata nella molteplicità delle sue manifestazioni, delineerebbe pur sempre una forma significativa e ponderata di conoscenza, dunque un bottino mica da poco in magri tempi di trincee.
(Un bacio a Giuseppina)

Giovanni Macchia

LA SCIENZA DEL CAOS E IL CAOS DEI BIG DATA SENZA SCIENZA

bigsmalldata-1140x500Parlando di caos e inevitabile iniziare con Laplace1:

Un’ intelligenza che, per un dato istante, conoscesse tutte le forze di cui e animata la natura e le posizioni rispettive degli esseri che la compongono, se per di più fosse abbastanza profonda per sottomettere questi dati all’ analisi, abbraccerebbe nella stessa formula i movimenti dei più grandi corpi dell’universo e dell’atomo più leggero.

L’essenza di questo famoso brano può essere riassunta dicendo che le leggi della fisica classica sono perfettamente deterministiche: noto lo stato di un sistema ad un certo istante la sua evoluzione è univocamente determinata ad ogni tempo successivo.

Ovviamente non esiste nessun matematico tanto bravo da trovare esplicitamente l’evoluzione di ogni sistema, e il mondo è pieno di fenomeni decisamente irregolari e difficili da prevedere (basti pensare all’atmosfera). Si potrebbe pensare che queste irregolarità siano solo “apparenti”, cioè dovute ad un numero molto grande di cause ognuna delle quali è però semplice. Questo modo di interpretare i fenomeni, che possiamo chiamare “filosofia del mattone elementare semplice”, è stato sostanzialmente accettato fino a pochi decenni or sono.

Il padre della teoria del caos deterministico è stato Henri Poincaré2, con le sue scoperte nell’ambito della meccanica celeste, la scienza che a lungo ha incarnato l’ideale laplaciano. Cercando la soluzione del problema di tre corpi che interagiscono attraverso la forza di gravità (ad esempio Terra-Sole-Luna oppure Sole-Giove-Asteroide), nel 1890 Poincaré capì che la difficoltà e dovuta ad una proprietà intrinseca del sistema: il caos deterministico.

Una causa piccolissima, che sfugge alla nostra attenzione, determina un effetto considerevole che non possiamo mancare di vedere, e allora diciamo che l’effetto è dovuto al caso. …. Ma se pure accadesse che le leggi della natura non avessero più alcun segreto per noi, anche in questo caso potremmo conoscere la situazione iniziale solo approssimativamente …. La previsione diventa impossibile e si ha un fenomeno fortuito.

Laplace non aveva impostato il problema nel modo completamente “giusto”, nella pratica la domanda più corretta è: una volta assunto il carattere deterministico di un fenomeno, cosa possiamo dire se conosciamo la condizione iniziale con una piccola incertezza? Si dovette attendere fino agli anni sessanta del 20-mo secolo, quando vari scienziati (primi fra tutti E. Lorenz, M. Hénon e B. Chirikov) mostrarono come la presenza del caos nei sistemi deterministici non sia una patologia matematica bensì un comportamento molto comune3.

Per capire l’importanza del caos discutiamo brevemente il problema delle previsioni meteorologiche. L’atmosfera è ovviamente un sistema molto com-plicato descritto da tante variabili. Ma questa non è la sola difficoltà; Lorenz, studiando un modello minimale per la circolazione atmosferica, mostrò in modo inequivocabile come il comportamento irregolare non sia dovuto solo al grande numero di variabili in gioco, ma anche al caos deterministico, che è presente anche in sistemi apparentemente semplici4.

Anche se (ipoteticamente) l’evoluzione dell’atmosfera fosse regolata da un sistema con solo tre variabili, ugualmente, in presenza di caos, non saremmo in grado di fare previsioni dopo un certo tempo. Questo è quello che viene chiamato effetto farfalla: un’inevitabile incertezza sulla condizione iniziale implica l’ impossibilita di predire in modo accurato il sistema dopo un tempo caratteristico determinato da un parametro chiamato “esponente di Lyapunov”. L’ irregolarità presente in sistemi complessi (come l’atmosfera) non è necessariamente una conseguenza della sovrapposizione del comportamento di tanti mattoni “elementari”. Se tali mattoni sono caotici allora la complessità è, in qualche modo, intrinseca.

La scoperta del caos ha permesso di capire che la validità dell’approccio statistico non è necessariamente limitata a sistemi con molti gradi di liberta. Ovviamente si deve adottare un approccio statistico se il numero dei gradi di liberta è molto grande, ma questo accade anche in presenza del caos deterministico, indipendentemente dal numero (anche piccolo) delle variabili coinvolte.

La possibilità di comportamenti caotici in ambito deterministico ha un im-patto non banale per la modellizzazione di una gran classe di fenomeni. In tutti i casi i cui non sia possibile determinare le equazioni di evoluzione da principi primi (come le leggi di Newton per la meccanica) è necessario ricorrere a considerazioni di tipo fenomenologico. Se il modello costruito è caotico allora si deve fare particolare attenzione alla sua reale rilevanza. Infatti modificando leggermente i parametri di controllo (oppure le condizioni iniziale) il risultato può cambiare in modo drammatico. Cosa si può realmente ottenere da modelli caotici? Certamente non sono attendibili le previsioni puntuali (che succede un certo giorno); tuttavia previsioni di tipo meno accurato (cosa succede in media in un mese) possono essere precise e questo (può suonare paradossale) proprio per la presenza del caos.

Per molto tempo la formulazione matematica dell’economia è stata basata sull’assunzione di comportamenti regolari, e la convinzione di poterli con-trollare agendo sui tassi di interesse, svalutazione, tasse ecc. Ovviamente l’economia e la finanza non mostrano affatto andamenti regolari ed i politici non sono in grado di controllare molto. Ora anche gli economisti si interessano di modelli caotici ed alcuni risultati sembrano mettere in discussione alcuni dei paradigmi classici. Ad esempio è stato recentemente mostrato come in un regime di duopolio i produttori ottengono maggiori profitti in un mercato con andamento caotico rispetto a quelli ottenuti in un mercato che si assesta su valori di equilibrio stabile, in netto contrasto con l’opinione ampiamente diffusa che sono preferibili sistemi stabili rispetto a quelli con continue variazioni5.

Nonostante Poincaré abbia chiaramente stigmatizzato gli eccessi di un empirismo ingenuo: la scienza si costruisce con i fatti, come una casa con le pietre; ma una raccolta di fatti non è una scienza più di quanto un mucchio di sassi non sia una casa, attualmente esiste una nefasta corrente di pensiero che vede come unico ingrediente rilevante nella scienza i dati. Secondo questo punto vista, che purtroppo prende sempre più piede, visto che siamo nell’era dei dati in abbondanza si può fare a meno delle teorie, basta usare i dati (queste sono le parole del guru informatico C. Anderson)6.

I sostenitori del Big Data credono che usando la grande quantità di dati a disposizione e un computer abbastanza potente, si potrebbe determinare in modo empirico le equazioni di evoluzione di un qualunque fenomeno. Tutto ciò è solo un’illusione di ingenui: se il sistema è descritto da un numero (relativamente) alto di variabili, diciamo più di 5 o 6, allora inevitabilmente i metodi basati solo sullo studio delle serie storiche sono destinati al fallimento7.

Angelo Vulpiani

 

1 P.S. Laplace Essai philosophique sur les probabilites, traduzione italiana in Opere di P.S. Laplace (Utet, 1967).

  1. Per una breve presentazione del contributo di Poincaré al caos: A. Guerraggio 15 grandi idee matematiche (Bruno Mondadori, 2013);

3 Per un’introduzione non troppo tecnica al caos: D. Ruelle Caso e caos (Bollati Boringhieri, 1992); A. Vulpiani, Determinismo e Caos (Carocci, 2004).

4 E. Lorenz, Deterministic Nonperiodic Flow, J. Atmos. Sci. 20, 130 (1963).

5 G.I. Bischi, Caos deterministico e previsioni economiche, Lettera Matematica PRISTEM 74-75, 112 (2010).

6 C. Anderson, The end of theory: the data deluge makes the scientific method obsolete, Wired Magazine 23 giugno 2008.

7 Per una discussione delle connessioni tra caos e previsioni si veda: F. Cecconi, M. Cencini, M. Falcioni and A.Vulpiani, The prediction of future from the past: an old problem from a modern perspective, Am. J. Phys,. 80, 1001 (2012); il Dossier La scienza delle previsioni, Le Scienze, giugno 2013, pag. 32- 61; A.Vulpiani, Qualche osservazione sui limiti dell’uso dei Big Data: ww.mathisintheair.org/wp/2015/12/qualche-osservazione-sui-limiti-delluso-dei-bigdata.