LA MERITOCRAZIA

images“Meritocrazia” è un brutto termine, poiché significa governo dei più meritevoli, come se fosse ovvio chi sarebbero i più meritevoli.

Proviamo a ragionare. Consideriamo una qualsiasi struttura collettiva – azienda, università, stato. E’ chiaro che ogni struttura di tal genere ha una missione, cioè è preposta a raggiungere certi risultati. Un’azienda ha come scopo il profitto – magari arricchito da secondarie missioni sociali o etiche; un’università fa ricerca, didattica e interagisce con il territorio per comunicare i risultati delle proprie ricerche – la cosiddetta “terza missione”; uno stato favorisce i progetti dei suoi cittadini e la loro convivenza pacifica.

Nel gergo comune il termine “meritocrazia” è diventato più o meno sinonimo dell’espressione “remunerare di più chi. lavorando nella struttura, contribuisce maggiormente all’ottenimento degli scopi conformi alla missione della struttura stessa”.

La prima obbiezione contro la meritocrazia intesa in questo senso è la seguente: una struttura pubblica, come un’università o lo stato, non deve remunerare secondo i meriti dei lavoratori, ma in accordo con i loro bisogni. Gli argomenti empirici e teorici a favore del fatto che se remuneriamo secondo i bisogni e non secondo i meriti, la struttura fallisce la sua missione, sono schiaccianti. Questo non significa che la legislazione non debba prevedere quote premiali degli stipendi dei lavoratori legate ai loro bisogni, ma questa non può essere che una parte del calcolo delle remunerazioni. Come recita la Dichiarazione dei diritti dell’uomo e del cittadino, articolo 1, le disuguaglianze sono tollerate solo nella misura in cui contribuiscono a migliorare la situazione di tutti. Analogamente, la meritocrazia va perseguita solo fino a quando migliora il raggiungimento della missione della struttura, non in quanto tale.

Una seconda obbiezione contro la meritocrazia potrebbe essere questa: non è possibile misurare il contributo del singolo al raggiungimento degli scopi. Come nel caso precedente, questa affermazione è vera solo in parte; di certo è molto difficile misurare le performance di un lavoratore e ogni valutazione non può che essere parziale e imperfetta, ma questo non significa che sia impossibile.

Un’ulteriore obbiezione potrebbe essere questa: chi valuta i lavoratori? Se sono i rispettivi responsabili, facile che ci siano arbitrii sia in senso positivo che negativo. Qui si deve rispondere che la valutazione va affidata a una struttura terza rispetto ai lavoratori e alla struttura che viene valutata.

E ancora: se noi stabiliamo parametri esatti per valutare il lavoro delle persone, tali indici non possono che essere parziali rispetto al contributo globale del lavoratore, per cui il risultato è che egli si impegnerà a raggiungere gli standard di valutazione piuttosto che tendere verso gli scopi della struttura. Difficile negare la forza di questa obbiezione; tuttavia i parametri devono essere scelti in modo ragionevole, per cui il loro soddisfacimento non può che avere, almeno in parte, come conseguenza, l’ottenimento degli scopi generali della struttura. Inoltre i parametri possono essere affinati di anno in anno sulla base dell’esperienza pregressa. Infine occorre valutare il lavoratore sulla base di molti indici, in modo da cogliere al meglio la sua fattività.

Ma le obbiezioni non finiscono qui. Ogni quanto tempo occorre valutare il lavoratore? Se lo fai troppo spesso diventa un processo dispendioso che crea un clima di allarme permanente; se lo fai troppo di rado, si rischia l’inefficacia. La cadenza della valutazione, ovviamente, dipende dal tipo di lavoro. Un trader può essere valutato anche ogni tre mesi, un ricercatore non più spesso che ogni tre anni.

Le critiche non sono finite. Mettiamo che Gigi abbia lavorato bene gli ultimi dodici mesi, allora gli si aumenta lo stipendio: ma che garanzie hai che lavorerà bene anche l’anno prossimo? Magari quello si siede soddisfatto. Infatti la valutazione non deve essere solo all’indietro sul passato, ma anche in avanti, sulle aspettative. Occorre quindi stabilire indicatori, come l’età e altro, che tengano conto anche del possibile rendimento futuro di un lavoratore.

E infine, forse l’obbiezione più grande: i risultati importanti si ottngono in squadra e invece la meritocrazia, cioè la valutazione e la remunerazione dei risultati, mette l’uno contro l’altro e avvelena l’ambiente. Esistono modi per evitare anche questo effetto negativo. La supervalutazione dei meriti non deve riguardare una fetta troppo grande degli stipendi, ma solo una parte. Inoltre è facile stabilire premi che si ottengono solo se l’intera struttura raggiunge certi risultati, in modo che le persone siano incentivate a collaborare, oltre che a competere.

Insomma, tutti i classici argomenti contro la meritocrazia hanno una parte di ragione, ma spesso essi sono usati come un machete contro ogni riforma dell’attuale costume italiano –  che non premia quasi per nulla i meritevoli – proprio da coloro che se venissero inseriti tali sistemi verrebbero penalizzati, perché sono abituati a privilegi sicuri e allo scarso impegno.

 

VF

L’ERA DELLA DISINFORMAZIONE

bufalaIn un recente saggio apparso su Le scienze si afferma che i social media avrebbero creato una vera e propria epoca della disinformazione. In effetti si nota che i siti zeppi di informazioni complottiste e cospirazioniste sono frequentati tre volte tanto rispetto a quelli seri. Affermazioni tipo che gli USA avrebbero creato l’AIDS per controllare gli africani, o che le scie chimiche sono la causa del riscaldamento globale si diffondono con estrema facilità attraverso i social network.

Non solo, l’effetto dei cosiddetti troll è spesso quello di ampliare tale consenso. Infatti i siti che appositamente propalano affermazioni assurde, come che le scie chimiche sarebbero state arricchite di viagra dagli americani, o che una società segreta vuole abolire il secondo principio della termodinamica, sono altrettanto pervasive. Cioè i cospirazionisti, malgrado l’esagerazione, condividono e commentano anche queste pagine.

Per questa ragione Walter Quattrociocchi – ricercatore all’IMT alti studi di Lucca – ha parlato di una vera e propria “epoca della disinformazione”.

Ancora più inquietante è il fatto che in rete si creano le cosiddette “casse di risonanza”, all’interno delle quali enormi quantità di persone si rafforzano nelle loro opinioni assurde, frequentandosi (virtualmente) fra loro, condividendo informazioni deliranti e così via.

Si può fare qualcosa per arginare il fenomeno? Il gruppo di lavoro guidato da Quatrociocchi ha pubblicato due studi, uno realizzato in Italia e l’altro negli USA, che dimostrerebbero come di fatto esponendo a informazioni serie le persone sensibili al complottismo addirittura aumenterebbe la loro fedeltà a tali opinioni folli. Questo risultato è veramente inquietante, anche se non ha scoraggiato il nostro debunker, o scopritore di bufale, più noto, cioè Paolo Attivissimo.

Leggendo queste analisi mi è venuto in mente un vecchio post di Buttonwood, comparso sull’Economist, che denunciava la sorprendente ignoranza economico-finanziaria degli americani. Circa il 50% dei cittadini USA sopra i 50 anni non sa rispondere correttamente alla domanda se 100 dollari messi da parte per 5 anni all’interesse del 2% all’anno producono più o meno di 110 dollari. Ovviamente di più, a causa dell’interesse composto. L’Italia non è da meno, se è vero che quasi il 50% dei nostri concittadini è tendenzialmente analfabeta funzionale, cioè poco capace di capire un testo e ragionare matematicamente.

Ci sono studi che mostrano come una maggiore alfabetizzazione a livello di scuola secondaria non risolverebbe il problema della diseducazione finanziaria. E’ probabile comunque che una buona formazione diminuirebbe almeno un poco questo fenomeno di frequentazione di siti di disinformazione. Anche se non è detto che l’effetto sarebbe molto significativo.

E’ chiaro che immaginare cause semplici dei gravi disagi cui andiamo incontro è emotivamente rassicurante, per cui la diffusione di tali idee non sembra essere tanto un problema di capacità analitiche che mancano, ma piuttosto una questione di intelligenza emotiva dei cittadini

Concludo notando che i dati proposti da Quattrociocchi riguardo agli effetti dell’esposizione dei complottasti al debunking non sono del tutto convincenti. Gli studiosi, infatti, hanno considerato coloro, fra i cospirazionisti, che frequentano e intervengono in siti scientificamente seri, come un campione rappresentativo di complottasti esposti al debunking. E il risultato è stato che costoro hanno una fedeltà maggiore alle loro tesi rispetto alla media. Tuttavia tale campione potrebbe essere biased dal fatto che i complottisti che vanno a leggere e commentare i siti seri sono particolarmente accaniti nelle loro convinzioni, tanto da voler fare proseliti fra le persone appartenenti all’altro gruppo, cioè quello di coloro che non frequentano i siti cospirazionisti.

Tutta la questione merita ricerche ulteriori e richiede la nostra attenzione. L’uomo medio da sempre si è fatto manipolare e turlupinare, dalle chiese, dai nobili, dai padroni ecc. Nel secolo XX una risposta molto di moda a questo fenomeno millenario è stata quella del tardo Marx e soprattutto di Lenin e Gramsci, secondo cui un’avanguardia di intellettuali “santi” avrebbe dovuto condurre le masse verso una società nuova e un uomo libero. Abbiamo visto i disastri che questa idea ha portato con sé. Ai presunti santi si sono avvicendati quasi sempre feroci assassini, oppure essi stessi erano già dei folli sanguinari. Molto più ragionevole sembra essere la modesta proposta illuminista di favorire la consapevolezza delle persone, migliorando le loro capacità razionali e diffondendo la literacy e la numeracy. E’ chiaro che questo non basterà, ma probabilmente non si può fare molto di più che studiare a fondo con metodi empirici quale sia il modo migliore di incrementare la ragionevolezza dei cittadini.

VF

LA PRIMA TEORIA DEGLI INSIEMI E LA FILOSOFIA

p170qd7oos12d1mm41hhu11mo1mvn0_89856Diversi intellettuali hanno mostrato che la filosofia non deve chiudersi nella sua torre eburnea di erudizione, ma che ha anche il compito faticoso di studiare i fondamenti delle scienze empiriche e logiche. Queste ultime ricorrono al linguaggio matematico per semplificare processi deduttivi e psicologici altrimenti molto lunghi. Il linguaggio matematico, pertanto, ha un’importanza fondamentale per il progresso delle scienze, la stessa importanza che hanno le regole sintattiche per il corretto “funzionamento” del nostro linguaggio naturale.

I filosofi, dal canto loro, si sono da sempre interrogati sulla matematica, sul suo metodo ed i suoi risultati. Le indagini di Zenone e di Platone ci danno conferma di questo interesse, oltre a fornire risposte profonde ed interessanti, seppur primitive, a questioni come la teoria della misurazione e la natura del numero. Essi possono essere considerati i primi filosofi della matematica e studiosi delle sue implicazioni metafisiche.

La ricerca sulle fondazioni della matematica, dunque, possiede anche un valore filosofico, e la storia di una disciplina in particolare lo dimostra.

La teoria degli insiemi è lo studio formale delle classi e dell’infinito attuale matematico (o, come vedremo, degli infiniti matematici) e su di essa si fonda gran parte della matematica moderna. La teoria degli insiemi nacque in Germania solo alla metà del 19esimo secolo, perché, sin ad allora, molti dei matematici (Gauss su tutti) e  dei filosofi europei avevano ritenuto impossibile lo studio matematico dell’infinito attuale. Alla base di questo rifiuto c’erano posizioni filosofiche finitiste (mantenute, ad esempio, dal famoso matematico Leopold Kronecker), che confermano lo stretto legame tra problemi matematici e soluzioni filosofiche. Tra i molti studiosi che si cimentarono nella teoria degli insiemi, non si può ignorare l’importante contributo di Bolzano, Riemann e Dedekind.

Nonostante il suo apporto sia stato largamente sottovalutato, Bernard Bolzano fu un matematico e filosofo di grande valore. Egli criticò i paradossi sull’esistenza dell’infinito attuale e propose un argomento interessante sull’esistenza di insiemi infiniti, ipotizzando persino l’esistenza di diverse classi di infiniti.

Bernhard Riemann, nella sua famosa lettura di abilitazione all’insegnamento, aveva ipotizzato di fondare la matematica sulla nozione di “insieme”, mentre Richard Dedekind, nel suo lavoro di teoria dei numeri, faceva ampiamente uso di operazioni su insiemi.

Le intuizioni profonde dei tre scienziati consentirono a Georg Cantor di dare una prima fondazione della teoria.

Il 1873 fu un anno decisivo per gli sviluppi della teoria degli insiemi: Cantor scoprì che l’insieme dei numeri reali non era denumerabile e che, dunque, la sua cardinalità era maggiore o uguale alla cardinalità dei numeri naturali o dei numeri razionali, che erano invece denumerabili. Questo risultato permise a Cantor di utilizzare numeri transfiniti per ordinare diverse classi di infiniti.

Il valore filosofico di tali scoperte non è da sottovalutare. Gli studiosi hanno rivisto il concetto tradizionale di infinito e si sono interrogati su una pluralità di infiniti, traendone interessanti considerazioni teoriche.

Diversi matematici di inizio Novecento credettero che l’intera matematica potesse essere fondata sulla teoria degli insiemi. Purtroppo, però, furono trovati tre paradossi che ne compromisero il programma di fondazione. Il primo, il paradosso di Burali-Forti, individuò un’antinomia nella costruzione dell’insieme di tutti numeri ordinali. Il secondo, il paradosso di Cantor, dimostrò che l’insieme delle parti dell’insieme Universale (cioè l’’insieme di tutti gli insiemi) aveva cardinalità maggiore dell’insieme Universale stesso. Il terzo, il paradosso di Zermelo-Russell, individuò un’ antinomia nel considerare l’insieme di tutti gli insiemi che non sono membri di se stessi.

Era necessario, pertanto, fornire una fondazione chiara della teoria degli insiemi e rinunciare sia all’insieme Universale sia al principio di Comprensione.

Quest’ultimo, pur essendo dotato di grande fascino, consentiva la costruzione di insiemi con proprietà arbitrarie ed aveva condotto al paradosso di Russell. Occorrervano dunque regole apposite per la costruzione di insiemi, che rendevano la teoria meno “naturale”.

Le implicazioni filosofiche di questi paradossi e della rinuncia al principio di comprensione furono sottolineate dai filosofi analitici Goodman e Quine in un famoso articolo. Essi proposero di rinunciare ad impegnarsi ontologicamente alle entità astratte matematiche facendo appello ad un’intuizione filosofica primitiva. I due filosofi notarono correttamente, infine, come la risoluzione dei tre paradossi  della teoria degli insiemi implicava un grado di arbitrarietà ed artificialità formale da guardare con sospetto. La loro proposta teorica fu fortemente criticata da diversi filosofi e matematici che ritenevano necessaria l’esistenza delle entità postulate dalla teoria degli insiemi, indispensabili a discipline come la fisica o la biologia.

Marino Varricchio

HEIDEGGER E IL MAL DI GOLA

 

download«δῆλον γὰρ ὡς ὐμεῖς μὲν ταῦτα (τί ποτε βούλεσθε σημαίνειν ὀπόταν ὄν φθέγγησθε) πάλαι γιγνώσκετε, ἡμεῖς δὲ πρὸ τοῦ μὲν ᾠόμεθα, νῦν δ’ ἠπορήκαμεν. “Perché è chiaro che voi avete una lunga familiarità con quello che propriamente intendete con l’espressione ‘essente’, quanto a noi, una volta abbiamo sì creduto di saperlo, ma ora siamo caduti nell’imbarazzo”. (Platone, Sofista, 244a)

Forse che noi abbiamo oggi una risposta alla domanda, che cosa propriamente intendiamo col termine “essente”? Niente affatto. È dunque il caso di proporre di nuovo la domanda circa il senso di essere. E siamo forse oggi giorno almeno imbarazzati dal fatto di non comprendere l’espressione “essere”? Niente affatto. E allora è innanzitutto il caso di risvegliare una qualche comprensione del senso di questa domanda. La presente trattazione si propone la concreta elaborazione della domanda circa il senso di “essere”. L’interpretazione del tempo come il possibile orizzonte di ogni comprensione d’essere in quanto tale, ne è l’obbiettivo preliminare.»

Questo è il famoso inizio di Essere e tempo di Heidegger (1927). H inizia citando il punto in cui il Forestiero, uno dei protagonisti del dialogo platonico il Sofista, è allarmato da un problema tecnico. Si dice che i sofisti ingannano. Ma per affermare che qualcuno inganni, occorre dire che sta dicendo il falso, cioè affermare che sta affermando di ciò che è che non è oppure di ciò che non è che è. Perciò, per criticare il sofista, bisogna affermare che esiste il falso, cioè che l’essere può non essere oppure il non essere può essere. Facciamo un esempio: “Pegaso non esiste”; ma allora c’è qualcosa, cioè Pegaso, appunto, che non esiste.

E’ un problema tutt’altro che banale, quello che si pone Platone. Russell, usando il calcolo dei predicati introdotto da Frege, proverà a risolverlo affermando che l’enunciato “Pegaso non esiste” va tradotto con “per ogni x, x non è Pegaso”.

E a questo punto il Forestiero, che viene da Elea, patria di Parmenide, si convince che occorre uccidere il Padre, cioè colui che aveva detto che l’essere è e il non essere non è. Da qui viene la sua perplessità sulla nozione di essere.

H inizia citando il testo in greco antico, questo mette subito il lettore in uno stato di suggestione. Se non si conosce il greco, si pensa: “mamma mia quanto è bravo costui!”; se lo si conosce, ci si sente gratificati per aver passato così tante ore a tavolino per apprendere questa difficile lingua. Detto questo, citare il testo in greco ha una qualche funzione cognitiva? Assolutamente no; è pura retorica. Subito dopo troviamo la traduzione, così da facilitare il compito anche a chi conosce la lingua.

Di seguito H paragona la nostra condizione a quella del Forestiero: così come lui era perplesso sulla domanda che cosa è l’essere, così anche noi lo siamo oggi. Il salto è stratosferico: quello che era un problema tecnico di filosofia del linguaggio, diventa “la domanda circa il senso dell’essere”. Lo strafalcione storico di H a questo punto è evidente. Il Forestiero non si stava ponendo domande fondamentali sul senso dell’essere, ma semplicemente si interrogava su questioni di logica e grammatica.

H ci dice che il volume che abbiamo fra le mani proverà a rispondere a tale domanda di senso dell’essere. Quale è la risposta che propone? Ogni comprensione dell’essere si trova nell’orizzonte del tempo. Parole altisonanti e criptiche che hanno un significato molto semplice: qualsiasi tentativo di comprendere e definire come stanno le cose intorno a noi è storicamente condizionato; cioè per l’uomo non esiste una verità oggettiva, poiché il suo accesso all’essere è sempre storicamente determinato.

Qui non voglio discutere la correttezza o meno della tesi di H, vorrei solo osservare che un filosofo onesto avrebbe iniziato il suo libro scrivendo qualcosa di questo tipo:

«Una definizione preliminare del termine “essere” potrebbe suonare così: “l’insieme della realtà indipendentemente da ogni soggetto conoscente”. Di fatto però vogliamo dedicare questo nostro libro a indagare meglio il senso di questo termine. In realtà alla fine scopriremo che è impossibile trovare una definizione più precisa dell’essere, poiché il punto di vista umano sull’essere è sempre storicamente condizionato.»

Che tristezza! Che banalità! Niente greco antico, niente riferimenti (sbagliati) al Sofista di Platone! Niente frasi suggestive e criptiche.

imagesMolti ancora oggi sono convinti che fare filosofia significhi citare in greco e in tedesco, dire cose suggestive e poetiche, ammiccare, accennare, sottintendere e consolare. Così come quel medico a cui dissi “dottore ho mal di gola!” Mi fece tirar fuori la lingua e dire “aaaaaaa”; poi concluse con fare sentenzioso: “Lei ha una flogosi della laringe”! Ebbi la sensazione che non avevamo fatto nessun passo avanti nella comprensione del mio mal di gola. Solo parole roboanti ed ermetiche.

VF

MI RICORDO DI ECO

downloadStavo ancora frequentando il terzo anno di Filosofia a Bologna che incappai in un professore di semiotica sostenitore della tesi secondo cui ogni scoperta scientifica sarebbe basata su un’abduzione. Preparai una tesina assieme all’amico Alessandro Bardi, che mostrava come nel caso della formulazione del modello dell’atomo di idrogeno di Bohr i processi inferenziali furono ben più complessi. Quella tesina divenne poi la nostra prima pubblicazioni sugli Annali dell’Istituto di Discipline Filosofiche del 81/82. In quell’occasione lessi un po’ di Eco: il suo Trattato di semiotica generale e un saggio sull’abduzione in Peirce, Sherlock Holmes e la scienza. Mi resi conto della finezza delle sue argomentazioni, ma provai una forte ripulsa. Mi stavo formando come filosofo della scienza attento soprattutto alla fenomenologia di Husserl. Perciò l’idea di ridurre tutto a linguaggio, anzi a segno, mi urtava.

Una quindicina di anni dopo presi in mano la raccolta di saggi Apocalittici e integrati e lì mi resi conto dell’acume di Eco: egli era un lettore senza pari della cultura di massa; ne sapeva cogliere con immediatezza e garbo pregi e difetti. Come filosofo era un disastro; o meglio, non gli interessava. Ma quando si metteva ad analizzare i fumetti o le canzonette saliva in cattedra; ti faceva capire quello che da solo difficilmente avresti afferrato.

E poi arrivarono i romanzi. Ho letto solo Il nome della rosa; mi sono divertito, ma la sensazione di un’opera scritta a tavolino, senza una vera ispirazione, mi ha costantemente accompagnato. Bellissima la descrizione di Fra Dolcino, che mi ha fatto pensare al ’68. Forse Eco stava parlando anche di quello? E poi, in generale, il romanzo, che descrive la decadenza della cultura dei monasteri a favore delle città, dei movimenti mendicanti ecc., sembra raccontare il contrasto fra l’Italia rurale in cui Eco era cresciuto e quella industriale che all’improvviso si era trovato davanti negli anni Settanta.

In qualche occasione ho chiacchierato con Eco. Uomo estremamente spiritoso e mai banale, dotato di un’energia prodigiosa e capace di fermarsi a parlare con chiunque.

Ci mancherà, anche se negli ultimi anni ho avuto la sensazione che non fosse riuscito a cogliere in pieno la rivoluzione legata all’avvento del web.

Vincenzo Fano

URBINO E LE ONDE GRAVITAZIONALI

gwImmaginiamo un fisico rinchiuso in un ascensore appoggiato sulla Terra. Oppure solleviamo l’ascensore dal tetto con una gru accelerandolo nello spazio vuoto esattamente come se cadesse verso l’alto. Il fisico dentro non noterebbe nulla. Per lui essere appoggiato a terra, oppure trascinato da una forza di accelerazione uguale a quella di gravità nell’altro senso pari sono. Dunque la forza di gravità e l’accelerazione sono in un certo seno la stessa cosa. Ma l’accelerazione è lo spazio percorso diviso il tempo trascorso al quadrato. Cioè l’accelerazione è un rapporto fra spazio e tempo. Quindi, se la gravità e l’accelerazione sono la stessa cosa, allora la forza di gravità è in un certo senso un fenomeno spazio-temporale.

E qui arriva la geniale intuizione di Einstein: la forza di gravità non è un campo che attraversa lo spazio-tempo, ma una deformazione di quest’ultimo. In altre parole, una grande massa, come ad esempio quella del nostro Sole, crea intorno a sé una deformazione della geometria dello spazio-tempo che influenza il moto dei pianeti, compresa la Terra.

Ai tempi di Einstein i moti dei pianeti del sistema solare si potevano calcolare con buona precisione, usando le leggi di Newton. Vi era però una piccola discrepanza nel perielio di Mercurio, che non si capiva.

Einstein continuando a riflettere sul rapporto fra materia, spazio e tempo arrivò a formulare nel 1915 un’equazione, che stabiliva la geometria dello spazio-tempo data la distribuzione delle masse e delle energie. Appunto l’”equazione di Einstein”.

Con questa equazione egli riprova a calcolare il perielio di Mercurio; e, dopo vari tentativi, riesce a comprendere, nei termini della sua nuova teoria, quella piccola discrepanza.

Quale migliore conferma che si trovava sulla strada giusta? Un’anomalia fino ad allora inspiegabile, a seguito della sua rivoluzione, diventa prevedibile.

Proprio per questa ragione, quando Eddington nel 1919 confermò la flessione dei raggi di luce e quindi la nuova teoria, Einstein disse che era già sicuro che la sua ipotesi fosse corretta.

Che cosa significa “deformare lo spazio-tempo”? Vuol dire che le masse fanno sì che in ogni parte piccola quanto si vuole dello spazio-tempo il modo di calcolare la distanza può cambiare. In pratica in ogni punto lo spazio-tempo può contrarsi o dilatarsi.

Ma se lo spazio-tempo si deforma, un opportuno moto di corpi celesti potrebbe addirittura creare delle onde costituite da tale deformazione. Einstein nel 1916 previde proprio questo fenomeno.

Esse sono diverse dalle onde elettromagnetiche, che già si conoscevano. Come queste ultime sono trasversali, cioè oscillano perpendicolari alla direzione del loro moto. Sono però estremamente tenui. E soprattutto si verificano solo in situazioni particolari a causa della loro peculiare simmetria di rotazione.

Negli anni Trenta Einstein si trasferisce negli Stati Uniti a causa dell’avvento del nazismo e comincia a pubblicare sulla più importante rivista americana di fisica, cioè il Physical Review. Lì comparirà infatti il suo famoso saggio del 1935 spesso indicato con la sigla EPR, che metterà in discussione la completezza della meccanica quantistica, evidenziando quello che oggi è un fenomeno fondamentale del micro-mondo, cioè l’entanglement.

Sempre con Rosen, uno degli autori di EPR, rifarà i calcoli relativi alle onde gravitazionali, convincendosi che non ci possono essere. Egli poi manda l’articolo alla rivista, che lo sottopone, come negli USA era già pratica a una peer review. Il referee critica in alcuni punti il lavoro del grande fisico. Tate, il direttore della rivista, è imbarazzato, ma segnala ad Einstein il responso dubbioso. Einstein si infuria e ritira l’articolo, con rammarico di Tate. Poi egli si accorgerà di aver sbagliato e pubblicherà una versione molto diversa del saggio.

Già da molto tempo abbiamo conferme indirette dell’esistenza delle onde gravitazionali, ma non avevamo ancora una loro misura diretta. Pochi giorni fa l’esperimento italo-americano-francese Virgo-Ligo ha messo a punto la prima rilevazione diretta di tale sfuggente fenomeno.

Con un gigantesco interferometro è stato possibile rilevare una lieve deformazione ondulatoria dello spazio-tempo, dovuta alla coalescenza di due buchi neri a più di 1 miliardo di anni luce dalla Terra.

Si tratta di un esperimento straordinario, che è costato diversi miliardi di dollari.

Esso non produce solo una nuova conferma della teoria della relatività generale, ma soprattutto è il primo passo verso una nuova era di acquisizione di informazioni sulla struttura dell’universo e soprattutto su ciò che è accaduto nei primi 300.000 anni della sua vita. La radiazione che si è creata in quella data, infatti, scherma quasi ogni segnale su quel decisivo periodo del nostro cosmo. Per contro le onde gravitazionali potrebbero portarci nuovi dati su che cosa accadde in quel lasso di tempo.

Se andate a scaricare dalla rete il fondamentale articolo comparso sul Physical Review Letters, trovate che fra le diverse centinaia di nomi che hanno firmato il saggio da premio Nobel ce ne sono ben nove che afferiscono al Dipartimento di scienze pure e applicate dove è presente il corso di laurea in Filosofia dell’informazione. Non solo, ben due dottorandi che hanno appena concluso il loro ciclo all’interno del curricolo di Scienza della complessità, dove filosofi della scienza, fisici, ecologi e informatici collaborano e si formano assieme, sono fra i firmatari del saggio: Lorenzo Cerboni Baiardi e Francesco Piegiovanni.Complimenti ragazzi!

VF

Lo stipendio dei corrotti

stop-alla-nuova-piovraE’ chiaro che misurare è sempre difficile e in parte arbitrario, ma i numeri forniscono importanti informazioni sulle situazioni a cui sono riferiti e permettono le comparazioni. Uno dei numeri importanti per la politica è il CPI, cioè l’indice della corruzione percepita, valutato da Transparency International. Esso misura come i cittadini considerano l’amministrazione pubblica. L’Italia nel 2015 è al 61° posto con un punteggio che è la metà di quello della Danimarca! Occorre però dire che dal 2012 a oggi la situazione è leggermente migliorata. Merito forse di Riparte il futuro, una brillante campagna sociale, che ha inciso profondamente sulla mentalità e sulla legislazione in Italia. Questa battaglia anti-corruzione è realizzata anche con l’aiuto di Lattecreative, che fra l’altro è anche partner del nostro Corso di studi a Urbino.

Si è spesso detto che un modo per diminuire la corrompibilità dei dipendenti pubblici è quello di elevare i loro stipendi. Questo perché, da un lato, la corruzione è rischiosa e quindi più si guadagna, meno sembra conveniente rischiare il posto di lavoro per un’integrazione alla propria già buona paga. In secondo luogo, più la paga è alta e meno si ha bisogno di ulteriori introiti.

In un recente esperimento sulla polizia in Ghana, Foltz e Opoku-Agyemang hanno dimostrato empiricamente che a volte vale il contrario. I poliziotti ghanesi approfittano in modo sistematico dei posti di blocco sulle strade per estorcere denaro ai guidatori di auto. Lo stato ha allora raddoppiato il loro stipendio, nella speranza che questa pratica diminuisse. Invece essa è aumentata. Questo dà ragione a coloro che sostengono che in economia occorre sempre verificare i modelli teorici. Inoltre molti hanno suggerito che l’aumento degli stipendi non è sufficiente per combattere la corruzione. Per questo vengono spesso criticati gli stipendi estremamente elevati dei dirigenti del settore pubblico in Italia. Questo esperimento prova che l’aumento della paga dei potenziali corrotti da solo di certo non basta per combattere la corruzione. Occorre anche intensificare i controlli e diffondere una seria cultura della legalità.

Vincenzo Fano

Patta tra go e scacchi

images (2)Quando ero ragazzo giocavo a scacchi e pensavo che mai un calcolatore avrebbe potuto battere un campione. Eravamo negli anni Settanta. Leggevo la novella di fantascienza scritta da Fritz Leiber, “Incubo a 64 caselle” nella quale un computer partecipava a un grande torneo mondiale, ma, appunto, sembrava fantascienza. E invece nel 1997 Deep blue, un programma di computer, sconfisse Kasparov, l’allora campione mondiale e senz’altro uno dei più grandi giocatori di tutti i tempi. Deep blue è considerato uno dei più grandi successi dell’Intelligenza artificiale. In realtà il computer vinse soprattutto grazie alla sua instancabilità e immensa potenza di calcolo. Perciò è ancora difficile dire che i computer giochino “meglio” dei più grandi campioni.

Accanto agli scacchi, l’altro gioco più difficile e rinomato inventato dall’uomo è certamente go. Si gioca su una scacchiera molto più grande 19×19, con un solo tipo di pedine – come la dama. Lo scopo del gioco è circondare le pedine avversarie e territori il più possibile ampi, mettendo le pedine sulla scacchiera, senza spostarle.

E’ incredibile, ma nessun computer ha mai battuto i più grandi campioni. A un congresso di filosofia qualcuno sosteneva che per questa ragione go sarebbe “più difficile” degli scacchi.

Le diatribe sul confronto fra go e scacchi si sprecano.

Recentemente però AlphaGo, un programma messo a punto dall’unità di ricerca in Intelligenza artificiale di google, ha battuto un campione e si appresta a scontrarsi con quello che è considerato il campione del mondo. Il programma si avvale del cosiddetto deep learning, una nuova frontiera dell’intelligenza artificiale basata su una sorta di stratificazione di reti neurali.

Le regole di go sono poche e semplici, quelle degli scacchi sono tante e complicate. Ciò malgrado la complessità algoritmica del primo è immensamente più grande. In media a ogni mossa degli scacchi si presentano poche decine di possibilità, mentre per il go si parla di centinaia. Siccome gli alberi delle possibilità vanno con la potenza, è chiaro che fra 10n e 100n se n è grande c’è una bella differenza.

Tuttavia la qualità di un gioco non può essere valutata solo nei termini del numero delle possibili partite, ma anche per la varietà delle regole. Il numero di strategie possibili che si mettono in campo con go è molto più limitato che nel caso degli scacchi. Entrambi sono giochi deterministici e a informazione perfetta, cioè il caso non gioca alcun ruolo e nulla è nascosto. Entrambi sono giochi a somma nulla, cioè quello che perde uno vince l’altro e viceversa. Ma uno è molto più vario (scacchi) e l’altro è molto più complesso (go).

VF