E’ ANCORA TROPPO STUPIDA L’INTELLIGENZA ARTIFICIALE?

rankbrain-artificial-intelligenceNel corso degli ultimi anni si stanno moltiplicando i casi che fanno gridare allo scalpore circa i risultati ottenuti, in vari ambiti, da sistemi di Intelligenza Artificiale (IA).

Basti pensare al successo raggiunto di recente da IBM Watson contro il campione in carica (umano) nel gioco a quiz Jeopardy! (un gioco molto popolare negli Stati Uniti) o a quello ottenuto qualche giorno fa dalla squadra di Google Deep Mind (e dal suo sistema AlphaGo) sul campione mondiale di Go (un gioco conosciuto da oltre 2500 anni e molto famoso in Oriente).

Tali successi – a partire da quello pionieristico di Deep Blue sullo scacchista Garry Kasparov negli anni ’90 – hanno una base comune: l’utilizzo, in contesti relativamente ristretti (quello dei “giochi” appunto**), di strategie di “intelligenza” non umane (super-umane) che fanno leva su alcuni punti di forza dei sistemi artificiali (quali, ad esempio, elevata capacità di memoria e calcolo) che sono, al contrario, scarsamente utilizzabili, e ampiamente sotto-utilizzati, dall’intelligenza umana nello svolgere attività quotidiane.

In altre parole: le strategie di intelligenza utilizzate da tali sistemi non rappresentano un modello simulativo (ed esplicativo) delle euristiche utilizzate dagli esseri umani per svolgere lo stesso tipo di compiti.

Uno dei principali punti deboli legati all’utilizzo di tali strategie “locali” super-umane riguarda il fatto che – sebbene i sistemi che le utilizzano riescano a battere gli esseri umani in compiti/giochi dai contorni ben definiti e in cui, come detto, le capacità di “calcolo”, memoria, e predizione giocano un fattore preponderante – essi risultano attualmente ancora poco efficaci (e assolutamente non confrontabili con le “prestazioni” umane) nel risolvere i cosiddetti “problemi della vita reale” (real-life problems).

Tali problemi presentano la singolare caratteristica di risultare estremamente semplici da risolvere per gli esseri umani ma molto complessi per le “macchine” (si pensi, ad esempio, al problema che riguarda l’utilizzo del cosiddetto “ragionamento di senso comune” in ambienti a informazione incerta e incompleta).

Tra le cause riguardanti i limiti attuali dei sistemi artificiali in scenari reali, un ruolo di primo piano viene giocato dalla “non generalità” degli approcci utilizzati.

L’odierno sviluppo di intelligenze artificiali locali basate su euristiche super-umane, infatti, se – da un lato – permette di generare micro-modelli iper-funzionanti in ambienti ristretti, di converso finisce per fornire una costellazione di micro-intelligenze artificiali difficilmente integrabili tra loro – anche per problemi di trattabilità computazionale – sotto il cappello unificante di una unica architettura intelligente “generale” (vale a dire indipendente dallo specifico dominio di applicazione e in grado di “cavarsela” nelle situazioni più svariate che l’ambiente circostante propone).

D’altro canto, proprio la caratteristica di possedere una “intelligenza generale” (in grado di integrare varie euristiche locali in modo “efficiente”, dati i limiti del nostro hardware biologico, ed efficace) rappresenta una delle peculiarità della cognizione umana: si pensi, infatti, alla scarsa considerazione che avremmo di una persona eccellente nel gioco del Sudoku, ma profondamente incapace in tutto il resto.

A tale proposito, quindi, ancora oggi, a distanza di 60 anni dal seminario di Dartmouth del 1956, appare sempre più necessario per l’Intelligenza Artificiale mantenere la sua anima “duplice”.

Essere, cioè, tanto una disciplina puramente “ingegneristica”, finalizzata alla costruzione di macchine che permettano all’uomo di vivere una vita migliore e in grado di risolvere, secondo strategie “machine-oriented”, alcuni problemi difficili per gli esseri umani, quanto una disciplina “psicologica”: rivolta, cioè, alla costruzione di sistemi che riproducano, o che quantomeno tentino di riprodurre, alcune caratteristiche cognitive dell’intelligenza umana allo scopo di poterci rivelare qualcosa in più sui meccanismi di funzionamento della nostra mente.

Sarà, poi, proprio tale attività di “svelamento” dei meccanismi che governano la nostra architettura mentale ad essere funzionale allo sviluppo di sistemi artificiali in grado di implementare ed esibire meccanismi generali di intelligenza.

Antonio Lieto

3 commenti
  1. Devis
    Devis dice:

    Temo di poter rispondere a questa domanda: lo sarà ancora per poco. Molto poco!
    I ricercatori di deep-mind, e di molti altri gruppi che si occupano di deep-learning, stanno scoprendo, empiricamente, uno dei “trucchi fondamentali”
    dell’intelligenza umana. Si sono resi conto che una rete neurale in grado di astrarre e osservare le “strutture emergenti” (grazie alla sua stratificazione profonda), può avere accesso
    a quel patrimonio di regole (sempre emergenti) che non compaiono a livello di rappresentazioni di base.
    Sono queste le regole che la nostra mente usa per affrontare la complessità del mondo reale.

    Se volete saperne di più, ho aperto una sessione sul social academia alla quale siete invitati a partecipare.
    https://www.academia.edu/s/2255a33dd9

    Le critiche sono benvenute

    Devis P.

    Rispondi
  2. Devis
    Devis dice:

    Ho scorso l’articolo su nature che illustra le tecniche usate per costruire AlphaGo. Non ho avuto il tempo materiale per studiarlo con attenzione, ma mi azzardo comunque a proporre un’interpretazione dei risultati sulla base delle idee illustrate nella monografia che vi ho segnalato nel commento precedente.
    Abbiamo a che fare con un’agente intelligente costruito con rete neurale profonda, nella quale è presente una CNN (convolutional neural network). L’idea è che quest’ultima esegue un’analisi strutturale della scacchiera, rendendo esplicite informazioni sulle “strutture composte” che si determinano nelle disposizioni complessive delle pedine quali: le file di pedine dello stesso colore, le varie tipologie di raggruppamenti, le disposizioni che formano barriere, le varie distribuzioni spaziali nella scacchiera ecc.. Secondo la mia interpretazione queste informazioni permettono agli strati successivi della rete di identificare quelle regole emergenti che alcuni commentatori chiamano “l’intuito visivo” e che permettono di condurre il gioco a livello del campione umano.
    Mi ha colpito la frase: “During the match against Fan Hui, AlphaGo evaluated thousands of times fewer positions than Deep Blue did in its chess match against Kasparov “… non male per un gioco nel quale l’albero di ricerca nello spazio delle mosse possibili contiene qualcosa come 250^150 possibilità, contro un “misero” 35^80 degli scacchi !

    Rispondi

Trackbacks & Pingbacks

  1. […] I recenti successi dell’intelligenza artificiale hanno destato lo stupore anche dei critici più scettici, ma forse siamo ancora lontani da avere macchine davvero senzienti. Sul blog della facoltà di Filosofia dell’Università di Urbino ci si interroga sul punto in cui si è arrivati. […]

Lascia un Commento

Vuoi partecipare alla discussione?
Fornisci il tuo contributo!

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *