LA SERVITÙ’ DELLE MACCHINE

downloadIl tema della servitù robotica è solitamente associato alla fantascienza e alla ribellione delle macchine dal controllo degli esseri umani. Questo tema ha accompagnato il dibattito filosofico sugli automi e, in particolare sull’etica robotica o roboetica, fin da Aristotele. Per Aristotele gli automi con capacità equivalenti a quelle di uno schiavo avrebbero permesso di cancellare la schiavitù umana. Tuttavia Aristotele intendeva anche gli schiavi come dotati naturalmente di una minore intelligenza di quella del padrone. Suggeriva, infatti, che creare automi con capacità equivalenti avrebbe rappresentato un rischio simile a tenere in casa un aristocratico reso schiavo. Per loro stessa natura questi tendono a rifiutare il controllo esterno perché la loro autonomia deliberativa, anche in materia morale, non è dissimile da quella del padrone. Renderli schiavi significa negarla.

Usare le macchine al posto di servitori umani rappresentava una strategia per eliminare i problemi etici che di solito riguardano la schiavitù umana ottenendo gli stessi benefici. Ma è vero che avere automi intelligenti come servitori è meno problematico di avere essere umani come schiavi? Aristotele non è stato il solo ad interrogarsi su questioni di roboetica. Questi problemi riemergono nel dibattito contemporaneo nello stesso momento in cui nasce la Cibernetica. Norbert Wiener, matematico e filosofo americano, si dedicò alla ricerca e divulgazione di quei problemi inerenti al rapporti tra uomo e macchina. Il testo in cui questi vengono discussi, “The Human Use of Human Being”, è importante tanto quanto “Cybernetics”, ad oggi la prima formulazione teorica della scienza dei sistemi e dei meccanismi di controllo.

E’ dunque desiderabile usare robots autonomi come servitori? Per rispondere a questa domanda possiamo partire da una prima considerazione. Già oggi costruiamo automi che svolgono lavori servili. Pensiamo a tutti quegli agenti artificiali, dai roomba ai droni per uso commerciale fino ai prototipi della DARPA, di cui ci serviamo per attività che consideriamo monotone o faticose e che sono anche plausibilmente automatizzabili con la tecnologia di cui disponiamo.

Tuttavia non tutte le mansioni che auspichiamo un automa possa svolgere sono così facilmente automatizzabili. Gli attuali sistemi computazionali con un corpo artificiale non hanno capacità equivalenti alle nostre. Pensiamo, ad esempio, alle prestazioni di un attuale robot per la cura dei pazienti, come quelli già impiegati in Giappone, e di un professionista umano del settore. E’ su questo terreno che si gioca la partita della robotica. Estendere l’intelligenza degli agenti artificiali in modo che possano gestire e risolvere con successo problemi del mondo reale come noi siamo in grado di fare. In teoria potrebbe essere possibile creare questi automi, ma in pratica ne siamo ancora lontani.

Questo tipo di automi, per essere impiegati nel mondo reale, devono passare alcuni requisiti, tra i quali avere capacità equivalenti a quelle umane, ed ugualmente efficienti. Avere capacità equivalenti a quelle umane fa di questi automi delle intelligenze artificiali propriamente dette. Quella che stiamo pensando è quindi un’intelligenza di ordine diverso rispetto alla tecnologia attuale. Questi servitori sono macchine che non solo hanno obiettivi, ma che sono anche in grado di agire su di essi, modificandone le priorità e dandosene di nuove. Un automa, quindi, che abbia intenzioni e possibilmente che sia in grado di giustificare le proprie azioni. Tale automa sarebbe un’intelligenza (artificiale) propriamente detta perché avrebbe esperienza delle proprie azioni rispetto alle proprie scelte e ai propri obiettivi. Quest’autonomia deliberativa renderebbe l’automa non soltanto un agente intelligente, ma anche un agente morale di tipo particolare, in grado di creare un proprio codice morale, più che seguirne uno programmato in precedenza.

Ora chiediamoci di nuovo: avere automi intelligenti come servitori è meno problematico di avere essere umani come schiavi? Date le premesse del nostro ragionamento la risposta deve essere negativa. Questi servitori sarebbero, infatti, intelligenze equivalenti alle nostre, dotate di simile autonomia e capacità intellettiva. Se dunque riteniamo immorale asservire un essere umano, allora dovremmo anche rifiutare di asservire un’intelligenza artificiale di questo tipo.

In altre parole, se riteniamo auspicabile costruire automi equivalenti agli esseri umani, allora non possiamo ritenere auspicabile asservirli. Due osservazioni: la prima relativa alla robotica teoretica, la seconda relativa all’etica dell’artificiale.

Partiamo dalla prima. Il senso di equivalenza che abbiamo discusso non implica che automi ed umani debbano essere identici in senso stretto; non è necessario, infatti, che un tale automa abbia la capacità di dipingere tramonti o comporre poesie. Né stiamo dicendo che tali automi debbano essere equivalenti a tutti gli umani. Notate che la definizione di intelligenza che abbiamo discusso non è così liberale. Alcuni umani, infatti, non sono intelligenti in questo senso. Pensiamo ai bambini. In breve, possiamo sostenere l’equivalenza tra intelligenza umana e artificiale, senza necessariamente sostenere la tesi più forte che il pensiero umano e quello artificiale siano qualitativamente identici o la famosa tesi cibernetica che tutti gli uomini siano macchine. Dato il nostro senso di equivalenza, nulla ci può far pensare, infatti, che tali automi abbiano scopi e obiettivi equivalenti ai nostri o anche solamente a noi comprensibili.

Passiamo alla seconda. La conclusione del nostro argomento sembra paradossale, ma ad elevati livelli di tecnologia, la tesi che la servitù artificiale possa dare benefici equivalenti alla servitù umana, senza implicare problemi etici legati all’asservimento, rivela effettivamente alcune contraddizioni.

Supponiamo di voler negare la conclusione del nostro argomento. Potremmo voler rifiutare di costruire tali intelligenze. Questa posizione eliminerebbe il problema alla radice, ma avrebbe un costo alto, ovvero non poter sviluppare tecnologie sempre più sofisticate in grado di offrire applicazioni fondamentali per gli esseri umani, da un punto di vista sociale, della loro salute e del loro futuro. Potremmo, ancora, voler vincolare tali intelligenze artificiali. Ad esempio, programmando l’automa a scegliere solo azioni ed obiettivi prestabiliti. Questa posizione avrebbe il vantaggio di eliminare il problema etico, almeno apparentemente; ciò che costituirebbe un’azione non etica, in questo caso, sarebbe proprio impedire a quelle macchine di fare ciò che desiderino in base alla loro programmazione. L’automa sarebbe programmato per scegliere certe cose tra quelle prestabilite dagli umani. Questa posizione, tuttavia, prende in esame cosa sia etico fare o non fare con un servitore artificiale e non se sia etico o no asservirlo. I problemi che questa posizione solleva sono di diversa natura rispetto al problema trattato. Considerate per un momento i cani di razza. Questi possono essere considerati come “programmati” per comportarsi in modi prestabiliti. Questo perché li incrociamo da secoli per certi scopi precisi. Le questioni etiche, in questo caso, riguardano cosa possiamo o non possiamo fare con loro. Ma questo problema è fondamentalmente diverso dal problema che recentemente viene discusso in letteratura, ovvero se sia etico o no avere animali di questo tipo da compagnia.

Per concludere, la società umana è da sempre interessata alle implicazioni etiche e sociali della robotica, ben prima che le tecnologie necessarie a creare certi artefatti fossero disponibili. In particolare, abbiamo ragione di pensare che la diffusione e l’introduzione di automi intelligenti avrà lo stesso impatto sociale, economico e politico che si è verificato successivamente alla diffusione dei computer. Se non maggiore. E’ allora di estrema importanza discutere quelle domande fondamentali, come quella della servitù robotica, la cui risposta sarà la base per tutti i cambiamenti della società umana nei decenni a venire.

Andrea Raimondi

0 commenti

Lascia un Commento

Vuoi partecipare alla discussione?
Fornisci il tuo contributo!

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *