Il computer pensante è un imbroglione!

9 feb 2011 20:46 , , , 2 Comments



Nel celebre articolo Computing Machinery and Intelligence comparso nel 1950 su Mind (link), Turing si pone un quesito di grande attualità e fascino: “Can machines think?”
Si potrebbe rispondere subito negativamente, poiché i computer non hanno coscienza di sé. A tale presa di posizione, tuttavia, si potrebbe subito obiettare, in maniera antirealista, che non abbiamo neppure strumenti soddisfacenti per dimostrare che siano tutti gli altri esseri umani, eccezion fatta per noi stessi, soggettivamente autocoscienti. Turing suggerisce quindi di affidarci, in un certo senso, alle apparenze: quando il comportamento di una macchina sarà indiscernibile dal comportamento umano, saremo costretti ad ammettere che la macchina stia effettivamente pensando. 
Il test proposto dal matematico britannico è molto semplice; sono necessari due esseri umani  ed un computer, in tre stanze differenti. Un uomo interrogante (D) pone domande ad un terminale, alle quali il computer (C) e l'essere umano (U) dovranno fornire delle risposte, sempre attraverso un terminale, per una durata complessiva di cinque minuti. 
Compito di D sarà scoprire, in base alle risposte fornite, quale dei due è la macchina C e quale l'essere umano U. Poi toccherà ad un altro D, possibilmente con un background diverso dal precedente (cultura, età, classe sociale etc.) porre nuove domande attraverso il terminale e cercare di distinguere U da C. Se la macchina riesce ad ingannare il 30% degli interroganti ha superato il test. Se il computer supera il test – il computer pensa
Turing era convinto che entro cinquant'anni dalla pubblicazione del suo articolo il test sarebbe stato superato; gli anni sono oggi sessantuno, ma la meta sembra ancora lontana – tuttavia dal 1990 è possibile cimentarsi nell'impresa accettando la sfida del miliardario statunitense Hugh Loebner: chi programmerà una macchina capace di superare il test vincerà un premio di 100,000$ (decretando la fine definitiva della competizione). Nel caso di una molto più probabile fumata nera e test fallito anche quest'anno, sono a disposizione comunque premi per i primi quattro classificati (4000$, 1000$, 750$ e 250$ – link).
Ma come può una macchina fingersi umana? Immagino che tutti i miei lettori abbiano provato ad aggiungere Doretta tra gli amici di MSN, o provato a chattare con programmi tipo A.L.I.C.E. (link) o l'intramontabile Eliza (link). Ad oggi, più che cercare di dotare le macchine di autocoscienza, per la quale immagino si preferisca attendere sviluppi più avanzati delle neuroscienze cognitive, i programmatori cercano di imbrogliare il povero D con qualche trucchetto. Ad esempio, quando la macchina non sa cosa rispondere, spesso riformula l'affermazione dell'interrogante in senso interrogativo. 

D: “Penso che la risposta sia 42”, 
C: “La risposta è 42?” 
D: “Si, quarantadue!” 
C: “Cosa intendi esattamente?”

Altre strategie dei programmatori un po' cheater sono ricorrere al nonsense, o cercare di portare la discussione su un argomento per il quale il computer è preparato, magari cercando di simulare un essere umano con tratti caratteriali particolarmente accentuati, come paranoie, basso livello culturale (basta far rispondere sempre in modo vago o impreciso alla macchina, “boh” o “hmmmm”, quest'ultima una classica citazione di Doretta), fissazioni mentali o interessi e passioni particolarmente pronunciati – sui quali, come dicevo, la macchina è preparata.

D: “Ciao!”
C: “Ciao... ti piace la pizza?”
D: “Si, la mangio tutti i sabati”
C: “Io adoro la pizza margherita! E tu?”

Le macchine hanno autocoscienza? Sostenere le tesi dell'intelligenza artificiale forte (Searle, 1980) non è facile. Al massimo imbrogliano, ma non lo fanno ancora neanche troppo bene. Per quanto mi riguarda, io direi di no – anche se non nego l'enorme fascino di una risposta che suona come un: “non pensano – ma penseranno!”. 
A tal proposito, credo che sostenere tesi sull'intelligenza artificiale debole, ossia l'IA relativa a settori specifici, sia molto più facile. 
Una macchina che gioca a scacchi (da Deep Blue in poi) gioca veramente a scacchi? Anche qui, si tratta di dirimere posizioni filosofiche: chi risponde negativamente è convinto che un computer si limiti a calcolare dati in un codice senza avere la benché minima coscienza di che cosa siano davvero gli scacchi, mentre chi risponde affermativamente non fa altro che constatare il fatto che la macchina riesce ad illudere senza alcun problema l'avversario umano – anzi, riesce pure a giocare meglio e si riserva pure di stravincere, o commettere degli errori umani (ma non troppo umani) a difficoltà easy. Mi sono chiesto molto spesso se fosse possibile simulare un comportamento umano in un FPS online – tale da non farti distinguere i bot dai veri giocatori. Sembra che sia molto difficile: i giocatori più forti, in particolare i mai troppo simpatici cheaters, potrebbero facilmente essere dei bot manovrati dal computer. Al contrario, i giocatori meno esperti commettono errori estremamente difficili da programmare. Ti accorgi giocare davvero online, da un FPS ad un MMORPG, proprio quando vedi quel noob la cui stupidità trascende qualsiasi possibilità di calcolo. Un eccesso di razionalità in un settore è tipico della macchina; al contrario, simulare il pensiero irrazionale non è facile. Alcuni candidati al premio Loebner ricorrono anche al volontario 'sbagliare i calcoli' quando viene chiesto alla macchina di eseguire enormi operazioni – ed il computer, per negare la sua stessa natura di calcolatore, dopo qualche secondo in cui simula una riflessione si permette pure qualche errore.
Le macchine possono pensare? Come si sarà ben notato, la questione si dirime semplicemente in base a ciò che intendiamo per pensiero. In senso assoluto (in termini di autocoscienza) direi di no. Credo inoltre che il test di Turing e le sue applicazioni, da quelle del premio Loebner in poi, non costituiscano un buon metodo per stabilire se le macchine possono pensare o meno – al massimo possono mostrare quanto le macchine riescano ad imbrogliarci bene. 
Ma forse le macchine sono destinate a questo: distruggerci nel settore per il quale sono state programmate, laddove il termine “pensare”, hobbesianamente, si intenda per “capacità di calcolo”, e contemporaneamente risultare completamente passive a stimoli per i quali non sono destinate. Nel mezzo, tra le vette di operazioni al secondo a basso costo della legge di Moore e lo spazio (vuoto) destinato all'autocoscienza ci sono gli uomini. Per chi invece preferisce lasciare il pensiero aleggiare libero nei cieli della metafisica, non basterà l'ennesimo headshot per convincersi che le macchine stanno effettivamente pensando a come farti fuori nella prossima partita. Game over. Continue? Il dibattito, ad oggi, resta aperto – chissà cosa ne pensano le macchine?

Luca Montini

Il blog del buon Monti: filosofo (br)ontologico, (mal)informatico, happy (true)metallaro, tuttofare museale e teatrale, videogiocatore impenitente, apprendista stregone.

2 commenti:

  1. Ah, comunque, penso che perché le macchine diventino intelligenti manchi loro ancora qualcosa: dei bisogni esprimibili in molti modelli diversi ma non del tutto esauribili in nessuno dei linguaggi di cui dispongono. Gli algoritmi di questi programmi non sono in sé così insufficienti, lo è l'elaborazione dei parametri cui devono rispondere.

    RispondiElimina
  2. BY DARTH: son d'accordo anche io. Per pensare una macchina,.. dovrebbe scviluppare un processo logico ,.. e anche illogico :P da lle informazioni che ha e dal linguaggio di progrmamzioe base che gli è stato dato per pemrettergli di farlo.
    al momento non sanno fare questo.
    Al massimo lo emulano, ma è diverso.

    RispondiElimina