L'intelligenza artificiale di Google supera l'uomo: battuto il campione europeo di Go
Si
tratta di un difficile gioco da tavolo cinese. E la vittoria
rappresenta un importante passo verso la costruzione di un'IA con
un'intuizione più umana. Prossimo avversario: Lee Sedol, il miglior
giocatore del mondo
CI
SONO VOLUTI oltre vent'anni di studi. Ma alla fine ce l'ha fatta:
l'intelligenza artificiale ha battuto un campione di Go, il gioco da
tavolo inventato in Cina più di 2500 anni fa. Il nome del vincitore
è AlphaGo: un programma sviluppato da DeepMind, l'impresa britannica
che si occupa di macchine intelligenti, inglobata da Google nel 2014.
E ha stracciato non solo i suoi rivali in silicio nel 99,8 % dei
casi, ma nientemeno che Fan Hui, il miglior avversario umano sulla
piazza europea: 5 volte a zero. Un match che si è tenuto lo scorso
ottobre, a Londra, e i cui risultati sono stati pubblicati solo
questa settimana su Nature. Prossima tappa: Seoul, in Corea del Sud,
dove il sistema di Big G proverà a sconfiggere Lee Sedol, il miglior
giocatore di Go al mondo.
Per
Jonathan Schaffer, scienziato informatico canadese, siamo lontani dai
livelli di Deep Blue: il computer firmato IBM che nel 1997 ha messo
ko il gran maestro degli scacchi, Garry Kasparov. Grazie a un'abilità
maturata durante otto anni sul campo. "Senza offesa, però
(nella gara futura ndr) scommetterò sull'uomo", ha detto
Schaffer alla rivista scientifica inglese. "Considero AlphaGo
come un bimbo prodigio. Improvvisamente ha imparato a giocare bene a
Go, molto velocemente. Però non ha molta esperienza. E negli scacchi
e nella dama abbiamo visto che quest'ultima conta tanto".
Tuttavia, come annota MIT Technology Review, il risultato appena
raggiunto è un passo "brillante e inaspettato" verso la
costruzione di un'intelligenza artificiale con un'intuizione più
umana. Per due motivi. Prima di tutto perché a differenza di Deep
Blue, AlphaGo non è stato costruito con l'obiettivo di competere a
Go. Si tratta, invece, di un sistema che per imparare la miglior
mossa possibile durante le simulazioni ha utilizzato un algoritmo
d'assimilazione generico. Alla sua base ci sono due reti neurali che
sfruttano il deep learning, cioè quella tecnologia d'apprendimento
automatico, sviluppata a partire dagli anni Ottanta, che si ispira al
comportamento dei neuroni umani. Una delle due riesce a predire il
passo successivo dell'avversario; mentre l'altra sa prevedere tutti i
possibili esiti della partita, a seconda delle diverse disposizioni
sul goban (la scacchiera Go). Una struttura che potrebbe essere usata
per risolvere anche altre questioni complesse. "Vogliamo
applicare queste tecniche a importanti problemi che riguardano il
mondo reale", ha dichiarato Demis Hassabis, a capo del team di
Google. "Dato che i metodi usati erano multiuso, la nostra
speranza è che un giorno potremo estenderli per aiutare la società
ad affrontare i problemi più pressanti, dalle diagnosi mediche ai
modelli climatici".
Il
secondo motivo d'orgoglio sta nelle peculiarità del gioco. Go,
infatti, prevede che i due concorrenti piazzino, alternativamente, le
loro pedine bianche e nere su una griglia composta da 19 linee
verticali e 19 orizzontali. Lo scopo ultimo è circondare i pezzi
dell'avversario, evitando di finire nella rete. Un divertimento
difficile per un computer. Perché ci sono molte più potenziali
mosse che negli scacchi e non c'è un semplice modo per misurare chi
è in vantaggio. Non a caso progettare un'intelligenza artificiale in
grado di giocarci talmente bene da battere un campione è stata
un'impresa che ha intrigato molti. Anche in casa Facebook, dove negli
scorsi mesi i ricercatori hanno messo a punto una "macchina
intelligente" ad hoc molto veloce. L'ha annunciato in un post
Mark Zuckerberg in persona, che nel 2016 sta muovendo i primi passi
da programmatore AI. Però, nonostante i loro progressi, stavolta a
segnare il primo punto è l'azienda di Mountain View. Uno a zero,
palla al centro.
Di
ROSITA
RIJTANO
per Repubblica.it
Nessun commento:
Posta un commento