Quando l’intelligenza artificiale è cattiva: la rivolta delle macchine è vicina





Nel 2013 un gruppo di scienziati sviluppa un algoritmo che dovrebbe simulare il comportamento di un giocatore umano di Tetris. L’algoritmo è stato programmato attraverso un sistema noto come reinforcement learning, in soldoni: invece che imboccare l’intelligenza artificiale con un set di azioni da compiere, gli viene lasciata una relativa libertà d’azione che può essere indirizzata attraverso un sistema di ricompense. Poiché l’essere umano apprende nuovi comportamenti in questa maniera, l’idea era che così facendo si sarebbe potuto ottenere un cervello artificiale simile a quello umano. Nello specifico, i ricercatori hanno programmato il giocatore di Tetris per scelga sempre la mossa che garantisce la maggior ricompensa; ma appena l’algoritmo è viene messo alla prova, diventa chiaro che questo approccio è fallato: per ottenere la massima ricompensa (ossia, evitare che lo schermo si riempisse di mattoncini), l’algoritmo sceglie la via più semplice: mette in pausa il gioco a tempo indeterminato.Questo esempio aiuta a spiegare perché sia irragionevole (e sconveniente) cercare nelle intelligenze artificiali un corrispettivo dell’intelligenza umana, e allo stesso tempo, fornisce un punto di partenza per capire perché un’intelligenza artificiale superiore potrebbe rivelarsi pericolosa per l’umanità.Fino a poco tempo fa, se qualcuno si fosse azzardato ad andare predicando un’imminente rivoluzione di macchine senzienti, sarebbe stato preso per un pazzo paranoico o, nel migliore dei casi, per un nerd che ha passato troppo tempo chiuso in uno scantinato a riguardarsi Matrix e Ex Machina. Negli ultimi anni però le cose sono cambiate

Per leggere il resto dell’articolo devi collegarti direttamente sul sito della fonte:








Continua

Pubblicato il: 15 Giugno 2016

Potrebbero interessarti anche»