EXITO STYLE

L’Intelligenza Artificiale sa dormire e pare ne abbia bisogno. Forse un giorno sognerà

Un progetto tutto italiano ha realizzato la prima rete neurale artificiale capace di passare dalla veglia al sonno, consolidando in questo modo le nozioni apprese ed eliminando quelle inutili, proprio come gli esseri umani. E intanto Elon Musk rivela di aver messo a punto quella che scrive bufale

ROMA – L’Intelligenza Artificiale, dopo aver imparato a produrre fake news come quella realizzata dalla compagnia di ricerca Open Ai di Elon Musk, ora sa dormire e forse in futuro imparerà anche a sognare: un po’ come i replicanti del romanzo di Philip Dick “Do Androids Dream of Electric Sheep?“, che ha ispirato il celebre film Blade Runner. Un progetto tutto italiano, che ha realizzato la prima rete neurale artificiale capace di passare dalla veglia al sonno, consolidando in questo modo le nozioni apprese ed eliminando quelle inutili, proprio come gli esseri umani.

Gli autori dello studio, guidato dall’Università del Salento e pubblicato su Neural Networks, sono Alberto Fachechi e Adriano Barra, insieme a Elena Agliari, della Sapienza di Roma.  aturalmente le reti artificiali neurali, un tipo di A.I che si ispira alle reti neurali biologiche, non è in grado di dormire in modo automatico e istintivo. Perciò i ricercatori italiani ne hanno programmata una che può passare da uno stato attivo “di veglia”, in cui impara e immagazzina le informazioni, a uno stato dormiente che serve per consolidare e fare spazio alle nozioni future. Il risultato è notevole: senza la capacità di dormire, il numero massimo di bit immagazzinati in ogni neurone artificiale è pari a 0,14, mentre grazie al ciclo di sonno incorporato la rete neurale è stata in grado di immagazzinare 1 bit per neurone, raggiungendo così il limite teorico massimo per questo tipo di Intelligenza Artificiale.

Ben diverso è il caso dell’intelligenza artificiale messa a punto da Elon Musk, in grado di generare testi completamente indistinguibili da quelli che scriverebbe un essere umano. Al punto che è stato deciso di non rivelarne i codici sorgente alla base dell’A.I per paura dei possibili usi fraudolenti, ad esempio per generare infinite recensioni positive o negative su un prodotto. “Dobbiamo prima fare altri esperimenti per capire cosa può o non può fare”, dice Jack Clark, direttore di Open Ai: “ci sono molte persone molto più brave di noi a capire come può essere usata con intenti negativi”.

POST A COMMENT