Ricercatori del Progetto cervello umano presso l’Istituto di Biofisica del Consiglio Nazionale delle Ricerche (IBF-CNR) di Palermo, in Italia, hanno imitato l’architettura neuronale e le connessioni dell’ippocampo del cervello per sviluppare una piattaforma robotica in grado di apprendere come un essere umano mentre il robot si muove in uno spazio.
L’ippocampo simulato è in grado di modificare le proprie connessioni sinaptiche mentre guida un robot virtuale simile a una macchina. Questo significa che è in grado di ricordare il percorso per raggiungere una destinazione specifica solo una volta che l’ha già navigato. Questo è un notevole miglioramento rispetto ai metodi di navigazione autonoma attuali che si basano sull’apprendimento profondo e che devono calcolare migliaia di percorsi possibili.
Also Read:
“Esistono altri sistemi di navigazione che simulano il ruolo dell’ippocampo, che agisce come memoria di lavoro del cervello. Tuttavia, questa è la prima volta che siamo in grado di imitare non solo il ruolo ma anche l’architettura dell’ippocampo, fino ai singoli neuroni e alle loro connessioni”, spiegano Michele Migliore e Simone Coppolino dell’IBF-CNR, autori dell’articolo apparso sulla rivista Neural Networks.
“L’abbiamo costruito utilizzando i suoi blocchi e caratteristiche fondamentali noti in letteratura, come i neuroni che codificano per gli oggetti, le specifiche connessioni e la plasticità sinaptica”. I ricercatori sono stati in grado di utilizzare diverse serie di regole per la navigazione ispirandosi alla biologia diversamente dai sistemi guidati dall’apprendimento profondo.
Also Read:
Per raggiungere una destinazione specifica, un sistema di apprendimento profondo calcola possibili percorsi su una mappa e assegna loro costi, scegliendo infine il percorso meno costoso da seguire. Funziona essenzialmente mediante tentativi ed errori e richiede calcoli estesi: decenni di studi sono stati dedicati alla riduzione del lavoro per il sistema.
“Il nostro sistema, al contrario, basa il proprio calcolo su ciò che può vedere attivamente attraverso la sua fotocamera”, spiegano i ricercatori. “Quando naviga in un corridoio a forma di T, verifica la posizione relativa di punti di riferimento chiave (in questo caso, cubi colorati). Si muove casualmente all’inizio, ma una volta in grado di raggiungere la destinazione, ricostruisce una mappa riorganizzando i neuroni nel suo ipocampo simulato e assegnandoli ai punti di riferimento. Ha bisogno di essere addestrato solo una volta per ricordare come raggiungere la destinazione”.
Also Read:
Ciò è più simile a come si muovono gli esseri umani e gli animali: quando si visita un museo, si gira intorno al luogo, senza conoscere la strada, ma se si deve poi tornare a una mostra specifica, si ricorda immediatamente tutti i passi necessari. La piattaforma robotica e la simulazione dell’ippocampo sono state prima implementate attraverso l’infrastruttura di ricerca digitale EBRAINS, che ha poi consentito ai ricercatori di costruire e testare un robot fisico in un corridoio reale.
“La riconoscenza degli oggetti si basava sull’input visivo attraverso la fotocamera del robot, ma potrebbe teoricamente essere calibrata su suono, odore o movimento: la parte importante sono le regole per la navigazione ispirate alla biologia, che possono essere facilmente adattate a molteplici ambienti e input.”
Also Read:
Un altro membro del laboratorio di Migliore, Giuseppe Giacopelli, sta attualmente lavorando per rendere il sistema adatto all’uso industriale attraverso la codifica per il riconoscimento di forme specifiche. “Un robot che lavora in un magazzino potrebbe calibrarsi e ricordare la posizione degli scaffali in poche ore”, dice Migli
In Other News Around the World: