Facebook e Google stanno costruendo enormi cervelli artificiali, insiemi di reti neurali, che saranno in grado di immediatamente riconoscere volti, automobili, edifici ed altri oggetti nelle foto digitali.
Il cervellone di ciascuna azienda, stando a quanto scrive wired.com, sarà in grado di riconoscere le parole, tradurre da una lingua all’altra, indirizzare gli annunci, o insegnare ad un robot ad avvitare un tappo su una bottiglia. Inoltre, si potrà insegnare a queste macchine non solo di riconoscere le immagini, ma creare immagini.
Come si fa a far creare immagini ad una macchina? Il sistema su cui stanno lavorando Google e Facebook si baserà sull’idea che queste reti neurali hanno di ciò che gli oggetti possono sembrare nella realtà. Il sistema di Google e quello di Facebook, tuttavia, differiscono nel metodo per restituire l’immagine finale.
Come ha rivelato Venerdì, Facebook sta insegnando alla sua macchina a creare automaticamente piccole immagini di cose, come aerei, automobili, e animali, e circa il 40 per cento di queste immagini sono in grado di ingannare noi umani nel credere che stiamo guardando la realtà.
Alla base del metodo di Facebook ci sono immagini create da due algoritmi: il primo crea immagini basandosi su elementi esistenti, mentre il secondo le verifica basandosi su oggetti reali ed elimina quelle che si allontanano troppo dalla realtà.
"Il modello può dire la differenza tra un’immagine – il rumore bianco innaturale che si vede sulla TV o una sorta di arte astratta dell’immagine – e un’immagine che si desidera immortalare con la fotocamera", dice il ricercatore di Facebook Rob Fergus che si occupa di intelligenza artificiale. "Capisce la struttura di come funzionano le immagini".
Un esempio di come questo sistema elaborato funziona in questa immagine:
Esempio del sistema di Facebook
Il gigante della ricerca Google ha invece spiegato che il suo computer avanzato pensa quando si tratta di analizzare le immagini e riconoscere gli oggetti. Nella pratica, il sistema di Google parte da una base di milioni di immagini, mentre a poco a poco tramite la regolazione di alcuni parametri filtra le immagini fino a quando il computer può restituire a Google l’immagine che vuole.
Il sistema di Google decide quali sono gli elementi visibili di una immagine, e da lì parte alla ricerca di elementi simili al fine di migliorare ulteriormente l’oggetto che si vuole far risaltare. "Chiediamo alla rete: ‘Qualunque cosa si vede lì, voglio di più di essa’ Questo crea un ciclo di feedback: se una nuvola sembra un po’ come un uccello, la rete sarà propensa a restituire l’immagine di un uccello. Il sistema a sua volta si occuperà di migliorare l’immagine dell’uccello e così via, fino a quando non compare un uccello altamente dettagliato, apparentemente dal nulla.", spiega Google. Ad ogni passaggio, il sistema viene ulteriormente migliorato per riconoscere meglio il contenuto di un’immagine.
Esempio del sistema di Google
Anche se possono sembrare sistemi elementari o inutili, questi progetti servono come mezzi per migliorare le reti neurali, e far avvicinare un cervellone artificiale all’intelligenza (quasi) umana.
Uno dei più grandi paradossi dei nostri tempi è che con gli smartphone possiamo fotografare…
In tanti aspettavano da tempo l'adeguamento del 5,4% delle rendite Inail: le ultime circolari dell'ente…
Con lo switch-off dello scorso 28 agosto, che ha introdotto il nuovo digitale terrestre, è…
Sapere dove si trova un'altra persona è ora possibile grazie a WhatsApp: in pochi conoscono…
Il cappotto termico interno è una soluzione ottimale per avere ottimi risultati in riferimento all'isolamento…
Basta una mossa semplice e automatica per avere sempre a disposizione tutti i canali del…