Google e Stanford creano software per riconoscere oggetti e scene nelle foto

Due team indipendenti di scienziati riescono a insegnare a un computer a riconoscere un oggetto, e anche la scena di cui esso fa parte.

riconoscimento-immagini-google-AI



Certe volte è proprio “il momento” per un determinato tipo di tecnologia. E a quanto pare questo momento sembra essere arrivato per quanto concerne il riconoscimento degli oggetti nelle foto da parte di un computer. Ingannevole, sfuggente e complesso, il meccanismo software che consente a un PC di riconoscere un ombrello, un posacenere o un paio di stivali è forse stato individuato, e da due team indipendenti di ricercatori, uno di Google e uno di Stanford.

Che si tratti o meno di un altro passo per avverare gli incubi apocalittici sui robot di Elon Musk, ora esistono gli algoritmi intelligenti per identificare un oggetto individuale, e anche una “scena”. Una macchina ora può riconoscere il suddetto ombrello, per esempio, ma anche capire che una foto rappresenta una mandria di elefanti che marcia nella savana. E se metti un banale, normalissimo essere umano, di cui esistono più di 7 miliardi di esemplari, accanto a un computer su cui girano questi algoritmi, allora scoprirai che le descrizioni scritte della scena si assomigliano parecchio. Accuratezza sorprendente, insomma, e informazioni trasferite tramite il linguaggio di noi scimmie senza peli (in inglese, per essere precisi).

È abbastanza evidente a cosa possa servire a Google questo tipo di intelligenza artificiale. Ci sono triliardi di byte di dati catalogati come immagini e video, e altri miliardi vengono archiviati online ogni giorno. Se scriviamo una descrizione vaga su Google, con questi algoritmi il motore potrà cercare anche tra questi contenuti. Nessun problema se l’autore ha tralasciato la descrizione, Google in futuro capirà subito se la foto è di un elefante oppure se è il selfie di una persona un po’ fuori allenamento.

E questo potrebbe diventare utile anche altrove: se ricordate quando Downloadblog fu invitato da Mercedes per parlare di intelligenza artificiale a bordo delle auto, uno dei problemi riguardava il far riconoscere a un computer le situazioni pericolose. Questo è proprio il tipo di algoritmo che rende più facile questo compito.

Come funziona


Sia Google che Stanford hanno applicato gli stessi concetti: i cervelli organici sono molto bravi a distinguere gli schemi, i cervelli elettronici no. Usando un design che ricalca l’architettura dei cervelli, il cosiddetto network neurale, si può imitare questa caratteristica. In questo caso abbiamo un doppio set di algoritmi, uno bravo con le immagini, l’altro con la lingua umana. A partire da un set di immagini limitate, il software si è addestrato a riconoscere i casi generali con rimarchevole efficacia.

Entrambi i team dicono che questo è solo l’inizio, e che aumentando le dimensioni dei set di partenza, il computer potrà sia riconoscere più casi specifici che descriverli in modo migliore al proprio interlocutore umano. Un PC che ci racconta una storia guardando un’immagine? In un certo senso è quello che gli scienziati stanno cercando di ottenere.

Via | New York Times

  • shares
  • +1
  • Mail