Del Google Pixel 2 quando è stato lanciato nello scorso mese di novembre è stata elogiata la fotocamera, che ha totalizzato un punteggio complessivo dXoMark Mobile di 98 punti, ad oggi superato solo dal Samsung Galaxy S9 Plus con un punteggio di 99. Tra le funzionalità piu’ apprezzate del Pixel 2 ci sono l’HDR+ di Google, che consente di avere colori piu’ uniformi nelle immagini anche in condizioni di scarsa illuminazione, e la modalità Ritratto progettata per rendere possibile l’effetto sfocatura dello sfondo anche in presenza di un singolo obiettivo fotografico. Questo effetto ‘bokeh’ altri produttori di smartphone lo rendono disponibile solo nei device che hanno due obiettivi fotografici affiancati, in quanto uno viene dedicato alla mappatura della profondità di campo. Per venire incontro ai produttori, ed evitare loro di utilizzare due obiettivi per avere lo stesso risultato ottenibile con uno solo, Google ha ora reso disponibile pubblicamente, con licenza open source, il suo proprietario sistema di che usa nei suoi telefoni Pixel 2.
Google ha pubblicato un post nel suo Google Research Blog per parlare di come funziona la modalità Ritratto in Google Pixel 2, che richiede solo un singolo obiettivo. Nel post, Google parla del suo sistema di "segmentazione semantica dell’immagine", ossia il compito di assegnare un’etichetta semantica, come "strada", "cielo", "persona", "cane", a ogni pixel di un’immagine per consentire numerose nuove applicazioni, come la profondità di campo per la modalità ritratto degli smartphone Pixel 2 e Pixel 2 XL. L’assegnazione di queste etichette semantiche richiede l’individuazione del contorno degli oggetti e impone requisiti di accuratezza della localizzazione molto piu’ rigidi rispetto ad altre attività di riconoscimento di elementi visivi. Grazie all’analisi dei singoli pixel di un’immagine, il telefono puo’ quindi ricreare l’effetto della sfocatura per tutto cio’ che non si trova in primo piano.
come funziona la segmentazione semantica dell’immagine
Condividendo pubblicamente questo modello con la comunità di sviluppatori Google spera di rendere più facile "per altri gruppi nel mondo accademico e industriale riprodurre e migliorare ulteriormente sistemi all’avanguardia, formare modelli su nuovi set di dati e immaginare nuove applicazioni per questa tecnologia" hanno detto Liang-Chieh Chen e Yukun Zhu, ingegneri del software, di Google Research.
Piu’ basilare, il fatto che Google ha reso disponibile pubblicamente il modello per la "segmentazione semantica dell’immagine" significa che altri produttori di smartphone potranno iniziare a rendere disponibili sul mercato dispositivi che, anche con un solo obiettivo fotografico, consentiranno agli utenti di utilizzare la modalità Ritratto con effetto bokeh.