Google e shopping online: saranno gli utenti stessi ad insegnare al motore di ricerca cosa gli piace acquistare

Una connessione tra persone e prodotto? Redditizio ma difficile da realizzare, perfino per un colosso della ricerca come Google. Che decide dunque di chiedere aiuto agli utenti stessi. Ha infatti rivelato una serie di aggiornamenti che consentono alle persone di valutare e selezionare gli stili nei risultati di ricerca, contrassegnando i propri marchi preferiti, settando il motore di ricerca su cosa gli piace, in modo da vederne di più.

La nuova funzione “Consigli di stile” consente alle persone di “valutare i risultati di ricerca dei propri prodotti”, secondo Sean Scott, vicepresidente e direttore generale dello shopping dei consumatori di Google. Spiegando come funziona, ha detto, “quando cerchi determinati capi di abbigliamento, scarpe o accessori, vedrai una sezione etichettata come “consigli di stile”. Lì si possono valutare le opzioni con un pollice in su o un pollice in giù oppure con un semplice scorrimento verso destra o sinistra e visualizzare immediatamente tutti i risultati personalizzati; un modus operandi che potrà risultare familiare agli utenti di Stitch Fix; il suo gioco Style Shuffle utilizza infatti un meccanismo di valutazione simile, con pollice su/pollice giù, in modo che possa apprendere gusti o preferenze di moda. La cosa interessante è che sia Google che Stitch Fix si vantano delle loro capacità di intelligenza artificiale e di apprendimento automatico, ma si basano comunque sul feedback degli utenti per aumentare la pertinenza dei loro consigli. Come altri, anche Google sembra aver compreso un fatto fondamentale del fashion shopping: è un compito intrinsecamente visivo più che testuale; sono infatti le immagini a fare la differenza e i progressi nella visione artificiale lo rendono fattibile, motivo per cui un numero crescente di piattaforme ha investito in questo.

“Abbiamo sviluppato la generazione di immagini per lo shopping basata sull’intelligenza artificiale in modo da poter acquistare stili di abbigliamento simili a quello che si ha in mente”, ha affermato Scott. Gli utenti dicono semplicemente al sistema cosa stanno cercando e la funzione ne crea un’immagine realistica e quindi trova gli elementi che meglio corrispondono all’immagine. Lo strumento si collega al suo Shopping Graph, un set di dati di informazioni su prodotti e venditori ricco di oltre 45 miliardi di inserzioni che vengono continuamente aggiornate, per un ritmo di oltre 2 miliardi di aggiornamenti di inserzioni ogni ora. Non è una versione pro, ma una funzionalità sperimentale che chiunque negli Stati Uniti può provare, ma non senza aver attivato Search Generative Experience in Search Labs, il banco di prova di Google, per accedervi dall’app Google o dai browser mobili.

Una volta che le persone trovano il look che cercano, il passo successivo, secondo Google, è visualizzare come potrebbe apparire una volta indossato. È qui che entra in gioco la prova virtuale dell’abbigliamento. “Il 68% degli acquirenti online concorda sul fatto che è difficile sapere come apparirà un capo di abbigliamento prima di averlo effettivamente acquistato, e il 42% degli acquirenti online non si sente rappresentato dalle immagini dei modelli che vede” ha detto a WWD Lillian Rincon, direttore senior del prodotto di Google. Per rimediare a ciò, l’azienda ha fotografato una vasta gamma di persone con fisicità diverse, e ha poi utilizzato l’intelligenza artificiale, alimentata dai dati del suo Shopping Graph, per rappresentare realisticamente come i tessuti si sgualciscono, si attaccano o si drappeggiano su corpi diversi.

Per quanto l’intelligenza artificiale continui a fare progressi da gigante e prendendo uno spazio sempre più rilevante nella quotidianità, il caso di Google dimostra che non si può fare completamente a meno dell’elemento umano, elemento imprescindibile per un processo di successo.

Tags: intelligenza artificiale , Google , shopping online