Ricordate la scena di Matrix? Neo improvvisamente vede la “realtà” per quello che è, una pioggia di linee di codice verde. La settimana scorsa gli utenti di Facebook hanno vissuto un’esperienza parallela. Nelle ore del black out delle immagini che ha interessato Facebook e Instagram, molte immagini sono state sostituite da tag assegnati dai sistemi di visione artificiale. Sono comparse scritte del tipo “l’immagine può contenere: persone che sorridono, persone che ballano, matrimoni e interni” o semplicemente “l’immagine può contenere: cat. ”
Facebook utilizza il machine learning per leggere le immagini in questo modo almeno da aprile 2016, e il progetto è una parte importante degli sforzi di accessibilità dell’azienda. I tag vengono utilizzati per descrivere foto e video agli utenti con problemi alla vista. Sono molti i dati personali contenuti nelle foto che l’Intelligenza Artificiale è in grado di estrarre. Ciò che non è chiaro è se Facebook utilizzi anche queste informazioni per indirizzare gli annunci. Ci sono molti dati sulla vita degli utenti: se hai un animale domestico, quali sono i tuoi hobby, dove ti piace andare in vacanza, o se ti piacciono davvero le auto d’epoca.
Indipendentemente da come queste informazioni vengano utilizzate, è affascinante curiosare dietro le quinte in una delle più grandi operazioni di raccolta dati al mondo, e mostra anche fino a che punto il linguaggio visivo è diventato leggibile dalle macchine. Come spesso accade, è solo quando il sistema si “rompe”, che ci rendiamo conto di come funziona.
Una curiosità: il testo che compone la pioggia di codice verde del film “The Matrix” è stato ottenuto utilizzando un ricettario sushi. Lo svela uno dei designer della produzione, Simon Whiteley.