
Forse gli occhiali smart di Meta hanno un problema di privacy In alcuni casi, i video registrati possono essere visti accidentalmente dalle persone che allenano i sistemi di AI – ops!
Gli ultimi modelli di occhiali smart di Meta, sviluppati in collaborazione con Ray-Ban e Oakley, integrano un sistema di intelligenza artificiale progettato per supportare e potenziare le funzionalità del dispositivo, tra cui la registrazione di video e le chiamate telefoniche. Gli occhiali permettono anche di interagire con l’assistente AI per inviare messaggi o ottenere una descrizione audio di ciò che la telecamera sta inquadrando.
I contenuti acquisiti dagli utenti restano generalmente archiviati sul dispositivo con cui sono stati registrati, a meno che l’utente non scelga di condividerli con Meta per contribuire al miglioramento del servizio. In alcuni casi, tuttavia, i dati e i contenuti condivisi possono essere sottoposti a revisione manuale da parte di collaboratori umani, con l’obiettivo di perfezionare e addestrare i sistemi di intelligenza artificiale integrati nel prodotto. Secondo quanto dichiarato dall’azienda, i materiali oggetto di revisione vengono filtrati o parzialmente oscurati per tutelare la privacy delle persone coinvolte.
Un’inchiesta condotta dai quotidiani svedesi Svenska Dagbladet e Göteborgs‑Posten ha però evidenziato che questi filtri non sempre risultano efficaci: in alcuni casi, infatti, i revisori sarebbero stati in grado di vedere chiaramente i volti delle persone riprese – un problema enorme per la privacy degli utenti.
Il caso che ha coinvolto gli smart glasses di Meta
@cathypedrayes PSA: Meta glasses A Swedish investigation found that Meta’s human AI workers (who work in Kenya to help train the AI) have seen sensitive videos of people changing, in bedrooms, financial information, etc. and it’s probably because people don’t realize this can happen. Meta does try to blur faces and details but the system isn’t perfect so just assume if your glasses can record it, a person might see it. Don’t record anything private, credit cards, information, changing clothes, etc. #smartglasses #technews #onlinesafety #AI #thingsyoushouldknow original sound - dj auxlord
Meta si affida da tempo, in determinate circostanze, a lavoratori impiegati da società appaltatrici per migliorare le prestazioni dei propri prodotti tecnologici, compresi i video registrati con i suoi occhiali smart. I lavoratori intervistati dai giornalisti svedesi, impiegati da un'azienda con sede a Nairobi, in Kenya, chiamata Sama, hanno raccontato di essere incaricati di insegnare all’intelligenza artificiale a interpretare le informazioni contenute nei video, etichettando manualmente gli oggetti che vi compaiono.
Secondo le loro testimonianze, durante queste operazioni hanno fruito contenuti di ogni tipo, comprese scene intime. Hanno inoltre riferito di aver avuto accesso alla trascrizione di alcune conversazioni tra utenti e l’intelligenza artificiale, per verificare che il sistema rispondesse correttamente alle domande. Meta ha risposto all’inchiesta sostenendo che la possibilità che i video registrati con i suoi occhiali vengano visionati da revisori umani esterni è indicata nella propria informativa sulla privacy.
Il lavoro di chi allena i sistemi di AI
@evhandd A new report just dropped claiming that the footage from user’s Meta Glasses is being sent to an annotation center in Kenya... Where employees WATCH THE VIDEOS TO HELP TRAIN META’S AI! And these employees say they have seen EVERYTHING
original sound - Evan
Negli ultimi anni diverse inchieste giornalistiche hanno esplorato un tema di cui le stesse aziende tecnologiche tendono a parlare poco e che, quando emerge, riaccende periodicamente il dibattito pubblico: il cosiddetto data labeling, che consiste nell'etichettare diverse tipologie di dati – come audio, video, immagini o testi – al fine di addestrare i sistemi di intelligenza artificiale. Si tratta di compiti spesso sottopagati e ripetitivi, che in alcuni casi espongono i lavoratori a contenuti violenti o disturbanti, ma sono essenziali per rendere le AI più efficienti – anche se le aziende tecnologiche tendono spesso a sminuire la cosa.
Negli ultimi anni, a questa attività si è affiancato anche il cosiddetto "Reinforcement Learning with Human Feedback" (RLHF), cioè l’uso di valutazioni umane per giudicare i risultati prodotti dalle intelligenze artificiali, con l'obiettivo di indirizzare i singoli sistemi verso risposte più corrette o utili, contribuendo a migliorarne progressivamente le prestazioni. Queste compiti vengono richiesti su larga scala da grandi aziende tecnologiche, come Google, Microsoft e OpenAI, e spesso vengono appaltati a società terze con sede in Paesi in via di sviluppo, come Kenya o Nepal, dove il costo della manodopera è molto più basso. Inoltre, ricostruire queste attività è complesso, poiché le aziende appaltatrici richiedono spesso la massima riservatezza, per evitare che trapelino dettagli sul funzionamento o sullo sviluppo delle tecnologie su cui stanno lavorando.















































