Meta ha annunciato un piano per utilizzare l’intelligenza artificiale in modo massiccio nella valutazione dei rischi associati alle sue piattaforme social. Secondo documenti ottenuti da NPR, l’azienda ridurrà al minimo l’intervento umano nelle decisioni riguardanti la privacy, la sicurezza e i contenuti consentiti su Facebook, WhatsApp e Instagram. Questa strategia mira a velocizzare lo sviluppo delle nuove funzionalità.
L’automazione della valutazione dei rischi
Tradizionalmente, prima di implementare nuove funzionalità, un team dedicato esaminava i potenziali rischi legati all’uso delle piattaforme. Questi includevano questioni relative alla privacy degli utenti, ai pericoli per i minori e alla diffusione di contenuti illegali. Tuttavia, con il nuovo approccio di Meta, si prevede che il 90% delle valutazioni dei rischi sarà gestito dall’intelligenza artificiale.
Il sistema proposto implica che le modifiche agli algoritmi e le nuove misure di sicurezza possano essere approvate senza necessità dell’intervento umano diretto. Questo cambiamento potrebbe portare a una maggiore rapidità nell’introduzione di innovazioni sulle piattaforme social dell’azienda.
Leggi anche:
Per attuare questa automazione, verranno utilizzati questionari specificamente progettati che saranno analizzati dall’AI. Sulla base dei risultati ottenuti da queste analisi automatiche, potrebbero essere apportate modifiche necessarie per limitare o eliminare eventuali rischi identificati. È importante notare che molti product manager ed ingegneri coinvolti nello sviluppo delle funzionalità non hanno competenze specifiche in materia di privacy; pertanto il compito sarà delegato all’intelligenza artificiale.
Implicazioni legali in Europa
Nonostante questo piano ambizioso negli Stati Uniti e nel resto del mondo, Meta ha chiarito che il nuovo sistema non sarà applicabile in Europa. Qui l’azienda è tenuta a rispettare gli obblighi stabiliti dal Digital Services Act , una normativa europea volta a garantire la protezione degli utenti online.
Le autorità europee hanno avviato indagini nei mesi scorsi riguardo all’assenza di misure adeguate da parte dell’azienda per tutelare i minori e limitare la diffusione di contenuti illegali sulle sue piattaforme. Queste indagini sono state avviate ad aprile e maggio 2024 come risposta alle preoccupazioni espresse dai regolatori europei sulla gestione della sicurezza online da parte delle grandi aziende tecnologiche come Meta.
Un portavoce dell’azienda ha confermato queste informazioni ma non ha fornito ulteriori dettagli sui piani futuri o sulle modalità con cui intende affrontare le normative europee riguardanti la protezione degli utenti minorenni o la gestione dei contenuti problematici.
In sintesi, mentre Meta si prepara ad adottare un modello sempre più automatizzato nella gestione del rischio sui suoi servizi globalmente accessibili, dovrà anche navigare attraverso le complesse normative vigenti nel mercato europeo per garantire conformità legale ed etica nelle operazioni quotidiane.