Un tool. Un nuovo software open source far tornare il sorriso a Mark Zuckerberg per un 2022 da dimenticare e rilanciare le ambizioni di Meta.
L’impresa statunitense che controlla Facebook e Instagram, WhatsApp e Messenger, ma sviluppa anche i visori di realtà virtuale Oculus Rift lancia un’idea rivoluzionare per impedire la diffusione di materiale relativo al terrorismo, comprese immagini e video violenti ed estremisti, sul web.
Hasher-Matcher-Actioner, si chiama così il nuovo software sviluppato da Mark Zuckerberg. Sarà condiviso con altre piattaforme di social media e società Internet in vista della presidenza annuale di Meta del Global Internet Forum to Counter Terrorism, in programma a gennaio. Meta è stato uno dei co-fondatori di GIFCT nel 2017, insieme a Microsoft Corp., Twitter Inc. e YouTube. Da allora il gruppo si è evoluto fino a diventare un’organizzazione non governativa focalizzata sulla lotta al terrorismo e ai contenuti estremisti online.
I pionieri della tecnologia AI
HMA sarà messo gratuitamente a disposizione di altre società Internet come parte dei suoi sforzi per prevenire la diffusione di contenuti terroristici online, ma non solo. E’ stato pensato per la sicurezza in generale online, anche per i player che affollano il fatato mondo del gaming, con il fine di aumentare la moderazione dei contenuti sulle proprie piattaforme. In un post sul blog, Meta President of Global Affairs, Nick Clegg ha affermato che la società è impegnata ad affrontare i contenuti terroristici come parte di un approccio più ampio per proteggere gli utenti da contenuti dannosi sui suoi servizi.
“Siamo pionieri nello sviluppo della tecnologia AI per rimuovere i contenuti odiosi su larga scala“, ha affermato Clegg. “Abbiamo imparato nel corso di molti anni che se si esegue un’operazione di social media su larga scala, è necessario creare regole e processi che siano il più trasparenti e applicati in modo uniforme possibile“. HMA migliora il software di imaging e corrispondenza video open source già esistente di Meta, può essere utilizzato contro qualsiasi contenuto che violi le politiche del colosso di cui Mark Zuckerberg è il CEO. Lo scopo principale dello strumento è che può identificare rapidamente i contenuti proibiti, quasi non appena appaiono online, e quindi portarli offline se necessario. Inoltre, può farlo su più piattaforme.
Lo strumento è alimentato ovviamente dall’intelligenza artificiale e si basa su “hash”, un’impronta digitale trovata in immagini e video, al fine di trovare duplicati pubblicati altrove sul web. Una volta trovato del materiale offensivo, l’algoritmo sviluppa una serie di lettere e numeri specifici per quel contenuto, che possono essere utilizzati per identificare le copie.