Facebook a spus că folosește atât oameni, cât și sisteme de inteligență artificială (AI) pentru a detecta postările care încalcă politicile sale. Gigantul social media și-a mărit gradul de utilizare AI pentru a elimina conținutul nociv în timpul pandemiei de coronavirus.

În 2018, un grup de moderatori din SUA, angajați de companii terțe pentru a examina conținutul, a trimis în judecată Facebook pentru că nu a creat un mediu de lucru sigur.

Moderatorii au susținut că revizionarea de zeci și sute de ori a imaginilor violente – uneori de viol și sinucidere – a dus la dezvoltarea de tulburări de stres posttraumatic (PTSD).

Despăgubiri de cel puțin 1.000 pentru fiecare angajat

Acordul îi acoperă pe moderatorii care au lucrat în California, Arizona, Texas și Florida din 2015 până în prezent. Fiecare moderator, atât anterior, cât și actual, va primi cel puțin 1.000 de dolari, precum și fonduri suplimentare dacă sunt diagnosticați cu PTSD sau afecțiuni conexe. Aproximativ 11.250 de moderatori sunt eligibili pentru aceste compensații materiale.

De asemenea, Facebook a acceptat să extindă măsurile menite să reducă impactul vizionării de conținut dăunător, iar un purtător de cuvânt al companiei a declarat că gigantul social media „s-a angajat să ofere moderatorilor sprijin suplimentar și pe viitor”.

În ianuarie, Accenture, o companie subcontractoare care angajează moderatori pentru platformele de socializare, inclusiv Facebook și YouTube, a început să le solicite lucrătorilor să semneze un formular prin care recunosc că au înțeles că slujba poate duce la PTSD.

Acordul vine în contextul în care Facebook caută modalități de a readuce mai mulți recenzori umani online după ce restricțiile generate de pandemie se încheie. Compania a spus că mulți recenzori lucrează de acasă, dar unele tipuri de conținut nu pot fi refăcute în siguranță, în acest cadru. Moderatorii care nu au putut lucra de acasă au fost, totuși, plătiți. Pentru a compensa pierderea recenzorilor umani, Facebook și-a intensificat utilizarea AI pentru a modera conținutul în schimb.

În cel de-al cincilea Raport de aplicare a standardelor comunitare publicat marți, gigantul social media a declarat că Inteligența Artificială a ajutat la detectarea a 90% din conțiutul interzis.

Doar în aprilie au fost blocate 50 de milioane de postări cu informații înșelătoare despre pandemie

AI a fost, de asemenea, crucială în detectarea postărilor nocive despre coronavirus. Facebook a spus că, în aprilie a blocat aproximativ 50 de milioane de postări care conțineau informații înșelătoare despre pandemie.

Cu toate acestea, tehnologia încă se chinuie să recunoască conținutul dăunător din imaginile video. Moderatorii umani pot detecta adesea mai bine nuanțele sau jocurile de cuvinte în meme-uri sau clipuri, permițându-le să localizeze mai ușor conținutul dăunător.

Facebook spune că acum dezvoltă o rețea neuronală numită „SimSearchNet” care poate detecta copii aproape identice ale imaginilor care conțin informații false sau înșelătoare.

Potrivit directorului tehnologic al gigantului social media, Mike Schroepfer, acest lucru va face recenzorii umani să se concentreze pe „noile cazuri de dezinformare”, mai degrabă decât să privească „variații aproape identice” ale imaginilor pe care le-au examinat deja.

Urmărește-ne pe Google News