Facebook відзвітував про боротьбу з образливим контентом. Скільки видаляють і хто це робить

У вівторок вранці Facebook опублікував звіт щодо забезпечення дотримання стандартів спільноти, в якому розглядаються методи соціальної мережі для відстеження контенту, який порушує визначені стандарти

Звіт опубліковано у період зростаючої критики щодо того, як Facebook контролює контент, який він показує користувачам. 

Нині соціальна мережа піддається інтенсивному аналізу на тлі повідомлень про дезінформацію та пропаганду, зокрема політичну, а також новини про те, що компанія Cambridge Analytica, яка працювала над виборчою кампанією президента Трампа 2016 року, змогла отримати доступ до приватних даних мільйонів користувачів через соцмережу.

Генеральний директор Facebook Марк Цукерберг написав на своїй сторінці в Facebook у вівторок:

"ШІ все ще потребує поліпшення, перш ніж ми зможемо використовувати його для ефективного видалення більш лінгвістично нюансованих проблем, таких як розпалювання ненависті на різних мовах, але ми над цим працюємо", -пише він.

Цуерберг також зазначив, що за перші три місяці цього року з соцмережі зняли 837 мільйонів одиниць спаму і відключили 583 мільйони фейкових аккаунтів.

Відео BBC Україна.

Щоб розрізняти образливий контент, Facebook розділяє його на категорії: насильство, відео та фото для дорослих, терористична пропаганда, мова ненависті, спам і підроблені рахунки.

В звіті йдеться, що хоча компанія як і раніше просить людей повідомляти про образливий контент, Facebook все більше використовує штучний інтелект для відсіювання шкідливих повідомлень, перш ніж хто-небудь їх побачить.

Більше 85 % з 3,4 млн постів з насильницьким контентом були помічені штучним інтелектом в першому кварталі.

За оцінками компанії, 0,22 - 0,27 % контенту порушили стандарти Facebook про насильницький зміст за перші три місяці. Для порівняння, в четвертому кварталі минулого року цей показник становив 0,16 - 0,19%.

Тобто, від 22 до 27 з кожних 10 000 одиниць контенту містили зображення насильства в першому кварталі 2018 року, в порівнянні з 16 і 19 в попередньому кварталі.

В компанії припускають, що деяке збільшення могло бути викликане зростанням військової активності в Сирії в січні.

У Facebook кажуть, що штучний інтелект грає все більшу роль у виявленні цього контенту. Трохи більше 85 % з 3,4 мільйона повідомлень, що містили графічне насильство в першому кварталі, були відзначені ШІ перш, ніж користувачі повідомили про них.