Раскрыта главная причина удаления контента в Facebook

Многие пользователи социальной сети Facebook начали замечать частые ошибки. В этот список входят удаление контента, блокировка аккаунта и прочее.

Согласно опубликованному отчету научного института NYU Stern, модераторы контента Facebook проверяют сообщения, фотографии и видео помеченные искусственным интеллектом или о которых пользователи сообщали около 3 миллионов раз в день. А поскольку генеральный директор Марк Цукерберг в своем официальном заявлении признал, что модераторы “совершают ошибки более одного раза из каждых 10 случаев”, это означает что 300 000 раз в день происходят ошибки.

Согласно отчету NYU Stern существует одна главная причина такой проблемы:
“Крупные компании связанные с социальными сетями, изолировали своих работников, которые выполняли свою работу. В итоге права на модерацию были переданы сторонним работникам”.

В компании Facebook как известно работают около 15 000 модераторов контента. Если у них есть три миллиона сообщений для модерации каждый день, то это 200 сообщений на человека. В итоге в течение рабочего дня у человека есть менее 150 секунд, чтобы решить, соответствует ли сообщение стандартам сообщества.

Но что, если модератору необходимо посмотреть 10-минутное видео?

Это будет означать, что у модератора контента остается только несколько секунд для проверки других сообщений.

Но в итоге ситуация усложняется на фоне появления новой пандемии коронавируса. После того, как модераторы контента были отправлены домой, автоматизированная система Facebook получила полный контроль над контентом. Это было необратимое бедствие, которое привело к повсеместной блокировки или удалению постов с упоминанием “коронавирус” из авторитетных источников, таких как The Independent и Dallas Morning News. Это не говоря уже о миллионах отдельных пользователей Facebook.

Автоматизированные системы вызывают проблемы и сбои.

Пользователь Шерри Лоукс, которая ведет несколько страниц в Facebook, включая страницу, посвященную грудному вскармливанию, не понимает почему ее блокируют.

Лоукс заявляет:
“Все страницы, которые я создала в Facebook теперь заблокированы по причине “спам”. Но я делюсь достоверным контентом только из проверенных источников, которые основаны на фактах”.

Что будет дальше?

Согласно отчету NYU Stern, решить такую проблему можно только одним способом. Необходимо, чтобы все модераторы контента были официальными сотрудниками Facebook. Также необходимо удвоить количество модераторов и обустроить помещение, в котором будет происходить работа под руководством старшего руководителя.

Помимо прочего, согласно отчету, компания Facebook должна расширить контроль в странах с недостаточным уровнем контроля и спонсировать исследования воздействия на психическое здоровье. Компания также должна расширить проверку фактов, чтобы обуздать распространение дезинформации.

В докладе также говорится, что социальные сети нуждаются в модерации. Информация из отчета NYU Stern гласит:
“Представьте, как будут выглядеть социальные сети, если никто не будет удалять вопиющий контент, размещенный пользователями. Если необходимый контент не будет удаляться модераторами, то Facebook, Twitter и YouTube будут наводнены не только спамом, но и агрессивными пользователями, неонацистскими оскорблениями, обезглавливанием террористов и сексуальным насилием над детьми”.

Исходя из всего вышесказанного, нужно признать, что перед Facebook и другими социальными сетями стоит довольно сложная задача.

Искусственный интеллект способен помочь в решении проблемы.

Если компания Facebook сможет уменьшить количество незаслуженно удаленного контента, то это может сократить число недовольных пользователей, чья информация была удалена беспричинно.