Работа с контентом в соцсетях: что важно знать компаниям?

We Are Social и Hootsuite опубликовали отчет о состоянии цифровой индустрии, где, в том числе, отмечено, что в 2019 году число пользователей социальных сетей составляет 3,5 миллиарда пользователей. А это на 288 миллионов больше, чем в прошлом году. Каждую минуту пользователи загружают 300 часов видео на YouTube и каждый день – порядка 400 млн фото на Facebook. Пользователи создают контент, доступный широкой аудитории, — и такой контент не всегда безопасен. Работа с контентом становится настоящим вызовом.

Преимущества социальных сетей очевидны: это возможность общаться, вступать в сообщества по интересам, знакомиться, быть на связи из любой точки мира. Наконец, это огромный источник информации о мероприятиях, трендах и новостях. В то же время пользователи могут злоупотреблять этими возможностями для распространения некорректной информации, клеветы, разжигания конфликтов, пропаганды насилия. Как пользователи, так и бизнес находятся в зоне риска.

Как управлять постоянно растущими объемами контента от почти 3,5 миллиардов пользователей по всему миру? Как в разных компаниях осуществляется работа с контентом? Онлайн-компании уже столкнулись с последствиями свободного обмена контентом. Одним из первых и самых очевидных шагов стало, разумеется, создание правил пользования платформами, регламентирующих неприемлемый контент.

Не секрет, что эти правила нарушаются, и компании вынуждены дополнительно мониторить их соблюдение. Онлайн-платформы, социальные сети, крупные форумы внедряют системы автоматической модерации на основе искусственного интеллекта, которые блокируют нарушающий правила контент.

Однако, как бы ни была продвинута технология, без человеческого участия не обойтись. Безусловно, ИИ может распознать спам-рассылку, изображения, видео и текст с запрещенным содержанием, но учитывает ли он контекст и возможную двусмысленность? Простой пример: когда Facebook внедрил автоматическое удаление изображений с обнаженным телом, под бан попали даже “body positive” фотографии без порнографического контекста.

Компании также осознают этот недостаток и передают часть контента на проверку модераторам. Работа с контентом — непростая задача. Модераторы выполняют своеобразную роль «онлайн-полицейских». Они ежедневно просматривают огромные объемы контента, порой сталкиваясь с неприятными вещами. Не каждый человек способен и готов выполнять эту работу. The Verge опубликовал большое исследование о работе модераторов контента в Facebook, где работники анонимно рассказывают про обучение, рабочий процесс и его влияние на их психологическое состояние. Модератор должен обладать высоким уровнем стрессоустойчивости и пониманием ценности выполняемой задачи для сообщества.

Компании формируют особые правила по найму и создают комфортную рабочую среду для модераторов контента. Так, их профиль подразумевает строгий отбор по психологическому портрету, а ежедневная работа – поддержку от специалистов.

Вопрос модерации контента широко обсуждается сегодня, и мы также не можем упустить его из внимания. Именно поэтому на ежегодном XChange Summit мы впервые собираем специальную сессию по модерации контента. Мы обсудим, с какими сложностями и вызовами сталкиваются онлайн-платформы, какие решения внедряют и как дальше будет развиваться это направление. 

Узнайте о том, как работают наши модераторы контента, и как мы делаем контентные платформы безопасными и надежными.


Что вы думаете об этом посте?
Оставьте свой комментарий

avatar

*