Instagram и Facebook тщательно следят за тем, чтобы пользователи не публиковали в своих аккаунтах обнаженку и порнографию. Жесткая политика фильтрации контента приводит нередко к курьезам. «Лента.ру» выяснила, почему в соцсетях запрещены женские соски и как это правило соблюдается.
Мужчинам можно, женщинам нельзя
Аккаунт Instagram @genderless_nipples полностью состоит из фотографий сосков крупным планом. Пользователям предлагается самим догадываться о том, кому они принадлежат — мужчинам или женщинам. Соски выглядят абсолютно асексуально. Смысл аккаунта как раз в том, чтобы показать: в сосках нет ничего запретного.
Genderless_nipples создан движением Free the Nipple («Освободим соски»), выступающим против дискриминации женской груди. Его адепты искренне недоумевают, почему мужчины могут появляться в обществе с оголенным торсом, а женщины — нет. И всячески продвигают идеи борьбы с половым неравенством, а также сексуализацией женского тела.
Готово ли общество к такому «освобождению» — вопрос непростой. Однако иногда ситуация действительно принимает абсурдный оборот. Во многих социальных сетях действует строгий запрет на публикацию фотографий с женскими сосками. Такие снимки блокируются.
В Instagram регулярно проводятся акции с требованием отменить запрет. В течение всего 2015 года многие обычные женщины и знаменитости занимались тем, что пытались опубликовать фотографии, на которых видны их соски. В акции приняли участие Наоми Кэмпбелл, Эмбер Роуз, Майли Сайрус и другие звезды. Большинство фото были быстро заблокированы.К флешмобу присоединился некий Джеймс Шамси, запостивший в свою учетную запись Instargam фотографию груди полного мужчины. Через несколько часов администрация забанила снимок, однако Шамси вступил в спор с цензорами и выиграл его, предоставив полную фотографию мужского торса, часть которой ранее опубликовал у себя в профиле.
По его словам, он «осознал абсурд излишней сексуализации женских сосков» и решил продемонстрировать, насколько глупо выглядит политика соцсети — ведь женские и мужские вне контекста отличить сложно.В июне 2015 года художница Миколь Хеброн предложила свой способ эффективного троллинга администрации соцсети. Она посоветовала пользователям просто заменять с помощью фоторедактора женские соски на мужские.
Подпись к опубликованной ею картинке гласила: «Если вы собираетесь запостить фото обнаженной женщины, используйте вот этот шаблон социально одобряемого мужского соска вместо женского». Интересно, что впоследствии немалую часть фотографий, оформленных согласно этим рекомендациям, все равно заблокировали.
Зачем же Instagram настаивает на этой спорной политике? По словам генерального директора соцсети Кевина Систрома, все дело в ограничениях магазина приложений Apple App Store. Если программа не предназначена для аудитории 17+, то в ней не должны содержаться изображения, демонстрирующие обнаженное тело, и Instagram приходится действовать по этим правилам.
Порно за копейки
Исчезновение сосков выглядит как вещь сама собой разумеющаяся. Можно подумать, что существует какой-то специальный алгоритм, обнаруживающий подобные фотографии и мгновенно их удаляющий. Но это не автоматика — она на это пока не способна, хотя разработки более эффективных методов активно ведутся. В Facebook и Instagram каждый час публикуется огромное количество картинок, и где-то сидят люди, которые проверяют каждую из них и решают: эти соски в одну сторону, эти — в другую, откровенную порнографию — в третью.
«Это унижение. Они просто эксплуатируют граждан стран третьего мира», — заявил в интервью изданию Gizmodo Амин Деркави, живущий в Марокко. В 2011 году он несколько недель просматривал Facebook на наличие запрещенного контента, получая всего один доллар в час.
Деркави показал журналистам документ с описанием политики соцсети: запрещено публиковать порнографию, расчлененные тела и расистский контент. «Мы работаем над созданием среды, в которой каждый может открыто обсуждать свои проблемы и выражать свое мнение, уважая права других», — гласило руководство.
В основном к модераторам Facebook поступают материалы, на которые пожаловались другие пользователи. Таким, как Деркави, приходится разбираться, действительно ли эти материалы стоит удалить. Разумеется, зачастую модераторы трактуют правила по своему, и в результате банят целующихся геев, классические картины с обнаженной натурой или матерей, кормящих детей грудью.
Такая работа действительно влияет на психику человека. Ведь приходится созерцать не только соски, гендерную принадлежность которых еще предстоит определить, но и сцены жестокости, детскую порнографию, некрофилию и прочую мерзость. «Это похоже на канализацию, — признается один из модераторов, — все помои мира плывут к тебе, а ты вынужден их разбирать».
Одним особенно отвратительны сцены насилия над животными, другим — расизм, третьим — кровавые потасовки. Один из цензоров не выдержал и трех недель. По его словам, психическое здоровье ему дороже.
Модераторы часто жалуются на свою судьбу в онлайне. Один из фрилансеров, работающих на сервисе Amazon Mechanical Turk, пишет на форуме Reddit: «Я не ожидал, что мой заказчик заставит меня просматривать детскую порнографию». Сам сервис Mechanical Turk позволяет за копейки нанимать людей, решающих в сети задачи, на которые пока не способны алгоритмы, в том числе и цензурировать контент.
Другому бедолаге, работающему на тот же сервис, однажды попалась фотография, на которой «какой-то маньяк лапает 10-летнюю девочку». «Мне нужно было оценить снимок. Меня в прямом смысле чуть не стошнило», — признается он и желает запостившему фото пользователю гореть в аду.
Роботы, а не человек
Конечно, не весь спорный контент попадает к модераторам после жалобы пользователей. Для поиска порнографии Facebook, Twitter и Instagram используют специальные инструменты, в автоматическом режиме поставляющие цензорам подозрительные фотографии.
Один из них — нейронная сеть компании Yahoo, специально натасканная на обнаружение такого контента. В нее загружают множество подобных фотографий, она подмечает встречающиеся в них закономерности, а затем сравнивает, насколько предложенные ей снимки похожи на то, что она уже видела. Нейронная сеть оценивает изображение и присваивает ему рейтинг от 0 до 1, по которому можно судить о том, нарушаются в данном случае правила или нет.
У компании Microsoft есть собственная нейросеть PhotoDNA, специализирующаяся на детской порнографии. Откуда они взяли снимки детей, подвергающихся насилию? Подобные фотографии предоставляет, например, Национальная служба розыска детей. Дальше все происходит по известной схеме: сеть учится распознавать криминальные изображения и предупреждает о них модераторов.
Таким образом, у постоянно просматривающих фотографии сомнительного содержания модераторов из стран третьего мира все-таки есть надежда, что вскоре их избавят от этой изнуряющей работы. Алгоритмы усложняются, их эффективность повышается.
Так, в апреле 2016 года администратор групп Facebook получил сообщение о том, что в их сообществе замечен непристойный контент. Пока решение не принято, пост, в котором обнаружено предполагаемое порнографическое изображение, не показывается остальным членам группы. Нейронная сеть Twitter теперь также умеет анализировать контент на лету и предупреждать о нем пользователей.
Видеосервис YouTube давно применяет алгоритм, позволяющий мгновенно отказывать в публикации видео, если оно защищено копирайтом. Конечно, для этого правообладатели предоставляют свои материалы, с которыми система сравнивает закачанный видеоролик. То же самое можно делать и с порнографией, если натренировать нейросеть так, чтобы вероятность ложного срабатывания была ничтожно мала.
Пока же марокканцы и филиппинцы продолжают глядеть на трупы, детское порно и соски, разбираясь, кто попал на модерацию за дело, а кто без причины. Кстати, аккаунт Instagram @genderless_nipples уже понес первые потери: забанены две фотографии сосков, причем владелец профиля утверждает, что на одной из них соски — мужские.