БРОД

Цукерберг о цензуре на Facebook

 

В этом году Facebook часто заявляла о цензурировании контента и яростно удаляла пользовательские посты. Поводы были: под раздачу среди прочего попали теория заговора о пандемии и фейковые новости о вирусе. Управляющий партнер Mindrock Capital Павел Черкашин рассказывает в колонке для Forbes, что сейчас происходит с соцсетью, которая влияет на 3 млрд людей по всему миру.

В октябре Facebook объявила, что запустит информационную кампанию о вакцинах от коронавируса и гриппа, а также запретит публикацию рекламных объявлений с призывами отказаться от вакцинации. Значит ли это, что Facebook ввела полномасштабную цензуру, потому что заняла чью-то сторону или пытается навязать пользователям свои решения?

Сам Марк Цукерберг на вопрос о том, использует ли Facebook алгоритмы, чтобы цензурировать контент, в Конгрессе 2018 года ответил: «Я не думаю, что то, что мы делаем, является цензурой». 

Политика Facebook

На том же заседании Конгресса Цукерберг сказал: «Каждый раз, когда меня спрашивают не СМИ ли мы, я слышу: несем ли мы ответственность за контент, которым люди делятся на Facebook? И я думаю, что ответ на этот вопрос «да». Понятно, что сравнение социальной сети со СМИ некорректно: в ней нет никакой редакционной политики или плана, как нет и редакции, которая бы утверждала контент.

На платформе есть сообщество людей и есть потребность, так же как и в государстве, организовать жизнь людей в цифровом пространстве, а значит — определить правила поведения и границы дозволенного. Такая социальная система работает по прецедентной модели «все, что не запрещено, разрешено», а значит, правила будут в первую очередь ограничивать возможности людей. Например, мы должны ограничить право человека использовать ложь для манипуляции общественным мнением, рекламу насилия или разжигание ненависти. Кстати, «хейт» (разжигание ненависти в соцсетях) как отдельное понятие родился и процветает именно в цифровом пространстве — и это совершенно новая в этом смысле категория.

Получение прибыли перестает быть единственным приоритетом руководства Facebook. На компании лежит ответственность за то, что происходит на ее платформе. Если социальная сеть воздействует на сознание почти трех миллиардов человек на Земле и знает о них больше, чем сами люди, то контентная политика этой сети из частных предпочтений ее владельцев превращается в глобальную социальную и политическую проблему. Решить ее по-тихому не получится, потому что определяя, что можно публиковать в открытом доступе, а что нельзя, мы фактически формируем объединенное общественное сознание. 

Свобода слова

Как же определить, что можно публиковать, а что нет? Очень хороший пример рассматривается в подкасте Radiolab. На заре времен контентная политика Facebook умещалась на паре страниц: обнаженку, оскорбления, призывы к насилию — баним! И под этот запрет попадали в том числе любые изображения, связанные с кормлением грудью. 

В 2008 году женщины из группы в Facebook по детскому кормлению, чей контент постоянно подвергался блокировкам, устроили протест у офиса компании. С этого начался процесс переосмысления свободы слова в современном цифровом мире, который не закончится еще много лет.

К 2018 году контентная политика компании разрослась до 50 страниц и научилась отличать учебный материал по кормлению грудью от эротики. Если кому-то это покажется тривиальной задачей, чем-то из серии созданного Дзан Янгом из сериала «Кремниевая долина» приложения для распознавания хот-догов — это не так.

Вот только часть вопросов, которые надо было решить: какая часть груди может быть показана? Одна или обе? Что считается кормлением? Если ребенок просто лежит, но видно грудь — это кормление? Какой возраст ребенка мы считаем приемлемым? А если это не ребенок, а взрослый мужчина? А если карлик? А если козленок (дикость для западного мира, но норма жизни в Африке)? Должны ли мы оценивать контекст фото или только само изображение? А если это искусство? Что мы считаем искусством? И так далее, бесконечная кроличья нора вопросов. И это только один маленький, но общий для всего человечества аспект жизни.

Политика не формируется с логикой «это забаним и это запретим, а тут непонятно — значит, запретим все»

Нужно понимать, что Facebook — это гигантский массив данных, в который треть населения планеты добавляет все что угодно каждый день, и невозможно предусмотреть всю фантазию пользователей, культурные нормы и события, происходящие в мире. Невозможно предусмотреть жизнь во всем ее разнообразии. Как можно сделать единые правила для трети населения планеты, да еще так, чтобы они были достаточно простыми в использовании? 

Сравнение компании со СМИ поднимает для Facebook еще ряд этических вопросов: должна ли компания ориентироваться на СМИ в определении запретов и разрешений на контент? А если СМИ замалчивают проблемы, а пользователи сети хотят о них рассказать, что делать компании? 

На все эти вопросы сложно ответить так, чтобы всем понравилось. Но Facebook пытается сделать не идеальную политику, а что-то, что будет работать. Политика не формируется с логикой «это забаним и это запретим, а тут непонятно — значит, запретим все». Правила меняются, как и исключения из них, и не только в сторону запрещения — это важно. Новый вопрос — новая поправка. Новости о вреде прививок банили на основании того, что они научно не обоснованы и противоречат интересам человечества. И если какой-то контент модерируется с переменным успехом, то, например, террористический контент, по словам Цукерберга, определяется практически с 100% точностью. 

Живой фильтр

Прежде чем все эти политики устаканятся и станет понятно, на что тренировать систему, пройдет еще лет 10. Пока что нет алгоритма, который смог бы однозначно и объективно сортировать контент и, как человеческий мозг, распознавать юмор, сарказм, подделки или ненаучность высказываний. Поэтому контент проходит через живой фильтр. Более чем 35 000 человек, как говорит Цукерберг, работают только над тем, чтобы политики безопасности контента соблюдались, а не расширялись. 

Люди, которые отсматривают контент для Facebook и принимают решение о блокировке, работают в странах с дешевой рабочей силой, таких как Филиппины, где распространены очень консервативные христианские взгляды. Почему это имеет значение? Потому что вдруг оказалось, что у этих людей тоже есть мнение, как и психологические травмы от выполняемой работы. Можно просто сойти с ума от всего, на что им приходится смотреть. Это напрямую влияет на политику, которую они применяют. Переезд центров ничего не решит — везде будут какие-то свои особенности. Понятно, что полномочия проверяющих сводятся к нажатию «да»-«нет», но их и пространных политик компании достаточно, чтобы пользователи обвинили Facebook в предвзятости и ограничении свободы слова там, где она имеет место и право быть. 

Напряжение создается не тем, что у Facebook есть цензура. Она всегда была. Проблема в том, что цензура Facebook не является одинаковой для всех пользователей, в ней до сих пор присутствует субъективное мнение наблюдателя — будь то сам Цукерберг или набожный филиппинец с зарплатой $10 в день. Группа людей, которая находится в офисе или приближена к нему, имеет права, которых нет у других людей на земле. Для частной коммерческой компании это было допустимо еще 10 лет назад, но совершенно неприемлемо в современных реалиях.

Добавить комментарий

Ваш адрес email не будет опубликован.