contador
Skip to content

Меньше человеческого контроля: Facebook, YouTube и Twitter отправляют своих модераторов домой

С развитием пандемии коронавируса технологические компании отправили модераторов домой и начали делегировать задачу проверки контента автоматизированным системам искусственного интеллекта.

САН-ФРАНЦИСКО – В начале этого месяца большинство сотрудников Facebook собрали свои вещи и готовились работать из дома, пока новый

коронавирус

 распространился по всему миру. Однако, несмотря на мандат компании, гигант социальных сетей не думал о том, как идти вперед

ваша самая чувствительная задача

 Дистанционно: порнография, терроризм, разжигание ненависти и другой нежелательный контент с вашего сайта.

Люди, которые выполняют эту деликатную задачу (

почти 15 000 подрядчиковв 20 местах

со всего мира

) продолжал ходить в офис до 16 марта, когда общественное давление, внутренние протесты и карантинные меры во всем мире вынудили

facebookсделать решительный шаг, чтобы закрыть свой контент и прокомментировать модерацию офисов.

Но

решение в фейсбукеразместить это

армия модераторов по модальности платной лицензиипрокладывает путь для другого вызова,

заставить компанию контролировать дезинформацию, медицинские хитрости, русские тролли и общие неудобства интернета без них.

Да хорошо                facebook

        

 ,                YouTube

        

 ,                щебет

        

 и другие компании давно продвигают                искусственный интеллект

        

 и алгоритмы

как будущее проблемного мониторинга контентанедавно признал, что

люди являются наиболее важной линией обороны, Те подрядчики, которым выплачивается часть того, что зарабатывают работники, занятые полный рабочий день, проводят часы в день, просматривая материалы, помеченные как незаконные или подрывные, удаляя публикации, которые пересекают черту и часто подвергаются психологическому ущербу от воздействия.

Тем не менее, генеральный директор Facebook Марк Цукерберг заявил в среду в пресс-конференции, что компания

во время пандемии будут вынуждены больше полагаться на программное обеспечение искусственного интеллектапринимать эти решения. Компания также

обучать штатных сотрудниковпоэтому они посвящают

«дополнительное внимание» к высокочувствительному контентуНапример, связанные с самоубийством, эксплуатацией детей и терроризмом. Пользователи должны ожидать большего количества ошибок, так как Facebook оценивает процесс, отметил он, отчасти потому, что вовлечена часть людей и потому что программное обеспечение принимает более сильные решения, чем люди.

Цукерберг признал, что решение может привести к «ложным срабатываниям», включая удаление контента, который не должен быть удален.

«Создайте промежуточное решение для других типов контента, которые могут не иметь таких неизбежных физических рисков для людей». Несмотря на это, он надеется обучить как можно больше людей, потому что он «лично весьма обеспокоен тем, что изоляция от людей в доме может привести к большему количеству депрессии или проблемам с психическим здоровьем, и мы хотим быть уверенными, что мы впереди» что, поддерживая наше сообщество “.

Признание Цукерберга отражает сложный выбор и промежуточные решения, которыми гиганты Кремниевой долины управляют перед лицом растущего глобального кризиса в области здравоохранения. Компании могут защищать работников и выполнять местные заказы, чтобы остаться дома. Но этот выбор может поставить под угрозу безопасность миллиардов пользователей по всему миру, многие из которых находятся на карантине дома, весь день пользуются Интернетом и подвергаются воздействию материалов, которые потенциально могут нанести еще больший вред, чем когда-либо.

Со своей стороны

YouTubeОн также объявил о временных планах на прошлой неделе

больше полагаться на автоматизированные системычтобы уменьшить количество людей в офисе, то, что компания предупредила, может замедлить процесс подачи апелляций создателям видеоконтента и привести к тому, что больше не просмотренного контента будет исключено из поиска или с его домашней страницы. , В тот же день,

Twitter сказал, что будет делать то же самое, Потому что

автоматизированные системы могут вызвать ошибки,

не навсегда приостанавливать учетные записи в течение этого периода, Кроме того, фирма оценивает приоритетность надзора за потенциально более опасными нарушениями.

С развитием пандемии коронавируса технологические компании отправили модераторов домой и начали делегировать задачу проверки контента автоматизированным системам искусственного интеллекта.

Facebook, YouTube, Twitter и другие компании, работающие в социальных сетях, столкнулись со значительными проблемами в управлении контентом, начиная с размещенного в прямом эфире видео.

во время расстрелов в Крайстчерче, Новая Зеландия

, в прошлом году, вплоть до кампаний по дезинформации российских троллей во время президентских выборов 2016 г. Решение отправить рабочих домой принимается в год президентских выборов, когда иностранные и отечественные пользователи активно пытаются дать формировать общественные дебаты, используя дезинформацию, которая может быть видна только человеческому глазу.

Это давление увеличивается с увеличением дезинформации о новом коронавирусе. В WhatsApp, принадлежащем Facebook, чат-группы распространяют непроверенную информацию о рейсах, отелях и школах, связанных с вирусом, а также дезинформацию о возможных мерах противодействия со стороны правительства и о распространении болезни. В Facebook было распространено ложное письмо о вспышке в Лос-Анджелесе, и были широко распространены сообщения о ложных излечениях и лжи, связанных с E.E. U.U. создал коронавирус.

Речь идет не только о социальных сетях: некоторые потребители получают на свои телефоны поддельные текстовые сообщения с предупреждением о национальной блокаде.

После президентских выборов 2016 года,

Facebook нанял тысячи внешних модераторов на Филиппинах, в Индии, Дублине и США.следить за сайтом и укреплять его репутацию. Модераторы, которые работают в сервисных аутсорсинговых компаниях, таких как Accenture и Cognizant,

они являются подрядчиками и, как правило, получают меньше заработной платы и меньше льгот, чем сотрудники Facebook,

Решение отправлять людей домой и больше полагаться на технологии для мониторинга сайтов волновало исследователей.

«Недостаточный прогресс был достигнут в области искусственного интеллекта, чтобы удалить лучший инструмент, который у нас есть: человеческий интеллект для распознавания», – сказала Мэри Грей, главный исследователь Microsoft Research и соавтор книги «Ghost Work: Как остановить Силиконовую долину от строительства». новый глобальный подкласс “(Как предотвратить создание нового глобального подкласса в Силиконовой долине” на испанском языке).

«Это катастрофа. Мы нацелены на то, чтобы люди были в безопасности и были в курсе, чтобы они могли обмениваться информацией и связываться друг с другом во время этого кризиса», – сказал представитель Facebook Дрю Пусатери. «Но, как мы сказали в недавнем обновлении нашего обзора контента, мы ожидаем, что будут возникать некоторые ошибки, когда мы адаптируемся к измененной рабочей силе с большей опорой на автоматизацию».

facebookон вносит изменения в основном потому, что считает, что

работа слишком чувствительна для внешних модераторов, чтобы делать из домаПотому что, среди других причин, это включает просмотр личных учетных записей Facebook. Компания также признает, что это

травматическая работаи что рабочие будут получать меньше поддержки дома. Модераторы, как правило, работают в колл-центрах, где каждое движение, от пауз до нажатий клавиш и довольных решений, тщательно контролируется и контролируется.

Компания говорит, что это может измениться по мере развития появления коронавируса.

Facebook предложил больше ясности о своих планах в блоге компании в четверг вечером. Когда пользователи сообщают о контенте за нарушение политики, они видят сообщение, объясняющее, что рецензий меньше, и что Facebook расставляет приоритеты для контента, который представляет наибольший потенциальный ущерб.

«Это означает, что некоторые отчеты не будут рассматриваться так же быстро, как раньше, и что мы определенно не получим некоторые отчеты», – говорится в сообщении в блоге. Сокращение рабочей силы также изменит процесс апелляции для пользователей, которые считают, что их контент был ошибочно удален. Люди все еще могут сообщить, что они не согласны с решением Facebook.

«Мы будем следить за этими комментариями, чтобы повысить нашу точность, но, скорее всего, не будем просматривать контент во второй раз», – сказали в компании.

Около 95% сообщений, связанных с обнаженной натурой, терроризмом, эксплуатацией детей, самоубийствами и самоповреждениями, удаляются с помощью алгоритмов, прежде чем пользователи Facebook смогут сообщить о них, согласно последнему отчету о соблюдении стандартов сообщества из компания.

Но для более тонких категорий дискурса корпоративные системы зачастую менее эффективны. Искусственный интеллект фиксирует 16% постов, связанных с запугиванием и преследованием в Facebook, в результате чего более 80% постов сообщается в компанию. Искусственный интеллект захватывает около 80% ненавистнических высказываний.

Эти цифры заставили должностных лиц компании осознать, что человеческое суждение все еще необходимо для мониторинга наиболее чувствительных областей дискурса, таких как расизм и политическая дезинформация.

«Я думаю, что всегда будут люди», делающие суждения о содержании, сказал Цукерберг в интервью Washington Post в прошлом году.

Уже есть признаки возможных проблем.В начале прошлой недели

законные статьи были удалены из Facebook

содержащие точную информацию о вирусе, Цукерберг сказал, что это было вызвано ошибкой в ​​системе обнаружения спама, которая не была связана с оценкой его содержания во время пандемии. «Система исправлена, эти сообщения поддерживаются, и мы надеемся, что у нас больше не будет этой проблемы в ближайшее время», – сказал он в пресс-конференции на прошлой неделе.

По словам Джеффа Коссеффа, профессора кибербезопасности и автора книги «26 слов, которые создали Интернет» (Джефф Коссефф), поскольку Facebook движется в направлении более технологически ориентированного ответа на мониторинг контента, это станет серьезным испытанием для отрасли. 26 слов, которые создали Интернет », по-испански).

«Это многое скажет нам о состоянии автоматической модерации», – сказал Коссефф. «Мы действительно не знаем, что именно делают технологические компании и насколько это эффективно», хотя они были более прозрачными.

Профессор Калифорнийского университета в Лос-Анджелесе Сара Робертс, автор книги «За экраном: модерация контента в тени социальных сетей», отметила, что Рука Facebook, возможно, была вынуждена. В Маниле, столице Филиппин, где в Facebook косвенно работают тысячи модераторов контента, правительство ввело общегородской карантин.

Независимо от мотивации Facebook, Робертс сообщил, что

этот опыт показывает, какое влияние оказывают критики человека на наше коллективное благосостояние и наш опыт работы в Интернете, Вы даже можете изменить идеологию Силиконовой долины, которая отдает приоритет решению проблем с помощью инженерных разработок.

«По правде говоря, мы не сможем закодировать наш выход из коронавируса», – сказал он.

Перевод Анжелы Баунд из Боргетти

ADEMS

. (tagsToTranslate) Меньше человеческого контроля: Facebook (t) YouTube и Twitter отправляют своих модераторов домой – LA NACION