Суббота , 3 Декабрь 2016
соцсети

Мозг — лучший способ защиты от лжи в соцсетях

Добавлено в закладки: 0

В конце января компания Facebook объявила о принятии мер по борьбе с заведомо ложными новостями. Нововведения, призванные коллективными усилиями пользователей уменьшить число публикуемых фальшивок, — повод задуматься: а в состоянии ли в принципе интернет-сообщество повлиять на качество того, что оно потребляет. Может ли аудитория сама регулировать правдивость публикаций в соцсетях? Как уберечься от обмана и дезинформации не только в Facebook?

Российским пользователям пока не дали права помечать ложные, по их мнению, публикации, но, может, и не стоит об этом сожалеть: есть большие сомнения в том, что это вообще хоть как-то будет работать.

Продвигая контент

Facebook наряду с другими соцсетями и платформами стала огромной и, главное, очень влиятельной площадкой для разного рода публикаций. Это мощный инструмент в продвижении интернет-ресурсов и контента, которым они наполнены. Анонс колонки, которую вы сейчас читаете, гарантированно появится или, скорее всего, уже появился в Facebook и других соцсетях, как минимум, дважды — в аккаунтах DW и моих личных.

Так ее прочитают гораздо больше людей. Ресурсы делают все, чтобы попасть в ленты пользователей, «затачивая» под них контент и сопровождая свои заметки инструментами, которые сводят публикацию в соцсети к паре кликов. В результате ленты превращаются в череду репостов разного рода новостей, статей, фотографий и видеороликов.

Пару кликов сделать легко, особенно, если публикация интересная, спорная и яркая. Без всяких усилий, даже без единой собственной мысли соберешь кучу лайков и комментариев. Пустячок, а приятно. При этом мало кто утруждает себя проверкой фактов. Не говоря уж о том, что существует такая вещь, как намеренное продвижение заведомо ложной информации — с помощью ботов (аккаунтов-роботов) или нанятых пользователей. Поэтому откровенной чуши и откровенного вранья в наших лентах — пруд пруди.

Русскоязычный читатель особенно хорошо чувствует это в дни обострения российско-украинского противостояния: безумие льется в ленту с откровенно сомнительных ресурсов обеих сторон. Но раз вводятся инструменты общественного контроля, то теперь, наверное, заживем, и, по крайней мере в Facebook, будет правда и ничего, кроме правды?!

Вкалывают роботы, а не человек

Проблема только в том, что гигантские объемы информации модерировать может только робот, который, разумеется, действует по определенному алгоритму. Вот как описывают его в Facebook: если получено много жалоб на ту или иную публикацию, то ее реже показывают в лентах пользователей, и, при определенном пороге, еще и помечают: «На эту запись получено большое количество жалоб о том, что в ней содержится ложная информация».

Но как в этом случае уберечься от спланированных кампаний? Когда те же боты, которые публикуют нужные статьи, лайкают и делятся ими, перенаправляются на жалобы. Или, например, вполне реальные пользователи будут сетовать на якобы ложную информацию только потому, что они придерживаются других политических взглядов, нежели автор. Как фильтровать ложные доносы, в том числе и организованные, и чем они лучше ложных публикаций?

Теория и практика соцсетей

Тот, кто пробовал жаловаться на любые записи в Facebook, более или менее хорошо понимает, как работает фейсбучный робот и вряд ли им доволен. Мне самому пришлось столкнуться с ним буквально на днях в борьбе против фейковой группы одной из передач «Эха Москвы». Она нарушает сразу несколько правил Facebook, начиная с того, что выдает себя за другого пользователя (группу), и заканчивая тем, что публикует чужие фотографии.

Все работает неплохо, пока нарушение легко определить инструментально. Если в жалобе предъявить права, например, тот же снимок, ранее опубликованный в Instagram владельца, то он, скорее всего, будет удален. Но это никак не защищает от того, что этот же пользователь тут же не опубликует другую вашу картинку. И «бодаться» таким образом можно бесконечно, точнее, пока жалобщик не устанет, тем более что процесс подачи жалобы гораздо более трудоемкий, чем публикация чего бы то ни было. Ну, и какие-то более тонкие моменты, например, высказывание от имени другого лица, робот просто не понимает и не считает нарушением правил сообщества.

Никто, кроме нас

Столь же «квалифицированный» робот, очевидно, будет принимать и жалобы на дезинформацию. Возможно, алгоритм действия определения ложных публикаций несколько сложнее, чем нам рассказывают. Во всяком случае, мне хотелось бы в это верить или думать, что к этому рано или поздно придут. Например, получив определенное количество жалоб на публикацию, робот мог бы проверить источник на «авторитетность» — посещаемость, индекс цитирования, время, которое он существует в интернете, и другие показатели. И если речь идет об очевидной пустышке-однодневке, то помечать публикацию, как «возможно ложную».

Однако и в этом случае полностью защитить нас от обмана и манипуляций не может никто, кроме нас самих. Только собственная голова на плечах и критическое осмысление всего, что мы видим. Это, конечно, непросто. Но даже в такой среде как интернет, авторитет издания или пользователя — неплохая гарантия правдивости, ну, или по крайней мере незлонамеренности публикации. Скажем, переходя из соцсети на DW, вы, скорее всего, отдаете себе отчет в том, что здесь вас вряд ли обманут. Дело просто в ответственном выборе.

Автор:  Александр Плющев Deutsche Welle

Рейтинг: 0

Опубликовал(а):

не в сети 3 дня

Иванна "Катя МУ-МУ"

809

Модератор сайту. Заміжня.

Италия. Город: Неаполь
Комментарии: 1850Публикации: 2795Регистрация: 13-08-2014
  • Модератор сайта
Авторизация
*
*
Войти с помощью: 
Регистрация
*
*
*
Пароль не введен
*
Ваш день рождения * :
Число, месяц и год:
Войти с помощью: 
Перейти на страницу
закрыть