Пузырь фильтров

Пузы́рь фи́льтров (англ. «Filter bubble») — понятие, разработанное интернет-активистом Илаем Парайзером (англ. Eli Pariser) и описанное в его одноимённой книге: негативная сторона персонализированного поиска, явления, при котором веб-сайты определяют, какую информацию пользователь хотел бы увидеть, основываясь на информации о его месторасположении, прошлых нажатиях и перемещениях мыши, предпочтениях и истории поиска. В результате веб-сайты показывают только информацию, которая согласуется с прошлыми точками зрения данного пользователя. Вся иная информация, как правило, пользователю не выводится.

Пузырь фильтров: различия при поиске

Примером этого являются Google и другие поисковые системы с персонализированными результатами поиска, а также Facebook с персонализированной лентой новостей, которая с каждым действием пользователя наполняется всё более и более персональными результатами. Так, если у пользователя есть два друга в социальной сети, один делает посты с поддержкой президента, а другой с его критикой, и пользователь делится первыми, а вторые игнорирует, то постепенно в его ленте будут появляться посты со всё более ярко выраженной высокой оценкой президента. Соответственно, он получает намного меньше противоречащей своей точке зрения информации и становится интеллектуально изолированным в своём собственном информационном пузыре.

Илай Парайзер приводит пример, когда один пользователь искал информацию в Google по запросу «British Petroleum» и в ответ получил только инвестиционные новости о компании British Petroleum; когда другой пользователь отправил такой же запрос, то получил в ответ информацию о взрыве нефтяной платформы Deepwater Horizon, и эти страницы с результатами поиска «разительно отличались» между собой[1][2][3]. Эффект «пузыря» может иметь негативные последствия для формирования гражданского мнения[4].

Как сказал бывший глава Google Эрик Шмидт: «Людям будет очень сложно увидеть или приобрести что-то, что так или иначе не было под них подобрано»[5].

Источники информации для поисковых систем

  • Марка и тип персонального компьютера
  • Операционная система
  • Местоположение пользователя
  • Возраст пользователя
  • Язык пользователя
  • Также, если операционная и поисковая системы принадлежат одной и той же компании (например, Google и Android, Bing и Windows), то учитывается огромное число персональных данных пользователя: файлы, приложения; браузер Google Chrome также собирает огромное число персональных данных пользователя
  • Браузер
  • Другие сервисы (например, Google может собрать обильную информацию из социальной сети Google+, интересов в Google Новостях, фотографиях в Google Фото и Picasa, чата Hangouts, файлов на Google Диске и. т. п.
  • История поисковых запросов
  • История просмотров сайтов
  • Другие открытые вкладки в браузере

Критика

Парайзер в своей книге «The Filter Bubble» предупреждает, что потенциальным недостатком фильтрации поисковых запросов является то, что она «закрывает нас от новых идей, предметов и важной информации»[6] и «создаёт впечатление того, что наши узкие собственные интересы и есть всё, что существует и окружает нас»[2]. Это приносит потенциальный вред как для личности, так и для общества в целом. Парайзер раскритиковал Google и Facebook за предоставление пользователям «слишком много сладкого, но ничего полезного»[7]. Он предупреждает, что этот «невидимый алгоритм редактирования в сети» может «ограничить получение новой информации и сузить рамки разнообразия этой информации». Согласно Парайзеру, вредное воздействие от «пузыря фильтров» включает вред в обществе в целом, так как он может подрывать формирование «гражданского мнения» и делать людей более уязвимыми для «пропаганды и манипуляций»[2].

Директор по продукту Facebook Крис Кокс говорит: «Основная масса контента, который вы видите на Facebook, производится вашими „слабыми связями“, пользователями, с которыми вы не взаимодействуете вне соцсети. Наши исследования не доказывают, что Facebook создаёт пузырь фильтров, зато предоставляют некоторые свидетельства обратного»[8].

«Парадокс релевантности»

Пузырь фильтров похож на явление, в котором люди и организации ищут информацию, которая изначально кажется им правильной, но она оказывается бесполезной или почти бесполезной, и избегают информации, кажущейся и воспринимаемой ими как неправильная и несущественная, но оказывающейся полезной.

Проблема появляется потому, что реальная значимость конкретного факта или понятия в этих случаях очевидна только после того, как этот факт стал известен. До этого идея изучения была отклонена, потому что какой-либо факт был неправильно воспринят. Соответственно, ищущий информацию попадает в ловушку и не может узнать то, что ему действительно нужно, попадая в своего рода информационное слепое пятно. Этот феномен был назван «парадоксом релевантности»[6]; он часто встречается на протяжении всего человеческого интеллектуального развития и является важной проблемой для науки и образования. Дэвид Эндрюс в книге «The IRG Solution» анализирует эту проблему, а также предлагает общее её решение.

Возможность отключения персонализированного поиска

После выхода книг и статей Парайзера, часть пользователей интернета стала возмущаться тем, что один и тот же, казалось бы, поисковик выдаёт всем различные результаты. Поэтому, большинство современных поисковых систем дают возможность регулировки результатов поиска: в Google зарегистрированным пользователям возможно одновременно смотреть персональные и общие результаты с помощью специальной кнопки, находящейся справа от результатов поиска; в Яндексе можно или навсегда включить, или навсегда отключить персональный поиск; в Bing можно пока только очистить историю просмотра.

Поисковая система DuckDuckGo вообще не использует пузырь фильтров и не собирает информацию о пользователях. Она позиционирует себя как использующую информацию из многих источников с целью предоставления более точных, актуальных и разнообразных результатов поиска, чем обычные поисковики.

См. также

Примечания

  1. Lynn Parramore (interviewer) Eli Pariser (subject). The Filter Bubble, The Atlantic (10 октября 2010). Дата обращения 20 апреля 2011. «Since Dec. 4, 2009, Google has been personalized for everyone. So when I had two friends this spring Google "BP," one of them got a set of links that was about investment opportunities in BP. The other one got information about the oil spill....».
  2. Jacob Weisberg. Bubble Trouble: Is Web personalization turning us into solipsistic twits?, Slate Magazine (10 июня 2011). Дата обращения 15 августа 2011.
  3. Doug Gross, CNN. What the Internet is hiding from you, CNN (19 мая 2011). Архивировано 7 февраля 2012 года. Дата обращения 15 августа 2011. «I had friends Google BP when the oil spill was happening. These are two women who were quite similar in a lot of ways. One got a lot of results about the environmental consequences of what was happening and the spill. The other one just got investment information and nothing about the spill at all.».
  4. Zhang; Séaghdha, Quercia, and Jambor. Auralist: Introducing Serendipity into Music Recommendation (англ.) // ACM WSDM : journal. — 2012. — February.
  5. Вред и отключение пузыря фильтров.
  6. First Monday: What's on tap this month on TV and in movies and books: The Filter Bubble by Eli Pariser, USA Today (2011). Дата обращения 20 апреля 2011. «Pariser explains that feeding us only what is familiar and comfortable to us closes us off to new ideas, subjects and important information.».
  7. Bianca Bosker. Facebook, Google Giving Us Information Junk Food, Eli Pariser Warns, Huffpost Tech (7 марта 2011). Дата обращения 20 апреля 2011. «When it comes to content, Google and Facebook are offering us too much candy, and not enough carrots.».
  8. Facebook отрицает пузырь фильтров.

Литература

Ссылки

This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.