banner

Блог

Jul 04, 2023

Мир никогда не узнает правду о кроличьих норах YouTube

Борьба сайта с радикализацией, похоже, сработала. Но мир никогда не узнает, что происходило до этого.

Примерно во время выборов 2016 года YouTube стал известен как дом для растущих альтернативных правых и чрезвычайно популярных теоретиков заговора. Сайт, принадлежащий Google, имел более 1 миллиарда пользователей и принимал харизматичных личностей, которые установили близкие отношения со своей аудиторией, что потенциально делало его мощным вектором политического влияния. В то время канал Алекса Джонса Infowars имел более 2 миллионов подписчиков. А алгоритм рекомендаций YouTube, на который приходится большая часть того, что люди смотрели на платформе, похоже, все глубже и глубже втягивает людей в опасные заблуждения.

Процесс «падения в кроличью нору» был незабываемо проиллюстрирован личными рассказами людей, оказавшихся на странных путях в темное сердце платформы, где они были заинтригованы, а затем убеждены экстремистской риторикой – интересом к критике феминизма. может привести к правам мужчин, а затем к превосходству белых, а затем к призывам к насилию. Больше всего беспокоит то, что человек, который не обязательно искал экстремальный контент, может в конечном итоге посмотреть его, потому что алгоритм заметил что-то в его предыдущих выборах. Это может усугубить худшие побуждения человека и привести его в место, которое он не выбрал бы, но из которого ему было бы трудно выбраться.

Насколько серьезна проблема с «кроличьей норой» на YouTube, было не совсем ясно, и компания вообще отрицала ее наличие, даже когда вносила изменения, чтобы ответить на критику. В начале 2019 года YouTube объявил об изменениях в своей системе рекомендаций с целью резко сократить продвижение «вредной дезинформации» и «пограничного контента» (тех видео, которые были достаточно экстремальными, чтобы их можно было удалить, но не совсем). В то же время он также продолжил демонетизацию, блокируя программы совместного дохода от рекламы для авторов YouTube, которые не подчинялись его политике в отношении разжигания ненависти. Что бы еще YouTube ни продолжал разрешать на своем сайте, идея заключалась в том, что кроличья нора будет заполнен.

Новое рецензируемое исследование, опубликованное сегодня в журнале Science Advances, предполагает, что обновление YouTube 2019 года сработало. Исследовательскую группу возглавил Брендан Нихан, профессор государственного управления в Дартмуте, изучающий поляризацию в контексте Интернета. Нихан и его соавторы опросили 1181 человека об их существующих политических взглядах, а затем использовали специальное расширение для браузера для отслеживания всей их активности и рекомендаций на YouTube в течение нескольких месяцев в конце 2020 года. Было обнаружено, что экстремистские видео смотрели только 6 процентов участников. Из этих людей большинство сознательно подписались хотя бы на один экстремистский канал, то есть их туда не подтолкнул алгоритм. Кроме того, эти люди часто переходили на экстремистские видеоролики по внешним ссылкам, а не через YouTube.

Эти модели просмотра не выявили никаких признаков процесса «кроличьей норы», как это обычно представляют: вместо того, чтобы наивные пользователи внезапно и невольно оказывались втянутыми в ненавистный контент, «мы видим людей с очень высоким уровнем гендерной и расовой неприязни, которые ищут этот контент». Нюхан рассказал мне. Тот факт, что люди в основном просматривают экстремистский контент через подписки и внешние ссылки, «только [эта команда] смогла уловить благодаря этому методу», — говорит Маноэль Орта Рибейро, исследователь из Швейцарского федерального технологического института в Лозанне, который был Я участвовал в исследовании. В то время как во многих предыдущих исследованиях кроличьей норы YouTube приходилось использовать ботов для имитации опыта навигации по рекомендациям YouTube — бездумно нажимая на следующее предложенное видео снова и снова, — это первое исследование, в котором были получены столь детальные данные о реальных людях. поведение.

У исследования есть неизбежный недостаток: оно не может объяснить ничего, что происходило на YouTube до того, как были собраны данные в 2020 году. его соавторы объясняют в статье. В конце концов, экстремистский контент все еще существует на YouTube, и некоторые люди все еще его смотрят. Итак, возникает дилемма курицы и яйца: что было первым: экстремист, который смотрит видео на YouTube, или ютубер, который сталкивается там с экстремистским контентом?

ДЕЛИТЬСЯ