### Алгоритмический конвейер радикализации: как рекомендательные системы YouTube формируют экстремистские траектории
#YouTube #Алгоритмы #Радикализация #Экстремизм #ЦифроваяПолитика #Платформы
В середине 2010-х годов YouTube позиционировал себя как нейтральную платформу распространения видео. К 2020-м стало ясно: нейтральных алгоритмов не существует. Исследование социолога Тони Караса из Лондонского университета, посвящённое британской неонацистской сети *Patriotic Alternative*, показывает, что рекомендательная система YouTube не просто отражала интересы пользователей, а активно конструировала путь их политической радикализации.
#МедиаМанипуляции #ОнлайнЭкстремизм #АлгоритмическаяВласть
Речь идёт не о случайных переходах, а о воспроизводимой схеме — «алгоритмическом конвейере», который постепенно смещает пользователя от умеренного контента к экстремистскому.
#КонвейерРадикализации #ИнформационнаяСреда
---
### Механика радикализации: от консерватизма к неонацизму
#ПравыйЭкстремизм #Рекомендации #Autoplay
Анализ 40 биографических историй активистов показал, что в 33 случаях ключевую роль сыграли социальные сети, а в 27 — непосредственно YouTube. Участники описывают почти идентичную траекторию:
1. Начальный интерес — умеренный консерватизм, либертарианство, анти-SJW-контент.
2. Рекомендации смещаются к «культурной критике» и этнонационалистическим нарративам.
3. Через автоплей и «похожие видео» пользователь попадает в открытую зону ультраправого контента.
4. Закрепление через повторяемость и эффект «скрытого знания».
#Поляризация #ИнформационныеПузыри #ОнлайнИдеологии
Один из активистов подчёркивает, что никогда бы не стал сознательно смотреть видео Британской национальной партии: оно появилось исключительно через автопроигрывание.
#АлгоритмическоеВмешательство #НевидимаяНавигация
---
### Алгоритмы как политический агент
#ПолитикаПлатформ #ЦифроваяРедактура #BigTech
По данным самой компании, около 70% времени просмотра определяется алгоритмом рекомендаций. Это означает, что платформа фактически выполняет функцию главного редактора глобального видеопотока.
#РедакционнаяВласть #МедиаМонополии
Карас опирается на исследования, показывающие устойчивый эффект:
* взаимодействие с крайне правым контентом усиливает вероятность радикальных рекомендаций;
* эффект проявляется даже у пользователей без исходных экстремистских взглядов;
* ранние стадии маскируются под «альтернативную аналитику».
#BorderlineContent #Дезинформация #РадикальныеСети
---
### Обновлённый контекст: 2020–2025
#TikTok #X #АлгоритмыКороткихВидео
Несмотря на фильтры против экстремизма, радикализация сместилась в «серые зоны»: конспирология, антиэлитные нарративы, псевдонаука. Короткие форматы ускорили эффект.
#Конспирология #АнтиЭлиты #КлиповоеМышление
Мы наблюдаем переход от «конвейера неонацизма» к универсальному конвейеру политической поляризации.
#ПоляризацияОбщества #ЦифроваяЭволюция
---
### Вывод: нейтральных алгоритмов не существует
#АлгоритмическаяЭтика #ЦифровыеПрава #СвободаИнформации
Рекомендательные системы — активные политические акторы. Они не убеждают напрямую, а проектируют траектории, где экстремизм становится логическим продолжением предыдущего клика.
#АрхитектураВыбора #МанипуляцияВниманием
Самое опасное — невидимость процесса: пользователь воспринимает радикализацию как личную эволюцию взглядов.
#КогнитивныеИллюзии #СоциальнаяИнженерия
---
### Библиография
#НаучныеИсточники #МедиаИсследования
Karas, T. — *Algorithmic Pathways to Extremism*, 2025
Ribeiro et al. — *Auditing Radicalization Pathways on YouTube*, 2020
Hosseinmardi et al. — *PNAS*, 2021
Mozilla Foundation — *YouTube Regrets*, 2019–2022
The Insider — 2026
CCDH — *The YouTube Rabbit Hole Revisited*, 2023
---
Тихий итог: алгоритмы не радикализуют из злого умысла. Они просто слишком хорошо делают то, для чего созданы — удерживают внимание, не спрашивая, к чему именно его привязали.
#ЭкономикаВнимания #ЦифроваяРеальность