Follow

### Алгоритмический конвейер радикализации: как рекомендательные системы YouTube формируют экстремистские траектории

В середине 2010-х годов YouTube позиционировал себя как нейтральную платформу распространения видео. К 2020-м стало ясно: нейтральных алгоритмов не существует. Исследование социолога Тони Караса из Лондонского университета, посвящённое британской неонацистской сети *Patriotic Alternative*, показывает, что рекомендательная система YouTube не просто отражала интересы пользователей, а активно конструировала путь их политической радикализации.

Речь идёт не о случайных переходах, а о воспроизводимой схеме — «алгоритмическом конвейере», который постепенно смещает пользователя от умеренного контента к экстремистскому.

---

### Механика радикализации: от консерватизма к неонацизму

Анализ 40 биографических историй активистов показал, что в 33 случаях ключевую роль сыграли социальные сети, а в 27 — непосредственно YouTube. Участники описывают почти идентичную траекторию:

1. Начальный интерес — умеренный консерватизм, либертарианство, анти-SJW-контент.
2. Рекомендации смещаются к «культурной критике» и этнонационалистическим нарративам.
3. Через автоплей и «похожие видео» пользователь попадает в открытую зону ультраправого контента.
4. Закрепление через повторяемость и эффект «скрытого знания».

Один из активистов подчёркивает, что никогда бы не стал сознательно смотреть видео Британской национальной партии: оно появилось исключительно через автопроигрывание.

---

### Алгоритмы как политический агент

По данным самой компании, около 70% времени просмотра определяется алгоритмом рекомендаций. Это означает, что платформа фактически выполняет функцию главного редактора глобального видеопотока.

Карас опирается на исследования, показывающие устойчивый эффект:

* взаимодействие с крайне правым контентом усиливает вероятность радикальных рекомендаций;
* эффект проявляется даже у пользователей без исходных экстремистских взглядов;
* ранние стадии маскируются под «альтернативную аналитику».

---

### Обновлённый контекст: 2020–2025

Несмотря на фильтры против экстремизма, радикализация сместилась в «серые зоны»: конспирология, антиэлитные нарративы, псевдонаука. Короткие форматы ускорили эффект.

Мы наблюдаем переход от «конвейера неонацизма» к универсальному конвейеру политической поляризации.

---

### Вывод: нейтральных алгоритмов не существует

Рекомендательные системы — активные политические акторы. Они не убеждают напрямую, а проектируют траектории, где экстремизм становится логическим продолжением предыдущего клика.

Самое опасное — невидимость процесса: пользователь воспринимает радикализацию как личную эволюцию взглядов.

---

### Библиография

Karas, T. — *Algorithmic Pathways to Extremism*, 2025
Ribeiro et al. — *Auditing Radicalization Pathways on YouTube*, 2020
Hosseinmardi et al. — *PNAS*, 2021
Mozilla Foundation — *YouTube Regrets*, 2019–2022
The Insider — 2026
CCDH — *The YouTube Rabbit Hole Revisited*, 2023

---

Тихий итог: алгоритмы не радикализуют из злого умысла. Они просто слишком хорошо делают то, для чего созданы — удерживают внимание, не спрашивая, к чему именно его привязали.

Sign in to participate in the conversation
Qoto Mastodon

QOTO: Question Others to Teach Ourselves
An inclusive, Academic Freedom, instance
All cultures welcome.
Hate speech and harassment strictly forbidden.