Вчера в Nature появилась статья, в которой показано как инструменты искусственного интеллекта (ИИ) на основе больших языковых моделей (типа ChatGPT) быстро деградируют (в плане качества выдаваемых текстов), если обучение нейросети происходит на текстах, генерируемых самой этой нейросетью.

Девяти поколений применения такой процедуры достаточно, чтобы вместо осмысленного текста нейросеть начала выдавать полную «тарабарщину». Авторы остроумно сравнивают этот эффект с инбридингом (деградацией при близкородственном скрещивании).

Популярное описание результатов статьи на русском языке
можно прочитать здесь.

Follow

@Chia имбридинг это закрепление наследственных черт, на минуточку. А "деградировавшего потомства" при этом методе получается стандартные 25%.
Так ещё старик Мендель рассказывал в законе имени себя

Sign in to participate in the conversation
Qoto Mastodon

QOTO: Question Others to Teach Ourselves
An inclusive, Academic Freedom, instance
All cultures welcome.
Hate speech and harassment strictly forbidden.