Перепробовал все платные LLMки для работы с литературным текстом (Делаю сценарий, вернее переделываю. Он в целом готов, но нужно его "причесать". Это сложная работа.).
И удивительно, несмотря на то что релиз gpt4 был год назад, она все равно лучше, чем даже новая и модная gemini advanced. Хотя у них в презентации она выглядит в лучшем свете. И вроде отзывы по работе с текстом у нее хорошие.
Всякие ламы, мистрали и прочее, в расчет не беру, они значительно проигрывают коммерческим.

@vsv В одном из интервью Сэм Альтман рассказывал, что взаимодействие с реальными пользователями (в частности, лайки и дизлайки) дало какой-то значительный буст в плане обучения GPT, которого в компании даже не ожидали.

Так что годовая разница возможно играет в пользу OpenAi.

@AlexLight несомненно. Да и расширения контекстного окна очень положительно сказалось на качестве.
Пробовал Claude, у которой окно контекста самое большое из доступных, но понимание текста намного хуже. Гугл правда недавно что-то придумал, как увеличить до 1,5 млн токенов, но если будет понимание на текущем уровне, то даже не знаю, есть ли в этом смысл?

@vsv @AlexLight Они *не понимают* текст. Совсем. В этом вся суть.

@johan
да ебана. я знаю как работают нейросети более чем. я их, бля, конструировал в pytorch и tensorfow. не нужно мне объяснять что "они не понимают". это речевой оборот такой, не более.
@AlexLight

Follow

@vsv @AlexLight 👍 А раз конструировал — может, есть предположение, как работают perplexity.ai и phind.com? Потому что часто бывают ситуации, когда они выдают список источников вполне релевантных вопросу, но при этом пишут, дескать, не знаем, информации в источниках не нашлось. Вот это как вот можно объяснить?

@johan
ну галлюцинируют. температуру возможно нужно понизить
@AlexLight

Sign in to participate in the conversation
Qoto Mastodon

QOTO: Question Others to Teach Ourselves
An inclusive, Academic Freedom, instance
All cultures welcome.
Hate speech and harassment strictly forbidden.