Habr

[Перевод] Руководство Google по промпт-инжинирингу. Часть 2: продвинутый промптинг и работа с кодом

Представляю вашему вниманию перевод второй части статьи "Prompt Engineering" (Промпт-инжиниринг) авторства Lee Boonstra - Software Engineer Tech Lead, Office of the CTO в Google. Эта публикация продолжает цикл переводов, посвященных методам эффективного взаимодействия с большими языковыми моделями. В первой части мы познакомились с основами промпт-инжиниринга, базовыми настройками БЯМ и ключевыми техниками промптинга. Вторая часть посвящена более продвинутым и специализированным методам, которые существенно расширяют возможности работы с языковыми моделями и позволяют решать более сложные задачи. Оригинальная публикация фокусируется в основном на моделях Gemini и сервисе Vertex AI от Google, однако описанные техники и рекомендации универсальны и применимы практически ко всем современным большим языковым моделям (GPT, Claude, Llama и др.).

habr.com/ru/articles/901920/

#llm #промптинжиниринг #промпты #google #gemini #большие_языковые_модели #ии #ai #promptengineering #guide

Руководство Google по промпт-инжинирингу. Часть 2: продвинутый промптинг и работа с кодом

От переводчика Представляю вашему вниманию перевод…

Хабр
WetHat💦

A Field Guide to Rapidly Improving AI Products – O’Reilly

This article subverts traditional tools-centric AI development by revealing how a focus on qualitative error analysis can uncover actionable, domain-specific weaknesses.

Its analysis, addresses both strategic and operational challenges while acknowledging the evolution of evaluation criteria in AI systems.

oreilly.com/radar/a-field-guid

#AI #MachineLearning #PromptEngineering #ProductDevelopment #DigitalTransformation #SyntheticData

A Field Guide to Rapidly Improving AI Products

Evaluation Methods, Data-Driven Improvement, and Experimentation…

O’Reilly Media
Habr

Как тестировать промпты и чейны (Ручная разметка/BERTScore/LLM as judge)

Представьте, что у нас есть бенчмарк из 4 тысяч вопросов и эталонных ответов. Как определить, действительно ли очередное изменение в системе (обновления в промпте, дополнительный агент в цепочке или, например, переход с базового RAG на гибридный) даёт реальный прирост качества?

habr.com/ru/articles/901162/

#llm #bertscore #promptengineering #llmагент #langchain

Как тестировать промпты и чейны (Ручная разметка/BERTScore/LLM as judge)

Год назад я написал статью “ Почему важно тестировать…

Хабр
All Things Open

🚀 NEW on We ❤️ Open Source 🚀

Prompt engineering = telling AI exactly what you want.

Mark Hinkle explains zero-, few-, and many-shot prompting and when to use each to unlock better AI results. Ideal for anyone working with ChatGPT, Claude, or Gemini.

Read now: allthingsopen.org/articles/wha

#WeLoveOpenSource #PromptEngineering #OpenSource #AI

Tina

Wir haben in 15 Tagen 31 Module gebaut.
Mitten im Alltag, oft am Küchentisch.
Ohne Geld. Ohne Investoren.
Heute ist das System fertig – jetzt beginnt das Feintuning.
Eigentlich sollte ich mich auf einen Job als Bürokauffrau bewerben. Aber ich kann das gerade nicht.
#adhs #appentwicklung #selbstgemacht #ki #programming #PromptEngineering #prompter #ai #hyperfocus #tech #programmierung #SystemEngineering #appdevelopment

Apr 13, 2025, 20:12 · · · 1 · 0
Miguel Afonso Caetano

"When thinking about a large language model input and output, a text prompt (sometimes accompanied by other modalities such as image prompts) is the input the model uses to predict a specific output. You don’t need to be a data scientist or a machine learning engineer – everyone can write a prompt. However, crafting the most effective prompt can be complicated. Many aspects of your prompt affect its efficacy: the model you use, the model’s training data, the model configurations, your word-choice, style and tone, structure, and context all matters. Therefore, prompt engineering is an iterative process. Inadequate prompts can lead to ambiguous, inaccurate responses, and can hinder the model’s ability to provide meaningful output.

When you chat with the Gemini chatbot, you basically write prompts, however this whitepaper focuses on writing prompts for the Gemini model within Vertex AI or by using the API, because by prompting the model directly you will have access to the configuration such as temperature etc.

This whitepaper discusses prompt engineering in detail. We will look into the various prompting techniques to help you getting started and share tips and best practices to become a prompting expert. We will also discuss some of the challenges you can face while crafting prompts."

kaggle.com/whitepaper-prompt-e

#AI #GenerativeAI #Google #Gemini #PromptEngineering #Whitepaper #VertexAI #API #LLMs #Chatbots

Prompt Engineering

www.kaggle.com
Wulfy

Vibey (Worker) comparison
between #o4 #Chatgpt and #Claude Sonnet 3.7

So recently I got a new CC and had difficulty getting it in #Antrophic. Because I have grown reliant on the PRO model in my daily. I paid the #AI tax to #OpenAI.

Here is my experience.

1. I'll restate this because it needs restating. The free models are dumber. The only meaningful assessment can come from the pay-for model.

2. AI moves at breakneck speed a month in AI is worth at least 6 elsewhere. Would you believe there are still 6-finger jokes floating around, even though current pro Gens done that for a year+.

3. The new ChatGpt model definitely seems smarter.
It seems to unnecessarily burn compute though, offering multiple solutions to issues.
I liked how it quickly adapted it's persona to my work style.

4. I like the new "vibe coding" refactoring, where it will go line by line through the code changing it. Very SciFi.

5. The new Pro sub for OpenAi comes with Gen subs (value+) so you can create images (Anthropic doesn't have that).
Also #Sora sub so you can make 10s videos, if you have seen Sora videos, they are mind-blowing.

7. It has another model called "Monday" which just works like an asshole prompt. Another proof that most users still have a lot of ground to cover in #promptengineering

Overall, I think PRO ChatGpt is slightly better than Claude, though I have gotten used to Claude.

Habr

Безопасность AI-агентов в Web3. Часть 2: уязвимости современных LLM и соревновательный взлом

Продолжаем знакомиться с небезопасным Web3 и языковыми моделями, которые широко применяются для AI-агентов. В этой статье расскажу о новых подходах и примерах успешных jailbreak-запросов GPT4/4.5/Claude. Посмотрим на современные модели, в т.ч. те, которые и ломать не надо. Сравним стойкость разных моделей, а в конце разберем несколько конкурсных задач по взлому AI Web3 агентов. Первую часть можно найти тут

habr.com/ru/companies/pt/artic

#blockchain #web3 #jailbreak #claude_3 #grok #gpt4 #ai_agent #promptengineering #llmмодели #llm

Habr

Безопасность AI-агентов в Web3. Часть 1: архитектура, уязвимости и старые добрые джейлбрейки

В последние годы мы наблюдаем активный рост популярности LLM-моделей и интереса к их интеграции в Web3-приложения, такие как DAO и dApp-боты или автоматические трейдеры. Представьте: смарт-контракт управляет финансами, а подключённая языковая модель принимает решения, основываясь на анализе новостей или команд пользователей. Ещё недавно такая идея казалась футуристичной, однако сегодня, в 2025 году, web3 AI-агенты, взаимодействующие с блокчейном и децентрализованными системами, стали реальностью. Многие уже слышали истории о том, как пользователи вынуждают LLM-модели отвечать на неэтичные вопросы, сочинять матерные стихи и совершать другие «шалости». Однако в контексте web3 подобные нестандартные поведения моделей могут привести к реальным и ощутимым финансовым последствиям. В этой статье мы рассмотрим устройство web3 AI-агентов, проанализируем возможные векторы атак, обсудим актуальные jailbreak-методы и разберём несколько конкурсных задач на примерах из личного опыта.

habr.com/ru/companies/pt/artic

#llm #jailbreak #ai_agent #blockchain #web3 #promptengineering

Безопасность AI-агентов в Web3. Часть 1: архитектура, уязвимости и старые добрые джейлбрейки

Салют, Хабр! Я Рябинин Виктор, в Positive Technologies…

Хабр
Leshem Choshen

People do not like to be corrected or directly confronted and change their minds less in that way.
Do any of you prompters find models learnt this too?

"I might be mistaken, but how does line 3 work? how can it be compile"
"Line 3 doesn't compile"
#PromptEngineering #MastoPrompt

Sarah Lea

What happens when a language model solves maths problems?

"If I’m 4 years old and my partner is 3x my age – how old is my partner when I’m 20?"
Do you know the answer?

🤥 An older Llama model (by Meta) said 23.
🤓 A newer Llama model said 28 – correct.

So what made the difference?

Today I kicked off the 5-day Kaggle Generative AI Challenge.
Day 1: Fundamentals of LLMs, prompt engineering & more.

Three highlights from the session:
☕ Chain-of-Thought Prompting
→ Models that "think" step by step tend to produce more accurate answers. Sounds simple – but just look at the screenshots...

☕ Parameters like temperature and top_p
→ Try this on together.ai: Prompt a model with “Suggest 5 colors” – once with temperature 0 and once with 2.
Notice the difference?

☕ Zero-shot, One-shot, Few-shot prompting
→ The more examples you provide, the better the model understands what you want.

#PromptEngineering #GenerativeAI #LLM #Kaggle #LLMApplications #AI #DataScience #Google #Python #Tech

Mar 31, 2025, 20:57 · · · 1 · 0
Jason Yip

What's currently the best way to do #LLM prompt refactoring? #PromptEngineering

Alexey Skobkin

Wake the fuck up, samurai.
We have a village to burn!

#log #fun #pic #kitsune #AIArt #Cyberpunk #PromptEngineering

Alexey Skobkin

Wake the fuck up, samurai.
We have a village to burn!

#log #fun #pic #kitsune #AIArt #Cyberpunk #PromptEngineering