NA ŻYWO
Nauka, polityka i gaz. AI staje się przemysłem. Co to jest SLM? Small Language Model — mały, ale zdolny Co to jest open source AI? Modele AI dostępne dla każdego Co to jest Ollama? Uruchom modele AI na swoim komputerze Co to jest destylacja modeli AI? Mniejszy model, porównywalna jakość Co to jest guardrails AI? Barierki bezpieczeństwa modeli
CYTRYNA.AI
Słownik AI

Co to jest prompt engineering?

Prompt engineering to sztuka i nauka pisania instrukcji (promptów) dla modeli AI, które prowadzą do najlepszych odpowiedzi. Dobry prompt może radykalnie poprawić jakość i precyzję wyników.

Ten sam model, to samo pytanie — a wyniki mogą się różnić jak niebo i ziemia. Zapytaj "napisz mail do klienta" i dostaniesz coś ogólnego. Zapytaj "napisz mail do klienta, który czeka na zwrot od 14 dni, w tonie empatycznym, max 5 zdań, bez przeprosin w nagłówku" — dostaniesz dokładnie to czego potrzebujesz. To jest prompt engineering.

Pięć rzeczy, które faktycznie działają

  • Powiedz kim jesteś i dla kogo piszesz — "Jestem marketerem, piszę do menedżerów średnich firm"
  • Określ format wyjścia — "odpowiedz w formie tabeli", "podaj w JSON", "max 3 punkty"
  • Podaj przykład — "odpowiedz jak w tym przykładzie: [przykład]" działa lepiej niż opis
  • Zamknij zakres — "odpowiedz wyłącznie na podstawie poniższego tekstu" eliminuje halucynacje
  • Poproś o kroki — "przemyśl to krok po kroku" poprawia wyniki w zadaniach logicznych nawet o 40%

Jedna technika, którą warto znać: few-shot prompting

Zamiast tłumaczyć modelowi czego oczekujesz (co może być niejasne), pokaż mu 2–3 przykłady. Wejście → wyjście. Model "łapie wzorzec" bez długich wyjaśnień. Szczególnie przydatne przy ekstrakcie danych w specyficznym formacie.

Kiedy prompt engineering przestaje wystarczać?

Gdy zadanie jest bardzo specyficzne domenowo, gdy format odpowiedzi musi być absolutnie spójny przy tysiącach zapytań, albo gdy długi system prompt kosztuje za dużo tokenów przy każdym wywołaniu — wtedy warto rozważyć fine-tuning.

Często zadawane pytania

Czy prompt engineering to zawód?

Był gorący w 2023. Dziś modele są na tyle dobre, że "inżynieria promptów" stała się umiejętnością podstawową — jak obsługa Excela — a nie specjalizacją. Bardziej opłacalne jest rozumienie jak modele działają i umiejętność szybkiego iterowania.

Co to jest system prompt?

Instrukcja wysyłana do modelu przed właściwą rozmową — definiuje "osobowość", zakres tematyczny, styl i zasady zachowania. Wszystkie chatboty korporacyjne mają system prompt. W ChatGPT nazywa się "Custom instructions".

Co to jest chain-of-thought?

Technika, w której zmuszasz model do "myślenia na głos" przed podaniem odpowiedzi. Prosta wersja: dodaj "Przemyśl to krok po kroku" do promptu. Kompleksowa wersja (zero-shot CoT): "Myślmy krok po kroku." Dramatycznie poprawia wyniki w zadaniach matematycznych i logicznych.

Prompt engineering to projektowanie wejść dla LLM maximizujące jakość wyjść przy danym zadaniu. W odróżnieniu od fine-tuningu, nie modyfikuje wag modelu — operuje w przestrzeni wejściowej.

Techniki

  • Zero-shot: bare instruction, bez przykładów — baseline dla większości zadań
  • Few-shot (in-context learning): k przykładów input→output w prompcie; model "uczy się" wzorca bez aktualizacji wag; efektywne przy k=2–8
  • Chain-of-Thought (CoT): explicit reasoning steps przed odpowiedzią; "Let's think step by step" (zero-shot CoT) lub przykłady z reasoning (few-shot CoT); +40% na GSM8K przy GPT-3 175B
  • Self-consistency: wielokrotne próbkowanie + majority voting; redukuje variance, poprawia accuracy kosztem latencji i cost
  • ReAct: Reasoning + Acting; model naprzemiennie generuje myśl i wywołuje narzędzie; podstawa agentów
  • Least-to-most prompting: rozkład złożonego problemu na podproblemy, rozwiązywanie od prostych do złożonych

System prompt best practices

  • Rola i persona na początku
  • Explicit output format (JSON schema, przykładowa struktura)
  • Ograniczenia przed permission statements ("nie rób X" silniejsze niż "rób tylko Y")
  • Przykłady dla edge cases
  • Instruction hierarchy: system > user — ale uwaga na prompt injection

Często zadawane pytania

Jak mierzyć jakość promptu?

Ewaluacja: automatic (LLM-as-judge z reference answers), human evaluation (preferencje parami), task-specific metryki (exact match, ROUGE, BERTScore). Narzędzia: PromptLayer, LangSmith, Weave (W&B) do tracking i A/B testowania promptów.

Czym jest meta-prompting?

Użycie modelu do generowania lub optymalizacji promptów dla innego modelu (lub siebie). Np. APE (Automatic Prompt Engineer), DSPy (Declarative Self-improving Language Programs) — frameworki do automatycznej optymalizacji promptów przez gradient-free search lub LLM-driven refinement.