Baza wiedzy AI
bezpłatny, bez logowania
Baza wiedzy AI
Kluczowe pojęcia AI wyjaśnione po ludzku.
20 haseł
·
stale aktualizowany
Co to jest agentic AI i agent AI?
Agent AI (agentic AI) to model językowy z możliwością podejmowania wielokrokowych działań — korzystania z narzędzi, przeszukiwania internetu, pisania kodu i iterowania, żeby osiągnąć cel.
Co to jest benchmark AI? Jak mierzymy inteligencję modeli
Benchmark AI to standardowy test mierzący zdolności modelu — od rozumienia tekstu po kodowanie i rozumowanie matematyczne.
Co to jest destylacja modeli AI? Mniejszy model, porównywalna jakość
Destylacja (distillation) to technika przenoszenia wiedzy z dużego modelu AI do mniejszego — mniejszy model uczy się naśladować odpowiedzi większego.
Co to jest embedding w AI? Wektory i podobieństwo semantyczne
Embedding to zamiana tekstu (lub obrazu, dźwięku) na wektor liczb, który reprezentuje jego znaczenie. Dwa semantycznie podobne zdania mają bliskie wektory — to podstawa wyszukiwania semantycznego i RAG.
Co to jest fine-tuning modelu AI?
Fine-tuning to dodatkowy trening modelu AI na Twoich własnych danych, żeby nauczyć go specyficznego stylu, domeny lub zachowania — bez trenowania od zera.
Co to jest guardrails AI? Barierki bezpieczeństwa modeli
Guardrails AI to mechanizmy bezpieczeństwa ograniczające zachowanie modelu — filtrują treści szkodliwe, blokują prompt injection i wymuszają format odpowiedzi.
Co to jest hallucination w AI? Dlaczego modele kłamią?
Hallucination (halucynacja AI) to sytuacja, gdy model językowy generuje informacje, które brzmią wiarygodnie, ale są fałszywe lub nieistniejące — wymyślone daty, osoby, cytaty.
Co to jest LLM? Large Language Model wyjaśniony po polsku
LLM (Large Language Model) to duży model językowy — sieć neuronowa wytrenowana na miliardach tekstów, zdolna do rozumienia i generowania języka naturalnego.
Co to jest MCP — Model Context Protocol?
MCP (Model Context Protocol) to otwarty standard stworzony przez Anthropic, który definiuje jak modele AI komunikują się z zewnętrznymi narzędziami, bazami danych i usługami — jak USB dla agentów AI.
Co to jest okno kontekstowe (context window) w AI?
Okno kontekstowe (context window) to maksymalna ilość tekstu — mierzona w tokenach — którą model może przetworzyć naraz w jednym zapytaniu. Obejmuje całą rozmowę, dokumenty i instrukcje.
Co to jest Ollama? Uruchom modele AI na swoim komputerze
Ollama to darmowe narzędzie do uruchamiania modeli AI lokalnie — na Twoim komputerze, bez chmury, bez opłat za tokeny, z pełną prywatnością.
Co to jest open source AI? Modele AI dostępne dla każdego
Open source AI to modele AI udostępnione publicznie — ich wagi, kod i (czasem) dane treningowe są dostępne do pobrania, modyfikacji i użycia.
Co to jest prompt engineering?
Prompt engineering to sztuka i nauka pisania instrukcji (promptów) dla modeli AI, które prowadzą do najlepszych odpowiedzi. Dobry prompt może radykalnie poprawić jakość i precyzję wyników.
Co to jest RAG? Retrieval-Augmented Generation wyjaśnione
RAG (Retrieval-Augmented Generation) to technika, w której model AI przed odpowiedzią wyszukuje relevantne fragmenty z zewnętrznej bazy wiedzy — co redukuje halucynacje i pozwala pracować na aktualnych danych.
Co to jest RLHF? Jak AI uczy się odpowiadać jak człowiek
RLHF (Reinforcement Learning from Human Feedback) to metoda treningu AI na podstawie ludzkich preferencji — dzięki niej ChatGPT odpowiada pomocnie zamiast generować losowy tekst.
Co to jest SLM? Small Language Model — mały, ale zdolny
SLM (Small Language Model) to mały model językowy (do ~10B parametrów) — tańszy, szybszy i możliwy do uruchomienia na telefonie lub laptopie.
Co to jest system prompt? Instrukcja sterująca zachowaniem AI
System prompt to ukryta instrukcja wysyłana do modelu AI przed rozmową — definiuje jego osobowość, zasady i zakres tematyczny.
Co to jest temperatura w modelu językowym (LLM)?
Temperatura (temperature) w LLM to parametr kontrolujący losowość odpowiedzi. Niska (0–0.3) = precyzyjne, przewidywalne. Wysoka (0.8–1.5) = kreatywne, zróżnicowane, czasem chaotyczne.
Co to jest token w AI? Tokenizacja modeli językowych
Token to najmniejsza jednostka tekstu, jaką przetwarza model językowy — może być słowem, fragmentem słowa lub znakiem. GPT-4 ma limit 128 000 tokenów w jednym zapytaniu.
Co to jest transformer? Architektura, która zmieniła AI
Transformer to architektura sieci neuronowej oparta na mechanizmie attention — podstawa GPT, Claude, Gemini i praktycznie każdego nowoczesnego modelu AI.