NA ŻYWO
Nauka, polityka i gaz. AI staje się przemysłem. Co to jest SLM? Small Language Model — mały, ale zdolny Co to jest open source AI? Modele AI dostępne dla każdego Co to jest Ollama? Uruchom modele AI na swoim komputerze Co to jest destylacja modeli AI? Mniejszy model, porównywalna jakość Co to jest guardrails AI? Barierki bezpieczeństwa modeli
CYTRYNA.AI
Baza wiedzy AI bezpłatny, bez logowania

Baza wiedzy AI

Kluczowe pojęcia AI wyjaśnione po ludzku.

20 haseł · stale aktualizowany
Co to jest agentic AI i agent AI? Agent AI (agentic AI) to model językowy z możliwością podejmowania wielokrokowych działań — korzystania z narzędzi, przeszukiwania internetu, pisania kodu i iterowania, żeby osiągnąć cel.
Co to jest benchmark AI? Jak mierzymy inteligencję modeli Benchmark AI to standardowy test mierzący zdolności modelu — od rozumienia tekstu po kodowanie i rozumowanie matematyczne.
Co to jest destylacja modeli AI? Mniejszy model, porównywalna jakość Destylacja (distillation) to technika przenoszenia wiedzy z dużego modelu AI do mniejszego — mniejszy model uczy się naśladować odpowiedzi większego.
Co to jest embedding w AI? Wektory i podobieństwo semantyczne Embedding to zamiana tekstu (lub obrazu, dźwięku) na wektor liczb, który reprezentuje jego znaczenie. Dwa semantycznie podobne zdania mają bliskie wektory — to podstawa wyszukiwania semantycznego i RAG.
Co to jest fine-tuning modelu AI? Fine-tuning to dodatkowy trening modelu AI na Twoich własnych danych, żeby nauczyć go specyficznego stylu, domeny lub zachowania — bez trenowania od zera.
Co to jest guardrails AI? Barierki bezpieczeństwa modeli Guardrails AI to mechanizmy bezpieczeństwa ograniczające zachowanie modelu — filtrują treści szkodliwe, blokują prompt injection i wymuszają format odpowiedzi.
Co to jest hallucination w AI? Dlaczego modele kłamią? Hallucination (halucynacja AI) to sytuacja, gdy model językowy generuje informacje, które brzmią wiarygodnie, ale są fałszywe lub nieistniejące — wymyślone daty, osoby, cytaty.
Co to jest LLM? Large Language Model wyjaśniony po polsku LLM (Large Language Model) to duży model językowy — sieć neuronowa wytrenowana na miliardach tekstów, zdolna do rozumienia i generowania języka naturalnego.
Co to jest MCP — Model Context Protocol? MCP (Model Context Protocol) to otwarty standard stworzony przez Anthropic, który definiuje jak modele AI komunikują się z zewnętrznymi narzędziami, bazami danych i usługami — jak USB dla agentów AI.
Co to jest okno kontekstowe (context window) w AI? Okno kontekstowe (context window) to maksymalna ilość tekstu — mierzona w tokenach — którą model może przetworzyć naraz w jednym zapytaniu. Obejmuje całą rozmowę, dokumenty i instrukcje.
Co to jest Ollama? Uruchom modele AI na swoim komputerze Ollama to darmowe narzędzie do uruchamiania modeli AI lokalnie — na Twoim komputerze, bez chmury, bez opłat za tokeny, z pełną prywatnością.
Co to jest open source AI? Modele AI dostępne dla każdego Open source AI to modele AI udostępnione publicznie — ich wagi, kod i (czasem) dane treningowe są dostępne do pobrania, modyfikacji i użycia.
Co to jest prompt engineering? Prompt engineering to sztuka i nauka pisania instrukcji (promptów) dla modeli AI, które prowadzą do najlepszych odpowiedzi. Dobry prompt może radykalnie poprawić jakość i precyzję wyników.
Co to jest RAG? Retrieval-Augmented Generation wyjaśnione RAG (Retrieval-Augmented Generation) to technika, w której model AI przed odpowiedzią wyszukuje relevantne fragmenty z zewnętrznej bazy wiedzy — co redukuje halucynacje i pozwala pracować na aktualnych danych.
Co to jest RLHF? Jak AI uczy się odpowiadać jak człowiek RLHF (Reinforcement Learning from Human Feedback) to metoda treningu AI na podstawie ludzkich preferencji — dzięki niej ChatGPT odpowiada pomocnie zamiast generować losowy tekst.
Co to jest SLM? Small Language Model — mały, ale zdolny SLM (Small Language Model) to mały model językowy (do ~10B parametrów) — tańszy, szybszy i możliwy do uruchomienia na telefonie lub laptopie.
Co to jest system prompt? Instrukcja sterująca zachowaniem AI System prompt to ukryta instrukcja wysyłana do modelu AI przed rozmową — definiuje jego osobowość, zasady i zakres tematyczny.
Co to jest temperatura w modelu językowym (LLM)? Temperatura (temperature) w LLM to parametr kontrolujący losowość odpowiedzi. Niska (0–0.3) = precyzyjne, przewidywalne. Wysoka (0.8–1.5) = kreatywne, zróżnicowane, czasem chaotyczne.
Co to jest token w AI? Tokenizacja modeli językowych Token to najmniejsza jednostka tekstu, jaką przetwarza model językowy — może być słowem, fragmentem słowa lub znakiem. GPT-4 ma limit 128 000 tokenów w jednym zapytaniu.
Co to jest transformer? Architektura, która zmieniła AI Transformer to architektura sieci neuronowej oparta na mechanizmie attention — podstawa GPT, Claude, Gemini i praktycznie każdego nowoczesnego modelu AI.