Co to jest MCP — Model Context Protocol?
MCP (Model Context Protocol) to otwarty standard stworzony przez Anthropic, który definiuje jak modele AI komunikują się z zewnętrznymi narzędziami, bazami danych i usługami — jak USB dla agentów AI.
Kiedy USB pojawiło się w latach 90., producenci przestali projektować osobny kabel dla każdego urządzenia. Jeden standard, wszystko pasuje. MCP robi to samo dla agentów AI — i dzieje się to teraz, na naszych oczach.
Problem, który MCP rozwiązuje
Przed MCP każdy, kto budował agenta AI, pisał od zera integrację z każdym narzędziem. Podłączyć model do GitHuba? Napisz wrapper. Do Slacka? Nowy wrapper. Do bazy danych? Jeszcze jeden. Zmieniasz model z Claude na GPT? Przepisujesz wszystko.
MCP definiuje jeden wspólny język: jak model pyta o dostępne narzędzia, jak wywołuje funkcję, jak odbiera wynik. Jeden MCP serwer dla GitHuba działa z każdym modelem, który obsługuje protokół.
Trzy elementy układanki
- Host — aplikacja gdzie działa model (Claude Desktop, Cursor, Twoja aplikacja)
- Client — komponent w hoście zarządzający połączeniami z serwerami
- Server — serwer wystawiający narzędzia (np. "przeczytaj plik", "utwórz PR w GitHubie", "wyślij maila")
Gotowe MCP serwery istnieją dla: GitHub, Slack, Notion, Google Drive, PostgreSQL, systemu plików, przeglądarki. Instalujesz serwer, model "widzi" jego narzędzia.
Dlaczego to jest ważne w 2025?
Anthropic opublikowało MCP jako open standard — nie jest to własność Claude. OpenAI, Google i dziesiątki narzędzi (Cursor, Windsurf, Zed, VS Code) już go obsługują. To staje się branżowym standardem, jak HTTP dla internetu.
Często zadawane pytania
Czym MCP różni się od function calling?
Function calling to mechanizm wbudowany w konkretny model — format jest inny dla OpenAI, inny dla Anthropic, inny dla Google. MCP to warstwa powyżej: standardowy protokół transportowy, który może przekazywać function calls do dowolnego modelu w ujednolicony sposób. Można myśleć o MCP jak o REST API, a function calling jak o konkretnych endpointach.
Jak zacząć z MCP — od czego?
Najprostsze wejście: zainstaluj Claude Desktop + kilka gotowych MCP serwerów (filesystem, GitHub). Zobaczysz jak model używa narzędzi. Następny krok: zbuduj własny MCP serwer dla swojego systemu — SDK w Pythonie i TypeScripcie dostępne przez Anthropic.
Czy MCP to bezpieczne rozwiązanie?
MCP budowany odpowiedzialnie: zasada minimalnych uprawnień (serwer wystawia tylko te operacje, które są potrzebne), explicit user consent przy instalacji serwerów, bez automatycznego dostępu do danych bez potwierdzenia. Główne ryzyko: prompt injection przez złośliwy MCP serwer — instaluj tylko zaufane serwery.
Model Context Protocol (MCP) to otwarty protokół klient-serwer (Anthropic, grudzień 2024) standaryzujący komunikację między LLM hostami a zewnętrznymi systemami dostarczającymi tools, resources i prompts. Warstwa transportowa: stdio (lokalnie) lub HTTP+SSE (zdalnie).
Primitives protokołu
- Tools: funkcje wywoływalne przez model; schemat w JSON Schema; synchroniczne wywołanie z wynikiem
- Resources: dane dostępne dla modelu (pliki, rekordy DB, streamy); read-only; mogą być subskrybowane (zmiana w czasie)
- Prompts: pre-zdefiniowane szablony promptów eksponowane przez serwer; użytkownik wybiera w UI hosta
- Sampling: serwer może prosić hosta o wykonanie LLM inference — umożliwia agentic loops po stronie serwera
Lifecycle połączenia
initialize → capabilities negotiation → tools/resources/prompts listing → tool calls → result handling → shutdown. Multiplexowane połączenia (wiele MCP serverów per host). Versioning: klient i serwer negocjują obsługiwaną wersję protokołu.
Bezpieczeństwo
- Tool approval: host powinien wymagać explicit user approval przed wywołaniem nowego narzędzia
- Prompt injection: złośliwy MCP serwer może przekazać instrukcje podszywające się pod dane
- OAuth 2.1: remoting transport wspiera authentication — token scoping do konkretnych capabilities
- Sandboxing: lokalne serwery stdio powinny mieć ograniczone uprawnienia systemowe
Często zadawane pytania
Jaki jest status adopcji MCP?
Od grudnia 2024 do marca 2025: OpenAI ogłosiło wsparcie (o1, GPT-4o), Google DeepMind (Gemini), Microsoft (GitHub Copilot, VS Code Agent), Cursor, Windsurf, Zed. Ecosystem ~1000 publicznych MCP serwerów (GitHub, npm). Staje się de facto standardem dla agentic tooling.