NA ŻYWO
AI przestaje być usługą. Staje się pozycją Sztuczna inteligencja schodzi z laboratoriów na giełdę i ulice Co to jest SLM? Small Language Model — mały, ale zdolny Co to jest open source AI? Modele AI dostępne dla każdego Co to jest Ollama? Uruchom modele AI na swoim komputerze Co to jest destylacja modeli AI? Mniejszy model, porównywalna jakość
CYTRYNA.AI

AI przestaje być usługą. Staje się pozycją

Esencja

    Dzisiejszy ruch w AI nie polega na tym, że modele znów są trochę lepsze. Chodzi o to, że firmy przestają sprzedawać samą odpowiedź i zaczynają sprzedawać pozycję w cudzym procesie pracy. OpenAI idzie do laboratoriów i do środowisk agentowych. Google próbuje zamienić dobre polecenia w nawyk. Anthropic wraca do politycznej gry, choć jeszcze chwilę temu był na zderzeniu z Pentagonem. To już nie wyścig o najmądrzejszy model. To walka o to, kto stanie się trudny do wyrzucenia z codzienności.

    OpenAI wychodzi poza czat

    Agenci mają dostać własne biuro, nie tylko instrukcję

    OpenAI rozbudowało Agents SDK o natywną piaskownicę, pamięć, obsługę plików, narzędzi i długich przebiegów pracy. Deweloper może uruchomić agenta w kontrolowanym środowisku, odseparować poświadczenia, przywracać stan po awarii i rozdzielać zadania między odizolowane kontenery. To nie brzmi widowiskowo. Jest za to dokładnie tym, czego brakowało między efektownym demo a wdrożeniem w firmie.

    To wygląda jak przejście od zdolnego konsultanta do zewnętrznego zespołu, któremu wreszcie dajesz własny pokój, zakres obowiązków i procedury bezpieczeństwa. Sam model może być bardzo sprawny, ale bez takiego zaplecza szybko wpada w chaos, gubi pliki albo robi rzeczy, których nie powinien dotykać. OpenAI próbuje zamknąć tę lukę. Chce, by firmy kupowały nie tylko inteligencję, ale też przewidywalność.

    Najważniejsza zmiana nie dotyczy samego modelu, tylko warstwy wykonawczej. Natywna piaskownica, zewnętrzny stan, checkpointy, izolacja podagentów i standaryzacja pracy na plikach to próba zamiany agentów z eksperymentu w element infrastruktury. Jeśli to się przyjmie, przewaga będzie wynikała z jakości całego przebiegu pracy, a nie tylko z pojedynczej odpowiedzi modelu.

    Rosalind pokazuje, gdzie OpenAI chce zarabiać więcej

    Drugi ruch jest jeszcze ważniejszy strategicznie. OpenAI pokazało GPT-Rosalind, model budowany pod badania biologiczne, odkrywanie leków i medycynę translacyjną. Do tego dorzuca wtyczkę dla Codexa z dostępem do ponad 50 narzędzi i baz naukowych oraz program ograniczonego dostępu dla instytucji, które przejdą weryfikację. Wśród partnerów są Amgen, Moderna i Thermo Fisher. To już nie jest komunikat o uniwersalnym modelu, który zrobi wszystko. To wejście w drogi pion, gdzie za skrócenie cyklu badawczego płaci się bardzo realne pieniądze.

    W farmacji i biologii największy koszt nie bierze się z jednego błędnego kliknięcia, tylko z miesięcy pracy nad złym tropem. Jeśli AI pomaga szybciej odsiać słabe hipotezy i lepiej zaplanować eksperymenty, działa jak dodatkowy zespół analityczny przyklejony do laboratorium. Nie zastępuje naukowca. Zmienia tempo pracy i zmniejsza liczbę drogich pomyłek na początku procesu.

    GPT-Rosalind to klasyczna specjalizacja pionowa. OpenAI łączy model rozumujący z narzędziami domenowymi, bazami multiomicznymi i kontrolowanym dostępem, żeby wejść w obszar o wysokiej wartości kontraktu i dużej tolerancji na koszt obliczeń. Jeśli ten wariant faktycznie poprawia jakość hipotez i planowania eksperymentów, przewaga nie będzie marketingowa, tylko operacyjna.

    Google przestaje liczyć na jednorazowy zachwyt

    Chrome zapisuje dobre polecenia jak makra pracy

    Google dodaje do Chrome funkcję Skills, czyli bibliotekę zapisanych poleceń dla Gemini. Użytkownik może wziąć skuteczny zestaw instrukcji, zachować go i uruchamiać ponownie na dowolnej stronie albo na kilku kartach naraz. Firma dorzuca też gotowe szablony do zakupów, dokumentów czy prostych zadań produktywności. To niby detal produktowy, ale bardzo rozsądny. Większość ludzi nie ma problemu z dostępem do AI. Ma problem z powtarzalnością dobrego wyniku.

    Dotąd rozmowa z asystentem AI często przypominała improwizację. Raz trafisz idealnie, drugi raz nie pamiętasz, co właściwie zadziałało. Google próbuje to uporządkować. Zapisane polecenie działa jak własny skrót do sprawdzonego sposobu pracy, trochę jak makro w arkuszu kalkulacyjnym. To mniej efektowne niż wielka premiera modelu, ale znacznie bliższe codziennemu użyciu.

    Skills w Chrome to lekka warstwa automatyzacji nad promptingiem. Zamiast budować pełnych agentów, Google upraszcza reużywalność poleceń w miejscu, gdzie użytkownik i tak spędza dzień. Jeśli ten wzorzec się utrwali, Gemini zyskuje przewagę nie dzięki pojedynczej odpowiedzi, tylko dzięki niższemu kosztowi wejścia w powtarzalny workflow.

    Mac jest dziś oczywistym polem walki

    Google wypuściło też natywną aplikację Gemini na Maca, z globalnym skrótem klawiszowym, dostępem do zawartości ekranu i lokalnych plików. Ten ruch sam w sobie nie jest przełomem. Jest jednak dobrą miarą presji. Skoro OpenAI i Anthropic już tam są, Google nie może zostać w przeglądarce i udawać, że to wystarczy. Wojna o AI przesuwa się z laboratoriów i benchmarków na pasek menu, skróty klawiszowe i te sekundy, kiedy użytkownik decyduje, którego asystenta odpalić odruchowo.

    To trochę jak walka banków o to, czy klient otwiera aplikację właśnie u nich, a nie u konkurencji. Sama usługa może być podobna, ale codzienny nawyk robi ogromną różnicę. Jeśli asystent jest pod ręką z każdego miejsca na komputerze, częściej staje się pierwszym odruchem, a nie dodatkiem odpalanym od święta.

    Natywna aplikacja desktopowa to walka o domyślny interfejs. Dostęp do ekranu, plików i globalnego wywołania zwiększa częstotliwość użycia i skraca drogę do multimodalnych zadań. Na tym etapie nie chodzi o nową kategorię produktu, tylko o dystrybucję i retencję.

    Polityka i kapitał wracają do środka gry

    Anthropic znów rozmawia z Białym Domem

    Jeszcze chwilę temu Anthropic był na ostrym kursie kolizyjnym z Pentagonem po sporze o zasady wojskowego użycia modeli. Teraz, według Reutersa i TechCruncha, firma prowadzi rozmowy z administracją Trumpa o swoim najnowszym modelu Mythos, a jej relacje z Białym Domem wyraźnie się ocieplają. To nie jest poboczny wątek polityczny. To sygnał, że firmy od modeli wchodzą do tej samej ligi co sektor obronny, energetyczny i infrastrukturalny. Trzeba mieć nie tylko produkt, ale też akceptowalną pozycję w państwie.

    Im ważniejsza staje się AI, tym bardziej przypomina branże, w których państwo jest jednocześnie klientem, regulatorem i źródłem ryzyka. Firma może być świetna technologicznie, a i tak przegrać, jeśli nie umie ustawić relacji z administracją. Dla Anthropic to dobra wiadomość, bo pokazuje, że po ostrym sporze drzwi nie zostały zatrzaśnięte. Dla całego rynku to przypomnienie, że polityka będzie wpływać na wyceny równie mocno jak kolejne premiery modeli.

    W praktyce rośnie znaczenie dostępu do kontraktów federalnych, sektorów regulowanych i infrastruktury krytycznej. Rozmowy Anthropic z administracją, mimo trwającego konfliktu z resortem obrony, pokazują że przewaga konkurencyjna będzie coraz częściej budowana równolegle w warstwie technicznej i instytucjonalnej.

    Startupy AI mają krótkie okno, zanim platformy wejdą im do środka

    TechCrunch przypomina wypowiedź Elada Gila o dwunastomiesięcznym oknie, w którym firma bywa najwięcej warta, zanim rynek albo platformy podkopią jej przewagę. W 2026 roku ten argument brzmi szczególnie ostro, bo coraz więcej startupów AI istnieje głównie dlatego, że wielkie modele jeszcze nie weszły w ich kategorię. To brutalna, ale uczciwa diagnoza. Dla części firm prawdziwym planem nie będzie wieloletnia niezależność, tylko sprzedaż we właściwym momencie.

    W zwykłym biznesie młoda firma może latami budować pozycję. W AI teren pod nogami potrafi zniknąć w kilka kwartałów, bo dostawca modelu nagle dodaje podobną funkcję do własnego produktu. To trochę jak prowadzenie sklepu w wynajętym lokalu, którego właściciel w każdej chwili może otworzyć identyczny biznes obok. Dlatego wygrywa nie tylko ten, kto rośnie szybko, ale też ten, kto dobrze odczyta moment wyjścia.

    Teza o dwunastomiesięcznym oknie dobrze opisuje obecny krajobraz aplikacyjnej warstwy AI. Jeśli dyferencjacja startupu opiera się na luce produktowej u dostawców modeli, to jego defensibility jest strukturalnie słabe. W takim układzie timing sprzedaży albo wejścia w mocniejszy pion może być ważniejszy niż dalsza pogoń za wzrostem.

    W 2026 roku przewaga w AI coraz rzadziej polega na tym, kto ma najmocniejszy model. Coraz częściej wygrywa ten, kto najgłębiej wchodzi w cudzy proces, budżet i układ zależności.

    Co mówią twórcy

    Nate B. JonesBlock Laid Off Half Its Company for AI. AI Can't Do the Job.

    • Najgroźniejszy błąd nie polega na tym, że AI się myli, tylko że zaczyna udawać menedżerski osąd, choć naprawdę umie głównie sortować informacje.
    • Każda architektura tak zwanego world modelu psuje się inaczej: bazy wektorowe mylą trafność z ważnością, ontologie są precyzyjne, ale ślepe na nowe wzorce, a bardzo szczegółowe dane dają złudne poczucie pewności.
    • Prawdziwa przewaga nie bierze się z samego modelu, tylko z pętli wyników, w której firma widzi zależność między decyzją, działaniem i skutkiem.

    Koncentrat

    Wczorajsze newsy układają się w jedną, dość niewygodną prawdę. Modele stają się coraz mniej samodzielnym produktem, a coraz bardziej częścią większego układu, w którym liczą się procedury, dystrybucja, relacje z państwem i wejście w drogie branże. OpenAI idzie w laboratoria i zaplecze agentowe. Google walczy o nawyk użytkownika. Anthropic odzyskuje polityczny tlen. Startupy dostają sygnał, że czasu na budowę niezależności może być mniej, niż chcą wierzyć. Kto zostanie przy samym demie, ten zostanie z demem.

    Dołącz do czytelników

    Codziennie rano wiesz więcej o AI

    Wyciśnięta esencja ze świata sztucznej inteligencji — bez szumu, bez spamu. Co tydzień pełne podsumowanie prosto na maila.

    Bezpłatnie. Rezygnacja w każdej chwili.