AI szuka wpływu, nie tylko lepszych modeli
Dzisiejsza AI coraz rzadziej sprzedaje samą inteligencję. Sprzedaje wpływ, dostęp do infrastruktury i prawo do ustawiania reguł. Widać to jednocześnie w OpenAI, Google, Chinach i na giełdzie. Modele nadal są ważne, ale same przestały wystarczać.

OpenAI mówi o misji, ale skaluje dystrybucję
Pięć zasad Sama Altmana zbiegło się z ofensywą Codexa do korporacji
Sam Altman opublikował zestaw pięciu zasad, w których obiecuje demokratyzację, odporność i szeroki dostęp do AI. Problem w tym, że te deklaracje pojawiają się dokładnie wtedy, gdy OpenAI coraz mocniej wchodzi do wielkich firm przez konsultantów i integratorów. To przypomina moment, w którym bank mówi o misji wspierania ludzi, a równocześnie podpisuje umowy z największymi pośrednikami na rynku. Misja może być szczera, ale prawdziwa skala przychodzi przez dystrybucję.
W tekście "Our principles" Altman wskazuje pięć filarów: demokratyzację, wzmacnianie sprawczości użytkowników, powszechny dobrobyt, odporność i adaptacyjność. Kilka dni wcześniej OpenAI ogłosiło globalne skalowanie Codexa z udziałem Accenture, Capgemini, CGI, Cognizant, Infosys, PwC i TCS. Firma podaje, że Codexa używa już ponad 4 mln deweloperów tygodniowo, wobec ponad 3 mln na początku kwietnia. To ważny sygnał: OpenAI nie buduje już tylko produktu. Buduje kanał wejścia do korporacyjnych procesów.

Google chce zarabiać na agentach, nie tylko na modelach
Cloud Next 2026 pokazał platformę agentową i dwie nowe generacje TPU
Google przestaje opowiadać o AI jak o zestawie pojedynczych narzędzi. Zamiast tego sprzedaje firmom gotowy system do budowania cyfrowych pracowników, z własnymi zabezpieczeniami, rozliczaniem i zapleczem obliczeniowym. To trochę jak przejście z dostawy silnika do sprzedaży całej fabryki z serwisem i ochroną. Taki ruch ma sens, bo w biznesie liczy się nie tylko to, jak mądry jest model, lecz czy da się go wpiąć w codzienną pracę bez bałaganu i ryzyka.
Na Cloud Next 2026 Google podało, że blisko 75 proc. klientów Google Cloud korzysta już z jego produktów AI, a 330 klientów przetworzyło ponad bilion tokenów w ciągu ostatnich 12 miesięcy. Firma ogłosiła Gemini Enterprise Agent Platform oraz dwie nowe jednostki TPU: 8t do trenowania i 8i do wnioskowania o niskim opóźnieniu. Według Reutersa Google stawia agentów w centrum swojej strategii enterprise, bo przewaga nie ma już wynikać tylko z modelu, ale z całego stosu: od układów po zarządzanie wdrożeniem.

DeepSeek staje się sprawą geopolityczną
Nowy model pod Huawei i ostrzeżenie Departamentu Stanu przyszły niemal równocześnie
Chiński DeepSeek pokazał nową wersję modelu dostosowaną do chipów AI Huawei. Chwilę później Reuters opisał, że amerykański Departament Stanu polecił dyplomatom nagłaśniać zarzuty o kradzież własności intelektualnej przez chińskie firmy AI, w tym DeepSeek. To już nie wygląda jak zwykła konkurencja między startupami. Bardziej jak spór o to, kto będzie miał własny przemysł AI i czy można go zbudować bez zachodnich dostawców.
Z jednej strony DeepSeek wypuścił podgląd modelu V4 dostosowanego do infrastruktury Huawei, co wzmacnia chiński kierunek samowystarczalności technologicznej. Z drugiej strony Reuters podał, że Waszyngton rozpoczął globalną kampanię ostrzegającą sojuszników przed domniemanymi próbami wykradania własności intelektualnej z amerykańskich laboratoriów AI przez podmioty z Chin. Połączenie tych dwóch informacji pokazuje, że frontier AI przestaje być wyłącznie rynkiem. Staje się elementem polityki przemysłowej i bezpieczeństwa państw.

Giełda wierzy w rachunek za infrastrukturę
Kapitał płynie do chipów i centrów danych szybciej niż do obietnic
Na rynku coraz wyraźniej wygrywa ten, kto sprzedaje łopaty do gorączki złota. Reuters pisał w ostatnich dniach o miliardach pompowanych w infrastrukturę AI, a także o rekordach spółek półprzewodnikowych po mocnej prognozie Intela. Inwestorzy najwyraźniej zakładają, że popyt na moc obliczeniową będzie rósł niezależnie od tego, który model akurat ma najlepszy test wydajności. To logiczne. Nawet jeśli liderzy modeli będą się zmieniać, rachunek za prąd, serwery i procesory graficzne nie zniknie.
Reuters opisał falę wydatków infrastrukturalnych od OpenAI po Nvidię, z naciskiem na centra danych, energię i zdolność do utrzymania rosnącego zużycia obliczeń. Osobno agencja podała, że amerykańskie spółki półprzewodnikowe ustanowiły rekordy po tym, jak Intel wzmocnił nastroje prognozą przychodów, która potwierdziła trwałość boomu AI. Rynek wycenia dziś nie tyle pojedyncze premiery modeli, ile trwałość popytu na warstwę obliczeniową.

Proces Muska z OpenAI wraca do najważniejszego pytania
Nie o to, kto miał rację w 2015 roku, lecz kto kontroluje misję dziś
Sąd odrzucił część zarzutów Elona Muska wobec OpenAI, ale zostawił te najciekawsze: o naruszenie zaufania do misji i bezpodstawne wzbogacenie. To ważne, bo ten spór nie dotyczy już dawnych urazów między założycielami. Chodzi o dużo bardziej praktyczne pytanie: czy firma, która powstała jako projekt o charakterze publicznym, może bez końca przesuwać środek ciężkości w stronę prywatnej potęgi. Dla całej branży to sprawa o wzorzec, nie tylko o jedno nazwisko.
Reuters podał, że sędzia odrzucił zarzuty oszustwa w pozwie Muska, ale dopuścił proces w sprawie naruszenia powierniczego celu i bezpodstawnego wzbogacenia. W praktyce spór będzie krążył wokół tego, jak interpretować historyczną misję OpenAI po przekształceniach organizacyjnych i komercjalizacji. To może mieć znaczenie wykraczające poza samą spółkę, bo coraz więcej laboratoriów AI działa dziś na styku deklaracji misyjnych, dominacji kapitału i interesu publicznego.
Najmocniejsi gracze nie walczą już o najlepszy model. Walczą o prawo do ustawiania całego rynku wokół niego.
Co mówią twórcy
Mark Kashef — You Can Run Claude AND Codex Together. Here's How.
- Najlepszy workflow nie polega na wyborze jednego modelu, tylko na rozdzieleniu ról między planowanie i audyt.
- Claude ma według autora przewagę w szerokim planie i myśleniu produktowym, a Codex w precyzyjnych zmianach i wychwytywaniu luk.
- Najciekawszy wzorzec to pętla konfliktowa: jeden model układa plan, drugi go rozbiera i dopiero wtedy zaczyna się właściwe wykonanie.
Nate B. Jones — Apple Just Positioned Itself for the Next Trillion Dollars
- Teza autora jest prosta: Apple nie chce wygrać wyścigu na największą chmurę AI, tylko przenieść ciężar na lokalne AI na własnych układach.
- To miałoby odwrócić ekonomię użycia, bo po zakupie sprzętu koszt kolejnego użycia spada niemal do zera.
- Największą okazją mogą być branże regulowane, które chcą AI, ale nie mogą wysyłać danych do cudzej chmury.

Koncentrat
Dzisiejsza esencja jest mało romantyczna. AI weszła w etap, w którym liczy się nie tylko jakość odpowiedzi, ale też kanał sprzedaży, własna infrastruktura, polityczne osłony i kontrola nad wdrożeniem u klienta. OpenAI mówi o zasadach i jednocześnie zamyka dostęp do korporacji przez wielkich integratorów. Google układa pod agentów pełny stos od układów po zarządzanie. Chiny próbują uniezależnić się sprzętowo, a Ameryka odpowiada językiem bezpieczeństwa i własności intelektualnej. Rynek już to rozumie. Dlatego premiuje nie najładniejsze obietnice, tylko tych, którzy potrafią utrzymać cały system w ruchu.