Kto ma chipy, ten pisze zasady AI
W AI coraz mniej chodzi o to, kto ma najładniejsze demo. Coraz bardziej chodzi o to, kto ma prąd, chipy i miejsce w firmowym obiegu pracy. Piątek przyniósł kilka pozornie różnych wiadomości, ale wszystkie prowadzą do tej samej tezy. Rynek modeli zamienia się w rynek infrastruktury, a przewagę buduje dziś nie tylko laboratorium, lecz cały łańcuch dostaw.

Google pompuje miliardy, bo sama jakość modelu już nie wystarcza
Do 40 mld dolarów dla Anthropic to zakład o moc obliczeniową
Google chce dołożyć do Anthropic nawet 40 mld dolarów w gotówce i mocy obliczeniowej. To nie wygląda jak zwykła inwestycja finansowa. Bardziej jak rezerwacja miejsca przy stole, przy którym rozdaje się karty do kolejnej fazy rynku. Jeśli najlepsze modele potrzebują dziś gigantycznej infrastruktury, to partner, który dostarcza chipy AI i centra danych, przestaje być podwykonawcą. Staje się współwłaścicielem tempa wzrostu całego biznesu.
Układ Google z Anthropic, wart do 40 mld dolarów, jest przede wszystkim ruchem infrastrukturalnym. Obejmuje nie tylko kapitał, ale też kolejne gigawaty mocy i dostęp do TPU w Google Cloud. To pokazuje, że frontier labs przestają być skalowalne bez długoterminowych kontraktów na obliczenia. Rynek wchodzi w etap pionowej integracji, w którym inwestor, dostawca chmury i producent chipów coraz częściej są tym samym graczem albo działają w ścisłym tandemie.

Meta też już nie patrzy tylko na procesory graficzne
Miliony układów Amazona mają utrzymać agentów w ruchu
Meta podpisała umowę na miliony procesorów Amazona, i to nie tych najbardziej kojarzonych z trenowaniem modeli. Sygnał jest czytelny. Kiedy firmy przechodzą od budowy modelu do utrzymania armii agentów działających codziennie w produktach, zaczyna liczyć się nie tylko surowa moc, ale też koszt i sprawność zwykłego działania. To trochę jak przejście od budowy fabryki do organizacji logistyki. Jedno widowiskowo wygląda na slajdzie, drugie decyduje, czy biznes w ogóle się spina.
Deal Meta z AWS na miliony procesorów Graviton to ważny sygnał zmiany profilu obciążeń. Trenowanie nadal opiera się głównie na procesorach graficznych (GPU), ale warstwa agentowa zwiększa znaczenie tańszych i lepiej skalowalnych układów do wnioskowania, orkiestracji i obsługi wieloetapowych zadań. W praktyce wyścig chipowy przestaje być jednowymiarowy. Liczy się nie tylko dostęp do akceleratorów treningowych, ale też ekonomika inferencji i pracy agentowej.

DeepSeek skraca dystans szybciej, niż Zachód by chciał
Nowe V4 wnosi okno 1 mln tokenów i coraz mniejszy kompleks niższości
DeepSeek pokazał nową serię V4 z oknem kontekstowym sięgającym miliona tokenów. Sam rozmiar robi wrażenie, ale ważniejsza jest inna rzecz. Chińska firma coraz odważniej sugeruje, że nie jest już tanią alternatywą, tylko realnym konkurentem dla czołówki. Dla rynku to oznacza dalszy spadek cen i dalszą presję na zachodnie laboratoria. Przewaga nie może już opierać się wyłącznie na haśle, że ktoś jest „frontier”. Trzeba to dowozić w produkcie i kosztach.
DeepSeek V4 Preview to dwa modele typu mixture-of-experts z kontekstem 1 mln tokenów, przy czym wersja Pro ma 1,6 bln parametrów łącznych i 49 mld aktywnych na token. Firma twierdzi, że architektura domyka większość luki do modeli granicznych w testach rozumowania, choć nadal odstaje w części testów wiedzy. Niezależnie od marketingu znaczenie jest duże: open weights znów podnoszą sufit możliwości, a presja na relację jakość do kosztu jeszcze wzrośnie.

Twórcy mają dość automatu do losowania
ComfyUI warte 500 mln dolarów to głos za większą kontrolą
ComfyUI doszło do wyceny 500 mln dolarów, bo twórcy obrazów i wideo nie chcą już tylko wpisywać poleceń i liczyć na łut szczęścia. Chcą sterować procesem krok po kroku. To ważna zmiana, bo pokazuje dojrzewanie rynku. Na początku wystarcza zachwyt, że coś się wygenerowało. Później przychodzi moment zawodowy, w którym trzeba poprawić konkretny detal bez rozwalania reszty. Wtedy wygrywają nie najbardziej efektowne narzędzia, tylko te, które dają kontrolę jak w normalnym warsztacie pracy.
Runda 30 mln dolarów dla ComfyUI i wycena 500 mln dolarów potwierdzają, że warstwa narzędziowa wokół modeli dyfuzyjnych staje się osobnym rynkiem. Node-based workflow wygrywa tam, gdzie prompt box dochodzi do ściany, bo pozwala separować etapy generacji i utrzymać deterministyczną kontrolę nad wynikiem. To ważne zwłaszcza w zastosowaniach profesjonalnych: VFX, animacji, reklamie i projektowaniu przemysłowym.

Następna bitwa rozegra się na danych i odporności systemów
MIT otwiera 30 tys. trudnych zadań, a DeepMind szykuje trening na awarie
Dwie mniej głośne wiadomości mogą mieć dłuższy ogon niż część premier. MIT udostępnił ponad 30 tys. olimpijskich zadań matematycznych z 47 krajów, a Google DeepMind opisał architekturę treningu odporną na częste awarie sprzętu. Jedno daje trudniejszy materiał do sprawdzania, czy model naprawdę rozumuje. Drugie obniża ryzyko, że gigantyczny trening wykolei się przez problemy sprzętowe. Razem mówią jedno: kolejny etap AI będzie wygrywany nie tylko pomysłem na model, ale jakością danych i stabilnością całej fabryki.
MathNet od MIT wnosi ponad 30 tys. eksperckich zadań i rozwiązań z 143 konkursów, 17 języków i 47 krajów, czyli znacznie lepszy materiał do ewaluacji rozumowania niż dotychczasowe zbiory o węższym zasięgu. Równolegle DeepMind pokazuje Decoupled DiLoCo, asynchroniczną architekturę treningową, która według autorów utrzymuje do 88 proc. efektywności nawet przy wysokiej awaryjności sprzętu. To dwa elementy tej samej układanki: lepsze benchmarki i bardziej odporna infrastruktura.

Komentarz dnia
Dziś nie wygra ten, kto ogłosi najwięcej. Wygra ten, kto zepnie model, chip, chmurę i workflow w jedną usługę, którą firma realnie da się zastąpić kawałek pracy.
AI wchodzi w etap, w którym kapitał bez infrastruktury jest za mały, a model bez dystrybucji jest za słaby.
Co mówią twórcy
Nate B. Jones — Claude Design Does In 30 Minutes What Your Team Does In A Sprint
- Claude Design ma skracać nie sam etap rysowania, tylko koszt przekazania projektu między PM-em, designerem i zespołem deweloperskim.
- Kod staje się nowym źródłem prawdy dla projektowania, bo modele lepiej rozumieją HTML, CSS i SVG niż statyczne makiety.
- Małe zespoły mogą dowozić 2-5 razy więcej, jeśli przebudują workflow pod AI, a nie tylko dołożą AI do starego procesu.
Riley Brown — GPT 5.5 + Codex Just Became the Best Model Ever
- Cena za milion tokenów przestaje być dobrą metryką sama w sobie, jeśli lepszy model kończy zadanie szybciej i z mniejszą liczbą poprawek.
- Największy skok dotyczy długich zadań end-to-end, gdzie model musi utrzymać intencję użytkownika przez cały przebieg pracy.
- Obsługa przeglądarki i komputera zaczyna mieć większą wartość biznesową niż kolejne testy wydajności, bo pozwala automatyzować istniejące narzędzia bez osobnych integracji.

Koncentrat
Dzisiejszy obraz rynku jest brutalnie prosty. Modele nadal są ważne, ale same przestają wystarczać. O wyniku zdecyduje to, kto ma zakontraktowaną moc, własną dystrybucję, niższy koszt działania i narzędzia osadzone w codziennej pracy. W 2026 roku AI nie jest już konkursem na najciekawszy pokaz. To gra o kontrolę nad przemysłowym zapleczem cyfrowej pracy.