AI przestaje doradzać. Zaczyna pracować za ludzi
Dzisiejszy dzień w AI wygląda jak koniec pewnego etapu. Jeszcze rok temu firmy ścigały się na to, kto pokaże bardziej błyskotliwego rozmówcę. Dziś już nie o rozmowę chodzi. OpenAI, Google i cała reszta próbują zbudować coś znacznie cenniejszego: system, który bierze na siebie kawałek prawdziwej pracy i robi go bez ciągłego prowadzenia za rękę.

OpenAI przestaje sprzedawać czat
GPT-5.5 ma być wykonawcą, nie asystentem
OpenAI wypuściło GPT-5.5 i z opisu produktu jasno wynika, że firma nie chce już sprzedawać tylko mądrzejszej rozmowy. Chce sprzedawać cyfrowego pracownika, który sam rozpisze zadanie, zajrzy do narzędzi, poprawi błędy i dowiezie wynik. To zmienia punkt ciężkości całego rynku. Do tej pory liczyło się, kto da ładniejszą odpowiedź. Teraz liczy się, kto potrafi przejąć żmudną część pracy biurowej, analitycznej i programistycznej bez pięciu rund doprecyzowań.
GPT-5.5 jest pozycjonowany jako model do zadań długiego horyzontu: kodowania, pracy na komputerze, badań i analizy danych. OpenAI podkreśla nie tylko wzrost jakości, ale też lepszą ekonomię wykonania, czyli mniej tokenów i mniej powtórek potrzebnych do dowiezienia zadania. W praktyce to ruch od modelu konwersacyjnego do warstwy wykonawczej, która ma działać w ChatGPT i Codexie jak operator procesów, a nie tylko generator odpowiedzi.
OpenAI pokazało przy okazji coś jeszcze ważniejszego niż tabelki z testów wydajności. Greg Brockman mówi już wprost o drodze do jednej, wielofunkcyjnej aplikacji łączącej ChatGPT, Codex i przeglądarkę. Innymi słowy: mniej osobnych narzędzi, więcej jednego interfejsu do pracy z agentem. NVIDIA dorzuca do tej układanki własną narrację o skali. Według firmy z GPT-5.5 napędzanego w Codexie korzysta już ponad 10 tys. pracowników NVIDIA, a nowe systemy serwerowe mają radykalnie obniżać koszt obsługi takiego modelu. Gdy producent modelu, producent infrastruktury i użytkownik korporacyjny mówią jednym głosem, to nie jest marketingowa ciekawostka. To sygnał, że rynek zaczyna się domykać technologicznie i biznesowo.
Nowy wyścig w AI nie dotyczy już tego, kto napisze lepszy akapit. Chodzi o to, kto zbuduje tańszego i bardziej samodzielnego pracownika cyfrowego.

Google odpowiada infrastrukturą, nie fajerwerkami
Agenci wchodzą do firm razem z nową generacją chipów
Google nie próbuje dziś wygrać samego dnia premierą jednego modelu. Zamiast tego pokazuje pełny zestaw dla dużych firm: platformę do zarządzania agentami, narzędzia bezpieczeństwa i własne chipy AI. To trochę jak różnica między sprzedażą dobrego menedżera a budową całej nowej centrali firmy. Jeśli OpenAI chce dostarczyć pracownika, Google chce dostarczyć całe piętro, procedury i serwerownię.
Na Cloud Next Google ogłosiło Gemini Enterprise Agent Platform, czyli warstwę do budowy, nadzoru i optymalizacji dużych flot agentów. Równolegle pokazało ósme generacje TPU: wariant 8t do trenowania modeli i 8i do wnioskowania przy niskich opóźnieniach. Kluczowy przekaz jest prosty: agentów nie da się skalować samym modelem, potrzebna jest kontrola, bezpieczeństwo i tańsza infrastruktura pod masowe uruchomienia.
W tle padła liczba, której konkurencja nie może zignorować: 75 proc. nowego kodu w Google ma już być generowane przez AI i zatwierdzane przez inżynierów. To nie dowód na pełną autonomię, ale mocny znak zmiany organizacyjnej. AI przestaje być eksperymentem zespołu innowacji. Staje się normalnym elementem produkcji oprogramowania i operacji bezpieczeństwa.

Rynek dojrzewa przez przejęcia, pamięć i presję na koszty
Sierra kupuje ludzi i know-how, bo czas jest dziś cenniejszy niż perfekcja
Sierra, firma Breta Taylora od agentów obsługi klienta, kupiła startup Fragment. To już trzecie przejęcie w krótkim czasie. W praktyce wygląda to jak gorączkowe składanie zespołu i kompetencji, zanim rynek się zamknie. Kiedy technologia zmienia się co kilka tygodni, najcenniejsze nie są ładne slajdy, tylko ludzie, którzy potrafią szybko wdrożyć rozwiązanie u klientów.
Przejęcie Fragmentu pokazuje, że rynek agentów enterprise wchodzi w fazę konsolidacji talentu i wdrożeń. Sierra ma już trzy akwizycje, ponad 630 mln dolarów finansowania i wycenę rzędu 10 mld dolarów. To klasyczny ruch budowania przewagi wykonawczej: mniej czasu na rozwijanie wszystkiego samemu, więcej szybkiego dokładania kompetencji integracyjnych, głosowych i regionalnych.
Równolegle badacze z Google Cloud AI, UIUC i Yale pokazali ReasoningBank, czyli pamięć dla agentów, która zapisuje nie tylko sukcesy, ale też porażki. To ważniejsze, niż brzmi. Jeśli agent ma naprawdę pracować, nie może codziennie zaczynać od zera. Musi zachowywać strategie, które działają, i unikać błędów, które już popełnił. Z kolei Xiaomi dorzuca do gry otwarte modele MiMo-V2.5 i MiMo-V2.5-Pro, chwaląc się wynikami bliskimi czołówce przy wyraźnie niższym koszcie tokenów. To oznacza presję cenową na zamkniętych dostawców. O przewadze coraz częściej zdecyduje nie sam poziom inteligencji, tylko relacja jakości do kosztu i zdolność do pracy przez wiele kroków bez rozsypania kontekstu.
Co mówią twórcy
Nate Herk — I Tested GPT 5.5 vs Opus 4.7: What You Need to Know
• GPT-5.5 nie wygrywa wszędzie, ale daje lepszy bilans szybkości, kosztu i jakości pierwszego podejścia.
• Największa zmiana nie siedzi w tabelkach, tylko w tym, że model wymaga mniej prowadzenia i szybciej dowozi sensowną wersję roboczą.
• Różnica czasu w jego testach była brutalna: około 21 minut dla GPT-5.5 wobec 41 minut dla Opusa.
Cole Medin — Parallel Claude Code + Git Worktrees: This Setup Will Change How You Ship
• Prawdziwy wzrost produktywności bierze się z organizacji pracy wielu agentów, nie z dopieszczania pojedynczego polecenia.
• Git worktrees i oddzielne środowiska są warunkiem sensownej pracy równoległej, bo bez nich agenci wchodzą sobie w drogę.
• Autor nie powinien recenzować własnej pracy w tym samym oknie kontekstowym, bo wtedy łatwo przepuścić własne błędy.
Nate B. Jones — Your Apps Don't Need an API Anymore. Codex Just Proved It.
• Jeśli agent potrafi obsługiwać interfejs jak człowiek, to wiele starych programów da się automatyzować bez budowania integracji od zera.
• To przesuwa AI z roli pomocnika od wiedzy do roli operatora komputera.
• W praktyce bardziej liczy się dziś tarcie interfejsu niż sama zdolność modelu do mądrego gadania.

Koncentrat dnia
Najmocniejsza teza z dzisiejszych premier jest prosta: era czatbotów do efektownych demonstracji się kończy. Zaczyna się era systemów, które mają być tanie, pamiętliwe i samodzielne na tyle, by przejąć fragment realnej pracy. Kto połączy model, infrastrukturę, bezpieczeństwo i sensowny koszt wykonania, ten nie wygra jednego tygodnia newsów. Ten może wygrać cały następny etap rynku.