NA ŻYWO
AI wchodzi do biura tylnymi drzwiami AI chce już nie treści, tylko naszych zachowań Co to jest SLM? Small Language Model — mały, ale zdolny Co to jest open source AI? Modele AI dostępne dla każdego Co to jest Ollama? Uruchom modele AI na swoim komputerze Co to jest destylacja modeli AI? Mniejszy model, porównywalna jakość
CYTRYNA.AI

AI wchodzi do biura tylnymi drzwiami

Esencja

    Dzisiejszy dzień w AI nie wygląda jak parada nowych zabawek. Wygląda jak cichy przewrót w pracy biurowej. OpenAI i Google przestały sprzedawać modele jako błyskotliwych rozmówców. Teraz sprzedają je jako pracowników zaplecza: takich, którzy mają pisać, porządkować, liczyć, pilnować procedur i działać w tle, zanim człowiek zdąży poprosić o pomoc.

    OpenAI chce, żeby agent był nowym współpracownikiem

    Workspace agents mają przejąć powtarzalną pracę zespołów

    OpenAI ogłosiło workspace agents w ChatGPT, czyli współdzielonych agentów dla firm. To ważne, bo kończy się etap, w którym sztuczna inteligencja była głównie osobistym pomocnikiem do jednorazowych zadań. Teraz ma wejść w codzienny obieg firmy, działać według ustalonych zasad, sięgać do wspólnych narzędzi i czekać na akceptację tam, gdzie trzeba. To trochę jak różnica między zdolnym freelancerem a pracownikiem operacyjnym, który zna procedury, obieg dokumentów i rytm całego zespołu.

    Workspace agents to praktycznie nowa warstwa produktowa ponad GPTs. OpenAI pozycjonuje je jako agentów współdzielonych, uruchamianych w chmurze, z dostępem do narzędzi, pamięci i harmonogramów. Klucz nie leży w samym modelu, tylko w osadzeniu go w powtarzalnych workflowach: raportowanie, triage, kwalifikacja leadów, routing zgłoszeń. To ruch w stronę rynku B2B, gdzie przewaga nie wynika z jednorazowej jakości odpowiedzi, tylko z tego, czy agent umie działać zgodnie z procesem i uprawnieniami organizacji.

    Google odpowiada: agent ma siedzieć już w pakiecie biurowym

    Workspace Intelligence i nowe funkcje w Arkuszach oraz Dokumentach

    Google robi podobny ruch, ale z innego miejsca. Nie buduje nowego pokoju dla agentów, tylko wstawia ich do biura, które firmy już mają. Workspace Intelligence ma korzystać z Gmaila, Kalendarza, Czatu i Dysku, a Gemini ma szybciej budować Arkusze, uzupełniać dane i pisać dokumenty w stylu użytkownika. To ważne, bo dla wielu firm wygoda wygra z ambicją. Jeśli asystent działa tam, gdzie ludzie i tak siedzą osiem godzin dziennie, wdrożenie staje się dużo prostsze niż kolejna osobna platforma.

    Na Cloud Next Google ustawiło agentów w centrum oferty enterprise. Z jednej strony mamy Workspace Intelligence, czyli warstwę kontekstową nad danymi z Gmaila, Drive, Calendar i Chat. Z drugiej, konkretne funkcje produkcyjne: promptowe budowanie Arkuszy, automatyczne wypełnianie tabel, konwersję nieuporządkowanego tekstu do struktury oraz generowanie dokumentów na podstawie wewnętrznego kontekstu. Strategia jest czytelna: Google monetyzuje AI przez głęboką integrację z istniejącym pakietem pracy, nie przez osobne demo.

    Za tą zmianą stoją nowe chipy, nie same prezentacje

    Google rozdziela infrastrukturę na trenowanie i działanie agentów

    Google pokazało dwa nowe układy TPU ósmej generacji. Jeden ma służyć do trenowania coraz większych modeli, drugi do szybkiego działania agentów w codziennej pracy. Brzmi technicznie, ale sens jest prosty: rynek doszedł do momentu, w którym nie wystarczy już jeden bardzo mocny silnik do wszystkiego. Potrzebne są osobne maszyny do budowy systemu i do jego taniego, szybkiego używania na co dzień. To trochę jak różnica między fabryką a flotą dostawczą. Jedno bez drugiego nie daje skali.

    Google wprowadza dwa wyspecjalizowane TPU: 8t pod trening i 8i pod wnioskowanie oraz responsywne workflowy agentowe. Sam podział jest ważniejszy niż marketing wokół generacji numer osiem. To sygnał, że architektura infrastruktury AI specjalizuje się już pod konkretne obciążenia. Jeśli agenci mają obsługiwać wieloetapowe zadania z niskim opóźnieniem, trzeba optymalizować nie tylko modele, ale cały stos: pamięć, sieć, routing i koszt inferencji.

    Medycyna staje się kolejnym polem bitwy

    OpenAI rozdaje kliniczną wersję ChatGPT lekarzom w USA

    OpenAI udostępnia za darmo ChatGPT for Clinicians zweryfikowanym lekarzom, pielęgniarkom zaawansowanej praktyki i farmaceutom w USA. To ruch sprytny i odważny zarazem. Sprytny, bo jeśli medyk przyzwyczai się do danego narzędzia przy dokumentacji, badaniu literatury i konsultacjach, bardzo trudno będzie go potem odzwyczaić. Odważny, bo medycyna nie wybacza marketingowych skrótów. Tu każda obietnica bezpieczeństwa i jakości musi wytrzymać kontakt z realnym pacjentem, prawem i odpowiedzialnością zawodową.

    OpenAI buduje kliniczny przyczółek przez bezpłatną dystrybucję ChatGPT for Clinicians oraz publikację HealthBench Professional, otwartego zestawu ewaluacyjnego dla rzeczywistych zadań medycznych. Firma podaje wzrost wykorzystania AI przez lekarzy z 48 do 72 proc. rok do roku według AMA oraz wskazuje na funkcje o wysokiej wartości operacyjnej: dokumentacja, wyszukiwanie źródeł, przeglądy literatury, powtarzalne workflowy. To klasyczny ruch platformowy, w którym benchmark, produkt i kanał dystrybucji wzajemnie się wzmacniają.

    Najciekawsza wiadomość dnia przyszła jednak z laboratorium

    MIT pokazuje, że model można uczyć nie tylko odpowiedzi, ale też uczciwej niepewności

    Badacze z MIT zaproponowali metodę, która uczy model mówić nie tylko co myśli, ale też jak bardzo jest tego pewny. W testach błąd tej samooceny spadł nawet o 90 proc. To może brzmieć akademicko, ale w praktyce chodzi o jedną z największych wad obecnej AI: zły wynik bywa groźniejszy wtedy, gdy podany jest z pełnym spokojem. W finansach, prawie czy medycynie taka pewność bez pokrycia działa jak doradca, który nigdy nie przyznaje, że czegoś nie wie.

    MIT CSAIL opisuje RLCR, czyli reinforcement learning z nagrodą za kalibrację pewności. Zamiast premiować wyłącznie poprawną odpowiedź, metoda uwzględnia też zgodność deklarowanej pewności z rzeczywistą trafnością. Na benchmarkach kalibracyjnych błąd spadł nawet o 90 proc. bez pogorszenia jakości odpowiedzi. To istotne, bo obecny paradygmat rozumujących modeli wzmacnia nadmierną pewność siebie. RLCR idzie w stronę systemów, które nie tylko rozwiązują zadanie, ale też potrafią sygnalizować, kiedy trzeba zasięgnąć drugiej opinii.

    Szybkość też staje się przewagą produktową

    OpenAI przyspiesza agentowe workflowy przez WebSockety i pamięć połączenia

    OpenAI pokazało też bardziej przyziemny, ale ważny front walki. Gdy modele przyspieszają, coraz większym problemem nie jest samo myślenie maszyny, tylko biurokracja dookoła niej: kolejne połączenia, walidacje i przesyłanie wciąż tej samej historii rozmowy. Firma twierdzi, że dzięki stałemu połączeniu i sprytniejszej pamięci skróciła czas działania agentów o około 40 proc. To ważne, bo użytkownik nie ocenia AI po architekturze, tylko po tym, czy czeka trzy minuty, czy trzydzieści sekund.

    Responses API dostało WebSockety i cache stanu w obrębie połączenia, co ogranicza powtarzane przetwarzanie pełnej historii przy kolejnych krokach agenta. OpenAI podaje około 40 proc. poprawy czasu end-to-end oraz skok odczuwalnej szybkości przy modelach kodowych działających nawet blisko 1000 tokenów na sekundę. To dobry przykład, że w agentach bottleneck coraz częściej leży poza samym modelem, w warstwie transportu, walidacji i orkiestracji narzędzi.

    Największa zmiana w AI nie polega dziś na tym, że model umie więcej powiedzieć. Polega na tym, że firmy chcą wreszcie zrobić z niego część procedury.

    Koncentrat

    Wspólny mianownik jest prosty. AI przestaje być gościem od inspiracji, a staje się pracownikiem zaplecza. OpenAI i Google walczą już nie o najgłośniejszą premierę, tylko o to, czy ich agent wejdzie do arkusza, skrzynki mailowej, dokumentacji medycznej i firmowego obiegu decyzji. Kto wygra tę warstwę, ten nie będzie tylko dostawcą modelu. Będzie nowym systemem operacyjnym pracy umysłowej.

    Dołącz do czytelników

    Codziennie rano wiesz więcej o AI

    Wyciśnięta esencja ze świata sztucznej inteligencji — bez szumu, bez spamu. Co tydzień pełne podsumowanie prosto na maila.

    Bezpłatnie. Rezygnacja w każdej chwili.