Sztuczna inteligencja wchodzi na oddział, do sądu i armii
Sztuczna inteligencja przestała dziś wyglądać jak futurystyczna obietnica. Jednocześnie weszła na szpitalny triaż, do sali sądowej, do Pentagonu i na place budowy centrów danych. To nie jest kolejna doba z nowym modelem. To doba, w której AI coraz wyraźniej staje się instytucją, a nie tylko produktem.

Model trafia na izbę przyjęć
Badanie z Harvardu pokazało coś niewygodnego dla całego rynku ochrony zdrowia. Model OpenAI o1 częściej trafiał z właściwą diagnozą na etapie wstępnego triażu niż dwaj lekarze interniści pracujący na tych samych danych z dokumentacji. To nie znaczy jeszcze, że komputer ma przejąć dyżur. Znaczy co innego: szpitale dostały dowód, że warto zacząć traktować takie systemy jak zewnętrzny audyt medyczny, a nie ciekawostkę z konferencji.
Zespół Harvard Medical School i Beth Israel porównał odpowiedzi OpenAI o1 i 4o z diagnozami dwóch lekarzy internistów dla 76 realnych przypadków z oddziału ratunkowego. Według opisu badania o1 dawał dokładną lub bardzo bliską diagnozę w 67 proc. przypadków na etapie triażu, przy 55 proc. i 50 proc. po stronie lekarzy. Autorzy podkreślają, że to nie jest zgoda na autonomiczne decyzje kliniczne, tylko argument za pilnymi badaniami prospektywnymi i za budową ram odpowiedzialności, zanim modele trafią do realnego obiegu.

Armia wybiera gotowych do użycia
Pentagon podpisał umowy z ośmioma firmami, które mają dostarczać sztuczną inteligencję do tajnych sieci wojskowych. To mocny sygnał, bo wojsko nie kupuje opowieści o przyszłości, tylko narzędzia, które da się wdrożyć i za które ktoś bierze polityczne ryzyko. Najciekawsze jest jednak to, kogo zabrakło. Anthropic wypadł z układanki po sporze o to, czy modele mogą być używane wszędzie tam, gdzie państwo uzna to za zgodne z prawem.
Do tajnych i ściśle tajnych środowisk Pentagonu wchodzą Google, Nvidia, Reflection, SpaceX, OpenAI, Microsoft, Oracle i AWS. Wspólnym warunkiem była zgoda na każde użycie uznane przez wojsko za legalne. Anthropic odrzucił taki standard, powołując się na ryzyka związane z nadzorem i autonomiczną bronią, po czym został oznaczony jako ryzyko łańcucha dostaw i objęty procesem usuwania z części systemów. To ważny precedens: w zamówieniach publicznych przewaga nie wynika już tylko z jakości modelu, ale z gotowości do wejścia w państwowy reżim odpowiedzialności i użycia.

Proces Muska to proces o duszę OpenAI
Spór Elona Muska z OpenAI przestaje być plotką o dwóch wielkich ego. W praktyce to test, czy firma, która zaczynała jako projekt misyjny, może bezkarnie przerobić się na maszynę do zarabiania miliardów. Musk przekonuje w sądzie, że finansował przedsięwzięcie o charakterze dobra publicznego, a nie przyszłego giganta komercyjnego. Nawet jeśli przegra, sam proces już podniósł cenę słowa „misja” w całej branży.
Według relacji Reutersa Musk podczas wielogodzinnych zeznań przedstawiał OpenAI jako projekt non profit, który miał być benevolent steward of AI, a nie wehikułem do maksymalizacji wartości. Linia sporu dotyczy nie tylko historii założycielskiej, ale też pytania, czy deklaracje o działaniu dla dobra ludzkości mają jakąkolwiek moc, gdy firma zmienia strukturę i model biznesowy. Dla rynku to sygnał ostrzegawczy: wraz ze wzrostem wycen rośnie też prawne znaczenie tego, co firmy AI obiecywały na starcie inwestorom, partnerom i opinii publicznej.

Prawa autorskie wracają z rachunkiem
Autor kultowego mema „This is fine” oskarżył startup Artisan o kradzież swojej pracy w reklamie promującej narzędzie AI do sprzedaży. Sam przypadek jest mały, ale symbolicznie trafia w samo sedno nastroju wokół generatywnej sztucznej inteligencji. Branża przez dwa lata powtarzała, że internet to otwarty surowiec. Coraz więcej twórców odpowiada dziś: nie, to był cudzy dorobek, za który ktoś właśnie chce wystawić fakturę.
KC Green twierdzi, że Artisan użył bez zgody przeróbki jego komiksu „This is fine” w kampanii „Hire Ava the AI BDR”. Firma odpowiedziała, że kontaktuje się z autorem, ale sam spór wpisuje się w szerszą zmianę. Coraz częściej nie chodzi już o abstrakcyjne pozwy przeciw modelom trenowanym na zbiorach danych, tylko o konkretne komercyjne użycia rozpoznawalnych prac, memów i stylów w reklamie. To trudniejsze do obrony wizerunkowo i prawnie niż masowe, ukryte trenowanie.

Centra danych mają nowego sojusznika
Giganci AI znaleźli wsparcie tam, gdzie wielu się go nie spodziewało: w związkach zawodowych budowlanki. Gdy lokalne społeczności protestują przeciw energożernym centrom danych, związki odpowiadają prostym argumentem, że to tysiące miejsc pracy i nowe inwestycje. To ważna zmiana polityczna. Sztuczna inteligencja przestaje być tylko tematem Doliny Krzemowej. Staje się częścią amerykańskiej polityki przemysłowej, z całym pakietem interesów, lobbingu i twardych negocjacji o prąd, wodę i podatki.
Materiał AP pokazuje, że związki budowlane w USA stały się aktywnym zapleczem ekspansji infrastruktury AI. W części regionów centra danych odpowiadają już za 40 do 50 proc. roboczogodzin członków lokalnych organizacji, a projekty pokroju kampusu Stargate Oracle i OpenAI są przedstawiane jako motor wzrostu zatrudnienia. To zmienia układ sił wokół regulacji. Debata o AI nie toczy się już wyłącznie między firmami technologicznymi a regulatorami, ale też między lokalnymi społecznościami, energetyką, pracą zorganizowaną i państwem.

Komentarz dnia
Najważniejsze pytanie przestaje brzmieć: który model jest najmądrzejszy. Zaczyna brzmieć: komu wolno go użyć, po co i na czyją odpowiedzialność.
Dzisiejsze newsy układają się w jedną historię. AI dojrzewa nie wtedy, gdy model ma lepszy test wydajności, tylko wtedy, gdy wchodzi w procedury, kontrakty i spory o władzę. Szpital chce wiedzieć, kto odpowie za złą diagnozę. Armia chce wiedzieć, kto zgodzi się na użycie modelu w praktyce. Twórca mema chce wiedzieć, kto zapłaci za komercyjne wykorzystanie jego pracy. A sąd próbuje ustalić, czy misja OpenAI była obietnicą, czy tylko marketingiem założycielskim.
Co mówią twórcy
Mark Kashef — This Claude Code Setup Runs My Entire Business
- Największą przewagę daje nie pojedynczy agent, tylko wspólna pamięć i jedna warstwa danych dla całego systemu.
- Tani model ma sens jako dyspozytor zadań, drogi model powinien robić pracę wymagającą jakości.
- Agentowy system operacyjny wygląda dziś bardziej jak problem porządku w danych niż jak pokaz magii modelu.
Nate Herk — I Tried 100+ Claude Code Skills. These 6 Are The Best
- Najcenniejsze skills nie imponują efektami, tylko ograniczają błędy i koszt kolejnych iteracji.
- Świeże subagenty i etapy przeglądu jakości stają się normalnym elementem pracy z kodem.
- Wniosek biznesowy jest prosty: liczy się przewidywalność dowiezienia pracy, nie sam błysk pierwszej odpowiedzi.
Nate B. Jones — Stripe, Visa, Mastercard, Microsoft, Meta. All Building The Same Thing.
- Handel agentowy przesuwa władzę z lejka sprzedawcy do agenta kupującego działającego w imieniu klienta.
- Marki będą musiały być czytelne dla oprogramowania, nie tylko atrakcyjne dla człowieka na stronie.
- Płatność staje się uprawnieniem przenoszonym razem z zadaniem, a nie ostatnim kliknięciem w koszyku.

Na koniec
Jeśli ktoś jeszcze opowiada, że sztuczna inteligencja to przede wszystkim gadżet do szybszego pisania maili, to już jest o dwa kroki za rynkiem. Dziś chodzi o medycynę, obronność, własność twórczą i wielką infrastrukturę. Krótko mówiąc, o obszary, w których błędy są drogie, a decyzje mają konsekwencje wykraczające daleko poza ekran.
Dzień 4 maja nie przyniósł jednej dominującej premiery modelu. Przyniósł coś ważniejszego: serię dowodów, że generatywna AI wchodzi w reżim odpowiedzialności instytucjonalnej. Klinika, obronność, prawo własności intelektualnej i infrastruktura obliczeniowa zaczynają wyznaczać granice rynku mocniej niż same demonstracje możliwości. To zwykle znak, że branża wchodzi w trudniejszą, ale dojrzalszą fazę.