NA ŻYWO
Anthropic zdjął osiem tysięcy repozytoriów. Przez pomyłkę. Altman odpowiada po ataku. Nowa metoda kompresji modeli AI zmniejsza je 10x bez utraty jakości AI ma ofiarę. Pierwszy pozw przeciwko OpenAI za stalking z ChatGPT. Co to jest SLM? Small Language Model — mały, ale zdolny Co to jest open source AI? Modele AI dostępne dla każdego Co to jest Ollama? Uruchom modele AI na swoim komputerze
CYTRYNA.AI

Anthropic zdjął osiem tysięcy repozytoriów. Przez pomyłkę.

Esencja

    Środa pierwszego kwietnia 2026 przyniosła kilka historii naraz. Anthropic przez pomyłkę zablokowało 8100 repozytoriów na GitHubie. Google spokojnie zbierało oklaski za marzec. Meta ogłosiła, że jej centrum danych zużyje tyle prądu co całe South Dakota — i zamówiła dziesięć elektrowni gazowych. Startup Cognichip zebrał 60 milionów dolarów na AI, która projektuje procesory. Spokojnej środy w AI już nie ma.

    Anthropic i wyciek kodu: osiem tysięcy repozytoriów przez pomyłkę

    Tydzień temu ktoś w Anthropic kliknął niewłaściwy przycisk podczas aktualizacji i kod źródłowy Claude Code — aplikacji terminalowej do programowania z AI — stał się publicznie dostępny. Entuzjaści szybko zaczęli wrzucać go na GitHub. Anthropic wystawiło zawiadomienie o naruszeniu praw autorskich do GitHuba, prosząc o usunięcie repozytorium. Problem: w zgłoszeniu zaznaczono opcję "usuń całą sieć forków" — i GitHub posłusznie skasował 8 100 repozytoriów, w tym legalne forki oficjalnego, publicznego repozytorium samego Anthropic.

    Boris Cherny, szef zespołu Claude Code, przyznał się do błędu na X i cofnął zgłoszenie dla wszystkich repozytoriów poza jednym (tym z wyciekiem). GitHub przywrócił dostęp do skasowanych projektów.

    Wyobraź sobie firmę, która chce wyciągnąć z obiegu jedną wadliwą partię towaru i przez pomyłkę opróżnia połowę sklepów. Mniej więcej to zrobiło Anthropic — wystawiając prawne zawiadomienie do GitHuba, zaznaczyli opcję, która usuwała nie tylko pirackie kopie, ale też wszystkie legalne projekty oparte na oficjalnym kodzie firmy. Osiem tysięcy sto repozytoriów. Przywrócono je kilka godzin później, ale wizerunkowy rachunek pozostaje — i to na dwa miesiące przed planowanym debiutem giełdowym. Kiedy szykujesz się na wejście na giełdę, inwestorzy patrzą właśnie na takie rzeczy: czy firma umie zarządzać kryzysem i czy jej procesy nie wyglądają jak improwizacja.

    Anthropic przypadkowo wyzwolił "fork network takedown" przez GitHub DMCA — zamiast celować w pojedyncze repo z wyciekiem kodu źródłowego Claude Code CLI, zaznaczyli opcję usuwania całej sieci forków, co skasowało 8100 repozytoriów włącznie z legalnymi forkami oficjalnego public repo. Boris Cherny (head of Claude Code) retractował notice, GitHub przywrócił dostęp. Kontekst: to już drugi incydent z wyciekiem wrażliwych zasobów Anthropic w ciągu tygodnia, a firma szykuje IPO — każda taka wpadka compliance/operations trafia na listę ryzyk w prospekcie emisyjnym. Mechanizm: GitHub DMCA fork-network takedown to znana pułapka — zamiast DMCA na konkretne URL-e, zgłoszono całą sieć, co objęło repozytorium macierzyste.

    Google podsumowuje marzec: Gemini wchodzi wszędzie

    Google opublikowało comiesięczne podsumowanie AI — i marzec był dla nich pracowity. Search Live, czyli wyszukiwanie z możliwością zadawania pytań głosem i kamerą w czasie rzeczywistym, trafiło do ponad 200 krajów. Google Maps dostało funkcję "Ask Maps" — można zapytać w naturalnym języku o kawiarnię z ładowarką do telefonu, a asystent zarezerwuje stolik. Gemini w Arkuszach Google osiągnął najlepsze wyniki w branżowych testach wydajności analizy danych. Nowe narzędzia ułatwiają też migrację z innych asystentów AI do Gemini — w tym import historii rozmów.

    Google gra długą grę i wygrywa przez zasięg, nie przez spektakularne ogłoszenia. Search Live w 200 krajach to nie pojedyncza funkcja — to infrastruktura. Kiedy wyszukiwanie głosowo-wizualne staje się domyślnym sposobem szukania informacji dla miliarda ludzi, inne modele AI zaczynają walczyć o miejsce na marginesie. Dołożenie Gemini do Map to ten sam zabieg: każda podróż, każde wyjście do restauracji staje się punktem kontaktu z ekosystemem Google. Narzędzia do migracji z innych asystentów to już klasyczna zagrywka rynkowa — im trudniej odejść, tym rzadziej ktoś odchodzi. Marzec pokazał, że Google nie startuje w wyścigu AI. Firma decyduje, po którym torze wszyscy biegną.

    Google rozwijało Gemini wszerz, nie tylko w górę. Trzy kluczowe wektory: (1) Search Live — multimodalne wyszukiwanie głosowo-wizualne globalnie w ponad 200 krajach, plus Canvas w AI Mode dla kreatywnego pisania i kodowania; (2) Workspace — Gemini w Sheets osiągnął SOTA w testach wydajności analizy danych, integracja cross-file synthesis w Drive dla subskrybentów AI Ultra/Pro; (3) Maps — "Ask Maps" z obsługą rezerwacji i Immersive Navigation z real-world imagery. Osobny sygnał strategiczny: narzędzia migracji z konkurencyjnych asystentów AI (import historii rozmów, preferencji) to klasyczny switching-cost play — obniżona friction przejścia na Gemini przy jednoczesnym podniesieniu kosztu odejścia.

    Meta buduje dziesięć elektrowni gazowych. Na potrzeby jednego centrum danych AI

    Meta buduje centrum danych Hyperion w Luizjanie — wartość inwestycji: 27 miliardów dolarów, zużycie energii: tyle co cały stan South Dakota. Firma podpisała umowy na budowę dziesięciu elektrowni gazowych o łącznej mocy 7,5 gigawata. TechCrunch wyliczył, że te instalacje wyemitują rocznie 12,4 miliona ton CO₂ — o połowę więcej niż wynosił cały ślad węglowy Meta w 2024 roku. Firma nie odpowiedziała na pytania o komentarz.

    Meta od lat chwali się zaangażowaniem w zieloną energię: kupowała farmy słoneczne, kontraktowała energię z elektrowni jądrowych, publikowała raporty klimatyczne. Tymczasem nowe centrum danych AI wymaga tyle prądu, że firma po prostu zamawia budowę dziesięciu elektrowni gazowych. To jak firma ogłaszająca plan odchudzania, która równocześnie otwiera dziesięć nowych restauracji szybkiej obsługi. Gaz ziemny bywa nazywany "paliwem pomostowym" — używamy go teraz, bo odnawialne źródła energii jeszcze nie dają rady. Ale ten argument pada od dekad, a ceny turbin gazowych właśnie poszły w górę. Wielkie deklaracje klimatyczne Big Tech trafiają pod lupę — i okazuje się, że apetyt energetyczny AI jest znacznie większy, niż przyznają firmy.

    Meta's Hyperion data center (Luizjana, 27 mld USD) zasilany przez 10 elektrowni gazowych Entergy Louisiana — łączna moc 7,5 GW, porównywalna z całkowitą pojemnością generacyjną South Dakota. Szacunkowa emisja bezpośrednia: 12,4 Mt CO₂/rok — 150% dotychczasowego carbon footprint Meta (2024). Bez uwzględnienia fugitywnych emisji metanu z łańcucha dostaw: przy realnym leak rate ~3% w USA, GWP metanu (84x CO₂ w 20-letnim horyzoncie) pogarsza bilans klimatyczny poniżej poziomu węgla. Paradoks: Meta jest jednym z największych odbiorców OZE w USA (solar PPA, nuclear PPA), ale skala ekspansji data center przerosła zdolność rynku OZE do nadążania — stąd powrót do gazu. Sustainability report Meta nie wspomina o metanie ani gazie ziemnym.

    Cognichip: AI, która projektuje procesory AI

    Cognichip zebrał 60 milionów dolarów na model sztucznej inteligencji, który ma pracować ramię w ramię z inżynierami projektującymi procesory. Firma obiecuje skrócenie cyklu projektowania o ponad połowę i redukcję kosztów o ponad 75%. W rundzie wziął udział CEO Intela Lip-Bu Tan, który dołączy do zarządu. Łącznie Cognichip pozyskał 93 miliony dolarów od założenia w 2024 roku.

    Projektowanie nowoczesnego procesora trwa od trzech do pięciu lat i kosztuje setki milionów dolarów. Najnowsze układy Nvidii zawierają 104 miliardy tranzystorów — każdy musi trafić na właściwe miejsce. Cognichip przekonuje, że AI może zrobić dużą część tej pracy tak samo, jak narzędzia AI przyspieszyły programowanie — skracając czas pracy inżynierów bez zastępowania ich całkowicie. Jest jednak poważne "ale": firma nie pokazała jeszcze ani jednego procesora zaprojektowanego z pomocą swojego systemu i nie ujawniła nazw klientów. Udział Prezesa Intela w rundzie to mocny sygnał zainteresowania, ale nie dowód działającego produktu.

    Cognichip (zał. 2024, łącznie 93 mln USD) buduje deep learning model do wspomagania EDA (Electronic Design Automation). Propozycja wartości: skrócenie cyklu projektowania o >50% i redukcja kosztów o >75% przez automatyzację zadań eksperckich na etapie między RTL a physical layout. Runda z udziałem Lip-Bu Tan (Intel CEO), który dołącza do zarządu — sygnał potencjalnej integracji z pipeline'm projektowania Intela lub inwestycji strategicznej. Kluczowe zastrzeżenie: brak ujawnienia klientów ani dowodu na układ wyprodukowany z pomocą systemu. Rynek EDA zdominowany przez Synopsys i Cadence — każde realne wdrożenie będzie testem wobec tych incumbentów z wieloletnią bazą instalacyjną.

    Holo3: nowy lider agentów obsługi komputera

    Firma H Company zaprezentowała Holo3 — model AI do autonomicznej obsługi aplikacji desktopowych, który osiągnął 78,85% skuteczności w teście porównawczym OSWorld-Verified. Przy zaledwie 10 miliardach aktywnych parametrów (z 122 miliardów całkowitych) model wyprzedza znacznie większe rozwiązania. Mniejsza wersja — Holo3-35B — jest dostępna open source na licencji Apache 2.0.

    Agenty "computer use" to AI, która nie tylko rozmawia, ale obsługuje komputer — klika, wpisuje tekst, przełącza aplikacje, wypełnia formularze, koordynuje działania między programami. Holo3 osiągnął w testach wyższy wynik niż modele kilkakrotnie od niego "większe" (mierząc liczbą parametrów, czyli uproszczonym wskaźnikiem pojemności). Mniejsze zużycie zasobów oznacza niższy koszt działania — a mniejsza wersja dostępna za darmo obniża próg wejścia dla twórców. Branżowy wyścig o agenta, który rzeczywiście umie pracować za człowieka, trwa — i Holo3 właśnie przeszedł na czoło stawki.

    Holo3-122B-A10B (MoE, 10B aktywnych parametrów) osiągnął 78,85% na OSWorld-Verified — nowe SOTA dla desktop computer use. Architektura: agentic learning flywheel z Synthetic Environment Factory (programatycznie generowane syntetyczne środowiska enterprise do treningu i ewaluacji). H Corporate Benchmarks: 486 multistep tasks, 4 kategorie — e-commerce, business software, collaboration, multi-app. Wyższe success rates niż bazowy Qwen3.5 przy mniejszej liczbie parametrów wskazują na skuteczność specjalizowanego post-trainingu. Holo3-35B-A3B: open source, Apache 2.0, dostępny przez Inference API na free tier.

    Co mówią twórcy

    Nate HerkHitting Claude Code Limits? Here Are 18 Easy Fixes.

    • 98,5% tokenów w długiej sesji (ponad 100 wiadomości) to przetwarzanie starej historii, nie faktyczna praca — każda nowa wiadomość re-czyta wszystko od początku
    • Jeden serwer MCP może kosztować 18 000 tokenów na każdą wiadomość — rozłącz nieużywane przed sesją
    • Strategia: uruchom kompresję kontekstu przy 60% pojemności, nie czekaj na 95%; po 3-4 kompresacjach wyczyść historię i zacznij od podsumowania sesji
    • Szczytowe godziny przeciążenia Claude Code: 8:00–14:00 ET w dni robocze — duże refaktory planuj na wieczór lub weekend

    Cole MedinFull Guide - Build Your Own AI Second Brain with Claude Code

    • "Śmiertelna trójca" agenta AI: prywatne dane + niezaufane treści (np. przychodzące maile) + możliwość eksfiltracji — wszystkie trzy zawsze dotyczą systemów "second brain", dlatego minimalne uprawnienia to konieczność
    • Heartbeat (cron co 30 minut): zbiera dane z API, wysyła do Claude Code, dostarcza podsumowanie proaktywnych działań na Slacku — według Cole'a oszczędza mu najwięcej czasu
    • Architektura pamięci: dzienny log → promocja do memory.md (raz dziennie przez cron) → przeszukiwanie bazy danych dla starszych logów — agent ewoluuje z każdą rozmową
    AI drugiego mózgu daje ci siłę ognia, której nie mają inni — ale tylko jeśli nie oddajesz jej dostępu do wszystkiego bez zastanowienia. — Cole Medin

    Koncentrat

    Środa przyniosła dwa wyraźne sygnały. Pierwszy: wielkie firmy potykają się na własnych sukcesach — wyciek kodu Anthropic i dziesiątki elektrowni gazowych Meta to skutki uboczne wzrostu, którego nikt nie zaplanował do końca. Drugi: rynek napędza się dalej niezależnie od wpadek. AI pomaga projektować procesory, agenci obsługują komputery coraz lepiej, Google ustawia infrastrukturę, na której wszyscy będą musieli operować. To już nie wyścig o to, kto ma "najsilniejszy model" — to wyścig o to, kto głębiej wbuduje się w codzienne procesy, zanim inni się obejrzą.

    Dołącz do czytelników

    Codziennie rano wiesz więcej o AI

    Wyciśnięta esencja ze świata sztucznej inteligencji — bez szumu, bez spamu. Co tydzień pełne podsumowanie prosto na maila.

    Bezpłatnie. Rezygnacja w każdej chwili.