Anthropic zaprezentował Claude Mythos Preview, swój najbardziej zaawansowany model AI do zadań związanych z kodowaniem, analizą oprogramowania i cyberbezpieczeństwem. Firma nie planuje udostępniać go publicznie, bo model ma zdolności, które w niewłaściwych rękach mogłyby przyspieszyć cyberataki na ogromną skalę. Anthropic twierdzi, że Mythos znalazł już tysiące poważnych luk, w tym podatności w głównych systemach operacyjnych i przeglądarkach internetowych.
Największe emocje budzi jednak nie samo istnienie modelu, lecz to, kto ma do niego dostęp. Według Axios, a za nim Reutersa, z Claude Mythos Preview korzysta już amerykańska NSA, mimo że Departament Obrony USA wcześniej oznaczył Anthropic jako „supply chain risk”, czyli ryzyko dla łańcucha dostaw. Reuters zaznacza, że nie był w stanie niezależnie potwierdzić tych doniesień.
To może być moment przełomowy. AI wchodzi właśnie w obszar, w którym granica między obroną a atakiem jest wyjątkowo cienka.
Claude Mythos Preview: model AI, którego Anthropic nie chce wypuścić publicznie
W ostatnich latach firmy technologiczne przyzwyczaiły nas do tego, że każdy nowy model AI jest natychmiast promowany jako „najpotężniejszy”, „najbardziej inteligentny” albo „najbardziej przełomowy”. Claude Mythos Preview jest inny. Anthropic nie tylko chwali się jego możliwościami, ale jednocześnie mówi wprost: ten model nie trafi do powszechnego użytku.
Powód jest prosty. Claude Mythos Preview ma być szczególnie skuteczny w zadaniach związanych z cyberbezpieczeństwem. Nie chodzi tylko o analizowanie kodu czy wskazywanie błędów. Według Anthropic model potrafi identyfikować nieznane wcześniej podatności, sprawdzać ich realne znaczenie i w wielu przypadkach tworzyć działające sposoby ich wykorzystania bez szczegółowego prowadzenia przez człowieka.
To właśnie ta zdolność sprawia, że Mythos jest jednocześnie jednym z najbardziej obiecujących i najbardziej niepokojących modeli AI ostatnich lat. Dla obrońców może być narzędziem do masowego łatania internetu. Dla przestępców lub państw prowadzących ofensywne operacje cybernetyczne mógłby stać się maszyną do wyszukiwania słabych punktów w cudzych systemach.
Anthropic opisuje to jako nową fazę cyberbezpieczeństwa. Dotąd znajdowanie najgroźniejszych luk wymagało czasu, doświadczenia i bardzo wąskiej specjalizacji. Jeśli modele AI będą w stanie robić to taniej, szybciej i na większą skalę, cały układ sił w cyberprzestrzeni zacznie się zmieniać.

Project Glasswing, czyli zamknięty klub dla największych graczy
Zamiast publicznej premiery Anthropic uruchomił Project Glasswing. To specjalny program, w którym Claude Mythos Preview ma być używany przede wszystkim do celów obronnych: wykrywania luk, testowania oprogramowania, wzmacniania systemów i przygotowania branży na epokę AI wspierającej cyberataki.
Wśród oficjalnych partnerów projektu znajdują się Amazon Web Services, Anthropic, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, Linux Foundation, Microsoft, NVIDIA i Palo Alto Networks. Anthropic informuje też, że dostęp otrzymało ponad 40 dodatkowych organizacji tworzących lub utrzymujących krytyczną infrastrukturę programistyczną.
Firma przeznacza na projekt do 100 mln dolarów w kredytach na użycie modelu oraz 4 mln dolarów bezpośrednich darowizn dla organizacji zajmujących się bezpieczeństwem open source. To pokazuje skalę ambicji: nie chodzi o zwykły program partnerski, ale o próbę przygotowania najważniejszych warstw internetu na nową klasę zagrożeń.
Project Glasswing ma więc dwa oblicza. Z jednej strony to tarcza. Z drugiej — potwierdzenie, że Anthropic naprawdę traktuje Mythosa jako technologię z potencjałem ofensywnym.
NSA ma korzystać z Mythosa mimo konfliktu Pentagonu z Anthropic
Najmocniejszy wątek tej historii dotyczy amerykańskiego państwa. Według Axios, National Security Agency, czyli NSA, korzysta z Claude Mythos Preview mimo tego, że Departament Obrony USA wcześniej uznał Anthropic za ryzyko dla łańcucha dostaw. Reuters również opisał doniesienia Axios, zaznaczając, że nie mógł ich natychmiast niezależnie zweryfikować.
To paradoks, który świetnie pokazuje napięcie wokół AI. Z jednej strony Pentagon miał naciskać, by modele Claude mogły być używane do „wszystkich zgodnych z prawem celów”. Z drugiej strony Anthropic miał odmawiać zastosowań takich jak masowa inwigilacja krajowa czy rozwój autonomicznych systemów broni. Według Axios spór między Pentagonem a firmą nie został zakończony, ale jednocześnie część administracji chce mieć dostęp do najlepszych narzędzi, jakie powstają na rynku AI.
Mówiąc prościej: jedni urzędnicy widzą w Anthropic problem, inni widzą w Mythosie przewagę strategiczną.
I to jest najważniejszy punkt całej historii. Państwa nie mogą już traktować modeli AI jak zwykłego oprogramowania. Jeśli model potrafi wykrywać luki w systemach szybciej niż ludzie, staje się narzędziem bezpieczeństwa narodowego. Nawet wtedy, gdy jego twórca jest politycznie niewygodny.
Co Claude Mythos potrafi naprawdę?
Anthropic twierdzi, że Claude Mythos Preview znalazł tysiące podatności typu zero-day, czyli luk wcześniej nieznanych twórcom oprogramowania. Firma podaje przykłady z głównych systemów operacyjnych, przeglądarek oraz bibliotek używanych przez miliony urządzeń i aplikacji.
Jednym z najgłośniejszych przykładów jest 27-letnia luka w OpenBSD, systemie uznawanym za wyjątkowo bezpieczny i wykorzystywanym między innymi w kontekstach infrastrukturalnych. Mythos miał znaleźć podatność, która pozwalała zdalnie doprowadzić do awarii maszyny.
Drugim przykładem jest 16-letnia podatność w FFmpeg, jednej z najważniejszych bibliotek do obsługi wideo. Według Anthropic problem przetrwał lata testów i automatycznych analiz, mimo że odpowiednia część kodu była wcześniej wielokrotnie wykonywana przez narzędzia testujące.
Trzeci przykład dotyczy jądra Linuksa. Mythos miał identyfikować i łączyć kilka różnych słabości w taki sposób, aby z lokalnego, zwykłego dostępu przejść do pełniejszych uprawnień w systemie. Anthropic nie publikuje szczegółów wielu takich przypadków, bo część podatności jest jeszcze w procesie odpowiedzialnego zgłaszania i łatania.
Właśnie tutaj widać największą zmianę. AI nie tylko „czyta kod”. AI zaczyna rozumieć, które błędy mogą mieć znaczenie praktyczne, jak mogą się łączyć i gdzie obrona oparta na samym utrudnianiu ataku przestaje wystarczać.
Niezależne testy studzą emocje, ale nie uspokajają
Warto jednak zachować chłodną głowę. Najmocniejsze twierdzenia o Mythosie pochodzą od samego Anthropic, czyli firmy, która ma interes w pokazaniu, że jej technologia jest przełomowa. Dlatego szczególnie ważne są zewnętrzne testy.
Brytyjski AI Security Institute sprawdził Claude Mythos Preview w kontrolowanych warunkach. Wyniki są imponujące, ale bardziej precyzyjne niż marketingowe nagłówki. W zadaniach typu capture-the-flag na poziomie eksperckim Mythos osiągnął 73 proc. skuteczności. W symulacji „The Last Ones”, obejmującej 32 kroki prowadzące przez scenariusz ataku na podatną sieć firmową, model jako pierwszy ukończył całość — w 3 z 10 prób. Średnio wykonywał 22 z 32 kroków, podczas gdy Claude Opus 4.6 wykonywał średnio 16.
To bardzo dużo. Ale AISI podkreśla też ograniczenia. Testy dotyczyły środowisk podatnych, słabo bronionych i pozbawionych aktywnych obrońców, systemów wykrywania czy realnych konsekwencji działań, które w prawdziwej firmie uruchomiłyby alarmy bezpieczeństwa. Instytut jasno zaznacza, że nie można jeszcze stwierdzić, czy Mythos byłby równie skuteczny wobec dobrze zabezpieczonych systemów.
To nie jest więc apokalipsa. Ale nie jest to też zwykły hype.
Najuczciwsza ocena brzmi: Claude Mythos Preview pokazuje, że AI zaczyna przekraczać próg, przy którym słabe cyberbezpieczeństwo staje się jeszcze większym ryzykiem niż dotychczas.
Dlaczego banki i regulatorzy są zaniepokojeni?
Największy strach nie dotyczy pojedynczego komputera, lecz systemów finansowych, infrastruktury krytycznej i firm opartych na starszym, skomplikowanym oprogramowaniu. Reuters podaje, że Mythos wywołał obawy między innymi w sektorze bankowym, bo model tego typu może pomagać w identyfikowaniu i wykorzystywaniu luk szybciej, niż organizacje są w stanie je naprawiać.
To szczególnie ważne w finansach. Banki korzystają z ogromnych, wielowarstwowych systemów, które często łączą nowoczesne usługi z infrastrukturą rozwijaną przez dekady. W takim środowisku nie chodzi wyłącznie o pojedynczą lukę. Chodzi o możliwość łączenia wielu drobnych słabości w jeden poważny scenariusz ataku.
Według Reutersa temat Mythosa pojawił się w rozmowach urzędników, regulatorów i przedstawicieli sektora finansowego w USA, Wielkiej Brytanii i Europie. To pokazuje, że model Anthropic przestał być wyłącznie problemem technologicznym. Stał się tematem dla banków centralnych, ministerstw finansów i instytucji odpowiedzialnych za stabilność rynku.
To bardzo ważny sygnał dla firm. Przez lata cyberbezpieczeństwo było traktowane jak koszt IT. W erze modeli takich jak Mythos zaczyna być kwestią odporności biznesu.
Największy problem: ta technologia nie zostanie zamknięta na zawsze
Anthropic może ograniczać dostęp do Claude Mythos Preview. Może wybierać partnerów. Może budować zabezpieczenia. Może prowadzić odpowiedzialne ujawnianie luk.
Ale nie może zatrzymać całego rynku.
Jeśli Anthropic osiągnął taki poziom, podobne zdolności będą rozwijać także inne firmy i państwa. Modele OpenAI, Google, xAI, Meta, chińskie laboratoria i systemy open source będą stopniowo poprawiać swoje możliwości w kodowaniu, analizie systemów i działaniu agentowym. To oznacza, że pytanie nie brzmi już: „czy AI będzie używana w cyberatakach?”. Pytanie brzmi: „kto będzie lepiej przygotowany — atakujący czy obrońcy?”.
I właśnie dlatego Project Glasswing ma znaczenie. Anthropic próbuje dać przewagę obrońcom, zanim podobne narzędzia staną się szerzej dostępne. To rozsądna strategia, ale też przyznanie, że okno czasowe może być krótkie.
Czy zwykli użytkownicy powinni się bać?
Dla zwykłego użytkownika Claude Mythos nie oznacza, że jutro wszystkie konta bankowe będą zagrożone przez superinteligentnego hakera. Oznacza jednak, że podstawowe zasady bezpieczeństwa stają się jeszcze ważniejsze: aktualizacje, silne hasła, menedżer haseł, uwierzytelnianie dwuskładnikowe, ostrożność wobec phishingu i unikanie przestarzałego oprogramowania.
AISI zwraca uwagę dokładnie na te podstawy: regularne aktualizacje, solidne kontrole dostępu, poprawną konfigurację systemów i dobre logowanie zdarzeń. To brzmi mało efektownie, ale w świecie AI wspierającej ataki właśnie zaniedbane podstawy będą pierwszym celem.
Największe ryzyko nie polega na tym, że powstaje „magiczna AI do hakowania wszystkiego”. Ryzyko polega na tym, że miliony firm nadal działają tak, jakby cyberbezpieczeństwo było dodatkiem, a nie warunkiem przetrwania.
Claude Mythos pokazuje, że AI wchodzi w fazę strategiczną
Dotąd debata o sztucznej inteligencji często kręciła się wokół produktywności: pisania tekstów, generowania obrazów, kodowania, obsługi klienta czy automatyzacji pracy biurowej. Claude Mythos przenosi tę dyskusję na zupełnie inny poziom.
To już nie jest tylko pytanie o to, czy AI zastąpi programistę albo przyspieszy pracę zespołu marketingu. To pytanie o bezpieczeństwo państw, infrastruktury, banków, systemów operacyjnych i całego internetu.
Jeśli doniesienia Axios są prawdziwe, NSA korzystająca z Mythosa mimo sporu Pentagonu z Anthropic pokazuje coś bardzo ważnego: państwa mogą krytykować firmy AI, mogą regulować ich produkty, mogą prowadzić z nimi konflikty prawne — ale gdy pojawia się technologia dająca przewagę w cyberbezpieczeństwie, pragmatyzm wygrywa z polityką.
Claude Mythos Preview może nie być publicznie dostępny. Ale jego znaczenie jest już publiczne.
Pokazuje przyszłość, w której najważniejsza walka o bezpieczeństwo internetu nie będzie toczyć się tylko między hakerami i administratorami. Będzie toczyć się między modelami AI, które szukają luk, i modelami AI, które próbują je naprawiać szybciej, niż ktoś zdąży je wykorzystać.
Co dalej?
Najbliższe miesiące będą kluczowe. Anthropic zapowiada, że w ramach Project Glasswing będzie dzielić się wnioskami, najlepszymi praktykami i informacjami o załatanych podatnościach, gdy będzie to bezpieczne. Firma chce też rozwijać zabezpieczenia, które w przyszłości pozwolą bezpieczniej udostępniać modele klasy Mythos na większą skalę.
To może oznaczać dwa scenariusze.
W optymistycznym wariancie AI stanie się najlepszym narzędziem obrońców: pomoże szybciej znajdować luki, pisać bezpieczniejszy kod i chronić infrastrukturę, która dziś jest zbyt duża i zbyt złożona dla ludzkich zespołów.
W pesymistycznym wariancie podobne możliwości trafią do grup przestępczych, państw autorytarnych i operatorów ataków ransomware, zanim firmy i instytucje zdążą się przygotować.
Najbardziej prawdopodobny jest jednak wariant mieszany. AI przyspieszy obie strony. Będzie pomagać w obronie, ale jednocześnie obniży próg wejścia dla bardziej zaawansowanych ataków.
Claude Mythos nie jest więc tylko kolejnym modelem AI. To ostrzeżenie, że epoka „łatwego” cyberbezpieczeństwa właśnie się kończy. A firmy, państwa i użytkownicy muszą zacząć traktować bezpieczeństwo cyfrowe tak samo poważnie jak energię, finanse i obronność.
FAQ – Claude Mythos
Czym jest Claude Mythos Preview?
Dlaczego Claude Mythos nie jest dostępny publicznie?
Kto ma dostęp do Claude Mythos?
Czy NSA naprawdę korzysta z Claude Mythos?
Czy Claude Mythos jest zagrożeniem dla zwykłych użytkowników?
Dziękujemy za przeczytanie artykułu na Techoteka.pl.
Publikujemy codziennie informacje o sztucznej inteligencji, nowych technologiach, IT oraz rozwoju agentów AI.
Obserwuj nas na Facebooku, aby nie przegapić kolejnych artykułów.



