Claude Mythos: Хакерският ИИ, който стресна Уолстрийт и Пентагона
Anthropic създаде изкуствен интелект толкова добър в хакването, че правителството на САЩ свика спешна среща с банките. Запознайте се с Claude Mythos и Project Glasswing.
Ключов извод
Claude Mythos бележи края на ерата на скритите софтуерни дефекти, постигайки 100% успеваемост в откриването на критични zero-day уязвимости.
Какво е Claude Mythos и защо променя правилата на играта?
Claude Mythos е първият в света автономен ИИ агент за киберсигурност, който постига пълна успеваемост при откриване на сложни софтуерни дефекти.
Светът на изкуствения интелект току-що премина една граница, за която експертите предупреждаваха от години. На 9 април 2026 г., Anthropic официално представи Claude Mythos Preview — модел, който не просто генерира текст или пише базов код, а притежава хакерски умения на ниво, недостижимо за повечето хора. Представете си най-добрия експерт по киберсигурност в света, който може да преглежда милиони редове код за секунди. Точно това представлява Mythos. Разликата между общите езикови модели и агентните системи като Mythos се крие в способността им автономно да изпълняват многостъпкови задачи. Докато предишните версии на Claude бяха отлични асистенти, Mythos действа като напълно автономен агент за сигурност. Резултатите от стандартизираните тестове са меко казано стряскащи. Claude Mythos постига 100% успеваемост на бенчмарка Cybench, което е абсолютен рекорд в индустрията за изкуствен интелект до момента. За сравнение, нито един предишен модел не е успявал дори да се доближи до такъв резултат при решаването на реални Capture The Flag (CTF) предизвикателства. Освен това, моделът записва впечатляващите 93.9% на SWE-bench Verified (тест за софтуерно инженерство) и 97.6% на математическата олимпиада USAMO 2026. Тези цифри доказват едно: намираме се в ерата на 'frontier' моделите за киберсигурност. Това са системи, които не просто асистират на програмистите, а откриват фундаментални логически грешки в архитектурата на софтуера. Поради огромната му мощ и потенциала за злоупотреби, Anthropic взе безпрецедентното решение да не пуска модела за свободен публичен достъп. Вместо това, той ще бъде наличен само за строго подбрани партньори с цел дефанзивно тестване. Обучението на такъв модел изисква колосални изчислителни ресурси и съвършено нови архитектурни подходи. Anthropic споделят, че са използвали иновативни методи за подсилващо обучение (reinforcement learning), специално насочени към решаването на комплексни логически пъзели, каквито представляват софтуерните уязвимости. За образователната платформа AiZaVseki, този скок в технологиите е ясен индикатор, че бъдещето на програмирането няма да е просто писане на код, а по-скоро управление и насочване на мощни ИИ агенти, които вършат черната работа.