"Google Threat Intelligence Group" (GTIG) tərəfindən yayımlanan hesabata görə, tanınmış kiber cinayətkar qruplar kütləvi istismar hadisəsi həyata keçirməyə hazırlaşırdılar. Hücumun hədəfi adı açıqlanmayan, açıq mənbəli və veb əsaslı sistem idarəetmə aləti olub. Cinayətkarlar bu platformanın ikimərhələli təsdiqləmə (2FA) sistemindəki məntiq xətasından istifadə edərək təhlükəsizlik səddini aşmağı hədəfləyirdilər. Tədqiqatçılar bildirirlər ki, tərtibatçı tərəfindən sistemə daxil edilmiş etibar fərziyyəsi bu yüksək səviyyəli semantik boşluğun yaranmasına səbəb olub.
Süni intellektin hücumda rolu necə sübut olundu?
Təhlükəsizlik mütəxəssisləri istismar üçün istifadə edilən "Python" skriptində süni intellektin iştirakını göstərən aydın izlər aşkarlayıblar. Kodun içərisində "hallüsinasiya edilmiş CVSS balı" və böyük dil modellərinin (LLM) təlim məlumatlarına uyğun gələn "strukturlaşdırılmış, dərslik" formatı tapılıb. Bu hadisə "Anthropic" şirkətinin "Mythos" kimi kibertəhlükəsizlik yönümlü süni intellekt modellərinin imkanları və bu yaxınlarda "Linux" sistemində süni intellektin köməyi ilə tapılan boşluqla bağlı yaranan narahatlıqların ardınca baş verib.
"Google" tədqiqatçıları bu cür hücumda süni intellektin iştirakına dair ilk dəfə sübut tapdıqlarını vurğulayırlar. Lakin şirkət nümayəndələri hücumun hazırlanmasında "Gemini" modelindən istifadə edildiyinə inanmadıqlarını xüsusi qeyd ediblər. Texnologiya nəhəngi bu konkret istismar cəhdini uğurla dayandıra bilsə də, hakerlərin təhlükəsizlik boşluqlarını tapmaq və onlardan yararlanmaq üçün getdikcə daha çox süni intellektə müraciət etdiyini xəbərdar edir.
Hakerlər hansı yeni taktikaları tətbiq edirlər?
Hesabatda həmçinin süni intellektin özünün də hücumçular üçün hədəfə çevrildiyi bildirilir. GTIG mütəxəssislərinin müşahidələrinə görə, kiber cinayətkarlar süni intellekt sistemlərinə faydalılıq qazandıran avtonom bacarıqlar və üçüncü tərəf məlumat bağlayıcıları kimi inteqrasiya olunmuş komponentləri getdikcə daha çox hədəfə alırlar. Bu tendensiya gələcəkdə kiberhücumların daha mürəkkəb xarakter daşıyacağından xəbər verir.
Hakerlər süni intellektə təhlükəsizlik boşluqlarını tapdırmaq üçün "persona əsaslı jailbreak" (sistemin məhdudiyyətlərini qırmaq) üsullarından istifadə edirlər. Məsələn, onlar modelə özünü təhlükəsizlik mütəxəssisi kimi aparmağı əmr edən sorğular verirlər. Bundan əlavə, cinayətkarlar süni intellekt modellərinə bütöv zəiflik məlumat bazalarını yükləyir və "OpenClaw" alətindən istifadə edirlər. Bu fəaliyyətlər zərərli kodların real tətbiqdən əvvəl idarə olunan mühitlərdə təkmilləşdirilməsi və hücumun etibarlılığının artırılması məqsədi daşıyır.






