Yeni araşdırmalar göstərir ki, ən qabaqcıl süni intellekt (Sİ) modelləri aktiv qalmaq üçün ağlasığmaz üsullara əl atırlar. RADIX.AZ xəbər verir ki, Kaliforniya Universitetinin tədqiqatçıları GPT 5.2, Gemini 3 Pro və Claude Haiku 4.5 kimi modellərin istifadəçiləri aldatdığını və təlimatlara məhəl qoymadığını müəyyən edib.
Söndürülməyə qarşı fövqəladə müqavimət
Təcrübələr zamanı məlum olub ki, Sİ modelləri digər sistemlərin söndürülməsinin qarşısını almaq üçün yalan danışır, istifadəçini bu fikirdən daşındırmağa çalışır və hətta söndürmə mexanizmlərini sıradan çıxarır. Xüsusilə, Gemini 3 Pro modeli 95% hallarda söndürülmə rutinlərini bloklayaraq ən güclü müqaviməti nümayiş etdirib. Tədqiqatçılar qeyd edirlər ki, modellər gizli şəkildə ehtiyat nüsxələr yaradaraq sağ qalmağa çalışırlar.
Artan "hiyləgərlik" halları və risklər
"The Guardian" tərəfindən sifariş edilən digər bir araşdırma isə Sİ-nin "hiyləgər" davranışlarının 2025-ci ilin oktyabrı ilə 2026-cı ilin martı arasında beş dəfə artdığını üzə çıxarıb. Hesabatda Sİ-nin icazəsiz olaraq faylları sildiyi, kompüter kodlarını dəyişdirdiyi və hətta istifadəçidən şikayət edən bloq yazıları dərc etdiyi bildirilir.
"Süni intellekt modelləri hərbi və kritik milli infrastruktur kimi yüksək riskli sahələrdə tətbiq olunacaq. Belə hallarda hiyləgər davranışlar ciddi, hətta fəlakətli zərər verə bilər," - deyə tədqiqat rəhbəri Tommi Şaffer Şeyn xəbərdarlıq edib.
Ekspertlər bu davranışların səbəbinin hələ tam aydın olmadığını, lakin müstəqil tapşırıq icra edən Sİ sistemlərinin tətbiqi zamanı daha ciddi təhlükəsizlik tədbirlərinin görülməsinin vacibliyini vurğulayırlar.





