Şimal-Qərb Universitetinin (NU) iqtisadçıları Mişel Yin və Xoa Vu, həmçinin Amerika Universitetinin (AU) tədqiqatçısı Klaudiya Persiko tərəfindən aparılan yeni araşdırma süni intellektin əmək bazarına təsiri ilə bağlı mühüm suallar yaradıb. Alimlər "ChatGPT-5", "Gemini 2.5" və "Claude 4.5" dil modellərindən hansı peşələrin daha çox risk altında olduğunu qiymətləndirməyi xahiş ediblər. Nəticədə, modellərin verdiyi cavablar arasında ciddi fərqlər ortaya çıxıb. Bu vəziyyət siyasətçilərin və işəgötürənlərin qərar qəbul edərkən güvəndiyi süni intellektə məruzqalma indekslərinin etibarlılığını şübhə altına alır.
Sınaqlar zamanı modellər eyni peşələr üçün tamamilə ziddiyyətli proqnozlar veriblər. Məsələn, "Claude" mühasib peşəsinin avtomatlaşdırılma riskini çox yüksək qiymətləndirdiyi halda, "Gemini" bu göstəricini nəzərəçarpacaq dərəcədə aşağı hesab edib. Bənzər fikir ayrılıqları reklam menecerləri və yüksək vəzifəli rəhbərlərin qiymətləndirilməsində də müşahidə olunub. Araşdırmaya görə, "ChatGPT" və "Gemini" bir-biri ilə ən çox uzlaşan modellər olsa da, onlar da təxminən 25 faiz hallarda fərqli nəticələr göstəriblər.
Fərqli nəticələrin səbəbi nədir?
İqtisadçıların fikrincə, bu uyğunsuzluqlar təkcə modellərin arxitekturasındakı fərqlərlə deyil, həm də təlim məlumatları ilə bağlıdır. Maliyyə analitikləri kimi neyroşəbəkələrdən aktiv istifadə edən ilkin istifadəçilər daha çox məlumat yaradırlar ki, bu da gələcək modellərin təliminə birbaşa təsir göstərir. Hazırda süni intellekt indeksləri üç üsulla formalaşdırılır: ekspertlərin əl ilə etdiyi qiymətləndirmələr, istifadəçi sorğuları və böyük dil modelləri (LLM). Lakin əl ilə aparılan hesablamalar subyektiv ola bilər, sorğular isə yalnız məhdud bir qrupun fikrini əks etdirir və ümumi əmək bazarını tam təmsil etmir.
Bu uyğunsuzluqlar hansı riskləri yaradır?
Sürətlə inkişaf edən texnologiyanın fərqli versiyaları arasında ziddiyyətlərin olması təbii qarşılansa da, əsas problem bu məlumatların necə tətbiq edilməsindədir. Müəlliflər vurğulayırlar ki, bəzi işəgötürənlər və dövlət rəsmiləri bu indeksləri mütləq həqiqət kimi qəbul edirlər. Analitik hesabatlarda və konsaltinq sənədlərində geniş istifadə olunan bu cür qeyri-dəqiq reytinqlər yanlış siyasi və iqtisadi qərarların verilməsinə gətirib çıxara bilər. Hələlik süni intellekt modellərinin avtomatlaşdırma riskini digər metodlardan daha yaxşı və ya pis qiymətləndirdiyi tam aydın deyil.
Tədqiqatçılar nə təklif edir?
Mütəxəssislər hesab edirlər ki, tədqiqatçılar yalnız bir modelin cavablarına deyil, bir neçə fərqli süni intellektin nəticələrinə əsaslanmalı və mövcud qeyri-müəyyənliyi açıq şəkildə qeyd etməlidirlər. Onların fikrincə, ən dəqiq məlumatları texnologiyanın iqtisadiyyata necə inteqrasiya olunduğunu və hansı tapşırıqlar üçün istifadə edildiyini göstərən real sorğular verə bilər. Mişel Yin məsələyə belə münasibət bildirib:
"Şəxsən mən 'İşimi dəyişməliyəm' və ya 'Övladım ixtisasını dəyişməlidir' kimi qərarlar vermək üçün tək bir göstəriciyə etibar etməzdim."






