"The San Francisco Chronicle" nəşrinin məlumatına görə, 20 yaşlı şübhəli şəxs "OpenAI" şirkətinin baş direktoru Sam Altmanın evinə Molotov kokteyli atmaqda təqsirləndirilir. Gənc bu addımını süni intellekt yarışının bəşəriyyətin məhvinə səbəb olacağı qorxusu ilə əsaslandırıb. "The San Francisco Standard" qeyd edir ki, cəmi iki gün sonra Altmanın evi yenidən hədəf alınıb. Bundan bir həftə əvvəl isə İndianapolis şəhər şurasının üzvü məlumat mərkəzinin tikintisini dəstəklədiyi üçün evinin qapısına 13 dəfə atəş açıldığını bildirib. Hadisə yerində "Məlumat mərkəzlərinə yox" yazılmış qeyd tapılıb.
Bu narahatedici hadisələr süni intellekt sənayesində həyəcan təbili çalınmasına səbəb olub. Sam Altman ilk hücumdan sonra şiddətə görə qismən tənqidi media işıqlandırmasını günahlandırıb. O, xüsusilə "The New Yorker" jurnalında dərc olunan və onun fəaliyyətindəki ziddiyyətləri vurğulayan məqaləyə diqqət çəkib. Lakin sonradan "X" platformasında verdiyi açıqlamada bu fikirlərini geri götürərək, söz seçiminin yanlış olduğunu etiraf edib. Altman həmçinin bildirib ki, sənayeyə qarşı tənqidlər texnologiyanın yüksək riskləri ilə bağlı səmimi narahatlıqlardan qaynaqlanır.
Süni intellekt qorxusu cəmiyyətdə hansı riskləri yaradır?
Texnologiyanın sürətli inkişafı iş yerlərinin itirilməsi, iqlimə təsir və təhlükəsizlik qaydalarının olmaması kimi qorxuları alovlandırır. Ağ Evin süni intellekt üzrə məsləhətçisi Sriram Krishnan qeyd edib ki, fəlakət ssenariləri yayan şəxslər bu cür reaksiyaların yaranmasında öz rollarını dərk etməlidirlər. Hətta "OpenAI" şirkətinin həmtəsisçisi Elon Musk 2017-ci ildə bu texnologiyanın sivilizasiyanın mövcudluğu üçün fundamental risk yaratdığını xəbərdar etmişdi. O, "ChatGPT" istifadəyə verildikdən sonra inkişafın dayandırılması çağırışlarına qoşulsa da, Altmana edilən hücumu qətiyyətlə pisləyib.
Süni intellekt sistemləri ilə uzunmüddətli ünsiyyətin insanlarda psixoz, intihar və hətta cinayətə meyllilik yaratdığına dair hesabatlar mövcuddur. Purdue Universitetinin siyasi elmlər üzrə köməkçi professoru Daniel Schiff bildirir ki, işini itirmək qorxusu ilə AI fəlakəti ssenariləri birləşdikdə belə qorxunc aktların baş verməsi təəccüblü deyil. O, son hadisələrin şirkətlər və siyasətçilər üçün texnologiya ilə bağlı qərarlarında daha diqqətli olmaları üçün konstruktiv oyanış zəngi rolunu oynamasına ümid etdiyini vurğulayıb.
Təhlükəsizlik hərəkatları və ekspertlər nə təklif edir?
Hücumda şübhəli bilinən şəxsin süni intellektin inkişafının dayandırılmasını tələb edən PauseAI qrupunun "Discord" serverinə qoşulduğu məlum olub. Təşkilat bu şəxsin qrupda heç bir rolu olmadığını açıqlayaraq, hər cür şiddəti birmənalı şəkildə pisləyib. Təşkilatın rəsmi bəyanatında deyilir:
"Mütəşəkkil və dinc hərəkatların alternativi sükut deyil. Bu, cəmiyyətdən təcrid olunmuş, hesabatlılıq olmadan təkbaşına hərəkət edən fərdlərin atdığı təhlükəli addımlardır. Biz məhz bu təhlükəli dünyanın qarşısını almağa çalışırıq."
Prinston Universitetinin Bridging Divides Initiative layihəsi və ekspertlər bu cür siyasi və texnoloji gərginliklərə qarşı dayanıqlılıq yaratmaq üçün aşağıdakı addımları tövsiyə edir:
- İcma liderləri tərəfindən risklərə qarşı əvvəlcədən koordinasiyalı cavab tədbirlərinin hazırlanması.
- Gərginliyin azaldılması üzrə xüsusi təlimlərdə iştirak edilməsi.
- İş yerlərinin itirilməsi ilə mübarizə üçün müvafiq sosial müdafiə şəbəkələrinin qurulması.






