"Bloomberg" nəşrinin məlumatına görə, rəqib olmalarına baxmayaraq, "OpenAI", "Anthropic" və "Google" şirkətləri əməkdaşlığa başlayıb. Məqsəd Çin müəssisələrinin Amerika süni intellekt modellərinin imkanlarından istifadə edərək öz məhsullarını yaratmaq cəhdlərinin qarşısını almaqdır. Bu məlumat mübadiləsi 2023-cü ildə "Microsoft" ilə birlikdə yaradılmış qeyri-kommersiya təşkilatı olan "Frontier Model Forum" vasitəsilə həyata keçirilir.
"OpenAI" layihədə iştirakını təsdiqləyərək, daha əvvəl ABŞ Konqresinə göndərdiyi sənədi xatırladıb. Həmin sənəddə Çinin "DeepSeek" şirkəti Amerika laboratoriyaları tərəfindən hazırlanmış imkanlardan pulsuz istifadə etməkdə günahlandırılırdı. Söhbət "distillə" adlanan xüsusi metoddur. Bu üsul mövcud Sİ modelindən istifadə edərək yeni modelin öyrədilməsini nəzərdə tutur və sıfırdan model yaratmaqdan qat-qat ucuz başa gəlir. İstehsalçılar bu prosesə yalnız rəqabət məqsədi daşımayan hallarda icazə verirlər.
Əksər Çin Sİ modelləri açıq lisenziya ilə yayımlanır. Lakin ABŞ şirkətləri xərclərini qarşılamaq üçün qapalı və ödənişli modellər təqdim edirlər. "OpenAI" iddia edir ki, "DeepSeek" özünün yeni çat-botunu yaratmaq üçün Amerika modellərini distillə etməyə davam edir. Şirkətlər arasındakı bu məlumat mübadiləsi kibertəhlükəsizlik sahəsindəki standart təcrübəni xatırladır. Yaradıcılar birlikdə işləyərək distillə hallarını aşkarlamağa və icazəsiz girişlərin qarşısını almağa çalışırlar.
Hazırda bu prosedur məhdud çərçivədə aparılır. İştirakçılar antiinhisar qaydalarına görə nə qədər məlumat paylaşa biləcəklərindən əmin deyillər. "OpenAI" ilə yanaşı, "Anthropic" və "Google" da bu problemi gündəmə gətirib. "Anthropic" xüsusilə "DeepSeek", "Moonshot" və "MiniMax" kimi Çin startaplarına diqqət çəkib. Şirkətlər dəqiq sübutlar təqdim etməsələr də, qeyri-qanuni istifadənin miqyasını irihəcmli məlumat sorğuları əsasında ölçməyin mümkün olduğunu vurğulayıblar.





