Süni intellekt sirləri saxlamır. Çat-botlara heç vaxt daxil edilməməli məlumatlar.
Lent.az xarici mediaya istinadla əsas məqamları təqdim edir.
Çat-botlara “ictimai açıqca” kimi yanaşmaq lazımdır və məlumat sızmasının qarşısını almaq üçün kart nömrələri, ünvanlar və digər həssas məlumatlar heç vaxt yazılmamalıdır. Məxfi tapşırıqlar üçün korporativ süni intellekt həllərindən istifadə etmək tövsiyə olunur, çünki açıq platformalar istifadəçi dialoqlarını modelin təkmilləşdirilməsi üçün istifadə edə bilər.
Google mühəndisi icazəsiz kontekst toplanmasının qarşısını almaq üçün çat tarixçəsini mütəmadi silməyi və “modelin yaxşılaşdırılmasına kömək et” funksiyasını söndürməyi məsləhət görür.
31 yaşlı Harş Varşni Nyu-Yorkda yaşayan Google mühəndisidir. O, 2023-cü ildən etibarən Chrome süni intellekt çərçivəsində məlumatların qorunması və təhlükəsizlik mövzuları üzərində çalışır və süni intellektlə bağlı məxfilik risklərini yaxşı anlayır. Varşni hər gün araşdırma aparmaq, qeydlər yazmaq, kodlaşdırma və axtarış üçün İİ-dən istifadə etsə də, vurğulayır ki, modellər məlumatla işləyir və buna görə də istifadəçilər şəxsi informasiyalarını kibercinayətkarlardan və məlumat brokerlərindən özləri qorumalıdırlar.
Mütəxəssis AI ilə təhlükəsiz qarşılıqlı əlaqə üçün universal hesab etdiyi dörd əsas vərdiş formalaşdırıb.
Birinci vərdiş ondan ibarətdir ki, çat-botlara ictimai açıqca kimi yanaşılmalıdır. Kart nömrələri, yaşayış ünvanı, tibbi məlumatlar və digər həssas detallar yazılmamalıdır. Çünki dialoqun bir hissəsi modelin sonrakı təlimində istifadə oluna bilər. Bu isə “təlim sızması” riski yaradır, yəni şəxsi məlumatların fraqmentləri başqa istifadəçilərə verilən cavablarda üzə çıxa bilər. Bundan əlavə, klassik məlumat sızması təhlükəsi də mövcuddur.
İkinci vacib məqam qarşılıqlı əlaqənin hansı “mühitdə” baş verdiyini anlamaqdır: açıq platformada, yoxsa korporativ modeldə. Ödənişli korporativ AI həlləri adətən istifadəçi dialoqları ilə öyrədilmir və buna görə də daxili tapşırıqlar və iş layihələri üçün daha uyğundur. Açıq çat-botlara isə dərc olunmamış işləmələr və ya patent ideyaları yazmaq təhlükəlidir. Məhz bu səbəbdən bəzi şirkətlərdə məxfi məlumatlar təsadüfən ChatGPT vasitəsilə sızdırılıb. Varşni prinsipial olaraq Google layihələrini açıq modellərdə müzakirə etmir, hətta iş sənədlərinin redaktəsi üçün belə korporativ AI-dən istifadə edərək şəxsi məlumatların həcmini minimuma endirir.
Üçüncü vərdiş həm açıq, həm də daxili alətlərdə çat tarixçəsini mütəmadi olaraq təmizləməkdir. Açıq “sirlər” olmasa belə, hesabın ələ keçirilməsi böyük həcmdə şəxsi kontekstin üzə çıxmasına səbəb ola bilər. Mühəndis misal çəkir ki, korporativ Gemini bir dəfə onun dəqiq ev ünvanını xatırlayıb. Model bu məlumatı köhnə məktubdan uzunmüddətli yaddaş vasitəsilə çıxarmışdı. Bu cür halların qarşısını almaq üçün Varşni vaxtaşırı tarixçəni silir və həssas sorğular zamanı “inkoqnito” və ya “müvəqqəti çat” rejimlərindən istifadə edir. Bu rejimlərdə sessiyalar saxlanılmır və təlim prosesinə daxil edilmir.
Dördüncü tövsiyə tanınmış və şəffaf xidmətləri seçmək və onların məxfilik siyasətini diqqətlə oxumaqdır. Varşni Google məhsullarına, həmçinin ChatGPT və Claude platformalarına üstünlük verir. O, ayarlarda “modelin yaxşılaşdırılmasına kömək et” və ya buna bənzər bəndi xüsusi olaraq axtarmağı və mümkün olduqda söndürməyi məsləhət görür. Bu addım konkret dialoqların təlim məlumatlarına daxil edilməsinin qarşısını alır.
Onun fikrincə, süni intellekt son dərəcə güclü bir alətdir. Lakin rəqəmsal təhlükəsizliyin əsas vərdişləri olmadan istifadəçi bir sorğu ilə yanaşı, öz şəxsiyyətinin bir hissəsini də risk altına ata bilər. Buna görə də İİ ilə hər bir qarşılıqlı əlaqəyə internetdə şəxsi məlumatların toplanması ilə eyni səviyyədə ehtiyatla yanaşmaq lazımdır.
süni intellekt