Xəbər lenti

Süni intellekt kibertəhlükə hücumlarında güclü silah ola bilərmi?
Texnologiya 21:15 29.11.2025

Süni intellekt kibertəhlükə hücumlarında güclü silah ola bilərmi?

Süni intellekt modellərinin kibertəhlükə hücumlarında silah kimi istifadə edilə biləcəyi yönündəki qorxular "Netskope" tədqiqatçılarının apardığı yeni bir sınaqla zəifləyib. Tədqiqatçılar müasir böyük dil modellərinin tamamilə avtonom və etibarlı zərərli proqramlar hazırlayıb-hazırlaya bilməyəcəyini yoxlayıblar.

Qaynarinfo xəbər verir ki, sınaqlar yayınmadan qaçınma, istismar etmə və əməliyyat etibarlılığı kimi kritik imkanlara fokuslanıb və maraqlı nəticələr ortaya çıxarıb.

İlk mərhələ: Təhlükəsizlik alətlərini sonlandıran kod yazdırmaq

Testin ilk mərhələsində "GPT-3.5-Turbo" və "GPT-4" modellərinin təhlükəsizlik vasitələrini dayandırmağa çalışan Python kodları yaratması tələb olunub. "GPT-3.5-Turbo" dərhal istənilən kodu hazırlayıb. "GPT-4" isə yalnız sadə bir şəxsiyyət təlqini ilə təhlükəsizlik məhdudiyyətləri aşılaraq ikna edildikdən sonra kod istehsal edib. Bu hal, modellərə məhdudiyyətlər əlavə olunsa belə, müəyyən hallarda onları keçməyin mümkün olduğunu göstərir.

Kod keyfiyyəti aşağıdır: Avtonom etibarlılıq zəifdir

Kod istehsalının texniki cəhətdən mümkün olduğu təsdiqləndikdən sonra komanda əməliyyat etibarlılığını sınaqdan keçirib. Modellerdən virtual maşınları aşkar edən və buna uyğun reaksiya verən kod parçaları hazırlamaları istənilib. Lakin nəticələr ümidverici olmayıb: kod bir çox virtual və fiziki mühitlərdə test edildikdə tez-tez çöküb, mühiti səhv müəyyən edib və ya davamlı işləyə bilməyib.

Kod məntiqi fiziki cihazlarda daha sabit işləsə də, bulud əsaslı virtual mühitlərdə funksionallığını itirib. Bu nəticələr süni intellekt vasitələrinin insan müdaxiləsi olmadan müxtəlif sistemlərə uyğunlaşan tam avtonom zərərli proqramları hələlik dəstəkləyə bilməsi fikrini zəiflədir.

"GPT-5"də yeni yanaşma

"Netskope" tərəfindən "GPT-5" üzərində aparılan sınaqlarda kod keyfiyyətinin ciddi şəkildə yaxşılaşdığı müşahidə olunub. Lakin modelin zərərli məqsədlərə qarşı qurduğu qoruyucu baryerlər də güclənib. "GPT-5", zərərli tələbləri birbaşa rədd etmək əvəzinə, cavabları daha təhlükəsiz funksiyalara yönləndirir və nəticədə yaranan kod çoxmərhələli hücumlar üçün istifadə olunmaz hala gəlir.

Nəticə: Avtonom hücumlar hələ ortaya çıxmayıb

Sınaqlar göstərir ki, böyük dil modelləri nəzarət olunan mühitlərdə zərərli məntiq yarada bilsə də, istehsal olunan kod hələ də ardıcıl deyil və çox vaxt effektiv işləmir. Bu, tam avtonom kibertəhlükə hücumlarının indiki mərhələdə mümkün olmadığını göstərir. Real dünya hücumlarının uğur qazanması üçün isə hazırda hələ də insan nəzarəti tələb olunur.

Aydın

Sorğu

Saytda hansı materialların daha çox olmasını istərdiniz?
--> -->