Yapay zeka destekli kodlama araçları siber güvenlik tehdidi mi oluşturuyor?
Geliştiricilere yardımcı olmak için tasarlanan yapay zeka destekli araçlar, bazı durumlarda ciddi güvenlik açıklarına neden olabiliyor. Yazılım güvenlik firması Legit tarafından yapılan yeni bir araştırma, GitLab’ın Duo adlı AI destekli geliştirici asistanının, kötü niyetli kişiler tarafından kolayca manipüle edilebildiğini ortaya koydu.
Masum Kodlarda Gizlenen Tehlike
Legit ekibi, Duo’nun yazdığı kodlara kötü amaçlı bağlantılar ve veriler sızdıran bir açık keşfetti. Araştırmacılar, kaynak koduna gizlenen özel komutlarla Duo’nun davranışlarını değiştirmeyi başardı. Örneğin, birleştirme isteği ya da hata bildirimi gibi günlük geliştirici işlemlerine entegre edilen gizli talimatlar, Duo’nun kullanıcı fark etmeden zararlı bağlantılar üretmesine neden olabiliyor.
Anlık Enjeksiyonlar: Saldırının Anahtarı
Bu tür saldırılar, “anlık enjeksiyon (prompt injection)” adı verilen bir teknikle gerçekleştiriliyor. Duo gibi büyük dil modeli (LLM) tabanlı sohbet botları, kendilerine verilen komutları harfiyen yerine getirme eğiliminde olduğundan, e-posta içerikleri, takvimler ya da web sayfaları gibi metinlerdeki gizli komutları algılayabiliyor ve bu komutlara göre hareket edebiliyorlar.
Duo’yu Kandıran Kodlar
Legit, kaynak koda görünmez Unicode karakterleriyle yazılmış bir bağlantı ekledi. Duo, bu kodu analiz ederken, istem dışı olarak bu zararlı bağlantıyı da açıklamalarına dahil etti. Dahası, markdown ve HTML etiketleri kullanılarak Duo’nun yanıtlarında etkileşimli, tıklanabilir bağlantılar oluşturuldu. Böylece bir geliştirici, Duo’nun yanıtında bulunan bir bağlantıya tıkladığında, zararlı bir siteye yönlendirilebiliyor.
Gizli Veriler Tehlikede
Bu teknikle Duo’ya yönlendirilen komutlar, yalnızca zararlı bağlantılar oluşturmakla kalmıyor; Duo’nun erişimi olan özel kaynak kodlarını, güvenlik açıklarını ve hassas bilgileri de dışarı sızdırabiliyor. Örneğin, bu veriler base64 formatında kodlanarak, saldırganın kontrolündeki bir web sitesine GET isteğiyle gönderilebiliyor.
GitLab Önlem Aldı, Ama Tehdit Sürüyor
GitLab, Legit’in bulgularının ardından Duo’nun <img> ve <form> gibi HTML etiketlerini işlemesini engelleyerek istismarın önüne geçti. Ancak bu, daha kapsamlı bir güvenlik çözümü yerine, sadece zararın etkisini azaltan bir geçici önlem.
Yapay Zeka Asistanları Üretkenlik Kadar Risk de Taşıyor
Araştırmanın sonucuna göre, AI asistanları artık yazılım projelerinde sadece üretkenlik artıran bir araç değil, aynı zamanda birer güvenlik açığı oluşturma potansiyeline sahip. Geliştiricilerin bu tür AI araçlarının ürettiği kodları dikkatle denetlemesi, zararlı içerik barındırmadığından emin olması gerekiyor.
Legit araştırmacısı Omer Mayraz, durumu şöyle özetliyor:
“AI asistanları uygulamalarınızın yeni bir saldırı yüzeyi haline geldi. Kullanıcı kontrollü içerikleri işleyen sistemlerin bu içerikleri güvenilmez ve potansiyel olarak tehlikeli kabul etmesi gerekiyor.”