OpenAI yeni modellerinin daha büyük siber güvenlik sorunlarına sebep olacağını düşünüyor

Yapay zekanın giderek gelişen kod yazma ve otonom hareket etme kabiliyeti, bugün artık siber güvenlik uzmanları için kaygı verici bir seviyeye ulaşmış durumda. Üstelik yapay zeka geliştikçe, siber güvenlik açısından yarattığı tehlike de büyüyecek gibi görünüyor. Nitekim paylaşılan son bilgiler OpenAI yönetiminin de bu konuda endişeli olduğunu gösteriyor.

Axios’un aktardığı bilgilere göre OpenAI, henüz yayınlamadıkları en gelişmiş modellerinin daha ciddi siber güvenlik sorunlarına sebep olabileceğini düşünüyor. Özellikle zincirleme düşünme, uzun süreli görev yürütme ve otonomi özelliklerinin gelişmesi, modellerin basti bir araç olmaktan çıkıp saldırılarda aktif rol üstlenebilecek bir siber saldırı bileşenine dönüşme ihtimalini güçlendiriyor.

OpenAI tarafından hazırlanan ve Axios’a özel olarak paylaşılan son analiz, şirketin geliştirdiği yeni nesil modellerin siber saldırıları mümkün kılan yetkinliklerde çok hızlı bir artış gösterdiğini ortaya koyuyor. Raporda, özellikle uzun süreli otonom çalışma süresi arttıkça modellerin “brute force” gibi geleneksel saldırı yöntemlerine çok daha etkili biçimde adapte olmaya başladığı vurgulanıyor. GPT-5 ile GPT-5.1-Codex-Max arasında yaşanan sıçrama bunu net bir şekilde ortaya koyuyor. GPT-5, geçtiğimiz Ağustos ayında gerçekleştirilen bir “capture-the-flag” (bayrağı kap testi, CTF) testinde yüzde 27 başarı sağlamıştı; kısa süre sonra çıkan GPT-5.1-Codex-Max ise aynı testte yüzde 76 başarı oranına ulaştı. OpenAI, bu ivmenin devam etmesini beklediklerini ve bundan sonraki tüm modelleri “yüksek siber güvenlik riski yaratabilecekmiş gibi” değerlendirerek geliştirme süreçlerini buna göre yapılandırdıklarını ifade ediyor.

OpenAI, Yeni Siber Güvenlik Aracıyla Koruma Tarafına da Katkıda Bulunabilir

OpenAI’ın güvenlik liderlerinden Fouad Matin, Axios’a yaptığı açıklamada tehdidin temel tetikleyicisini “modellerin uzun süre boyunca kesintisiz çalışabilmesi” olarak nitelendiriyor. Matin’e göre bu tür otonom süreçler, özellikle kaba kuvvet saldırılarında kapasiteyi dramatik biçimde artırabiliyor. Yine de şirket, iyi korunmuş ortamlarda bu tür saldırıların tespit edilmesinin hâlâ nispeten kolay olduğunun altını çiziyor. Ancak modellerin hızla ilerleyen kabiliyetleri, daha düşük koruma seviyesine sahip sistemlerin çok daha kolay hedef hâline geleceğini gösteriyor.

OpenAI bu konuda yalnız da değil. Başka şirketler tarafından geliştirilen yeni modeller de benzer yetenekler kazanıyor. Bu durum, siber güvenlik sektörünün hızla adapte olması gereken yeni bir gerçekliğe işaret ediyor. Bu noktada yapay zeka şirketlerinin de desteği kritik olabilir. Nitekim OpenAI şimdiden Aardvark adlı yeni güvenlik aracı üzerinde çalışmaya başlamış duurmda. Aardvark, geliştiricilerin kendi yazılımlarındaki güvenlik açıklarını tespit etmelerini sağlamayı hedefliyor. OpenAI, bu aracın şimdiden kritik seviyede açıklar bulmayı başardığını söylüyor.

Author: admin