Yapay zekâ dünyasının büyük isimlerinden OpenAI, yeni yapay zekâ modellerinin yüksek siber güvenlik riski oluşturabileceğini ifade ediyor.
OpenAI, yapay zekâ modellerinin/sistemlerinin siber saldırılar için de kullanılabildiğinin farkında ve bu konuda oluşan riskin, modellerin kapasitesi arttıkça daha da büyüyeceğini öngörüyor. Yeni yapay zekâ modellerinin yalnızca ileri düzey hacker gruplarının gerçekleştirebildiği türden işlemleri yapabilecek kapasiteye ulaşacağını belirten OpenAI, yeni nesil sistemlerin sıfır gün (zero-day) saldırıları üretebileceği ve endüstriyel ağlara yönelik olarak, şimdiye kadar özel uzmanlık gerektiren üst düzey sızma operasyonlarına bile yardımcı olabileceği konusunda uyarıda bulunuyor. Oluşan riskleri azaltmak adına özel koruma sistemleri geliştirdiğini ve güvenlik uzmanlarıyla ortak çalışmalar yürüttüğünü belirten şirket, yeni modellerin saldırılardan çok saldırıların önlenmesine yardımcı olmasını hedefliyor. Kod denetimi ve güvenlik açıklarının yamalanması gibi konularda güvenlik uzmanlarının işini kolaylaştıracak araçlar üreteceklerini açıklayan OpenAI, güvenlik uzmanlarına gelişmiş yapay zekâ araçlarına erken erişim imkânı sağlayacaklarını da ifade ediyor.
İLGİNİZİ ÇEKEBİLİR
Bu konuda son dönemde en çok gündeme gelen isim Anthropic olmuştu. Örneğin şirket yaptığı son açıklamada Çin merkezli hackerların eylül ayında düzenledikleri siber saldırılarda Claude’u kullandığını söyledi. Çinli hackerların belirli şirketlere ve hükümetlere yönelik yaklaşık 30 saldırıyı Claude’u kullanarak otomatik hâle getirdiğini aktaran şirket, saldırıların yüzde 80–90’ının yapay zekâ tarafından yürütüldüğünü belirtiyor. “Hackerlar saldırı sürecinde yalnızca birkaç kritik noktada devreye girmiş” diyen şirket, otomasyon seviyesinin eskiye nazaran oldukça yükseldiğini ifade ediyor.
Bu konu ilk defa gündeme gelmemişti. Geçtiğimiz aylarda bir açıklama yaparak, “Yapay zekâ modellerimizin kötüye kullanımını önlemek amacıyla gelişmiş güvenlik ve emniyet önlemleri geliştirdik. Ancak siber suçlular ve diğer kötü niyetli kişiler sürekli olarak bu önlemleri aşmanın yollarını arıyor.” diyen Anthropic, siber suçluların yapay zekâ sistemlerinin sağladığı gelişmiş yeteneklerden çok ciddi şekilde yararlanmaya başladığını belirtmişti. “Yapay zekâ, ileri düzey siber suçların önündeki engelleri kaldırdı. Teknik bilgisi çok az olan kişiler bile artık karmaşık operasyonlar yapabiliyor. Siber suçlular kurbanları seçmekten çalınan verileri incelemeye, kredi kartı bilgilerini ele geçirmekten sahte kimlikler üretmeye kadar her noktada yapay zekâdan faydalanıyor. Yapay zekâ ajanları da adeta birer silah hâline getirildi.” diyen Anthropic, bu süreçlere Claude Code’un da dâhil edildiğini söylemişti.
“Kısa süre önce Claude Code’u kullanarak büyük çaplı kişisel veri hırsızlığı ve şantaj operasyonu gerçekleştiren bir siber suç faaliyetini engelledik. Söz konusu aktör, sağlık sektörü, acil servisler ile devlet ve dinî kurumlar da dâhil olmak üzere en az 17 ayrı kurumu hedef almış.” açıklamasını yapan şirket, araştırmalarına dayanarak ek olarak şunları söylemişti: “Kuzey Koreli bazı kişilerin Claude’u kullanarak ABD’nin büyük teknoloji şirketlerindeki ‘remote’ pozisyonlarda işe girdiğini ve bu işleri sürdürdüklerini ortaya çıkardık. Ayrıca bir siber suçlunun Claude’dan yararlanarak farklı türlerde fidye yazılımları ürettiğini, bunları piyasaya sürdüğünü ve yayılmasını sağladığını tespit ettik. Bu fidye yazılımlarının her biri; tespit edilmemek için gelişmiş yöntemler, güçlü şifreleme sistemleri ve kurtarma girişimlerini engelleyen mekanizmalarla donatılmıştı.”









