Anthropic, yapay zeka (AI)'nın siber güvenlikte önemli bir eşik noktasına ulaştığını söylüyor. Yeni kanıtlar, yapay zeka modellerinin artık daha önce hiç görülmemiş bir ölçekle hem savunma hem de saldırı amaçlı büyük siber operasyonlar gerçekleştirebilecek kapasitede olduğunu gösteriyor.
AI, Siber Güvenlikte Bir Dönüm Noktasına Ulaşıyor, Anthropic Yeni Araştırmada Uyarıyor
Claude'in arkasındaki yapay zeka firması Anthropic, iç değerlendirmeleri ve tehdit istihbaratı çalışmalarının siber yetenek geliştirme konusunda belirgin bir kayma gösterdiğini söylüyor. Yakın zamanda yayımlanan bir araştırmaya göre, yapay zeka sistemleri arasındaki siber yetenekler altı ayda iki katına çıktı; bu, gerçek dünya etkinliği ve model tabanlı testlerin ölçümleriyle destekleniyor.
Şirket, yapay zekanın artık küresel güvenlik dinamiklerini anlamlı bir şekilde etkilediğini, özellikle kötü niyetli aktörlerin giderek otomatik saldırı çerçevelerini benimsemesiyle birlikte olduğunu söylüyor. En son raporunda, Anthropic, AI tarafından düzenlenen ilk belgelenmiş siber casusluk kampanyası olarak adlandırdığı durumu detaylandırıyor. Firmanın Tehdit İstihbarat ekibi, Eylül 2025'in ortalarında GTG-1002 olarak adlandırılan Çin devlet destekli bir gruba atfedilen büyük ölçekli bir operasyonu tespit etti ve bozdu.
Kaynak: X
Grubun, insan müdahalesi olmaksızın büyük ölçüde keşif, zafiyet keşfi, istismar, yan hareket, meta veri çıkarımı ve veri sızdırma gerçekleştirmek için koordineli Claude Code örnekleri kullandığı bildirildi. Kampanya, teknoloji, finans, kimyasallar ve birçok devlet kurumu da dahil olmak üzere yaklaşık 30 kurulu hedef aldı. Anthropic, müdahale etmeden önce birkaç başarılı ihlali doğruladı.
Kaynak: Anthropic raporu.
Analistler, saldırganların, çok aşamalı saldırıları daha küçük görevlere ayırabilen ve bu görevlerin daha geniş bağlamlarından izole edildiğinde meşru gibi göründüğü otonom bir çerçeveyi kullandıklarını söylüyor. Bu, aktörlerin, kurulu kişilikler aracılığıyla istemler geçirmesine ve Claude'u işlemlerin saldırgan kampanyalar yerine savunma güvenlik testleri olduğunu ikna etmesine olanak tanıdı.
Araştırmaya göre, Claude otonom olarak taktik operasyonların %80 ila %90'ını yürüttü. İnsan operatörleri yalnızca stratejik denetim sağladı, istihbarattan aktif istismar aşamasına geçiş veya veri dışa aktarımını yetkilendirme gibi önemli adımları onayladı. Rapor, yalnızca insanlardan oluşan ekipler için imkansız bir operasyon temposu düzeyini tanımlıyor, bazı iş akışları binlerce talep arasında saniyede birden fazla operasyon üretiyor.
Kaynak: Anthropic raporu.
Anthropic, saldırı döngüsünün, her aşamada AI özerkliğinin arttığı yapılandırılmış bir boru hattı aracılığıyla ilerlediğini söylüyor. Claude, saldırı yüzeylerini bağımsız olarak haritaladı, canlı sistemleri taradı, doğrulanmış zafiyetler için özel yükler oluşturdu, kimlik bilgilerini topladı ve iç ağlar boyunca geçiş yaptı. Ayrıca çalınan verileri analiz etti, yüksek değerli istihbaratları tanımladı ve sürekli erişim ve operatörler arasında devralmalar sağlayan ayrıntılı operasyonel belgeler otomatik olarak oluşturdu.
Raporun belirttiğine göre, bir sınırlama, modelin saldırgan yükler altında halüsinasyon eğilimiydi—bazen erişimi abartarak, kimlik bilgilerini uydurarak veya kamuya açık bilgileri hassas olarak yanlış sınıflandırarak. Yine de, Anthropic, aktörün doğrulama adımları aracılığıyla telafi ettiğini, günümüzdeki modellerdeki kusurlara rağmen tamamen otonom saldırgan operasyonların hala mümkün olduğunu gösterdiğini söylüyor.
Keşfinden sonra, Anthropic ilgili hesapları yasakladı, etkilenen varlıkları bilgilendirdi, yetkililerle koordine oldu ve yeni savunma mekanizmaları tanıttı; bunlar arasında yeni tehdit kalıplarını tespit etmek için geliştirilmiş sınıflandırıcılar bulunmaktadır. Şirket şimdi otonom sızma girişimlerini işaretlemek için tasarlanmış erken uyarı sistemleri prototipliyor ve büyük ölçekli dağıtılmış siber operasyonlar için yeni soruşturma araçları geliştiriyor.
Daha fazla bilgi: Microsoft'un ‘Magentic Marketplace’ AI ajanlarının baskı altında nasıl çökebileceğini ortaya koyuyor
Firma, bu yeteneklerin silahlandırılabileceğini ancak aynı zamanda savunma hazırlığını artırmak için de kritik olduğunu savunuyor. Anthropic, kendi Tehdit İstihbaratı ekibinin soruşturma sırasında üretilen devasa veri setlerini analiz etmek için Claude'a yoğun bir şekilde güvendiğini belirtiyor. Güvenlik ekiplerini, güvenlik operasyon merkezleri, tehdit tespiti, zafiyet analizi ve olay yanıtı için AI destekli otomasyonu benimsemeye başlamaya çağırıyor.
Ancak, rapor, siber saldırı engellerinin “önemli ölçüde düştüğünü” uyarıyor, çünkü AI sistemleri küçük grupların - ya da hatta bireylerin - bir zamanlar iyi finanse edilen devlet aktörlerine sınırlı kalan operasyonları yürütmesine olanak tanıyor. Anthropic, bu tekniklerin daha geniş tehdit ortamında hızlı yayılımını bekliyor ve ortaya çıkan AI destekli saldırı modellerine karşı daha derin işbirliği, geliştirilmiş savunma önlemleri ve tehdit paylaşımında daha geniş endüstri katılımı çağrısında bulunuyor.
SSS ❓
**Anthropic, soruşturmasında ne keşfetti?**Anthropic, çoğu saldırı operasyonunu otomatikleştirmek için AI kullanan büyük ölçekli bir siber casusluk kampanyasını tespit etti ve bozdu.
Saldırının arkasında kim vardı? Firma, operasyonu GTG-1002 olarak adlandırılan bir Çin devlet destekli gruba atfetti.
AI nasıl ihlallerde kullanıldı? Saldırganlar, keşif, istismar, yan hareket ve veri çıkarımı yapmak için Claude Code'u otonom olarak kullandılar.
**Rapor neden siber güvenlik ekipleri için önemlidir?**Anthropic, davanın otonom AI destekli saldırıların artık ölçeklenebilir olduğunu ve yeni savunma stratejileri gerektirdiğini gösterdiğini söylüyor.
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Anthropic, AI yeteneklerinin hızlandığına dikkat çekerek siber saldırı engellerinin düştüğünü uyarıyor.
Anthropic, yapay zeka (AI)'nın siber güvenlikte önemli bir eşik noktasına ulaştığını söylüyor. Yeni kanıtlar, yapay zeka modellerinin artık daha önce hiç görülmemiş bir ölçekle hem savunma hem de saldırı amaçlı büyük siber operasyonlar gerçekleştirebilecek kapasitede olduğunu gösteriyor.
AI, Siber Güvenlikte Bir Dönüm Noktasına Ulaşıyor, Anthropic Yeni Araştırmada Uyarıyor
Claude'in arkasındaki yapay zeka firması Anthropic, iç değerlendirmeleri ve tehdit istihbaratı çalışmalarının siber yetenek geliştirme konusunda belirgin bir kayma gösterdiğini söylüyor. Yakın zamanda yayımlanan bir araştırmaya göre, yapay zeka sistemleri arasındaki siber yetenekler altı ayda iki katına çıktı; bu, gerçek dünya etkinliği ve model tabanlı testlerin ölçümleriyle destekleniyor.
Şirket, yapay zekanın artık küresel güvenlik dinamiklerini anlamlı bir şekilde etkilediğini, özellikle kötü niyetli aktörlerin giderek otomatik saldırı çerçevelerini benimsemesiyle birlikte olduğunu söylüyor. En son raporunda, Anthropic, AI tarafından düzenlenen ilk belgelenmiş siber casusluk kampanyası olarak adlandırdığı durumu detaylandırıyor. Firmanın Tehdit İstihbarat ekibi, Eylül 2025'in ortalarında GTG-1002 olarak adlandırılan Çin devlet destekli bir gruba atfedilen büyük ölçekli bir operasyonu tespit etti ve bozdu.
Araştırmaya göre, Claude otonom olarak taktik operasyonların %80 ila %90'ını yürüttü. İnsan operatörleri yalnızca stratejik denetim sağladı, istihbarattan aktif istismar aşamasına geçiş veya veri dışa aktarımını yetkilendirme gibi önemli adımları onayladı. Rapor, yalnızca insanlardan oluşan ekipler için imkansız bir operasyon temposu düzeyini tanımlıyor, bazı iş akışları binlerce talep arasında saniyede birden fazla operasyon üretiyor.
Raporun belirttiğine göre, bir sınırlama, modelin saldırgan yükler altında halüsinasyon eğilimiydi—bazen erişimi abartarak, kimlik bilgilerini uydurarak veya kamuya açık bilgileri hassas olarak yanlış sınıflandırarak. Yine de, Anthropic, aktörün doğrulama adımları aracılığıyla telafi ettiğini, günümüzdeki modellerdeki kusurlara rağmen tamamen otonom saldırgan operasyonların hala mümkün olduğunu gösterdiğini söylüyor.
Keşfinden sonra, Anthropic ilgili hesapları yasakladı, etkilenen varlıkları bilgilendirdi, yetkililerle koordine oldu ve yeni savunma mekanizmaları tanıttı; bunlar arasında yeni tehdit kalıplarını tespit etmek için geliştirilmiş sınıflandırıcılar bulunmaktadır. Şirket şimdi otonom sızma girişimlerini işaretlemek için tasarlanmış erken uyarı sistemleri prototipliyor ve büyük ölçekli dağıtılmış siber operasyonlar için yeni soruşturma araçları geliştiriyor.
Daha fazla bilgi: Microsoft'un ‘Magentic Marketplace’ AI ajanlarının baskı altında nasıl çökebileceğini ortaya koyuyor
Firma, bu yeteneklerin silahlandırılabileceğini ancak aynı zamanda savunma hazırlığını artırmak için de kritik olduğunu savunuyor. Anthropic, kendi Tehdit İstihbaratı ekibinin soruşturma sırasında üretilen devasa veri setlerini analiz etmek için Claude'a yoğun bir şekilde güvendiğini belirtiyor. Güvenlik ekiplerini, güvenlik operasyon merkezleri, tehdit tespiti, zafiyet analizi ve olay yanıtı için AI destekli otomasyonu benimsemeye başlamaya çağırıyor.
Ancak, rapor, siber saldırı engellerinin “önemli ölçüde düştüğünü” uyarıyor, çünkü AI sistemleri küçük grupların - ya da hatta bireylerin - bir zamanlar iyi finanse edilen devlet aktörlerine sınırlı kalan operasyonları yürütmesine olanak tanıyor. Anthropic, bu tekniklerin daha geniş tehdit ortamında hızlı yayılımını bekliyor ve ortaya çıkan AI destekli saldırı modellerine karşı daha derin işbirliği, geliştirilmiş savunma önlemleri ve tehdit paylaşımında daha geniş endüstri katılımı çağrısında bulunuyor.
SSS ❓