2026 için yapay zekâ ve siber güvenlik öngörüleri
Kaspersky’ye göre 2026’da yapay zekâ destekli deepfake ve siber saldırılar, güvenlik ekosistemini köklü biçimde dönüştürecek.
Kaspersky uzmanları, 2026 yılına yönelik yapay zekâ teknolojilerinin gelişimi ve siber güvenlik ekosisteminde beklenen dönüşüme ilişkin değerlendirmelerini paylaştı. Uzmanlara göre büyük dil modelleri (LLM’ler) savunma yeteneklerini güçlendirirken, aynı zamanda tehdit aktörleri için de yeni fırsat alanları oluşturuyor.
Şirketten yapılan açıklamada, yapay zekâ destekli tehditlerin çeşitlenerek daha karmaşık bir yapıya büründüğü, bu durumun hem kurumlar hem de bireysel kullanıcılar açısından yeni riskleri beraberinde getirdiği vurgulandı.
Deepfake Tehditleri Ana Akım Haline Geliyor
Değerlendirmede, “deepfake” teknolojilerinin siber saldırılarda ana akım araçlar arasına girdiğine dikkat çekildi. Bu alandaki farkındalık artarken, şirketlerin sentetik içeriklerin oluşturduğu riskleri daha sık gündeme aldığı ve çalışanlarını bu tür saldırılara karşı bilinçlendirmeye yönelik eğitimlere yatırım yaptığı belirtildi.
Deepfake içeriklerin hacmi arttıkça, kullanılan formatların da çeşitlendiği ifade edilirken, tehdit artık yalnızca kurumlarla sınırlı kalmıyor.
Bireysel kullanıcıların da sahte içeriklerle daha sık karşılaştığı ve bu saldırıların doğasını daha iyi kavramaya başladığı kaydedildi. Bu gelişmelerle birlikte deepfakeler, siber güvenlik gündeminin kalıcı unsurlarından biri haline geliyor ve sistematik eğitim programları ile kurumsal politikalar gerektiriyor.
Ses Deepfake’leri Ön Plana Çıkacak
Uzmanlar, özellikle ses teknolojilerindeki ilerlemelerle birlikte deepfake kalitesinin daha da artacağını öngörüyor. Görsel deepfake’lerin halihazırda yüksek bir gerçekçilik seviyesine ulaştığına işaret edilirken, önümüzdeki dönemde gerçekçi ses üretiminin ana gelişim alanı olacağı ifade ediliyor.
İçerik üretim araçlarının kullanıcı dostu hale gelmesi, teknik bilgisi olmayan kişilerin dahi kısa sürede deepfake içerik oluşturabilmesini mümkün kılıyor. Bu durum, ortalama içerik kalitesini yükseltirken üretimi çok daha geniş bir kitle için erişilebilir hale getiriyor.
Uzmanlara göre bu yeteneklerin siber suçlular tarafından kullanılmaya devam etmesi kaçınılmaz görünüyor.
Gerçek zamanlı yüz ve ses değiştirme teknolojilerinde ilerleme kaydedilse de bu sistemlerin hâlâ ileri teknik beceriler gerektirdiği, bu nedenle yaygın kullanımın kısa vadede sınırlı kalacağı değerlendiriliyor. Ancak hedefli saldırı senaryolarında risklerin artması, önemli bir tehdit unsuru olarak öne çıkıyor.
Yapay Zekâ Destekli Saldırılara Karşı Yeni Arayışlar
Açıklamada, yapay zekâ ile üretilen içeriklerin etiketlenmesine yönelik güvenilir sistemler oluşturma çalışmalarının süreceği belirtildi.
Sentetik içeriklerin tespitine dair ortak ve bağlayıcı kriterlerin henüz bulunmadığı, mevcut etiketleme yöntemlerinin ise özellikle açık kaynak modellerde kolaylıkla aşılabildiği ifade edildi.
Açık kaynaklı (open-weight) modellerin, siber güvenlikle ilgili birçok alanda kapalı modellere hızla yaklaştığına dikkat çekilirken, bu durumun kötüye kullanım potansiyelini artırdığı vurgulandı.
Kapalı modeller daha sıkı kontrol mekanizmaları sunsa da açık kaynak sistemlerin kısıtlamalar olmaksızın hızla yayılması, iki yaklaşım arasındaki farkı giderek belirsizleştiriyor.
Gerçek ile Sahte Arasındaki Çizgi Bulanıklaşıyor
Meşru ve dolandırıcılık amaçlı yapay zekâ içerikleri arasındaki sınırın giderek daha belirsiz hale geleceği ifade ediliyor. Yapay zekâ halihazırda ikna edici dolandırıcılık e-postaları, gerçekçi görsel kimlikler ve yüksek kaliteli oltalama (phishing) sayfaları üretebiliyor.
Buna paralel olarak büyük markaların reklam ve pazarlama faaliyetlerinde sentetik içerikleri daha fazla kullanması, yapay zekâ üretimi görsellerin “normal” algılanmasına yol açıyor.
Bu durum, hem kullanıcılar hem de otomatik tespit sistemleri açısından gerçekle sahtenin ayırt edilmesini zorlaştırıyor.
Yapay Zekâ, Saldırı Zincirinin Merkezinde Olacak
Uzmanlara göre yapay zekâ, siber saldırılarda zincirler arası bir araç haline gelerek saldırı yaşam döngüsünün (kill chain) büyük bölümünde kullanılacak.
Tehdit aktörleri, LLM’leri kod yazımı, altyapı kurulumu ve operasyonel süreçlerin otomasyonu için halihazırda aktif biçimde kullanıyor.
Saldırganların, yapay zekâ kullanımına dair izleri gizlemeye çalışmasının da bu tür operasyonların analizini zorlaştıracağı belirtiliyor.
“SOC Ekiplerinin Çalışma Biçimi Dönüşüyor”
Açıklamada görüşlerine yer verilen Kaspersky Araştırma ve Geliştirme Grubu Yöneticisi Vladislav Tushkanov, yapay zekânın siber saldırılarda kullanımının arttığını belirterek, aynı zamanda siber güvenlik analizlerinin de önemli bir parçası haline geldiğini ifade etti.
Tushkanov, yapay zekâ destekli ajan tabanlı sistemlerin altyapıları sürekli tarayarak zafiyetleri tespit edebileceğini ve soruşturmalar için bağlamsal bilgiler toplayabileceğini belirtti.
Bu sayede manuel ve tekrarlayan iş yükünün önemli ölçüde azalacağını vurgulayan Tushkanov, güvenlik uzmanlarının veri aramak yerine önceden hazırlanmış bağlam üzerinden karar almaya odaklanacağını kaydetti.
Güvenlik araçlarının ise karmaşık teknik sorgular yerine doğal dilde komutlarla çalışılan arayüzlere evrileceğini sözlerine ekledi.

