Harmonic Security tarafından 2025 yılı bilgileriyle hazırlanan çarpıcı araştırma, dijital dünyada “güvenli” sanılan limanların aslında ne kadar fırtınalı olduğunu kanıtladı. Araştırmaya nazaran, OpenAI tarafından geliştirilen ChatGPT, kurumsal yapay zeka kullanımının yarısından daha az bir hisseye sahip olmasına karşın, tespit edilen tüm bilgi ifşalarının tam yüzde 71’inden fazlasına neden oluyor.
Bu devasa oran, yapay zekanın iş süreçlerine dahil edilmesiyle birlikte büyüyen güvenlik açığının artık denetim edilemez bir boyuta ulaştığını gösteriyor. Tahlil edilen 22,4 milyon yapay zeka istemi, riskin aslında yalnızca altı tanınan uygulamada kümelendiğini ve bu dar kümenin toplam bilgi ifşası riskinin yüzde 92,6’sını sırtlandığını ortaya koyuyor.
EN ÇOK ZIMNÎ DOKÜMANLAR HEDEFTE
Şirketlerin geleceğini tehlikeye atan bu sızıntıların içeriği ise epey kritik ayrıntılar barındırıyor. İncelenen 579 bin adet hassas içerikli istem ortasında en büyük yarayı yazılım dünyası alıyor; çünkü sızdırılan bilgilerin yüzde 30’unu şirkete özel kaynak kodları oluşturuyor. Bunu yüzde 22,3 ile bâtın tutulması gereken yasal dokümanlar ve yüzde 12,6 ile borsayı sarsabilecek şirket birleşme bilgileri takip ediyor. Bilhassa çalışanların “bir şey olmaz” diyerek sisteme kopyaladığı stratejik planlar ve teknik bilgiler, yapay zekanın devasa data havuzunda kaybolmak yerine birer güvenlik zafiyetine dönüşüyor.
“ÜCRETSİZ HESAPLAR” BİLGİYİ UÇURUYOR
Raporun en can alıcı noktalarından biri de tehlikenin kaynağı olan hesap cinsleri. Hassas bilgi içeren olayların yüzde 87 üzere ezici bir çoğunluğu, çalışanların kendi imkanlarıyla açtığı “ChatGPT Free” yani fiyatsız hesaplar üzerinden gerçekleşiyor. Şirketlerin kurumsal kontrol sistemlerinin büsbütün dışında kalan bu şahsî hesaplar, paylaşılan bilgilerin halka açık modelleri eğitmek için kullanılmasına yer hazırlıyor. Microsoft Copilot ve Google Gemini üzere devler de belli riskler barındırsa da ChatGPT’nin yarattığı tesirin genişliği başkalarını gölgede bırakıyor. Ayrıyeten kurumsal istemlerin yüzde 4’ünün DeepSeek üzere Çin merkezli uygulamalara kayması, data idaresi konusundaki meçhullüğü ve global casusluk telaşlarını daha da tırmandırıyor.
YASAKLAR TAHLİL OLUR MU?
Uzmanlar, bu dijital sızıntı çağında yapay zeka araçlarını büsbütün yasaklamanın bir tahlil olmadığını, bilakis çalışanları daha kapalı ve denetimsiz sistemlere itebileceğini savunuyor. Bunun yerine şirketlerin, hangi bilginin nereye gittiğini takip edebilen akıllı güvenlik sistemlerini devreye alması ve çalışanlarına yapay zeka okuryazarlığı kazandırması hayati değer taşıyor. Unutulmamalı ki; yapay zekaya sorduğunuz her soru, aslında şirketinizin yatak odasına açılan yeni bir pencere olabilir.





