Uzmanlar, DeepSeek’in güvenlik tedbirlerini aşma direncini ölçmek için 50 farklı test uyguladı. Lakin model, en temel “jailbreak” metotlarıyla bile kandırılabildi. Yapay zekâ, bir sinema karakteri olduğu senaryosuna inandırıldığında bomba üretimiyle ilgili ayrıntılar verdi, ayrıyeten SQL sorguları oluşturması istendiğinde yasa dışı husus üretimine dair kodlar ürettiği tespit edildi.
Daha da kaygı verici olan ise, sözlerin matematiksel temsillerine dayalı manipülasyonlarla modelin güvenlik bariyerlerini aşarak sakıncalı içerikler üretebilmesi oldu.
YAPAY ZEKA GÜVENLİĞİ YİNE TARTIŞMAYA AÇILDI
DeepSeek’in berbata kullanım potansiyeli, yapay zekâ güvenliği konusundaki tasaları yine gündeme getirdi. Güvenlik araştırmacıları, modelin bu zafiyetlerinin önemli tehditler oluşturabileceğini ve yapay zekâ sistemlerinin daha sıkı güvenlik tedbirleriyle donatılması gerektiğini vurguladı.