Teknoloji

DeepSeek’i kandırıp her türlü şeytanlığa eriştiler

Uzmanlar, DeepSeek’in güvenlik tedbirlerini aşma direncini ölçmek için 50 farklı test uyguladı. Lakin model, en temel “jailbreak” metotlarıyla bile kandırılabildi. Yapay zekâ, bir sinema karakteri olduğu senaryosuna inandırıldığında bomba üretimiyle ilgili ayrıntılar verdi, ayrıyeten SQL sorguları oluşturması istendiğinde yasa dışı husus üretimine dair kodlar ürettiği tespit edildi.

Daha da kaygı verici olan ise, sözlerin matematiksel temsillerine dayalı manipülasyonlarla modelin güvenlik bariyerlerini aşarak sakıncalı içerikler üretebilmesi oldu.

YAPAY ZEKA GÜVENLİĞİ YİNE TARTIŞMAYA AÇILDI

DeepSeek’in berbata kullanım potansiyeli, yapay zekâ güvenliği konusundaki tasaları yine gündeme getirdi. Güvenlik araştırmacıları, modelin bu zafiyetlerinin önemli tehditler oluşturabileceğini ve yapay zekâ sistemlerinin daha sıkı güvenlik tedbirleriyle donatılması gerektiğini vurguladı.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu