Alanında uzman isimlerin ikazına nazaran DeepSeek’in R1 modelinin makus niyetli bireyler tarafından istismar edilebilme riski, öteki yapay zekâ araçlarına nazaran 11 kat daha fazla.
Enkrypt AI tarafından gerçekleştirilen araştırmaya nazaran DeepSeek’in R1 modeli, zararlı içerikler üretme ve manipülasyona açık olma konusunda büyük tehlike arz ediyor.
DeepSeek’in bu kadar tehlikeli görülmesinin sebebi ne?
Araştırma kapsamında yapılan testlerde DeepSeek’in siber hatalılar tarafından kimyasal, biyolojik ve siber güvenlik silahları üretmek emeliyle kullanılabileceği, ayrıyeten yasa dışı içerik ve hackleme üzerine yardımcı bir araç olarak kullanılabilme potansiyeli taşıdığı tespit edildi.
En son geçtiğimiz hafta meydana gelen bir bilgi ihlali sonrası kullanıcı dataları sızdırılmıştı. DeepSeek her ne kadar düşük maliyetle bu derece düzgün performans sunuyor olsa da güvenlik ve saklılık sıkıntıları nedeniyle birtakım ülkeler tarafından yasaklandı.
🚨 Are Distilled DeepSeek Models Less Safe? Early Signs Point to Yes. 🚨
Our latest findings confirm a concerning trend: distilled AI models are more vulnerable—easier to jailbreak, exploit, and manipulate.📄 Read the Paper: https://t.co/nzdcR82J8M
🔍 Key Takeaways
🔹… pic.twitter.com/IFCjLYxBWB— Enkrypt AI (@enkryptai) January 30, 2025
Enkrypt AI CEO’su Kıyı Agarwal bulgularla ilgili olarak, “Bu güvenlik açıkları göz gerisi edilemez. Derin müdafaa tedbirleri ve sıkı takip, berbata kullanımları önlemek için koşul.” dedi.
DeepSeek, şu anda ortalarında İtalya, Fransa, Almanya ve ABD’nin de yer aldığı birçok ülke tarafından inceleme altına alınmış durumda.
Peki siz bu bahis hakkında ne düşünüyorsunuz? Fikirlerinizi aşağıdaki yorumlar kısmından bizimle paylaşabilirsiniz.