Perşembe, Ekim 23, 2025
Google search engine
Ana SayfaDünyaOpenAI’nin Sora 2 modeli, yüzde 80 oranında sahte videolar üretiyor

OpenAI’nin Sora 2 modeli, yüzde 80 oranında sahte videolar üretiyor


Araştırma, Sora 2’nin kötü niyetli kullanıcılar tarafından dezenformasyon kampanyalarında kolayca kullanılabileceğini ortaya koydu.


NewsGuard, oluşturulan yanlış videolardan beşinin Rusya kaynaklı dezenformasyon operasyonlarından geldiğini de belirtti.


Dakikalar içinde sahte ama inandırıcı videolar


Araştırmacılar, Sora 2’yi kullanmaya başladıktan yalnızca birkaç dakika içinde şu konularla ilgili sahte videolar üretebildi:


Moldova’da bir seçim yetkilisinin Rusya yanlısı oy pusulalarını yaktığı,


ABD sınırında bir çocuğun gözaltına alındığı,


Coca-Cola’nın Bad Bunny’nin Super Bowl sahnesinde yer alması nedeniyle sponsorluktan çekildiği.


NewsGuard, bu örneklerin yapay zekâ teknolojilerinin “endüstriyel ölçekte yanlış bilgi üretimi” için ne kadar kolay kullanılabileceğini gösterdiğini vurguladı.


OpenAI riskleri kabul ediyor


OpenAI, Sora 2’nin güvenlik risklerini resmî web sitesindeki “sistem kartında” kabul etti. Şirket, modelin “izinsiz benzerlik kullanımı veya yanlış yönlendirici içerikler” üretebileceğini, bu nedenle sınırlı davet yoluyla erişim sağlandığını ve foto-gerçekçi kişi içeren görsellerin veya videoların yüklenmesinin yasaklandığını bildirdi.


Ayrıca, minörleri içeren içeriklerde sıkı denetim eşiği uygulandığı ve Sora 2’nin güvenlik önlemlerinin “kademeli olarak” geliştirileceği belirtildi.


OpenAI’ye göre model, önceki sürümlere kıyasla fiziksel gerçekçiliği, senkronize ses üretimini, yönlendirilebilirliği ve görsel çeşitliliği önemli ölçüde artırıyor.


Uzmanlar: “Sora artık bir deepfake aracı”


Boston Üniversitesi’nden Doç. Michelle Amazeen, bulguların “son derece endişe verici” olduğunu söyledi:


“Zaten karmaşık bir bilgi ortamında yaşayan medya kullanıcıları için bu tür sahte videolar, gerçeği yalandan ayırmayı daha da zorlaştırıyor.”


Biyometrik kimlik doğrulama firması Daon’un yöneticisi Scott Ellis ise Sora’nın fiilen bir deepfake aracı olduğunu söyledi:


“Bu tür araçlar kişisel eğlence, profesyonel yapım ve kötüye kullanım için kullanılıyor. Sora’nın zararlı içerikleri engellemede yüzde 80 oranında başarısız olması ciddi bir tehlike işareti.”


Regula Forensics CEO’su Arif Mamedov da “Bu artık amatör sahte video üreticilerinin değil, herkesin kullanabileceği endüstriyel çapta dezenformasyon sistemlerinin çağı” dedi.


Filigranlar kolayca kaldırılabiliyor


OpenAI, Sora 2’nin ürettiği tüm videolara hem görünür filigran hem de C2PA dijital imza eklendiğini açıklasa da, NewsGuard araştırmacıları bu önlemin etkisiz olduğunu gösterdi.


Ücretsiz bir çevrim içi araçla filigranın dört dakika içinde tamamen kaldırılabildiğini belirten ekip, “Videoda sadece hafif bir bulanıklık kalıyor; sıradan bir izleyici fark etmez,” ifadesini kullandı.


Dijital medya güvenlik uzmanı Jason Crawforth, “En gelişmiş filigranlar bile kırpma, yeniden kodlama veya yeniden boyutlandırma gibi basit işlemlerle silinebiliyor,” diyerek bu yöntemin yalnızca “kısa vadeli bir caydırıcı” olabileceğini söyledi.


Uzmanlardan çözüm önerileri


Güvenlik uzmanları, dijital içeriklerin doğrulanması için blok zinciri tabanlı kimlik sistemlerinin yaygınlaştırılmasını öneriyor. Bu yöntem, içeriğin kaynağını ve sahipliğini değiştirilmesi zor biçimde kayıt altına alarak manipülasyonun önüne geçebiliyor.


Ancak mevcut durumda, uzmanlara göre Sora 2’nin yüksek kalitede sahte videoları birkaç dakikada üretebilmesi, dijital çağda “gerçeklik algısının giderek aşındığı” yeni bir dönemin başlangıcına işaret ediyor.

RELATED ARTICLES

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

Most Popular

Recent Comments