OpenAI, deepfake içeriklerinin artan tehdidine karşı bir görüntünün DALL-E tarafından üretilip üretilmediğini tespit etmek için geliştirdiği yeni aracı tanıttı. Şirket, bu dedektörün yalnızca kendi ürettiği görsellerde etkili bir şekilde çalıştığını açıkladı. Diğer şirketlerin ürettiği görüntülerde doğruluk oranı yüzde 5-10 arasında kalırken, OpenAI’ın kendi içeriklerinde doğruluk oranı yüzde 98’in üzerinde.
OpenAI’ın Bakış Açısı ve Stratejisi
OpenAI, görüntü manipülasyonuyla ilişkili risklerin ve deepfake tehdidinin farkında olduğunu vurgulayarak tespit araçlarının geliştirilmesinin hayati önem taşıdığını belirtti. Bu bağlamda yayımladığı blog yazısında, sektörün içerik kaynağını anlamada iş birliğine ve şeffaflığa devam etmesinin önemine dikkat çekti.
OpenAI, dijital içerik doğrulama standartlarını geliştirmek için birçok büyük teknoloji şirketiyle birlikte Coalition for Content Provenance and Authenticity (C2PA) üyesi olarak çalışıyor. Google, Adobe, Intel, Meta, Microsoft, Sony gibi şirketler de bu çabanın içinde. Amaç, hareketsiz görüntü, metin, video veya ses fark etmeksizin, manipüle edilmiş içeriklere bir etiket ekleyerek değiştirildiğini belirtmek. Bu şeffaflık, politikacıların mevzuat taleplerini karşılayarak deepfake ve manipülasyon endişelerine yönelik cevaplar sunabiliyor.
Standartların Geliştirilmesi
C2PA, dijital içeriklerin değiştirildiğini gösteren etiketler ekleyerek, manipüle edilmiş içeriklerin ne zaman ve nasıl düzenlendiğine dair net bilgi sağlamayı hedefliyor. AB ve Birleşik Krallık, ABD’den daha ileride oldukları belirtilen bu konuda mevzuat hazırlıklarıyla yapay zekanın kötüye kullanımını engellemeye çalışıyor. OpenAI gibi teknoloji şirketleri ise yapay zekanın potansiyel zararlarını önleyebilmek adına, tespit araçları ve standartlar üzerinde çalışmalarını sürdürüyor.