Deepfake'ler iyi olabilir mi?

Ancak kendimizi aşmayalım: Teknoloji hala ezici bir şekilde taciz etmek için kullanılıyor.

HBO'nun yeni belgeselini ateşleyin Çeçenya'ya hoş geldiniz ve gördüğünüz yüzlerin çoğunun düzenlendiğini fark etmeyebilirsiniz bile.

Çeçenya'ya hoş geldiniz Çeçen Cumhuriyeti'nin eşcinsel karşıtı tasfiyelerinden kurtulanları takip ediyor. Konuşmak riskli, bu yüzden yapımcılar yeni bir yöntem denedim görüşülen kişileri anonim tutmak için: deepfakes.

Deepfakes, videoyu veya sesi değiştirmek için AI kullanır - yüzleri değiştirebilir veya başka birinin sesiyle bir şeyler söyleyebilirsiniz.



HBO belgesi, gizlilik koruması için deepfake teknolojisinin belki de en yüksek profilli kullanımıdır.

Ancak bu büyüyen bir alanın parçası: Teus Media girişimi, diyelim ki cinsel saldırıdan kurtulanların yüzlerini dijital olarak değiştiren bir “dijital peçe” sunuyor.

Bir dakika, insanları taciz etmek için deepfake'lerin kullanıldığını sanıyordum?

Yanlış izlenime kapılmayın: bir rapor İnternetteki derin sahtekarlıkların %96'sının pornografi içerdiğini ve bunların neredeyse tamamının deneğin rızası olmadan yapıldığını buldu.

Deepfake'ler aynı zamanda yanlış bilgi yaymak için de kullanıldı. doktorlu video Nancy Pelosi'nin geçen yılki açıklaması netleşti. Facebook denedi yasaklamak tamamen onları.

Ancak bu sahte ürünlerin bazı avantajları da olabilir:

  • D-ID gibi girişimler iddia Örneğin, kapalı devre TV'ye yakalanırsanız yüzünüzü gizlemek için videoları manipüle edebilirler.
  • Synthesia firması dublaj yaptı daha az korkunç - sadece izle video David Beckham'ın 9 dilde konuşması.
  • Kendi kendini süren yazılım satıcısı oxbotica gerçek hayattaki yol senaryolarının binlerce görüntüsünü üreterek sistemini eğitir.
  • Belki daha az 'toplum için iyi' ve daha çok 'filmler için iyi' olan bir durumda Disney, yaklaştı büyük bütçeli filmlerde derin sahteleri mükemmelleştirmek için.

Yanlış ellerden uzak tutabilir miyiz?

Deepfake teknolojisinin olumlu yönleri olduğuna karar vermeli miyiz? MIT Teknoloji İncelemesi düşünülen kötüye kullanılmamasını sağlamanın yolları.

Birkaç fikir: Deepfake satıcıları müşterilerini derinlemesine incelemeli, video filigranları eklemeli ve teknolojiyi kimlerin kullandığına dair günlükler tutmalıdır.

Bazı şirketler, belirli bir videoda hangi yüzlerin veya seslerin manipüle edilebileceğini kısıtlamanın yollarını da bulmuşlardır.

Özünde: David Beckham'ın sesiyle oynama lisansınız olabilir, ancak başka birine geçerseniz teknoloji donar.