DeepFake nedir? Artık gördüğüne de inanma!
Yapay zekâ ve makine öğrenmesi tüm dünyada büyük bir hızla ilerlerken beraberinde getirdikleri teknolojiler hayatımıza entegre olmaya başladı. Ve büyük ihtimalle DeepFake bu teknolojilerden şu anda en korkunç olanı. Eskiden duyduğuna değil gördüğüne inan lafını duyar ve kabul ederdik. Gözün gördüğünü “An ve Rüyalar” dışında asla yanılmaz sanıyorduk, ta ki bu teknoloji ile yüzleşene kadar. Peki bu kadar korkunç olan şey ne, nasıl yapılıyor, nelere yol açıyor?DeepFake’i açıklamak gerekirse, videoda yer alan bir kişinin bilgisayar yazılımları tarafından kişinin mimiklerini oluşturan sinirlerin yakalanması ve oluşturulan yapay sinir ağları ile kendi isteğimizle bu sinirleri harekete geçirebileceğimiz bir yazılım diyebiliriz. Bu yazılım ilk başta size masumane, arkadaşlarınıza şaka yapabileceğiniz bir eğlence aracı gibi gelse de durum aslında bundan çok daha kötü. Etik olarak yanlış olmasından ziyade, ünlülerin veya bizlerin videolarda söylemediğimiz şeyleri, bulunmadığımız ortamları manipüle ederek türlü sorunlara yol açabilir. Bugüne kadar bu yazılımı kullanan kişiler ünlülerin söylemediği kelimeleri söyletti ve hatta pornografik içeriklere alet etti..
DEEPFAKE ve BİLGİSAYAR BİLİMİ
2017 yılında Deepfakes olarak bilinen bir Reddit kullanıcısı DeepFake teknolojisini kullanarak ünlü kişilerin yüzlerini pornografik videolara entegre etti ve bunu İnternet’in arka yüzü olarak tanımlayabileceğimiz Reddit platformunda yayınladı. Kimi insanların hoşuna giden bir eğlence malzemesi olsa da kimi insanlar o an tehlikenin farkına vardı.Kısa süre sonra Deepfakes FakeApp adında bir uygulama yayınladı ve insanlar kullanmaya başladı. Türlü türlü şaka amaçlı video ve fotoğraflar kullanıcılar tarafından servis edildi. Nicolas Cage’in yüzü Amy Adams’ın vücuduna yerleştirildi, eski ABD Başkanı Barack Obama sahte videosunda DeepFake’i anlattı ve şu anki Başkan Donald Trump’a hakaret etti, sahte olduğu da Jordan Peele ile aynı anda aynı metni konuşturularak açıklandı. Videoyu izleyebilirsiniz.
Bu derecede videoların oluşturulması bizim gibi alt düzeyde bulunan kullanıcılar için imkânsız. Bu tür sahte videolar daha karmaşık yazılımlarla oluşturuluyor. Karmaşık algoritmalar, generative adversarial networks (GAN) ve derin yapay sinir ağları gibi terimler bu videoların nasıl düzenlendiği hakkında daha fazla bilgi sahibi olmanızı sağlayabilir. Lakin bunlar birer cümle ile geçiştirilebilecek şeyler değil, bunlar hakkında hali hazırda yazılmış ve hala yazılan yüzlerce akademik makale bulabilirsiniz.
Genel olarak bu programların yaptığı şey bir videoyu kare kare incelemek ve kişinin boyutunu, mimiklerini ve hareketlerini başka bir kişiye aktarabilmek için öğrenmesidir. Esas olarak çoğunlukla yapılan kişilerin yüzlerini değiştirmek olsa da daha gelişmiş yazılımlar ile 3 boyutlu olarak da aktarılabiliyor. Hatta tüm vücut hareketleri üzerinde çalışmalar ve araştırmalar yapıldı ve yapılmaya devam ediyor.
DEEPFAKE NELERE YOL AÇABİLİR?
Nelere yol açabilir değil açıyor diye sorsak daha doğru olabilir. Çünkü Amerika’da milletvekilleri seçim döneminde bu tarz videoların kullanılabileceği endişesinden dolayı ABD’nin resmi teknoloji ve istihbarat organlarından çeşitli raporlar istedi. İnsanların itibarları zedeleniyor, şantaj malzemesi üretiliyor ve bazıları bu olumsuzluklara dayanamayıp intihar edebiliyor…DEEPFAKE OLUMLU YÖNDE NERELERDE KULLANILIYOR?
DeepFake filmlerde kullanılmaya çoktan başlandı. Biliyorsunuz ki film yapımcıları bilgisayar tarafından üretilen animasyonlar ve efektlerden (computer-generated imagery) yararlanıyor. DeepFake teknolojisi CGI ile kullanıldığında gerçeğe yakın derecede efektler ve animasyonlar ortaya çıkıyor hem de daha az maliyetle ve daha kolay. Son yıllarda yapılan filmleri izlerken “Ya teknoloji çok ilerledi!” diye içinizden geçmiştir. Evet teknoloji gerçekten çok ilerledi…Gördüğümüze dahi inanmayacağımız, teyit ihtiyacı hissedeceğimiz günler geldi ve daha yoğun bir şekilde gelmeye devam ediyor. Ülkeler bu konuda kanunlarını yazmaya başladılar bile. Bilişim etiğine göre kesinlikle savunulamaz bir yöntem, şakası bile ciddi problemlere yol açabilir. Ümit edelim ki bu teknoloji bizim gibi kullanıcıların kolayca ulaşabileceği bir noktaya gelmesin...
Hiç yorum yok:
Yorum Gönder