Deepfake: İnsan zihnine sahte anılar yerleştirildi
436 kişilik bir grupla yapılan araştırmada, katılımcılara başroller yerine "deepfake" teknolojisi ile başka oyuncuların yüzleri değiştirilerek montajlanmış The Shining, Matrix ve Captain Marvel filmleri izletildi. Katılımcıların %49'u bu sahte filmlerin de gerçek film olduğuna inandı.
Bulgular, katılımcıların ortalama %49'unun deepfake videoların gerçek olduğuna inandığını gösterdi. Bu katılımcılar filmleri gerçekten hatırladığını ileri sürüyordu. Hatta %41'i Captain Marvel'ın yeniden çekiminin orijinalinden daha iyi olduğunu söylerken, %12'si de The Matrix'in yeniden çekiminin daha iyi bulduğunu dile getirdi.
Deepfakes can be scarily convincing, but should we be worried about them distorting our memories of the recent past? Our new open-access paper looks at false memories for deepfake movie remakes @conorlinehan @johnjtwomey https://t.co/dAlq47YBB2 pic.twitter.com/b7p3LEuou3
— Gillian Murphy (@gillysmurf) July 13, 2023
Participants viewed clips or descriptions of movie remakes. Some were real studio remakes (e.g. Carrie, Tomb Raider), while others were fictitious deepfakes: Brad Pitt in The Shining, Will Smith in the Matrix, Charlize Theron in Captain Marvel, Chris Pratt in Indiana Jones. pic.twitter.com/AhXnhQpaZY
— Gillian Murphy (@gillysmurf) July 13, 2023
All were presented as if they were real and participants were asked if they had seen it and to rate how it compared to the original. pic.twitter.com/MYxzAJnrDy
— Gillian Murphy (@gillysmurf) July 13, 2023
But did seeing a realistic deepfake of the film actually result in more false memories than just reading a two-line description of the film? No! Both were incredibly effective - we tend to underestimate how easily we can be misled by non-technical means. pic.twitter.com/4cqunFvYaX
— Gillian Murphy (@gillysmurf) July 13, 2023
We also asked participants how they felt about deepfake recasting: potentially having the power to select the actors when they choose a film on Netflix. Generally very negative responses - seen as "artistically bankrupt" and another chore to complete before pressing play.
— Gillian Murphy (@gillysmurf) July 13, 2023
There are very real harms of deepfakes - most notably non-consensual deepfake pornography that almost exclusively targets women - but it's important to gather evidence before jumping to predictions of a dystopian "infocalypse". More to come from our @LeroCentre deepfake project!
— Gillian Murphy (@gillysmurf) July 13, 2023
İrlanda'daki University College Cork'tan yanlış bilgi araştırmacısı Gillian Murphy, "Gelişmekte olan teknolojilerle ilgili korkularımıza dayanarak distopik gelecek tahminlerine hemen dalmamalıyız." dedi. Aynı zamanda araştırmanın başyazarı olan Murphy, DailyBeast'e verdiği röportajda şu ifadeleri kullandı: "Evet, deepfake'in neden olduğu çok ciddi zararlar var. Ancak var olabileceğini varsaydığımız sorunları çözmek için acele etmeden önce, her zaman ilk etapta bu zararlara dair kanıt toplamalıyız.".
Öte yandan araştırmacılar, deepfake'in ekstra bir tehlike oluşturmayabileceği görüşünde. Zira deneyin ikinci etabında deepfake'li görüntüler yerine katılımcılara metinler verildi. Bu metinlerde de ünlü filmlerin hiç çekilmemiş yeniden çekimleri ve bu filmlerde hiç oynamamış oyuncuların isimleri geçiyordu. Bu yazılı tariflerin de katılımcıların önemli bir kısmında sahte anılar canlandırabildiği görüldü. Murphy, "Bulgularımız, mevcut yanlış bilgi biçimlerinin ötesinde, benzersiz derecede güçlü bir deepfake tehdidi önermiyor." diye konuştu. Öte yandan araştırmacı, bu çalışmada yalnızca kısa süreli belleğe odaklandıklarını da sözlerine ekledi: "Deepfake'ler yanlış bilgi yaymak için daha güçlü bir araç olabilir, çünkü örneğin viral olma olasılıkları daha yüksek veya uzun vadede daha akılda kalıcı.".
Türkçedeki birebir sözcük karşılığı "derin sahte" olan deepfake kabaca birinin yüzünü dijital olarak başka birinin vücuduna monte edip elde ettiğiniz görüntüyü istediğiniz gibi kullanmanıza olanak tanıyan bir teknoloji. Kısacası internetten kolayca ulaşılabilen algoritmalar sayesinde A kişisinin yüzü B kişisine montajlanabiliyor. İnternet kullanıcıları, deepfake içeriğe ilk kez 2017'de maruz kaldı. O yıl anonim bir Reddit kullanıcısı, Scarlett Johansson gibi ünlülerin deepfake'le oluşturulmuş sahte pornografik görüntülerini yayımlamıştı. Yapay zeka algoritmalarının sağlam bir deepfake örneği oluşturabilmesi için bol miktarda video kaydı gerekiyor. Bu da internet ortamında çok sayıda görüntüsü olan ünlülerle daha gerçekçi deepfake'ler oluşturulmasını sağlıyor.
Kaynak: Independent Türkçe







YORUMLAR