Savaş hakkındaki dezenformasyon, Yapay Zekanın aldatma gücüne ilişkin korkuları körüklüyor

Gazze’de bombalanan evlerin ve harap olmuş sokakların görüntüleri arasında bazıları, gösterdikleri mutlak dehşetle dikkat çekiyordu: kanlı ve terk edilmiş bebekler.

Savaşın başlamasından bu yana internette milyonlarca kez görüntülenen bu görüntüler, Yapay zekayla oluşturulan deepfake’ler (dijital olarak manipüle edilmiş veya oluşturulmuş gerçekçi ses, görüntü veya videolar). Yakından bakarsanız ipuçlarını görebilirsiniz: tuhaf şekillerde kıvrılan parmaklar veya doğal olmayan bir ışıkla parlayan gözler, hepsi dijital aldatmacanın açık işaretleri.

Ancak görüntülerin kışkırtmaya çalıştığı öfke tamamen gerçektir.

İsrail ile Hamas arasındaki savaştan görüntüler, yapay zekanın (AI) potansiyelini canlı ve acı verici bir şekilde ortaya koydu: propaganda aracıgerçekçi katliam görüntüleri oluşturmak için kullanılır.

Savaşın geçen ay başlamasından bu yana, sosyal medyada yayılan dijital olarak değiştirilmiş görüntüler, mağdurların sorumluluğu hakkında yanlış iddialarda bulunmak veya insanları asla gerçekleşmemiş zulümler konusunda yanıltmak.

Savaşla ilgili internette dolaşan yanlış iddiaların çoğu, yapay zekanın daha geleneksel kaynaklardan yaratılmasını ve bu kaynaklardan gelmesini gerektirmiyorken, teknolojik ilerlemeler artan sıklıkta ve çok az gözetim altında gerçekleşiyor. Bu, yapay zekanın başka bir silah biçimi olma potansiyelini açıkça ortaya koydu ve gelecekteki çatışmalar, seçimler ve diğer büyük olaylar sırasında neler olacağına dair bir fikir verdi.

İsrail’in Gazze Şeridi’ni bombalaması sırasında bir kişi yaralandı. Fotoğraf: “EFE”

Çevrimiçi iddiaların geçerliliğini değerlendirmek için yapay zeka kullanan San Francisco ve Paris merkezli bir teknoloji şirketi olan CREOpoint’in CEO’su Jean-Claude Goldenstein, “Bu durum iyileşmeden önce çok daha kötü olacak” dedi.

duygusal etki

Şirket, Gazze’de ortaya çıkan en viral deepfake’lerden oluşan bir veri tabanı oluşturdu. Goldenstein, “Görüntüler, video ve ses: Üretken yapay zeka ile daha önce görmediğiniz bir artış olacak” diyor.

Bazı durumlarda, farklı çatışma veya felaketlerin fotoğrafları başka amaçlara yönelik olarak yeniden değerlendiriliyor ve yeniymiş gibi satılıyor. Diğerlerinde, çatışmanın ilk günlerinde internette yayılan bir bombalamanın enkazında ağlayan bir bebeğinki gibi sıfırdan görüntüler oluşturmak için üretken yapay zeka programları kullanıldı.

Yapay zeka tarafından oluşturulan görüntülerin diğer örnekleri arasında, iddia edilen İsrail füze saldırılarını, harabe mahallelerde dolaşan tankları veya ıssızlıkta hayatta kalanları arayan aileleri gösteren videolar yer alıyor.

Çoğu durumda, sahte görseller güçlü bir duygusal tepkiyi kışkırtmak için tasarlanmış gibi görünüyor bebeklerin, çocukların veya ailelerin cesetlerini dahil ederek. Savaşın kanlı ilk günlerinde hem İsrail’in hem de Hamas’ın destekçileri karşı tarafın çocukları ve bebekleri mağdur ettiğini iddia ediyordu. Ağlayan bebeklerin deepfake’leri, fotoğrafik “kanıt” sunuyordu ve bu da hızla kanıt olarak sunuldu.

Savaşla ilgili dezenformasyonu takip eden kâr amacı gütmeyen Dijital Nefretle Mücadele Merkezi’nin CEO’su Imran Ahmed, bu tür görüntüler yaratan propagandacıların insanların en derin endişelerini ve dürtülerini harekete geçirmekte usta olduklarını söyledi. İster deepfake bir bebek olsun ister başka bir çatışmadan kalma gerçek bir bebek görüntüsü olsun, izleyici üzerindeki duygusal etki aynıdır.

İsrail'in Gazze Şeridi'ne düzenlediği bombalı saldırıda bir cami yıkıldı.  Fotoğraf: REUTERSİsrail’in Gazze Şeridi’ne düzenlediği bombalı saldırıda bir cami yıkıldı. Fotoğraf: REUTERS

Resim ne kadar nefret doluysa, kullanıcının onu hatırlayıp paylaşma olasılığı da o kadar artar ve yanlışlıkla yanlış bilgiyi daha da yayar.

Ahmed, “Şu anda insanlara şu bebek fotoğrafına bakın deniyor” dedi. “Dezenformasyon sizin buna katılmanızı sağlamak için tasarlandı.” Benzer şekilde yapay zeka tarafından oluşturulan yanıltıcı içerik, Rusya’nın 2022’de Ukrayna’yı işgal etmesinden sonra yayılmaya başladı. Ukrayna Devlet Başkanı Volodymyr Zelenskyy’nin Ukraynalılara teslim olma emrini verdiğini gösteren değiştirilmiş bir video ortaya çıktı. Bu tür iddialar geçen hafta bile ortalıkta dolaşmaya devam etti; bu da yalan bilgilerin kolayca çürütüldüğü durumlarda bile ne kadar ısrarcı olduğunu gösteriyor.

Seçim kampanyalarında yapay zeka ve sahte haberler

Her yeni çatışma veya seçim sezonu, dezenformasyon savunucularına yapay zekadaki en son gelişmeleri göstermeleri için yeni fırsatlar sunuyor. Bu durum birçok yapay zeka uzmanının ve siyaset bilimcinin uyarmasına neden oluyor birçok ülkede önemli seçimlerin yapılacağı gelecek yılki risklerAmerika Birleşik Devletleri, Hindistan, Pakistan, Ukrayna, Tayvan, Endonezya ve Meksika dahil.

Yapay zeka ve sosyal medyanın Amerikalı seçmenlere yalan yaymak için kullanılabileceği riski, Washington’daki her iki partinin milletvekillerini alarma geçirdi. Deepfake’in tehlikeleri üzerine yakın zamanda yapılan bir duruşmada ABD Temsilcisi Gerry Connolly, D-Va., ABD’nin zararlı içeriğe karşı koymak için tasarlanmış yapay zeka araçlarının geliştirilmesine fon sağlamak için yatırım yapması gerektiğini söyledi.

Connolly, “Bir ulus olarak bunu doğru yapmalıyız” dedi.

Dünyanın dört bir yanında birçok teknoloji startupı, derin sahtekarlıkları tespit edebilen, bunların kökenini kanıtlamak için filigran resimlere imza atabilen veya yapay zeka tarafından eklenmiş olabilecek yanıltıcı iddiaları doğrulamak için metni inceleyebilen yeni programlar üzerinde çalışıyor.

“Bir sonraki yapay zeka dalgası şöyle olacak: Var olan içeriği nasıl doğrulayabilirsiniz? Hatalı veya yanlış bilgiyi nasıl tespit edebilirsiniz? Metnin güvenilir olup olmadığını belirlemek için metni nasıl analiz edebilirsiniz?

Bu programlar eğitimcilerin, gazetecilerin, mali analistlerin ve yalanları, intihalleri veya sahtekarlıkları ortadan kaldırmakla ilgilenen diğer kişilerin doğrudan ilgisini çekecektir. Benzer programlar, manipüle edilmiş fotoğraf veya videoları tespit etmek için tasarlanmaktadır.

Savunma İleri Araştırma Projeleri Ajansı’nda yapay zeka tarafından manipüle edilmiş görüntülerin oluşturduğu ulusal güvenlik tehditlerine yanıt vermeye yönelik bir çabaya liderlik eden bilgisayar bilimcisi David Doermann’a göre, bu teknoloji umut verici olsa da yalan söylemek için yapay zekayı kullananlar genellikle bir adım önde. .

Şu anda Buffalo Üniversitesi’nde profesör olan Doermann, yapay zeka tarafından üretilen yanlış bilgilerin yol açtığı politik ve sosyal zorluklara etkili bir şekilde yanıt vermenin hem daha iyi teknolojiler hem de daha iyi düzenlemeler, gönüllü endüstri standartları ve dijital okuryazarlık programlarına büyük yatırımlar gerektireceğini söyledi. İnternet kullanıcılarının gerçeği fanteziden ayırmanın yollarını bulmasına yardımcı olun.

Doermann, “Bunu tespit eden bir aracı her yayınladığımızda, düşmanlarımız bu kanıt izini gizlemek için yapay zekayı kullanabilir” dedi. “Bunları tespit edip ortadan kaldırmaya çalışmak artık çözüm değil. “Çok daha büyük bir çözüme ihtiyacımız var.”

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir