Yapay zekayla oluşturulan sahte görseller ve sesler “yeni nesil silah”

Yapay zeka tehdit tespit platformu Sensity AI şirketinin araştırmalarına göre, Rusya-Ukrayna Savaşı’nda Ukraynalı siyasetçiler ve askerler, deepfake videolarla “teslim olmaya çağıran” ya da “savaş suçu işlediğini itiraf eden” kişiler gibi gösteriliyor.

Tayvan’da seçim dönemlerinde, politikacıların sahte konuşmaları, uydurma skandalları ve gafa benzeyen sahneleri gibi Çin kaynaklı yapay zeka içerikleri sosyal medyada yayılarak karşıt görüşlü adaylar hedef alınıyor.

Japonya’da ise yapay zekayla üretilmiş sahte doğal afet görüntüleri, nükleer kaza veya sel felaketi gibi kurgular halkta panik yaratmak için kullanılıyor.

Bu tür olaylar, yapay zeka araçlarının bilinçsizce ve kontrolsüzce “yeni nesil silahlar” olarak kullanılması durumunda doğurabileceği tehlikeleri bir kez daha gündeme getiriyor.

“Yapay zeka ürünlerini tanımak imkansız hale geldi”

Sensity AI’nin kurucu ortağı Francesco Cavalli, yapay zekayla oluşturulan görseller, videolar ve seslerin etki ve tehlikelerine ilişkin değerlendirmelerde bulundu.

Cavalli, yapay zeka araçları geliştikçe neyin gerçek neyin olmadığını anlamanın daha zorlaştığını söyledi.

Yapay zekayla üretilen içerikleri anlamak için yüzde tutarsız ışıklandırma, aşırı pürüzsüz cilt dokusu, videolarda yapay göz kırpma ya da ağız hareketlerine bakılması tavsiye ediliyor.

Cavalli, “Yapay zeka içerikleri, özellikle düşük çözünürlüklü veya sıkıştırılmış formatlarda insan gözüyle tespitten kaçabiliyor. Yapay zekayla oluşturulmuş sesler insan için artık tanınması imkansız hale geldi.” dedi.

Yapay zekayla manipülasyon

Halihazırda yapay zekayla taklit edilen seslerin bu alandaki en yüksek riski oluşturduğu belirtiliyor.

Yapay zeka kullanarak Dışişleri Bakanı Marco Rubio’yu taklit eden bir dolandırıcı, ABD’li siyasiler tarafından sıkça kullanılan “Signal” isimli mesajlaşma uygulamasında Rubio adına sahte bir hesap oluşturarak üç farklı ülkenin dışişleri bakanları, bir Kongre üyesi ve bir vali ile temas kurdu.

Seslerin kullanımın kolay ve tespitinin de gecikmeli olduğunu dile getiren Cavalli, taklit seslerin telefonda konuşulan kişinin güvenilen biri olduğuna inandırmak için kullanıldığını ifade etti.

Midjourney ve Runway gibi araçlar geliştikçe gerçekle yapayı tutarlı şekilde ayırt etmekte zorlaşıyor.

Cavalli konuya ilişkin, “Üretici araçlar geliştikçe, eğitimli gözler bile kolayca kandırılabiliyor.” diye konuştu.

“Seçim müdahalesinde kullanılan yapay zeka üretimi medya, dolandırıcılık platformlarını tanıtan sahte basın toplantıları yapan politikacılar ve kamuoyunu manipüle etmek için paylaşılan yapay zeka üretimi savaş görüntülerini belgeledik.” diyen Cavalli, bu görsellerin genellikle sahte haber siteleri, sosyal medyadaki reklamlarla yayıldığını anlattı.

Cavalli, Çin, Japonya, Tayvan’da yapay zeka kullanımına ilişkin şirketinin incelediği vakalara atıfta bulunarak, “Tüm bu örneklerde, yapay zeka destekli propaganda sadece deneysel bir tehdit değil, algıyı manipüle etmek, toplumları istikrarsızlaştırmak ve yumuşak güç uygulamak için çeşitli çatışmalarda aktif olarak kullanılan küresel bir silahtır.” değerlendirmesinde bulundu.

Teknoloji şirketleri ve platformlara yapay zeka tabanlı görsel dezenformasyonla mücadele konusunda harekete geçmeleri yönünde çağrılar yapılıyor.

Platformların ise bu konuya odaklandığı ancak çoğunun “yapay medyayı geniş ölçekte tespit edebilecek sağlam adli inceleme sistemlerine sahip olmadığı” ifade ediliyor.

Cavalli, “Bazıları dolandırıcılık kampanyalarından bilinçli şekilde kar ediyor. Ancak dış baskı olunca müdahale ediyor. Tespit teknolojisi sağlayıcılar, platformlar ve düzenleyiciler arasında daha güçlü işbirliği şart.” dedi.

Yapay zekayla üretilen içeriklerin “etiketlenmesinin” doğru yol olmadığını düşündüğünü aktaran Cavalli, şunları söyledi:

Yapay zekayla oluşturulmuş içerik kendiliğinden zararlı değil, kullanım şekli ve yeri önemli. Örneğin, sosyal medya platformlarının, deepfake dolandırıcılık reklamları için ağlarını denetimsiz kullandırmasına ağır yaptırımlar uygulanmalı. Kullanıcı şikayetlerine dayanmak yerine, proaktif önlemler almaları zorunlu olmalı.

“Görmek artık inanmak demek olmayacak”

Sensity’nin geliştirdiği sistemler yüz manipülasyonun belirlenmesi, tamamen yapay zekayla üretilmiş görsellerin tespiti, taklit ses analizi ve adli incelemeyi kapsayan dört aşamalı bir analiz sürecinden geçiyor.

Bu analizlerin raporları ise resmi soruşturmalarda ve mahkemelerde kullanılabiliyor.

Cavalli, görsel medyaya olan güvenin gittikçe azaldığına işaret ederek bu konuda farkındalığın artması gerektiğini vurguladı.

İnsanların yapay zekayla üretilen görsel ve seslerin risklerine karşı eğitilmesi, şirketlerin, gazetecilerin ve araştırmacıların adli araçlarla donatılması gerektiğinin altını çizen Cavalli, “Görmek artık inanmak demek olmayacak.” ifadesini kullandı.

Related Posts

DNA’nızın %45’i kimsenin tahmin edemediği bir sırrı saklıyor

DNA’nızın neredeyse yarısının, milyonlarca yıl önce atalarımıza bulaşan eski virüslerin fosillerinden oluştuğunu biliyor muydunuz? Bilim insanları şimdiye kadar bu genetik kalıntıların sessiz olduğunu düşünüyordu. Ancak uluslararası bir araştırma ekibi, bu %45’lik kısmın aslında kimsenin tahmin edemediği bir sırrı barındırdığını kanıtladı:

Gece yarısı gelen telefonlara sakın ‘evet’ demeyin!

Kendini hakim, savcı ve polis gibi tanıtarak yapılan dolandırıcılık yöntemlerine bir yenisi daha eklendi. Dolandırıcılar 0850’li bir hat üzerinden özellikle gece saatlerinde vatandaşları arayıp sesli imzada kullanmak üzere, “Alo sesim geliyor mu?” sorusunu yöneltiyorlar. Soruya “evet” yanıtını veren vatandaşlar dolandırıcılık riskiyle karşı karşıya kalıyor.

Titanik kazasında kaç kişi kurtuldu? Sayılar neden halen net değil?

1912 yılında yaşanan Titanik kazası, aradan geçen onca zamana rağmen bazı temel sorulara kesin cevaplar verilememesiyle gündemdeki yerini koruyor. Örneğin, gemideki yolcu sayısı ve kurtulanların tam sayısı, farklı kaynaklarda neden halen küçük ama önemli farklılıklarla yer alıyor?

Siber saldırı ortalığı birbirine kattı: Dev şirketler ve kamu kurumları hedefte

Microsoft’un yaygın kullanılan sunucu yazılımındaki güvenlik açığından faydalanan hackerlar, ABD’deki kamu kurumları ve dünyadaki özel şirketleri hedef alan siber saldırılar düzenledi. Washington Post’un (WP) haberine göre ABD’li yetkililer ve …

Elektrikli otomobillerde ÖTV artacak mı? Herkes bunu bekliyor

Elektrikli otomobillere olan talep artarken Özel Tüketim Vergisi’ne ilişkin değişiklik yetkisi Cumhurbaşkanı’na verildi.

Isparta’da Otomobil ve Traktör Çarpıştı: 2 Yaralı

Isparta’nın Şarkikaraağaç ilçesinde meydana gelen kazada, otomobil ile traktör çarpıştı. Kazada 2 kişi yaralandı ve hastaneye kaldırıldı.