İsmail Salar
İsmail Salar
E-Posta: [email protected] YAZARIN TÜM YAZILARI

Artık gördüğümüze güvenebilir miyiz?

Köşe Yazısını Dinle

Türkiye ve Avrupa’da yeni gerçekcilik: Deepfake tehdidi

Dijital çağ hayatımıza hız, kolaylık ve erişilebilirlik getirdi ama aynı zamanda daha tehlikeli bir dönem başlattı: Gerçek ile sahte olan arasındaki çizgi tarihte hiç olmadığı kadar inceldi. Avrupa’da ve Türkiye’de yapay zekâ ile üretilmiş sahte görüntü ve videolar – yani deepfake içerikler – siyaset, güvenlik, medya ve hukuk düzenini zorlayan bir tehdit haline geldi.

Bugün ilk kez bir görüntünün gerçek olup olmadığını anlamak gözlerimize değil, şüphe yeteneğimize kaldı.

Siyaset: Manipülasyon çağı

ABD ve Avrupa’da yaklaşan seçimler deepfake üretimlerinin patlamasına neden oldu.

Bir siyasetçinin hiç söylemediği sözleri söylemiş gibi gösteren videolar artık saniyeler içinde üretilebiliyor.

Birçok ülkenin resmi raporlarında deepfake, artık “seçim güvenliği riski” olarak yer alıyor.

Propaganda çağından algı mühendisliği çağına geçtik.

Avrupa’da iş dünyası da hedefte

Dolandırıcılık yöntemleri bile kökten değişti.

Çok sayıda şirket yöneticisinin sesi kopyalanarak milyonlarca euroluk para transferleri gerçekleştirildi.

Artık:

  • Ses,
  • Mimik,
  • Görüntü

hepsi sahte olabiliyor ve telefon konuşması bile delil niteliğini yitirebiliyor.

Türkiye’de son 6 Ay: Yapay zekâyla üretilmiş Instagram dolandırıcılığı

Türkiye’de deepfake kullanımının en görünür alanı son 6 aydır Instagram dolandırıcılığı oldu.

Dolandırıcılar:

  • Tamamen yapay zekâ ile üretilmiş yüz fotoğrafları,
  • Gerçekçi biyografiler,
  • Kurgusal yaşam hikâyeleri

ile sahte profiller oluşturuyor.

Bu profiller üzerinden:

  • Yatırım danışmanlığı,
  • Influencer işbirliği,
  • Hediye kampanyası,
  • Para toplama

gibi yöntemlerle kullanıcılar tuzağa düşürülüyor.

En kritik nokta şu:

Fotoğraf gerçek bir kişiye ait olmadığı için mağdurlar karşılarındaki sahtekârın izini bile süremiyor.

Dolandırıcılık artık ele geçirilmiş hesaplarla değil; sıfırdan yaratılmış dijital kimliklerle yapılıyor.

Medya için yeni bir sınav

Bugün gazeteciliğin tanımı da değişiyor.

Artık mesele:

  • Haberi ilk vermek değil,
  • Haberin doğru olup olmadığını kanıtlamak.

ABD ve Avrupa’da birçok medya kuruluşu bunun için yapay zekâ destekli doğrulama ekipleri kurdu.

Çünkü sahte bir video dakikalar içinde milyonlara ulaşırken, gerçek geriden geliyor.

Hukuk yetişmekte zorlanıyor

Teknoloji koşuyor, hukuk adım adım ilerliyor.

Delil” tanımı bile değişmek zorunda.

Birkaç gün önce bu konuyu akşam yemeğinde Bursa’dan tanıdığımız Avukat Ataol Ertuğrul Gürlek ile konuştum ve kendisine şu soruyu yönelttim:

Delil nasıl doğrulanacak?”

Gürlek çok net bir cevap verdi:

Hukuk, ilk kez şunu sorgulamak zorunda: Kamera kaydı varsa bile, o görüntünün gerçeği temsil ettiğinden nasıl emin olacağız? Artık bir görüntünün gerçek olduğuna inanmak için önce teknolojik doğrulama şart.”

Ve devam etti:

Biz yıllarca mahkemelerde ‘en güçlü delil görüntüdür’ diye savunduk. Bugün ise aynı cümle tersine döndü: Görüntü doğrulanana kadar en zayıf delil olabilir.”

Bu söz çok önemli bir gerçeğe işaret ediyor:

Artık hukukçular bile:

  • Deepfake’i,
  • Dijital izleri,
  • Yapay zekâ doğrulama teknolojilerini

bilmek zorunda.

Hukuk pratiğinin sınırları yeniden çiziliyor.

Yeni çağ: Kuşku çağı

Eskiden görüntü kanıtların kralıydı.
Bugün görüntü,
kanıtlanana kadar şüpheli.

Bu nedenle dijital çağda hayatımıza yeni bir güvenlik cümlesi girdi:

Gördüğüne değil, doğrulatabildiğine inan.”

Belki gelecekte savcı, hakim, gazeteci, polis ve sıradan vatandaş bile dijital görüntü doğrulama bilgisine sahip olmak zorunda kalacak.

Gerçek artık çıplak gözle değil, teknolojiyle kanıtlanabiliyor.

Peki aynı soru hâlâ geçerli:

Artık gördüğümüze güvenebilecek miyiz?

Cevabı teknoloji değil,
toplumsal farkındalığımız ve dijital okur yazarlığımız belirleyecek.

ilk yorumu sen yap

Bir cevap yazın

E-posta hesabınız yayımlanmayacak.

BUGÜN EN ÇOK OKUNANLAR

Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için veri politikamızı inceleyebilirsiniz..
X