Olay Gazetesi Bursa

Yapay Zekâ “Bilmiyorum” demiyor

Bir süredir aynı şeyi yaşıyorum: Bir arkadaşım, bir müşterim, bazen bir yakınım… “Yapay zekâ böyle dedi” diye başlıyor cümleye. Sanki bir doktor konuşmuş gibi. Sanki bir avukat görüş vermiş gibi. Sanki bir uzman açıklama yapmış gibi. Halbuki çoğu zaman ortada bir uzman falan yok. Ortada bir “kesin bilgi” de yok. Ama varmış gibi konuşan bir […]

Bir süredir aynı şeyi yaşıyorum: Bir arkadaşım, bir müşterim, bazen bir yakınım…
“Yapay zekâ böyle dedi” diye başlıyor cümleye.

Sanki bir doktor konuşmuş gibi. Sanki bir avukat görüş vermiş gibi. Sanki bir uzman açıklama yapmış gibi.

Halbuki çoğu zaman ortada bir uzman falan yok. Ortada bir “kesin bilgi” de yok. Ama varmış gibi konuşan bir şey var: Yapay zekâ.

Asıl tehlike de tam burada başlıyor.

Çünkü yapay zekânın en büyük problemi, “yanlış yapması” değil. İnsan da yanlış yapar. Hepimiz yaparız.
Asıl problem şu: Yanlış yaptığında bile “bilmiyorum” dememesi.

Emin bir ses tonuyla gelen yanlış, en hızlı yayılan yanlıştır

Yapay zekâ ekrana öyle bir cevap bırakıyor ki…
Dili düzgün, cümleler pürüzsüz, ton kararlı. Okuyanın zihninde şu his oluşuyor: “Bu kesin doğrudur.”

Oysa yapay zekâ çoğu zaman “bilgi” üretmez; elindeki veriye göre en olası cümleyi kurar. Yani “biliyor” gibi yapar.

Ve bu “biliyormuş gibi” konuşma hâli, yanlış bilgiyi tehlikeli hale getirir. Çünkü yanlış bilgi eskiden kendini ele verirdi. Şüpheli olurdu. “Kaynağı ne?” dersiniz. “Kim söyledi?” diye sorarsınız.

Şimdi ise yanlış bilgi takım elbise giydi. Kravat taktı. Düzgün konuşuyor.
İkna ediyor.

Sağlıkta yanlış, sadece yanlış değildir

Bazı alanlarda “yanlış bilgi” can yakar. Bunu süslemeye gerek yok.

Sağlıkta hatalı bir yönlendirme, insanı tedaviden uzaklaştırır. Geciktirir. Bazen geri dönüşü olmayan sonuçlara sürükler.
Psikolojide yanlış bir yorum, birini daha da yalnızlaştırabilir. Daha da kırılgan hale getirebilir.
Hukukta yanlış bir bilgi, insanın hakkını kaybettirir.
Finansta yanlış bir yönlendirme, birikimi bir gecede eritir.

Şimdi düşünün: Böyle kritik bir konuda karşınızda bir ekran var ve size çok emin bir dille bir şey söylüyor. “Böyledir” diyor. “Kesindir” diyor.

İnsan ister istemez güveniyor. Çünkü hızlı. Çünkü net.

Ama net olmak, doğru olmak değildir.

Bir de politik cevaplar var: Yuvarlak, risksiz, tatsız

Yapay zekânın başka bir huyu daha var: Riskli konularda yuvarlak konuşmak.

Sanki bir cümle kuruyor ama hiçbir şey söylemiyor.
Herkesi memnun etmeye çalışıyor. Sonuç? Okur iki uçtan birine savruluyor:

Ya “Bunda bir şey yok” diye önemsemiyor,
ya da “Demek doğrusu bu” diye belirsizliği gerçek sanıyor.

Oysa gerçek hayat çoğu zaman net değildir. Ve bazı soruların cevabı “tek” değildir. Yapay zekâ ise bazen belirsizliği bile kesinmiş gibi paketleyip sunabiliyor.

Peki biz ne yapacağız?

Bence çözüm, yapay zekâyı “daha akıllı” hale getirmekten önce, onu daha dürüst konuşmaya zorlamak.

Bu da sandığınızdan daha basit: Doğru komut.

Yapay zekâya sadece “anlat” demek yetmiyor. Şunu açık açık söylemek gerekiyor:

Bu cümleler basit görünüyor ama etkisi büyük. Çünkü yapay zekânın en büyük açığı “üslup”. Üslup düzelince, risk azalıyor.

Asıl mesele teknoloji değil, okuryazarlık

Yapay zekâ hayatımıza girdi. Çıkmayacak.
O yüzden asıl soru şu: Biz bunu nasıl kullanacağız?

Benim tavrım net: Yapay zekâdan gelen her cevap, özellikle kritik konularda, bir ilk taslaktır.
Son karar insanda olmalı. Doğrulama insanda olmalı. Sorumluluk insanda olmalı.

Bugün yeni çağın en değerli becerisi “yapay zekâ kullanmak” değil;
yapay zekâya doğru soru sormak.

Çünkü çağın en büyük tehlikesi cehalet değil…
Özgüvenli yanlışlar.