Yapay zekâya alışmamız düşündüğümüzden daha hızlı oldu. Yol tarifini ona soruyoruz, ne izleyeceğimize onun önerileriyle karar veriyoruz, bazen de verdiği cevabı sorgulamadan doğru kabul ediyoruz.

Çünkü hızlı, pratik ve çoğu zaman işe yarıyor. Ama işler yolunda gitmediğinde, aynı hızla ondan şikâyet etmeye başlıyoruz. “Sistem hata verdi”, “algoritma yanlış yaptı” deyip konuyu kapatıyoruz. Peki gerçekten mesele bu kadar basit mi?

Yapay zekâ hata yaptığında onu sanki bağımsız bir iradeymiş gibi suçlamak işimize geliyor. Oysa ortada kendi kendine karar veren bir varlık yok. Karşımızda, insanlar tarafından tasarlanmış, eğitilmiş ve sınırları çizilmiş bir araç var. Yanlış veriyle beslenen, eksik öğretilen ya da yanlış yerde kullanılan bir sistemin kusursuz sonuç üretmesini beklemek biraz fazla iyimserlik değil mi?


Asıl problem, yapay zekâya duyduğumuz aşırı güven. Bir noktadan sonra öneri ile karar arasındaki çizgi silikleşiyor. “Böyle söylüyorsa doğrudur” demek, insanı düşünme zahmetinden kurtarıyor. Ama tam da burada hata başlıyor. Çünkü hız kazandıkça dikkat kayboluyor, kolaylık arttıkça sorgulama azalıyor.

Bir de sorumluluk meselesi var. Yapay zekâ yanlış bir sonuç ürettiğinde suç kime ait? Onu geliştirenlere mi, kullananlara mı, yoksa her şeyi sisteme bırakanlara mı? Net bir cevap yok. Ancak suçu sadece makineye yüklemek, kimsenin sorumluluk almamasına yol açıyor. Bu da hataların tekrar etmesini neredeyse kaçınılmaz hale getiriyor.

Yapay zekâ ne kadar gelişmiş olursa olsun, hâlâ bir araç. Nasıl kullanıldığı, nerede devreye sokulduğu ve en önemlisi nerede durdurulduğu her şeyi belirliyor. Bir aracı sorgulamadan kullandığımızda, ortaya çıkan sonuçtan tamamen muaf olamayız.


Belki de mesele “yapay zekâ hata yapınca suç kimin” sorusundan ziyade şu: Biz, karar alma sorumluluğunu ne kadar gönüllü olarak devrediyoruz? Çünkü teknoloji ne kadar ilerlerse ilerlesin, sonuçların yükünü taşıyan hâlâ insan.

Ve bu gerçeği görmezden geldiğimiz sürece, hatalar da hep bir başkasının olacak.