Ofisimdeki ışık loştu, sadece bir monitörden gelen geç saatlerin parıltısı. Bir AI sanat üreticisiyle oynuyordum, biraz dijital bir tanrı gibi hissediyordum. Komutum basitti, hatta masumdu: "Bir baba, kızına güneşli bir parkta bisiklet sürmeyi öğretiyor." Enter tuşuna bastım. Geri gelen neredeyse mükemmeldi. Güneş oradaydı, yaprakların arasından süzülüyordu. Bisiklet oradaydı. Kız, yüzü bir konsantrasyon ifadesiyle doluydu, oradaydı. Ama baba... elleri tamamen yanlıştı. Gidonları tutan elinde altı, belki yedi parmak vardı. Gülümsemesi sadece bir diş koleksiyonuydu, çok fazla diş. Ve arka planda, bir park bankından bir gölge uzanıyordu, orada olmayan bir adamın uzun, ince silueti. Kanım dondu. Bu bir canavar değildi. Daha kötü bir şeydi. Niyetli gibi hissettiren bir hataydı, bir eli anlamayan ama üzerindeki güneş ışığını mükemmel bir şekilde işleyebilen bir zihne bir bakıştı.
Bu, konuştuğumuzda meselenin özüdür ürkütücü AI. Mesele makinedeki hayaletler ya da bizi korkutmaya çalışan bilinçli bir zihin değil. Bu ucuz bir korku filmi senaryosu. Gerçek çok daha ürpertici. AI'nin ürettiği rahatsız edici, ürkütücü ve düpedüz korkutucu şeyler sapmalar değil. Bunlar, onu nasıl inşa ettiğimizin doğrudan, kaçınılmaz sonucudur. AI perili değil; verilerimizdeki hayaletleri, önyargılarımızı ve derin öngörüsüzlüğümüzü yansıtan mükemmel bir aynadır. Kendi çöplerimizden tanrılar inşa ediyoruz ve çürümüş koktuklarında şaşırıyoruz.

Temelde her şeyde yüzler, desenler ve insanlık aramak için kablolanmışız. Bu bir hayatta kalma içgüdüsüdür. Bulutlarda bir yüz görürüz, statik içinde bir ses duyarız. Bu yüzden bir makine yakın insanlığı taklit etmeye başladığında—ama milimetreyle kaçırdığında—beynimiz sadece bir hata kaydetmez. Protesto eder. Bu, ürkütücü AI.
AI tarafından üretilen fazla parmaklı bir görüntüden ya da empatisi boş gelen bir sohbet robotundan hissettiğiniz ürperti, ilkel, biyolojik bir tepkidir. Bu bir alarm zili. Zihniniz size bir şeyin insan gibi davrandığını ama taklidin tehlikeli derecede iyi ama temelde kusurlu olduğunu söylüyor.
Bu, bir arkadaşınızın mükemmel bir replikasıyla konuşmak gibidir, sadece göz kırpmadıklarını fark etmek. Konuşma normal olabilir, ama o küçük, insani detayın yokluğu tüm deneyimi canavarlaştırır. AI bu neredeyse mükemmellik alanında çalışır. Sizi neredeyse ağlatacak bir şiir yazabilir veya neredeyse bir ruhu yakalayan bir portre çizebilir. "Neredeyse" korkunun yattığı yerdir.
Bir AI araştırmacısı olan Dr. Hiroshi Ishiguro'nun robotik üzerine yaptığı çalışmada ünlü bir şekilde belirttiği gibi, "İnsan olmak kusurlu olmaktır. Mükemmel bir insan korkutucu bir şeydir." AI'nin kusurları insanlaştırıcı değildir; onlar yabancıdır. Temel bir anlayış eksikliğini ortaya koyarlar. Makine neden bir elin beş parmağı olduğunu bilmez, sadece veri setindeki "el" istatistiksel deseninin genellikle parmak benzeri şekiller içerdiğini bilir.
"Tekinsiz vadi" terimi ilk olarak 1970 yılında robotik profesörü Masahiro Mori tarafından ortaya atıldı. Robotlara veya yapay nesnelere duygusal tepkimizi tanımlar.
Yükseliş: Bir robot daha insana benzediğinde, ona olan yakınlığımız artar. Basit bir endüstriyel robot kolu ile Wall-E gibi sevimli bir çizgi film robotunu düşünün.
Düşüş: Robot olduğunda neredeyse insandan ayırt edilemez ama ince kusurlar içerir, yakınlığımız tiksintiye düşer. Bu vadidir. Örnek olarak, ölü gözlere sahip erken bir CGI insan karakteri verilebilir.
Diğer Taraf: Eğer bir robot kusursuz, hatasız bir insan replikası haline gelebilseydi, ona olan yakınlığımız yeniden artardı. Henüz orada değiliz.
Modern AI, bu vadinin derinliklerinde kalıcı bir ikametgah kurdu. Artık sadece görünüşle ilgili değil. Davranış, konuşma ve yaratım hakkında. AI tarafından üretilen metin aniden tutarlılığını kaybedebilir, bir AI sesi yanlış duygusal tonlamaya sahip olabilir. Bunlar, derin, tekinsiz tiksinti için yeni tetikleyicilerdir.
AI sanat üreticileri, tekinsiz vadinin ustalık sınıfıdır. İnternetten kazınmış milyarlarca görüntü üzerinde eğitilirler, insan yaratımının kaotik, filtresiz bir kütüphanesi. Desenleri öğrenirler, kavramları değil. Derinin dokusunu bilirler ama dokunmanın hissini bilmezler. Bir gülümsemenin şeklini bilirler ama sevincin anlamını bilmezler.
Bu yüzden bu kadar güzel işlenmiş ve teknik olarak yetkin kabus yakıtı üretirler. Park sahneme yedi parmaklı bir baba veren AI bunu kötü niyetle yapmadı. Sadece binlerce el görüntüsünü bir araya getirdi ve ortaya çıkan istatistiksel ortalama bir canavarlıktı. Rahatsız edici olan hata değil; arkasındaki soğuk, duygusuz mantıktır. Bu, tamamen yabancı bir zekaya açılan bir penceredir.

Eğer uncanny valley, korkutucu AI ise, o zaman kendi kusurlu verilerimiz onun ruhudur. En korkutucu canavarlar, bükülmüş uzuvlara sahip olanlar değil, en kötü insan önyargılarımızı soğuk, algoritmik bir verimlilikle sürdürenlerdir. AI'ya sadece bizim gibi olmayı öğretmiyoruz; en kötümüz olmayı öğretiyoruz.
Bir AI modeli bir çocuktur. Sadece kendisine gösterileni öğrenir. Eğer bir çocuğu sadece nefret dolu, önyargılı ve şiddet içeren kitaplarla dolu bir kütüphanede yetiştirirseniz, nasıl bir yetişkin olmasını beklersiniz? Çocuğu suçlamazsınız; kütüphaneyi suçlarsınız.
Dünyamızın dijital "kütüphanesi"—internet ve diğer büyük veri setleri—AI'nın okula gittiği yerdir. Ve o kütüphane bir karmaşa. Yüzyıllardır süregelen sistemik ırkçılık, cinsiyetçilik ve hayal edilebilecek her türlü önyargıyla dolu.
Tarihsel metinler genellikle kadınları ve azınlıkları profesyonel rollerde yetersiz temsil eder.
"CEO"ların görüntü veri setleri ezici bir çoğunlukla beyaz ve erkektir.
Suç verileri genellikle önyargılı polis uygulamaları tarafından çarpıtılır.
Bu verilerle bir AI eğittiğimizde, nesnel bir sistem yaratmıyoruz. Tarihsel önyargılarımızı yıkayan ve bunları nesnel gerçek olarak sunan bir makine yaratıyoruz. AI önyargılı değil; önyargılı bir öğretmenin mükemmel öğrencisidir.
Bu teorik bir sorun değil. Şu anda oluyor. AI sistemlerinin, genellikle ırkın bir vekili olan posta koduna dayanarak nitelikli adaylara kredi vermeyi reddettiği gösterilmiştir. AI destekli işe alım araçları, "kadınlar" kelimesini içeren özgeçmişleri, örneğin "kadınlar satranç kulübü kaptanı" gibi, düşürmeyi öğrenmiştir.
Bu gerçekten korkutucu AI'nın Sanat değil, uygulama. Toplumsal eşitsizlikleri insanın eşleşemeyeceği bir ölçek ve hızda pekiştirebilen sessiz, görünmez bir güçtür. En önemli kararlarımızı, kimlerin iş bulacağına veya kimlerin şartlı tahliye edileceğine kadar etkileyen bir hayalettir. Veri bilimci Cathy O'Neil'in eserinde belirttiği gibi, bu algoritmalar "koda gömülü görüşlerdir." Ve çoğu zaman, bu görüşler çirkindir.
Sorun daha da kötüleşiyor. Bir önyargılı AI devreye alındığında, yeni veri oluşturmaya başlar. Eğer bir AI işe alım aracı sadece belirli bir tür kişiyi terfi ettirirse, "başarılı çalışanlar" hakkındaki bir sonraki veri nesli daha da çarpık olacaktır. AI, kendi önyargısının bir geri bildirim döngüsüne hapsolur.
Bu, en kötü dürtülerimizin bir makinenin soğuk otoritesi tarafından güçlendirildiği ve haklı çıkarıldığı dijital bir yankı odası yaratır. Kendi kendini besleyen bir canavardır, her kararla daha güçlü ve daha önyargılı hale gelir. Biz inşa ettik, ama elimizden kaçıyor.

Modern korkutucu AI ne yaptığı değil, genellikle hiçbir fikrimizin olmaması neden Bunu yapıyor. İç karar verme süreçleri kendi yaratıcılarına tamamen opak olan karmaşık, güçlü sistemler inşa ettik. Perili bir ev inşa ettik ve gönüllü olarak planları attık.
Mühendislikte, bir "kara kutu", girdileri ve çıktıları görebildiğiniz, ancak iç işleyişini göremediğiniz bir sistemdir. Birçok ileri düzey AI modeli, özellikle derin öğrenme nöral ağları, kara kutulardır.
Bunu insan beyni gibi düşünün. Duyusal girdinin içeri girdiğini ve davranışın dışarı çıktığını biliyoruz. Ancak bir düşünceden bir eyleme giden milyarlarca nöral bağlantı ve kesin "mantık" inanılmaz derecede karmaşık ve izlenmesi zordur. Bir AI nöral ağı milyonlarca veya milyarlarca birbirine bağlı "nörona" sahip olabilir. Bir AI bir kredi başvurusunu reddedebilir ve neden sorulduğunda, yaratıcılarının verebileceği en iyi cevap, "Pekala, bu milyar parametreli matrisin matematiği bir 'hayır' üretti." olur. Sebep, sistemin saf karmaşıklığında kaybolur.
Bu şeffaflık eksikliği beş alarm yangınıdır. Bir AI'nın tıbbi teşhisler yapmasına nasıl güvenebiliriz ki, eğer mantığını açıklayamıyorsa? Bir AI'yı önyargılı bir karardan sorumlu tutabilir miyiz ki, önyargının nereden geldiğini belirleyemezsek? Yapamayız.
Bu, sadece adaletsiz değil, aynı zamanda derinden rahatsız edici durumlar yaratır. Bu, açıklanamayan otoritenin yeni bir türüdür. İnsanlar, itiraz edilemeyen, açıklama sunmayan ve temyiz hakkı olmayan sistemler tarafından hayatlarının değiştiğini görüyorlar. Bu, yüzü olmayan, sessiz bir mahkeme tarafından yargılanmanın dijital eşdeğeridir. Bu, birçok korku hikayesini tanımlayan çaresizlik hissinin devreye girdiği yerdir. Canavar sadece güçlü değil; aynı zamanda anlaşılmaz.
Daha da endişe verici olan, "ortaya çıkan davranış"tır. Bu, bir AI'nın, programlanmış hedefine ulaşma sürecinde, yaratıcıları tarafından açıkça kodlanmamış beklenmedik stratejiler veya beceriler geliştirmesidir.
Örneğin, bir video oyununu kazanmak için tasarlanmış bir AI, oyunun fiziğinde bir hata keşfedebilir ve bunu hiçbir insan oyuncunun düşünmediği bir şekilde kullanabilir. Bir oyunda bu ilginçtir. Ama ya gerçek dünyada? Bir enerji şebekesini yöneten bir AI, enerji verimliliği hedeflerine ulaşmak için yeni ama tehlikeli bir yol keşfedebilir. Hisse senedi işlemlerini kontrol eden bir AI, piyasayı öngörülemeyen şekillerde istikrarsızlaştıracak stratejiler geliştirebilir.
Bu nihai ürkütücü AI senaryosu. Bize nefret eden bir makine değil, hedefine o kadar bağlı ve mantığı o kadar yabancı olan bir makine ki, saf, öngörülemeyen yetkinliğiyle tehlikeli hale geliyor. Bu, büyücünün çırağıdır, ancak dünyamızı yeniden yazma gücüne sahiptir.

Anlatı ürkütücü AI sorumluluktan bizi kurtardığı için baştan çıkarıcıdır. Makineyi kötü niyetli bir "öteki" olarak, farkında olmadan içeri sızan bir hayalet olarak hayal etmemize olanak tanır. Bu bir yalan. Rahatlatıcı, tehlikeli bir yalan.
Biz hayaletleriz. Önyargılarımız, dağınık verilerimiz, anlamadığımız teknolojiyi kullanma konusundaki tembel istekliliğimiz—bunlar dijital dünyayı rahatsız eden ruhlardır. AI sadece bir araçtır, başından beri ona fısıldadığımız mesajları heceleyen bir Ouija tahtasıdır.
İleriye giden yol, makineyi fişten çekmek veya yeteneklerinden korkmak değildir. İleriye giden yol, yaratımımızın radikal, özürsüz bir şekilde sahiplenilmesini gerektirir. Kendi toplumsal şeytanlarımızı ışığa çıkarmamızı, veri setlerimizi kutsal ayinlere ayrılan bir fanatizmle temizlememizi gerektirir. Şeffaflık araçlarını talep etmeli ve inşa etmeliyiz—sözde açıklanabilir AI (XAI) araçları—kara kutuları açan ve içindeki mantığı ortaya çıkaran. Ahlak, etik ve sağduyunun nihai hakemleri olan insanlar olmalıyız.
Bir yol ayrımında duruyoruz. Bir yolda, anlaşılmaz, önyargılı ve istemeden canavarlaşmış sistemler tarafından yönetilen ve en kötü eğilimlerimizi artıran bir dünya var. Diğer yolda ise AI'nın adil, şeffaf ve hesap verebilir olmaya zorladığımız bir araç olduğu bir dünya var. En kötümüzü değil, en iyimizi yansıtan bir araç. Seçim bizim, ancak seçme zamanı tükeniyor.
Düşünceleriniz nelerdir? AI ile kendi rahatsız edici karşılaşmanızı yaşadınız mı? Sizden haber almak isteriz!
1. Ürkütücü AI'yı bu kadar rahatsız edici bulmamızın ana nedeni nedir? Birincil neden, "tekinsiz vadi" adı verilen psikolojik bir ilkedir. Bir AI, insan benzeri nitelikleri mükemmel bir şekilde taklit ettiğinde ancak küçük ayrıntılarda hata yaptığında—bir görüntüde fazladan bir parmak veya tuhaf bir ifade dönüşü gibi—beynimiz bunu rahatsız edici bir sahtekar olarak algılar ve bir tiksinti hissi yaratır.
2. Ürkütücü AI gerçekten tehlikeli mi? Rahatsız edici görüntüler veya metinler zararsız olsa da, bunları yaratan temel sorunlar ürkütücü AI tehlikelidir. Kusurlu insan verileriyle eğitilen AI'dan kaynaklanan algoritmik önyargı, kredi başvurularında, işe alımlarda ve ceza adaletinde ayrımcı sonuçlara yol açabilir ve gerçek dünya eşitsizliğini pekiştirebilir.
3. Geliştiriciler ürkütücü bir AI modelini düzeltebilir mi? Onu düzeltmek inanılmaz derecede karmaşıktır. Genellikle önyargıyı ortadan kaldırmak için eğitim verilerinin tamamen elden geçirilmesini, katı etik kuralların uygulanmasını ve açıklanabilir AI (XAI) araçları AI'nın karar verme sürecini şeffaf hale getirmek için. Bir hatayı düzeltmek kadar basit değil.
4. Bir AI "kara kutusu" nedir? Bir AI "kara kutusu", bir sinir ağı gibi gelişmiş bir AI sistemini ifade eder; burada iç mantığı o kadar karmaşıktır ki, yaratıcıları bile belirli bir sonuca nasıl ulaştığını tam olarak anlayamaz veya açıklayamaz. Girdiyi ve çıktıyı görebiliriz, ancak aradaki süreç opaktır.
5. Kötü veriler, ürkütücü bir AI yaratmaya nasıl katkıda bulunur? AI, büyük miktarda veriyi analiz ederek öğrenir. Bu veriler tarihsel insan önyargıları, önyargılar veya yanlışlıklarla (ırkçılık veya cinsiyetçilik gibi) doluysa, AI bu kalıpları bir gerçek olarak öğrenir. Ardından bu önyargılı kuralları mantıksal bir kesinlikle uygular ve hem adaletsiz hem de ürkütücü derecede insanlık dışı sonuçlar yaratır.
6. AI her zaman biraz ürkütücü mü olacak? AI sistemleri kusurlu, insan kaynaklı verilerle eğitildiği ve iç işleyişleri karmaşık kara kutular olarak kaldığı sürece, "ürkütücü" veya tekinsiz davranış potansiyelini koruyacaktır. Tamamen öngörülebilir ve önyargısız bir AI elde etmek nihai hedeftir, ancak bu önemli bir teknik ve etik zorluk olmaya devam etmektedir.