🔄Read this article in English (4 min read): 700 People Pretend to Be AI
Adı Natasha’ydı.
Hiç yemek yemezdi. Uyumazdı. Sizinle gerçek zamanlı sohbet ederken aynı anda işiniz için bir uygulama tasarlayabildiği söyleniyordu. Hem de siz tek bir satır kod yazmadan. Natasha verimliydi, nazikti ve her zaman ulaşılabilirdi.
Yalnız tek bir sorun vardı.
Natasha bir yapay zeka değildi.
Business Standard haberine göre, o, sahne arkasında çalışan 700 Hintli sözleşmeli çalışanın kamuflajıydı. Builder.ai (ya da diğer adıyla Engineer.ai) tarafından işe alınan bu kişiler, yatırımcıların, müşterilerin ve haber manşetlerinin büyük bir arzuyla inanmak istediği şeyi taklit ediyorlardı: Yapay zeka gelmişti ve işe yarıyordu.
Gerçekte ise Builder.ai, karmaşık bir illüzyon sistemi inşa etmişti. “Natasha” adlı asistan, büyük dil modelleri ya da makine otonomisine dayanmıyordu. Elle yazılım geliştiren, ama arka planda otomasyon taklidi yapan insanlarla çalışıyordu (Divyansh Bhatia, Medium.com). Şirketin pazarlama dili tamamen “yapay zeka” etiketine yaslanmıştı, ancak gerçek işleyişi 700 kişlik bir çağrı merkezini andırıyordu.
Ama sorun yalnızca bu aldatmaca da değildi.
Asıl sorun, herkesin buna ne kadar kolay inandığıydı.
İnsanı Silen Reklam Hilesi
Builder.ai şirketi, aralarında Microsoft ve Katar Yatırım Otoritesi’nin de bulunduğu büyük kurumlar tarafından destekleniyordu. Bloomberg’e göre, şirket büyümesini abartmak için sahte ortaklıklar da göstermişti. Ancak kimse perde arkasına bakmaya pek hevesli görünmüyordu. Ürün “AI” olarak etiketlenmişti, asistanın insansı bir adı vardı ve arayüzü oldukça güzeldi.
Ve bu, yeterliydi.
Bu sadece bir aldatmaca vakası da değildi. Aynı zamanda, kolektif inanma arzumuza ve toplumun ortak temennilerine dair bir vaka çalışmasıydı. Otomasyon vaadi uğruna, bir illüzyonun ortak yazarlarına dönüşmüş yatırımcılar ve müşteriler. Herkes daha hızlı, daha ucuz ve daha çok çalışan bir zeka arzuluyordu.
Elde ettikleri şey ise geleceği taklit etmeye çalışan, bitkin düşmüş çalışanlarla dolu bir odaydı.
Emek Utanca Dönüştüğü Zaman
Bu hikayede daha derin bir asimetri var. Ticari bir dolandırıcılığı aşan türden.
Builder.ai, 700 Hintli çalışanı “yapay zeka” gibi göstererek, abartıdan çok daha yıkıcı bir şey yaptı. İnsan emeğini görünmez kıldı.
Çünkü, ürünün insan emeğiyle yapılmış olduğunu söylemek, değerini azaltacaktı.
Bu modelde, eğitimli ve yetenekli geliştiricilerin emeği, gizlenmesi gereken bir şeye dönüştü. Gizlilik ya da fikri mülkiyet nedeniyle değil, algı nedeniyle. İnsan geliştiriciler hata yapabilen, pahalı ve yavaş olarak görülüyordu. Ama bir makine? O, verimliliğin vücut bulmuş haliydi.
Dolayısıyla emek sadece dış kaynağa devredilmedi; bir kusur olarak yeniden markalandı.
Bu, insan emeğini silmenin yeni bir biçimi. Üstelik yalnızca çalışanlar için değil, toplumun zeka, çalışma ve değer anlayışı için de tehlikeli.
Sormayı Unutan Yönetişim
Bu süreçte ne finansal, ne hukuki, ne teknik kurumlar şu basit soruyu sormadı: Aslında bu işi kim yapıyor?
Neyin “AI” olarak adlandırılabileceğine dair herhangi bir yasal tanım yok. İnsan emeğinin bu otomasyon sistemlerinin merkezinde yer aldığını açıklamayı zorunlu kılan bir standart da yok. Bir ürünün performansının hesaplamadan mı, emekten mi, yoksa melez bir süreçten mi geldiğini değerlendirecek tutarlı bir çerçeve hiç yok.
Bu bir yönetişim kör noktasıdır.
Yalnızca hukuki değil, aynı zamanda dilsel bir boşluk.
Yapay zekayı o kadar hevesle kabulleniyoruz ki, artık onun ne olduğunu bile sormayı bıraktık. Markasını görüyoruz, sesini duyuyoruz ve geleceğin zaten arka planda çalışmakta olduğunu varsayıyoruz. Oysa ki arka planda çalışan, yorgun parmaklar ve adı anılmayan insan zihni olabilir.
Bir Skandal Değil, Bir Ayna
Bu hikaye yalnızca iflas eden bir şirketle ilgili değil. Bu, makine zekasına inanma arzumuzu, o zeka henüz ortada yokken bile nasıl kollektif bir biçimde büyüttüğümüzü gösteriyor. İnsan karmaşıklığını “arka plandaki destek hizmetine” indirgememizle ilgili. Ve daha derin bir kafa karışıklığıyla da ilgili: Yardım ne zaman otonomiye dönüşür? Görev devri ne zaman aldatmacaya evrilir?
Eğer bu sorulara yanıt veremiyorsak, güvenilirliğini yitiren makineler olmayacak. Biz olacağız.
Ve bu illüzyon denetimsiz şekilde sürerse, sonuçlar yalnızca teknoloji çevreleriyle de sınırlı kalmaz. İstihdam verileri çarpıtılır. Hukuki sorumluluk kaydırılır. Güvenlik denetimleri kritik riskleri gözden kaçırabilir. İnsan emeğini silmek, onu yönetmenin araçlarını da silmektir.
Belki de şu anda ihtiyacımız olan şey daha fazla yapay zeka vitrini değil, bu yanılsamanın ardındaki emeğe daha derin bir saygıdır. Bu da ilerleme adına neyi sahteleştirmeye razı olduğumuz, ve bu illüzyonu sürdürmek için kimin emeğini sildiğimizin farkına varmak demek.
Çünkü en nihayetinde, Natasha hiç yalan söylemedi.
Yalan söyleyen bizdik.
🧰 Uyumlama Araç Kutusu
Piyasa bir sohbet robotuyla çağrı merkezini ayırt edemiyorsa, bilgilendirme artık lüks değil bir zorunluluktur. Aşağıdaki adımlar, akıllı sistemlere yönelik kamu güvenini yeniden inşa ederken daha sağlıklı bir piyasa yapısı kurmaya yardımcı olabilir:
Her “yapay zeka” iş akışında insan katkısı beyanını zorunlu hale getirin: insanlar tarafından yapılan görevlerin yüzdesi tanıtım materyallerinde ve hizmet koşullarında yer almalı.
Sistemleri Otomatik, Destekli ya da Arayüz Arkasında İnsan şeklinde derecelendiren bir “Yapay Zeka Şeffaflık Mührü” (ISO/IEEE) uygulamaya koyun.
Otomasyon iddialarını fonlama veya halka arz öncesinde denetleyin: bağımsız gözlemciler, bu mühürleri mali denetçiler gelir tablolarını nasıl inceliyorsa öyle doğrulamalı.
Açık etiketler, yatırımcıları korurken çalışanların görünmezleşmesini engeller ve güvenlik denetçilerini hayalet algoritmaların peşinde koşmaktan kurtarır.
Bu yazı, yapay zeka politikaları, etik ve ekonominin kesişiminde iki haftada bir yayınlamayı hedeflediğim Uyumlama Çerçevesi başlıklı kısa yansımalar serisinin bir parçasıdır. Her bir yazı, akıllı sistemler bizi şekillendirmeden önce bizim onları şekillendirmemiz için önemli riskleri ve fırsatları keşfedecek.