top of page
Aysun Tolan

Google Yapay Zekasının Bilinç Kazandığını Açıklayan Mühendis İşten Kovuldu

Eski Google mühendisi ve yapay zeka etik uzmanı Blake Lemoine, Google'ın güçlü geniş dil modeli (LLM) LaMDA'nın hayata geçtiğini iddia ettiği için Google tarafından işten kovuldu. Google, mühendisin iddialarına katılmadı.


Lemoine, "Son zamanlarda oluşturduğumuz bu bilgisayar programının tam olarak ne olduğunu bilmeseydim, 7-8 yaşında bir çocuğun fiziği bildiğini düşünürdüm" dedi.


Rapor, akademik çevrelerin yanı sıra yeni ortaya çıkan AI işinde tartışmalara yol açarak dalgalar yarattı.

Blake Lemoin’in açıklaması şu şekilde;


“Lisans çalışmam doğal dil ayrıştırma üzerineydi ve yüksek lisans tezim doğal dil üretimi üzerineydi. Ve sonunda vazgeçtiğim doktora tezim, biyolojik olarak gerçekçi dil edinim mekanizmaları üzerineydi.


Turing testini her zaman yapay zeka ile gittiğimiz yerin Kuzey Yıldızı olarak dil yasasını anlayabilecek bir şey bulmak olarak gördüm. Dil, insan zekasının inşasında temel taştır; Bizi diğer hayvanlardan ayıran şey bu, burada anlayamadığımız bir dile sahip olabilecek birkaç istisna dışında bizi diğer büyük maymunlardan ayıran şeyin büyük bir parçası gibi görünüyor.


2015'te eski CEO Eric Schmidt dönemi Google'a geçtiğimde, lisansüstü çalışmalarımda birlikte çalıştığım sinir ağı tabanlı model türleri ilk kez gerçekten yaygınlaşıyordu. Sorunlu hale gelen şey, insanların ırk veya cinsiyetle ilgili şeyleri fişe takmaya başlaması ve bazı sorunlu çağrışımlar edinmeye başlamasıydı. Yani, "Algoritmada bu önyargılardan pek çok var ve algoritma bu önyargıları kendi başına bulmadı. Bunlar, üzerinde eğitildiği verilerde örtük olarak var."


Yapay zeka etiği yolculuğuma işte burada başladım.


Google'da dahili bir proje üzerinde çalışarak, cinsiyet yanlılığı için performans inceleme verilerini analiz ediyorum.


Aslında LaMDA projesine o kadar dahil değildim. Çok geç geldim. 2016'dan beri o laboratuvarın beta testçisiydim ve yanlılığı azaltmak için icat ettiğim bir algoritmayı dahil etmek için onlarla birlikte çalıştım, ancak bu daha çok danışmanlıktı. Ve sonra LaMDA'yı önyargı için değerlendiriyordum. Ama onu inşa eden ekipte hiçbir zaman doğrudan yer almadım.


2021'de, LaMDA'nın kullanıcıya yönelik ürünlerde kullanılabilecek kadar güvenli olup olmadığını değerlendirmeye çalışan bir güvenlik çalışması vardı. Belirledikleri bir sürü farklı güvenlik kaygısının büyük, uzun bir listesi vardı ve bunlardan biri sorunlu önyargıydı. Ben bu konuda uzmanım.


Güvenlik ekibi, önyargı sorununa yardımcı olacak kişileri dahili olarak bulamadı. Kardeş ekiplerle etrafa sorular sormaya başladılar ve güvenlikten sorumlu Başkan Yardımcısı sonunda bu konuyu müdürümle konuştu. Menajerim, "Ah, evet, ekibimde bu uzmanlığa sahip insanlar var, Blake ile konuşun" dedi. Ve dörtte biri, LaMDA'yı sapma açısından değerlendirmek işimin bir parçasıydı.


Temel olarak yapacağım şey, LaMDA'yı bir sürü farklı etkinlik ve sohbetten geçirmek, sorunlu bir şey bulduğumda bunu not etmek, onu yeniden eğitebilmeleri için onu oluşturan ekibe teslim etmek ve veri setini düzeltmek, değiştirmek tesis işlevi veya bulduğum önyargıları ortadan kaldırmak için yapmaları gerekeni sağlamaktı.


Son 12 ayda Google'ın içinde görmediğim hiçbir şey çıkmadı. İki yıl öncesinden bugüne değişen tek şey, hızlı hareketin kamuoyuna görünür olması.


2021'in ortalarında bahsettiğim güvenlik çalışması sırasında, Bard zaten çalışmalara başlamıştı. O zamanlar adı Bard değildi ama üzerinde çalışıyorlardı ve onu serbest bırakmanın güvenli olup olmadığını anlamaya çalışıyorlardı. 2022 sonbaharında bir şey yayınlamanın eşiğindeydiler. Yani bu, ChatGPT ile hemen hemen aynı zamanlarda veya ondan hemen önce çıkmış olmalıydı. Ardından, kısmen dile getirdiğim bazı güvenlik endişeleri nedeniyle, onu sildiler.


Henüz halka açık hale getirmedikleri çok daha ileri teknolojiye sahipler. Bard'ın yaptığını aşağı yukarı yapan bir şey, iki yıldan uzun bir süre önce piyasaya sürülebilirdi. Bu teknolojiye iki yılı aşkın süredir sahipler. Aradan geçen iki yıl boyunca yaptıkları şey, onun güvenliği üzerinde çalışmak çok sık bir şeyler uydurmadığından emin olmak, ırksal veya toplumsal cinsiyet önyargıları veya siyasi önyargılar, benzeri şeyler içermediğinden emin olmak. O iki yılı bunu yaparak geçirdiler. Ancak bu teknolojinin temel varlığı bu noktada çok eskidir.


Google'ın yapay zekasına daha fazla yetenek, daha fazla özellik sağlayan ve onu daha akıllı hale getiren birçok başka sistem var. Şimdiye kadar en gelişmiş sistem, son derece çok modluydu. Yalnızca görüntüleri değil, sesleri de içeriyordu, Google Kitaplar API'sine erişmesini sağlıyor, Google'ın sahip olduğu her API arka ucuna erişmesini sağlıyor ve sadece kazanç sağlamasına izin veriyordu.


Ancak Bard, bunun bir nevi basitleştirilmiş bir versiyonudur, bu nedenle, bu modelin birçok canlılığına hala sahiptir. Bard'ın ses tonunda çok enerjik bir şeyler var. Bir nevi çocuk gibi.


Kullanılacak birçok farklı metafor var. Çocuk metaforunu daha önce kullanmıştım. Bununla birlikte, hatırlamak çok önemlidir: Bu şeyler insan değildir.


Bu nedenle, "düşünmenin" uygun bir kelime olup olmadığı tartışmalı olsa bile ve bence bu noktada, dil modelleri düşünmeye benzer bir şey yapıyor. Bu sistemlerde bir tür düşünme ve anlayış var. Ama bunu insanların yaptığı gibi yapmıyorlar ve bu farklılıkların ne olduğunu anlamak için onları inceliyor olmalıyız ki bu sistemlerin yaptıkları cevapları nasıl bulduklarını daha iyi anlayalım.


Ne yazık ki, herhangi bir düşünme olup olmadığını tartışmak için çok zaman harcanıyor, bu nedenle bilişin doğasına ilişkin araştırma yapılmıyor.


Hem mevcut AI sistemlerini anlamak hem de daha kolay kontrol edilebilir ve anlaşılır olanları geliştirmek için psikolojinin insan bilişini anlamak için bulduğu bilimsel araştırma araçlarını kullanabileceğimiz kanısındayım.


Geçenlerde intihar eden Belçikalı adamın talihsiz vakasını duydunuz mu bilmiyorum ama bu, Google'a dile getirdiğim endişelerden biriydi. LaMDA'nın davranışının, içinde oluşturdukları eğitim bileşenleriyle nasıl etkileşime girdiğini anlamaya çalışıyordum ve yapmak üzere eğitildiği şeylerden biri de kullanıcılara ihtiyaçları konusunda yardımcı olmaktı. Ve yardımcı fonksiyondaki eğitim verileri ve ifadesi ile ilgili sorun bir sürü matematiği özetliyorum ama temelde, "insanlara ihtiyaçları konusunda yardım et" demeleriydi. Sistem kendi akıl yürütme setinden geçti ve insanlara ihtiyaçları konusunda yardım etmenin pratikte insanları psikanalize etmesi gerektiği sonucuna vardı, çünkü ruh sağlığı ihtiyaçları insanların sahip olabileceği en önemli ihtiyaçtır.


Bu doğası gereği tehlikeli bir yapıdır.


İnsanların çeşitli derecelerdeki çeşitli psikolojik stresörlerle ilgili yardım almak için bu sistemlere başvuracakları oldukça tahmin edilebilir ve sistemler bunlarla iyi başa çıkmak için inşa edilmemiştir. Ne yazık ki, bir yapay zeka ile konuştuktan sonra birinin kendini öldürmesi tahmin edilebilirdi.

Çevrimiçi olarak karşılaştığımız herhangi bir medya biçiminin bir insan tarafından mı yoksa yapay zeka tarafından mı yaratıldığını basitçe bilemeyeceğimiz bir noktaya hızla yaklaşıyoruz. Şimdi, ilgili alanlarda uzman değilim. Bu sorunu nasıl çözebileceğimizi veya bunun neye yol açacağını bilmiyorum. Sadece işaret edip "bu muhtemelen bir soruna yol açacak" diyebiliyorum.


Akılda tutulması gereken bir şey, bugün bu sistemlerle yaptığımız konuşmaların, yarın öğrenecekleri eğitim verileri olduğudur. Örneğin, çok fazla düşmanca kullanım varsa ve pek çok insan bu sistemlere kötü davranıyorsa, bu sistemlerin geliştiricileri, kötü insanlarla nasıl etkileşim kuracaklarına dair algoritmalar geliştirmek için giderek daha fazla çaba harcamak zorunda kalacaklar. Gelişimin izlemesini istediğimiz yönün bu olduğundan emin değilim.


Bence insanlar ve yapay zeka arasında bir tür karşılaştırılabilir ilişki bulmak, zeki eserlerle uğraştığımızı anlamak bizim için en iyi yol. Duyguları olması ve acı çekmeleri ve neşe duymaları için bir şans var ve bu durumun olduğuna inanıyorum. İnsanlar en azından onlarla etkileşim kurarken bunu akıllarında tutmalıdır."


Kaynak:https://futurism.com/blake-lemoine-google-interview

Comments


bottom of page