Gündem

Bir makineyle mi tartışıyorum? Yapay zeka tartışmacıları şeffaflık ihtiyacını vurgular

0

Noam Slonim, IBM Project Debater ile duruyor

IBM Research’ten Noam Slonim, şirketin AI tartışma sistemi Project Debater’ın yanında.Kredi: Eric Risberg / AP / Shutterstock

Yapay zeka (AI) ile çalışan bir makine, bir insanla tartışan bir izleyiciyi başarılı bir şekilde ikna edebilir mi? İsrail’in Hayfa kentindeki IBM Research’teki araştırmacılar öyle düşünüyor.

Bir makinenin bir kişiyle canlı tartışmaya girdiği bir deneyin sonuçlarını açıklarlar. İzleyiciler, duydukları konuşmaların kalitesini değerlendirdiler ve otomatik tartışmacının performansını insanlarınkine çok yakın olarak sıraladılar. Böyle bir başarı, yapay zekanın insan seviyesinde dil kullanımını taklit etmede ne kadar ileri gittiğinin çarpıcı bir göstergesidir (N.Slonim et al. Doğa 591, 379–384; 2021). Bu araştırma geliştikçe, aynı zamanda, insanların bir insanla mı yoksa bir makineyle mi etkileşime girdiklerini bilmeleri için, AI’da şeffaflığa ilişkin düzenlemeler olmasa da acil ihtiyaç duyulduğunu da hatırlatıyor. Yapay zeka tartışmacıları bir gün manipülatif beceriler geliştirebilir ve bu da gözetim ihtiyacını daha da güçlendirebilir.

IBM AI sistemine Project Debater adı verilir. Tartışma formatı, her iki taraftan 4 dakikalık bir açılış konuşması, ardından bir dizi yanıt ve ardından bir özetten oluşuyordu. Tartışılan konular çok çeşitliydi; Örneğin bir değişimde AI, anaokullarının devlet tarafından sübvanse edilip edilmeyeceği konusunda ödül kazanan bir tartışmacıya dönüştü. İzleyiciler, yapay zekanın argümanlarını diğer otomatik münazara sistemlerinden önce olumlu bir şekilde değerlendirdi. Bununla birlikte, Proje Tartışmacısı açılış konuşmalarında insan rakipleriyle eşleşebilmesine rağmen, her zaman insan konuşmasının tutarlılığı ve akıcılığı ile eşleşmedi.

Project Debater, bir makine öğrenimi algoritmasıdır, yani mevcut veriler üzerinde eğitilmiştir. İlk olarak 400 milyon gazete makalesinden oluşan bir veri tabanından bilgi çıkarır, bu kaynaklardan ilgili materyalleri tartışmada kullanılabilecek argümanlara derlemeden önce, eldeki konuyla anlamsal olarak ilgili metinler için tarar. Aynı metin madenciliği süreci, insan rakibin argümanlarını da çürüttü.

Derin öğrenme adı verilen bir makine öğrenimi sürümüne dayanan bunun gibi sistemler, dilin yorumlanmasında ve oluşturulmasında büyük adımlar atıyor. Bunların arasında, San Francisco, California merkezli bir şirket olan OpenAI tarafından tasarlanan Generative Pretrained Transformer (GPT) adlı dil modeli de var. GPT-2, Project Debater tarafından geride bırakılan sistemlerden biriydi. OpenAI o zamandan beri web sitelerinden, kitaplardan ve makalelerden alınan 200 milyar kelime kullanılarak eğitilen ve hikayeler, teknik kılavuzlar ve hatta şarkılar yazmak için kullanılan GPT-3’ü geliştirdi.

Geçen yıl GPT-3, Gardiyan bir insan tarafından düzenlendikten sonra yayınlanan gazete. “İnsanları yok etme arzum yok” diye yazdı. “Aslında, sana hiçbir şekilde zarar vermekle en ufak bir ilgim yok.” Ancak bu, yalnızca GPT-3’ün aklı olmadığı için hiçbir arzusu veya ilgisi olmadığı ölçüde doğrudur. Bu, zarar veremeyeceğini söylemekle aynı şey değildir. Gerçekten de, eğitim verileri insan çıktısından alındığı için, AI sistemleri ırkçılık ve cinsiyetçilik gibi insan önyargılarını taklit edebilir ve tekrarlayabilir.

Araştırmacılar bunun farkında ve bazıları bu tür önyargıları hesaba katmak için çaba sarf etse de, şirketlerin bunu yapacağı varsayılamaz. Yapay zeka sistemleri ikna edici argümanları çerçevelemede daha iyi hale geldikçe, kişinin bir insanla mı yoksa makineyle mi konuştuğu her zaman netleştirilmeli mi? İnsanlara tıbbi teşhisleri insan doktorundan değil de yapay zekadan geldiğinde söylenmesi gereken ikna edici bir durum var. Ancak, örneğin reklam veya politik konuşma yapay zeka tarafından oluşturulmuşsa aynı şey geçerli midir?

Berkeley Kaliforniya Üniversitesi’nden yapay zeka uzmanı Stuart Russell, Doğa İnsanların her zaman bir makineyle etkileşime girip girmediklerini bilme hakkına sahip olması gerektiği, bu kesinlikle bir makinenin onları ikna etmeye çalışıp çalışmadığını bilme hakkını da içerecektir. İnsanların zarar görmesi durumunda makinenin arkasındaki kişi veya kuruluşun izlenebilmesi ve sorumlu tutulabilmesi de aynı derecede önemlidir.

Project Debater’ın baş araştırmacısı Noam Slonim, IBM’in yapay zeka araştırması için bir şeffaflık politikası uyguladığını, örneğin eğitim verilerini ve algoritmaları açıkça kullanılabilir hale getirdiğini söylüyor. Ek olarak, halka açık tartışmalarda, Project Debater’ın yaratıcıları, ses sentezleyicisinin ses sentezleyicisini çok insan gibi yapmaktan kaçındılar, böylece seyirci onu bir kişiyle karıştırmasın.

Şu anda, Proje Tartışmacısı gibi sistemlerin insanların yargıları ve kararları üzerinde büyük bir etkiye sahip olduğunu hayal etmek zor, ancak yapay zeka sistemleri insan zihnindekilere dayanan özellikleri dahil etmeye başladıkça olasılık ortaya çıkıyor. Tartışmaya yönelik bir makine öğrenimi yaklaşımından farklı olarak, insan söylemi, bir konuşmacının izleyicilerinin nasıl gerekçelendirdiği ve yorumladığı ve aynı zamanda onları ikna etme olasılığı olan – psikologların zihin teorisi olarak adlandırdığı şey hakkında yaptığı üstü kapalı varsayımlar tarafından yönlendirilir.

Bunun gibi hiçbir şey eğitim verilerinden basitçe çıkarılamaz. Ancak araştırmacılar, bir zihin teorisinin bazı unsurlarını kendi AI modellerine dahil etmeye başlıyorlar (L. et al. Alın. Robot. SAHİP OLMAK https://doi.org/ghmq5q; 2018) – algoritmaların daha açık bir şekilde manipülatif hale gelebileceği imasıyla (AFT Winfield Ön. Robot. AI https://doi.org/ggvhvt; 2018). Bu tür yetenekler göz önüne alındığında, bir bilgisayarın bir gün daha güçlü hitabet yeteneğine sahip ikna edici bir dil oluşturması ve duygusal temyizlere başvurması mümkündür – her ikisinin de özellikle yanlış iddialarda dikkat çekmede ve dönüşümleri kazanmada gerçeklerden ve mantıktan daha etkili olduğu bilinmektedir ( C. Martel et al. Cogn. Hiçbir şey değil. https://doi.org/ghhwn7 (2020); S. Vosoughi et al. Bilim 359, 1146–1151; 2018).

Eski ABD başkanı Donald Trump’ın defalarca gösterdiği gibi, etkili hatiplerin insanları onları takip etmeye ikna etmede başarılı olmaları için mantıklı, tutarlı ya da gerçekten doğru olmaları gerekmez. Makineler bunu henüz kopyalayamasalar da, sorunların ortaya çıkmasını beklemek yerine zararları öngören düzenleyici gözetim önermek akıllıca olacaktır.

Aynı şekilde, AI, insanları ürünlerini satın almaya ikna etmek isteyen şirketler için kesinlikle çekici görünecektir. Bu, şeffaflığı sağlamak ve olası zararları azaltmak için gerekirse düzenleme yoluyla bir yol bulmanın başka bir nedenidir. Şeffaflık standartlarını karşılamanın yanı sıra, AI algoritmalarının, halka açık kullanım için onaylanmadan önce yeni ilaçlar için gerekli olanlara benzer denemelerden geçmesi gerekebilir.

Politikacılar ikna edici ancak dürüst olmayan argümanlara başvurduklarında, hükümet zaten zayıflamış durumda. Anketlerdeki zafer, en iyi algoritmaya sahip olan kişiden etkilenirse daha da kötü olabilir.

Profesör

Kas ve yağdan yapılmıştır

Previous article

Yayıncı Düzeltmesi: Kurumuş sıvı damlalarından kaynaklanan halka lekelerinin nedeni olarak kılcal akış

Next article

You may also like

Comments

Comments are closed.

More in Gündem