Google, Explainable AI ile kara kutu sorununu ele alıyor
Yapay zeka ile ilgili bir sorun var.
İnsanların uğraştığı zorlukları çözmek için devasa miktarlardaki verilerde çalkalama yapmak şaşırtıcı olabilir. Ancak kararlarını nasıl verdiğini anlamak, imkansız olmasa da yapılması çok zordur.
Bu, bir AI modelinin çalıştığı zaman, daha fazla ayrıntılandırma yapmak için olması gerektiği kadar kolay olmadığı anlamına gelir ve tuhaf davranış sergilediğinde, düzeltilmesi zor olabilir.
Ancak bu hafta Londra’daki bir etkinlikte, Google’ın bulut bilişim bölümü, sektöre egemen olan Microsoft ve Amazon konusunda avantaj sağlayacağını ümit ettiği yeni bir tesise yöneldi. Adı: Açıklanabilir AI .
Başlangıç olarak, yüz ve nesne tespit modellerinin performansı ve olası eksiklikleri hakkında bilgi verecektir. Ancak zamanla, firma AI algoritmalarının "düşünmesini" daha az gizemli ve bu nedenle daha güvenilir hale getirmeye yardımcı olacak daha geniş bir içgörü seti sunmayı amaçlamaktadır.
Danışmanlar IDC'den Philip Carter, "Google, bulut platformu alanı açısından kesinlikle Amazon Web Services ve Microsoft Azure’un arkasındaki yöneticilerden biri. Ancak AI iş yükleri için bunun böyle olduğunu söyleyemem - özellikle perakende müşterileri için" dedi.
“AI çevresinde bir miktar silahlanma yarışı var ... ve bir şekilde Google'ın diğer oyuncuların önünde olduğu görülebilir.
Profesör Andrew Moore, Google Cloud’un AI bölümünü yönetiyor.
BBC'ye, atılımın arkasındaki sır "gerçekten havalı bir matematik" olduğunu söyledi.
Aşağıdaki transkript açıklık ve uzunluk için düzenlenmiştir:
Açıklanabilir yapay zekaya neyin yol açtığını açıklayabilir misiniz?
Google’da bizi çılgına çeviren şeylerden biri, genellikle gerçekten doğru makine öğrenme modelleri oluşturmamızdır, ancak yaptıklarını neden yaptıklarını anlamak zorundayız. Akıllı telefonlarımız veya arama sıralama sistemimiz veya soru cevaplama sistemimiz için kurduğumuz büyük sistemlerin çoğunda, neler olup bittiğini anlamak için dahili olarak çok çalıştık. Şimdi, makine öğreniminin sonuçlarını da açıklayabilmek için dış dünya için bu araçların çoğunu serbest bırakıyoruz. Kara kutu makinesi öğrenme dönemi geride kaldı.
Bunu nasıl yapacaksınız - bir sinir ağına bakıp bir girişin neden çıktı olduğunu göremiyormuşsunuz gibi değil mi?
Asıl soru, sinir ağının kendisine sorduğu, örneğin 'depoya giren kişinin gömleğinin rengine bakamadığımı' tahmin edeceğimi farz edersem, karşıt denilen şeyleri yapmaktır. Ne kadar hızlı yürüyorlardı? Pek çok karşı-eylem yaparak yavaş yavaş ne olduğunu ve bir tahmin yaparken nelere dikkat etmediğinin bir resmini oluşturur.
Bu gerçekten önemli, güven açısından değil mi? Sadece işimize değil, hayatımızı yapay zeka algoritmalarına güvenecek olursak, işler ters gittiğinde nedenini çözemezsek, bu iyi olmaz.
Evet. Toplumsal nedenler ve adalet nedenleri ve güvenlik nedenleri için gerçekten önemlidir. Ancak, kendinden saygılı bir AI uygulayıcısının, Açıklanabilen AI'nın ötesinde ek korkuluklar olmadan, güvenlik açısından kritik bir makine öğrenme sistemi bırakmayacağını söyleyeceğim.
Açıkçası, Google’ın kara kutu sorununu tamamen çözdüğünü mü söylüyorsunuz yoksa orada biraz ışık parlıyorsunuz?
Yeni Açıklanabilir AI araçlarıyla veri bilim insanlarının olup bitenler hakkında güçlü teşhisler yapmalarına yardımcı olabiliriz. Ama olan bitenin tam bir açıklaması olduğu noktaya gelmedik. Örneğin, bir şeyin bir şeye neden olup olmadığı ya da bir şeye bağlı olup olmadığıyla ilgili soruların çoğu - bunlar tamamen teknolojiyi kullanabileceğimiz şeylerden daha felsefi sorulara daha yakındır.
Müşterilere sunmadığınız bir AI hizmeti yüz tanıma özelliğidir. Müşterilerin ünlüler için yapılan bir istisna dışında yüzleri tespit etmelerini ancak tanımalarını sağlamak için kendinizi sınırlandırdınız. Microsoft ve Amazon, aksine, kullanıcıların araçlarına daha genel yüz tanıma yetenekleri oluşturmalarına izin veriyor. Yaklaşımınız neden farklı?
Genel olarak, Google’da yapay zekanın sorumlu bir şekilde uygulanmasının ne kadar önemli olduğunu anladık. Ve böylece, genel müdürümüz Sundar Pichai, birlikte çalıştığımız bir dizi ilke görevlendirdi. Asla zarar vermememiz gerektiği ve sistemlerin kararlarının tarafsız, adil ve hesap verilebilir olduğundan emin olmamız gerektiği gerçeğini içerirler. Bunun bir sonucu olarak, çok dikkatli olduğumuz anlamına gelir. Bazen de bir şeyi serbest bırakmakta isteksiz olduğumuzu ve işe yarayacağını umduğumuza inanıyorum, çünkü her şeyi arzu edilen şekilde çalıştıklarından emin olmak için her şeyi bir test bataryasıyla yapıyoruz.
Çiviyi değiştirme. Bu rolü üstlenmeden önce, ABD Savunma Bakanlığı için AI çalışması yaptınız. Ve Google drone görüntülerini etiketlemek için Pentagon'la olan ilişkisini çıkardıktan hemen sonra katıldınız - endişelerini dile getirdi . Google’ın Proje Maven’i bırakma kararının yanlış olduğunu düşünüyor musunuz?
Bu benim zamanımdan önceydi. Bu yüzden belirli bir karar hakkında yorum yapmayacağım.
Rollerimden birinin, ulusal güvenlik için AI'daki ABD Yapay Zeka Kongresi Komisyonunda görev yapmak olduğunu söyleyeceğim. Ve kendim ve endüstrilerdeki diğer pek çok kişi, teknoloji sağlayıcılarının, ülkelerin ve toplumların korunmasına yardımcı olmak ve tüketici ürünleri üretmek gibi bir yükümlülüğümüz olduğunu biliyor.
Birkaç hafta önce, baş hukuk müşavirimiz Kent Walker, Google’ın , insanları daha güvenli kılacak ulusal güvenlik konularında yardım etme konusundaki büyük arzusu hakkında bazı yorumlar yaptı .
Ancak Google Cloud, silah sistemleri konusunda çalışmalarını dışlıyor?
Google’ın AI ilkeleri, saldırgan silah sistemleri üzerinde çalışmayacaklarını söylüyor.
Peki, Google’ın gelecekte askeri veya diğer ulusal güvenlik sözleşmelerini takip etmesi gerektiğini düşünüyor musunuz?
Belirli bir sözleşmeden bahsetmek istemiyorum. Ancak, örneğin, Google aktif olarak "derin sahte" algılama sorununa yardım ediyor, bu yapay olarak oluşturulan videoların veya görüntülerin gerçekten toplumsal sorunlara neden olacak kadar gerçekçi hale gelebilecekleri yeni korku. Ve bu potansiyelin üstesinden gelmek için Amerika Birleşik Devletleri'ndeki büyük bir devlet kurumu ile ortaklık kuruyoruz.
Maven Projesi'nden vazgeçme kararı, birçok Google çalışanının çabalarına iç muhalefetin ardından geldi. Microsoft'un başkanı Brad Smith de dahil olmak üzere diğerlerinin görüşüne katılıyorsanız, çalışanların kaygılarını dinlemeye değer olsa da, bazen çalışan aktivizmine karşı da geri adım atmanız gerekebilir mi?
1 Link muhammetyt
2 Link muhammetyt
3 Link muhammetyt
4 Link muhammetyt
5 Link muhammetyt
6 Link muhammetyt
7 Link muhammetyt
8 Link muhammetyt
9 Link muhammetyt
10 Link muhammetyt
11 Link muhammetyt
12 Link muhammetyt
13 Link muhammetyt
14 Link muhammetyt
15 Link muhammetyt
16 Link muhammetyt
17 Link muhammetyt
18 Link muhammetyt
19 Link muhammetyt
20 Link muhammetyt
21 Link muhammetyt
23 Link muhammetyt
24 Link muhammetyt
25 Link muhammetyt
26 Link muhammetyt
27 Link muhammetyt
28 Link muhammetyt
29 Link muhammetyt
30 Link muhammetyt
31 Link muhammetyt
32 Link muhammetyt
33 Link muhammetyt
34 Link muhammetyt
35 Link muhammetyt
36 Link muhammetyt
36 Link muhammetyt
37 Link muhammetyt
38 Link muhammetyt
39 Link muhammetyt
40 Link muhammetyt
41 Link muhammetyt
Google’ı sevdiğim şeylerden biri ve Google’ın çalışmaya dönmesini neden seçtiğimin bir sürü yaratıcı sesle doludur. Ve bir ön uç sistemdeki düğme şeklinin tasarımı da dahil olmak üzere yaptığımız hemen hemen her şey, hakkında büyük tartışmalar yaşıyoruz. Sonunda bir şekilde veya başka bir karar vermeniz gerekir. Yukarıdan aşağıya yönetim yapma fikri tamamen Google’ın kültürünün dışında. Ancak, insanların aynı fikirde olmayacağını ve liderlik taahhüdünde bulunacağını bilmek de yaptığımızın çok açık olduğu bir şeydir.