Kapat
Reklam Alanı
Reklam Alanı
Haberler 9 0

Google’ın AI geliştirme ilkeleri yeterince iyi değil

Google CEO’su Sundar Pichai dün şirketin AI’nın gelişimini yöneten yeni kurallarını yayınladı . Yedi prensip boyunca, bir çift palyaço pantolonundan daha fazla serseri oda bırakarak geniş (ve yararsız) bir politika ortaya koydu.

Google’ın ABD’yi askeriye geri kazandırma konusundaki katkısının hikayesini anlatıyorsanız, bu, mükemmel bir anlam ifade eder. Böyle bir durumda, Masal, AI’yı geliştirmek için bir politika yaratan Mountain View şirketi ile başlayacak ve ardından bu ilkeleri eylemlerine rehberlik edecek şekilde kullanacaktır.

Ne yazık ki gerçek şu ki şirket, etrafta olduğu sürece AI geliştiriyor. Şirketin etik kurallarının askeri bir sözleşme üzerinde sorgulanmasından sonra , şu anda CEO’nun bu yönergelere sahip olmasından endişe duyması gerçeğini pekiştirmek zor .

Tabii ki, bu hiçbir şey gözetilmeksizin AI teknolojisi geliştiren bir şirket olduğunu öne sürmüyor. Aslında, Google mühendislerinin, araştırmacılarının ve bilim adamlarının dünyanın en iyileri arasında olduğu ve bu çalışanların çoğunun en yüksek etik özellikte olduğu açıktır. Ama şirket düzeyinde, avukatların şovu yönetiyormuş gibi hissettiriyor.

Hayır, benim amacım Pichai’nin blog yazısının, teknoloji gazetecilerine ve diğer uzmanlara yönelik hedefleri, “Google’ın silah yapmaması” gibi beyanat ifadeleriyle açıklanacağını umuyoruz. herhangi birine.

Google’ın yeni AI politikasının ilk prensibi ile başlar: sosyal olarak faydalı olun. Bu bölüm, topluma yarar sağlayan yapay zekâyı geliştirmek için çaba göstereceğini söyleyen dudak hizmetini ortaya koymaktadır, ancak bunun ne anlama geldiğini veya böyle soyut bir ilkeyi nasıl gerçekleştireceğini tartışmamaktadır.

Tuhaf olarak, ilke uyarınca nihai cümle “Ve teknolojilerimizi ticari olmayan bir zamanda ne zaman kullanıma sunacağımızı düşünmeye devam edeceğiz.” Bu, “Google’ın elinde tutacak bir iş” demekten daha derin bir kelime salatası değil. iş şeyler yapıyor. ”

“Sosyal açıdan yararlı” olmak yerine, “kullanımı için açık bir etik kurallar kümesine sahip olmayan herhangi bir varlık için AI geliştirmeyi reddetme” gibi bir şeyi daha çok görmeyi tercih ederim.

Ne yazık ki, sızdırılan e-postaların gösterdiği gibi , Google’ın üst düzey yöneticileri, ABD’nin hükümetiyle yapılan bir sözleşmeye girdiklerinde, AI’nın kullanımıyla ilgili resmi bir etik yönergeye sahip olmayan bir kuruluşa girdiğinde, etik değerlendirmelerden ziyade hükümet belgelendirmeleriyle daha ilgiliydi.

Görünüşte, Pichai tarafından ortaya konan yedi ilkenin her biri, kendi-kendi-kıçı ifadeleri gibi okunan genel mermi noktalarıdır. Ve her biri, şirketin tartışmayı engellemekte olduğu konusunda çok meşru bir endişeye tekabül ediyor. Yukarıda belirtilen ilk prensipten sonra, daha fazla vapid alır:

  1. “Haksız önyargı yaratmaktan ya da güçlendirmekten kaçının.” Bunun yerine, önyargıyla savaşmak için yöntemler geliştirmeye yönelik bir taahhüt yerine.
  2. “Güvenlik için üretilmeli ve test edilmeli.” Pichai “zarar riskleri yaratan, istenmeyen sonuçlardan kaçınmak için güçlü güvenlik ve güvenlik uygulamalarını geliştirmeye ve uygulamaya devam edeceğiz” diyor. ”Pichai’nin insanlarının herhangi bir risk olduğunu düşünmüyor gibi görünüyor. orduya, dronlar için görüntü işleme yapay zekasının nasıl geliştirileceğine dair istenmeyen sonuçlar.
  3. “İnsanlara karşı sorumlu olun”. “Şeffaflık ile AI geliştir” den ziyade, bu harika olurdu, bu sadece Google’ın nihai olarak AI’yı yaratmaktan sorumlu bir insanı elinde tutacağını söylüyor.
  4. “Gizlilik tasarım ilkelerini dahil edin.” Apple, büyük veri şirketlerinin verilerinizi toplamasını engellemek için tasarlanmış teknolojiyi duyurdu . Google sadece gizliliğe önem verdiğini söyledi . Eylemler sözlerden daha yüksek sesle konuşur.
  5. “Bilimsel mükemmellik standartlarını yüksek tutun.” Google’ın araştırması bir iç bilimsel yankı odasının içinde gerçekleşiyor. Sayı 4, 5 ve 6, “şeffaf” ile değiştirilmelidir.
  6. “Bu ilkelere uygun kullanımlar için kullanılabilir hale getirin.” Bu aynı belgede Pichai, Google’ın açık kaynak kodu olarak kullanılabilen çok sayıda çalışmasını yaptıklarına dikkat çekiyor. Şirketinizin dahileri icat etmeyi bitirdikten sonra nasıl kullanıldığına dair hiçbir sorumluluk almadığınız sürece, AI’yi sadece en iyi niyetle geliştirecek ve sadece iyi kullanacaksınız.

Pichai’nin Google’ın AI ilkelerine dair yazısı, belki de, gelecekte, gelecekte bir özür konusunda köprülenmiş bir referans olarak sonuçlanandan çok daha fazla amaca hizmet ediyor.

Google, son zamanlarda lekelenmiş itibarını düzeltmek istiyorsa, gelecekteki gelişimi yönlendirecek gerçekçi bir ilkeler dizisi bulmak için yeterince ciddi AI geliştirme meselesini ele almalıdır – etik kaygıları ele alan bir sorun. Şu anki girişim, gri alanın yedi tonundan başka bir şey değildir ve bu hiç kimseye yardımcı olmaz.

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir