Yapay zekayı incelemek, bütünsel, uçtan uca sistem denetimleri gerektirir

Kuruluşlar, herhangi bir sistemin etkilerini tam olarak anlamak için yapay zekanın (AI) hem sosyal hem de teknik yönlerini göz önünde bulunduran, ancak bütünsel denetimlerin nasıl yürütüleceği ve sürecin sınırlamaları konusunda bir anlayış eksikliğini göz önünde bulunduran uçtan uca denetimler yapmalıdır. algoritmik denetim uzmanları, ilerlemeyi geciktirdiğini söylüyor.

Algoritmik denetim firması Eticas tarafından 8 Kasım’da Barselona’da düzenlenen açılış Uluslararası Algoritmik Denetim Konferansı’nda uzmanlar, AI için “sosyo-teknik” bir denetimin neleri içermesi gerektiği ve süreçle ilgili çeşitli zorluklar hakkında geniş kapsamlı bir tartışma yaptı. .

Endüstri, akademi ve üçüncü sektörden temsilcilerin katıldığı konferansın amacı, uzmanların alandaki gelişmeleri tartışmaları için ortak bir forum oluşturmak ve kuruluşların yapay zeka sistemlerini sorumlu bir şekilde nasıl yönetebilecekleri konusunda bir yol haritası oluşturmaya yardımcı olmaktır.

Türünün ilk örneği olan bu toplantıya katılanlar, Avrupa Birliği (AB) yetkilileri ve dijital hak örgütlerinin diğer temsilcileriyle görüşmek üzere Brüksel’e gidecek, böylece yapay zeka denetimlerinin nasıl düzenlenebileceği ve düzenlenmesi gerektiği konusundaki ortak düşüncelerini paylaşabilecekler. için.

Sosyo-teknik denetim nedir?

Konferans başkanı ve Eticas’ın direktörü Gemma Galdon-Clavell şunları söyledi: “Teknik sistemler, kişisel verilere dayandıklarında, sadece teknik değil, sosyo-tekniktirler, çünkü veriler sosyal süreçlerden gelir.”

Bu nedenle, sosyo-teknik denetimi “sisteminizi eğitecek verileri seçtiğiniz andan algoritmik kararın ele alındığı ana kadar bir sistemin nasıl çalıştığına dair uçtan uca bir soruşturma” olarak tanımladı. bir insan tarafından” veya başka bir şekilde birini etkiler.

Kuruluşlar bir sistemin yalnızca teknik yönlerine odaklanırsa ve sistemin ürettiği sosyal etkileşimi unutursa, “gerçekten denetlemiyorsunuz demektir. [because] zararlara bakmıyorsun, bağlama bakmıyorsun”.

Ancak, konferans katılımcıları arasındaki fikir birliği, kuruluşların şu anda sistemlerini anlamlı bir şekilde sorgulamakta başarısız olduklarıydı.

BABL AI CEO’su Shea Brown, insanlar otomatik bir karara aracılık ettiğinde sisteme önemli miktarda risk getirilmesine rağmen, döngüdeki insan örneğini sosyo-teknik denetimlerin genellikle gözden kaçan bir yönü olarak verdi.

Önyargı gibi şeylerin ötesinde bulduğumuz risklerin çoğu, algoritmanın bir kişiyle etkileşime girdiği yerlerdir” dedi. “Yani o kişiyle konuşmazsan, [you can’t] ‘bu algoritmanın size ne söylediğine dair anlayışınız nedir, onu nasıl yorumluyorsunuz, nasıl kullanıyorsunuz?’

Sorunun bir diğer önemli kısmı, yapay zeka sistemlerinin genellikle gelişigüzel bir şekilde geliştirilmesi ve bu da daha sonra sosyo-teknik denetimlerin yapılmasını çok zorlaştırmasıdır.

Data & Society’de teknoloji etiği araştırmacısı Jacob Metcalf, “Teknoloji şirketlerinde zaman geçirirseniz, çoğu zaman ne yaptıklarını bilmediklerini çabucak öğrenirsiniz,” dedi ve firmaların çoğu zaman aşağıdaki gibi temel bilgileri bilemeyeceklerini sözlerine ekledi. AI eğitim setleri, kişisel verileri veya demografik yapısını içerir.

“Yapay zeka çevresinde gerçekten temel bazı yönetişim sorunları var ve fikir şu ki, bu değerlendirmeler sizi ‘bu sistem nasıl inşa ediliyor ve dünyada gerçekte ne yapıyor?’ diye sorma kapasitesine ve alışkanlığına sahip olmaya zorluyor.”

Galdon-Clavell, Eticas’taki denetim deneyiminden, “insanlar işlerin neden yapıldığını belgelemezler, bu nedenle bir sistemi denetlemeniz gerektiğinde, kararların neden alındığını bilemezsiniz… tek gördüğünüz modeldir. , bunun nasıl meydana geldiğine erişiminiz yok”.

Rekabetçi testler için standartlaştırılmış bir metodoloji

Yapay zeka sistemlerinin nasıl geliştirildiğine dair dahili bilgi eksikliğiyle mücadele etmek için denetim uzmanları, sosyo-teknik bir denetimin nasıl yürütüleceği konusunda standartlaştırılmış bir metodoloji için gereken baskı konusunda anlaştılar.

Şu anda standartlaştırılmış bir metodoloji mevcut olmasa da, denetim sürecinin her aşamasında atılacak pratik adımları içermesi gerektiğini, ancak yapay zekanın son derece bağlamsal doğasını hesaba katmayacak kadar kuralcı olmaması gerektiğini eklediler.

Ancak dijital haklar akademisyeni Michael Veale, doğası gereği sosyal soruları yanıtlamak söz konusu olduğunda standardizasyonun zor bir süreç olduğunu söyledi.

“Şu anda çok endişe verici bir eğilim, Avrupa Komisyonu gibi yasa koyucuların temel haklar etrafında değer yüklü seçimleri SDO’lara itmesidir. [standards development organisations]Bu organların, sosyal veya siyasi meseleler etrafında standartlar belirlemeleri için kendilerine verilen herhangi bir yetkiyi geri itme ve reddetme görevi olduğunu da sözlerine ekledi.

“Bence adım gerçekten ‘peki, hangi şeyleri standartlaştırabiliriz?’ demek. Usulle ilgili bazı yönler olabilir, buna uygun bazı teknik yönler olabilir, [but] Politik olanı teknik olandan ayırdığınız bir duruma girmek çok tehlikeli – bunlar algoritmik sistemlerde çok derinden iç içe geçmiş durumda,” diye ekledi Veale.

“Algoritmalarla ilgili endişelerimizin çoğu, sosyal durumlarımız ve toplumlarımızla ilgili endişelerimizi temsil ediyor. Bu endişeleri standart hale getirmek için SDO’lara aktaramayız – bu bir meşruiyet kriziyle sonuçlanacaktır.”

Brown’a göre, kuralcı standardizasyonun bir başka riski, sürecin yüceltilmiş bir kutu işareti alıştırmasına dönüşmesidir. “Sorgulamanın durması ve standart hale gelirlerse zararları gerçekten anlama yeteneğimizi kaybetmemiz tehlikesi var” dedi.

Galdon-Calvell, sosyo-teknik denetimlerin sadece kutucuk işaretleme alıştırmaları olmasını önlemek ve ilgililerin süreci kötüye kullanmamalarını sağlamak için denetimlerin doğası gereği çekişmeli olması gerektiğini öne sürdü.

“Sistemin tersine mühendislik olanaklarından yararlanarak, sistem dışındaki kişiler tarafından gerçekleştirilen denetimlere sahip olabilirsiniz ve böylece denetimler bir onay kutusu alıştırması olarak veya anlamsız bir denetim çalışması” dedi ve katılan Eticas ve diğerlerinin önümüzdeki haftalarda bu sürecin nasıl işleyeceğini ortaya çıkaracağını da sözlerine ekledi.

Kamu sektörü sıkıntıları

Kamu sektörü kuruluşları için sosyo-teknik denetimle ilgili sorunlar da daha da kötüleşir, çünkü bir AI tedarikçisi geliştirme sürecini yeterince belgelese bile, onu inceleme kapasitesine sahip değildirler veya kısıtlayıcı entelektüel nedenlerle sistemi teftiş etmekten bile alıkonulurlar. mülkiyet (IP) hakları.

“Birçok durumda, kamu sektöründeki kişilerin neler olup bittiğini anlayabilmesi için belgeler mevcut değil veya aktarılmıyor ya da çok fazla belge var ve kimse bunu anlamlandıramıyor” dedi. Divij Joshi, University College London’da doktora araştırmacısı.

“İnsanlar size nasıl olduğunu söylemek istemediklerinde [an algorithm] Çalışıyor, ya istemedikleri için ya da bilmedikleri için. İkisinin de kabul edilebilir olduğunu düşünmüyorum”

Sandra Wachter, Oxford İnternet Enstitüsü

“Kamu sektöründe, tedarik ettikleri teknolojileri fiilen denetlemek için çeşitli düzenlemelerle gerektiği gibi yetkilendirilmesi gereken ajansların, fikri mülkiyet hakları nedeniyle bunu yapamaması benim için oldukça korkutucu.”

Mozilla Vakfı’nda kıdemli bir araştırmacı olan Ramak Molavi, kamu alımları kurulumunu da eleştirdi ve kamu sektörünün yapay zeka konusundaki genel bilgi eksikliğinin “tamamen bilgi tedarikçilerine bağımlı oldukları, satın aldıkları bilgi tedarikçilerine tamamen bağımlı oldukları” anlamına geldiğini de sözlerine ekledi. [what they say] gerçeklik olarak – bir fikir alırlar ama onlar için bu bir fikir değil, bir tanımlamadır”.

Cambridge Üniversitesi’nde araştırma profesörü olan Jat Singh, Avustralya’da özel bir tedarikçiden yapay zeka destekli bir refah sistemi satın alan yerel bir hükümet örneğini vererek, kamu görevlilerinin belirli bir refahı denetleme erişiminin reddedilmesinin ardından şunları ekledi: Yeni Güney Galler hükümeti, fikri mülkiyet bazında aldığı kararla, ihale sürecine şirketin bilgiden vazgeçmesi gerektiği anlamına gelen yeni bir hüküm getirdi.

Lordlar Kamarası İçişleri ve Adalet Komitesi’nin Birleşik Krallık polisi tarafından gelişmiş algoritmik teknolojilerin kullanımına ilişkin soruşturması sırasında, Oxford İnternet Enstitüsü’nde teknoloji ve düzenleme profesörü olan Sandra Wachter, kamu sektörü alıcılarının örneğin doğruluk ve önyargı ile ilgili iddialarını test etmek ve kanıtlamak için tedarikçilerin sistemlerine erişim talep etmek için satın alma gücü.

“İnsanlar size nasıl olduğunu söylemek istemediklerinde [an algorithm] Çalışıyor, ya istemedikleri için ya da bilmedikleri için. Özellikle ceza adaleti sektöründe her ikisinin de kabul edilebilir olduğunu düşünmüyorum” dedi ve ticari çıkarlar ve şeffaflık arasında bir denge kurulması gerekmekle birlikte, insanların kendileri hakkında yaşamı değiştiren kararların nasıl alındığını bilmeye hakları olduğunu da sözlerine ekledi. .

“İnsanlar bunun sadece ticari sırlarla ilgili olduğunu söylediğinde, bunun kabul edilebilir bir cevap olduğunu düşünmüyorum. Birinin gerçekten neler olduğunu anlaması gerekiyor. Özgürlük ve özgürlüğün ticari çıkarlar tarafından alt edilebileceği fikri, bence sorumsuzluk olurdu, özellikle de bir algoritmanın ne yaptığını tam olarak anlayabileceğiniz iyi bir orta yol bulmanın bir yolu varsa… tüm ticari sırları ifşa etmeden. ”

Denetim sınırları

Galdon-Clavell, AI’nın dağıtımını daha hesap verebilir hale getirmek için denetimin – önemli olsa da – sadece bir araç olarak düşünülmesi gerektiğini söyledi.

“AI denetimi, AI etrafında geliştirdiğimiz ilkelerin belirli uygulamalara dönüştürülmesini sağlama çabasının merkezinde yer alır; bu, yaşamlarımız hakkında kararlar veren teknolojilerin aslında bu kararların adil, kabul edilebilir ve kabul edilebilir olmasını sağlama sürecinden geçtiği anlamına gelir. şeffaf” dedi.

“AI denetimi, yaşamlarımız hakkında kararlar veren teknolojilerin bu kararların adil, kabul edilebilir ve şeffaf olmasını sağlama sürecinden geçmesini sağlama çabasının merkezinde yer alır”

Gemma Galdon-Clavell, Etik

Cambridge Üniversitesi’nde araştırma görevlisi olan Jennifer Cobbe, tek başına denetimin yapay zekanın işleyişine bağlı tüm sorunları çözemeyeceğini ve en iyi niyetli denetimlerin bile doğası gereği sistemle ilgili sorunları çözemeyeceğini hatırlamanın önemli olduğunu ekledi. toplumdaki kişi veya gruplar için zararlıdır.

“Bu mekanizmaların ötesinde ne tür şeyler olduğunu ve demokratik kontrol hakkında düşünmemiz gerekiyor. Demokratik bir toplumda ne tür şeylere izin verilmediğini söylüyoruz, çünkü çok tehlikeliler var mı?” dedi.

Örneğin, mevcut AB AI Yasası, insan davranışını çarpıtan veya insanların uzaktan, gerçek zamanlı biyometrik tanımlamasına izin veren sistemler de dahil olmak üzere “kabul edilemez bir risk” olarak kabul edilen belirli AI kullanım durumlarının etrafına kırmızı çizgiler çizmeye çalışsa da halka açık yerlerde – eleştirmenler daha önce yasağın AI’nın kolluk kuvvetleri tarafından kullanılmasını kapsamadığına dair endişelerini paylaşmıştı.

Belirli yapay zeka kullanım durumlarını yasaklamanın dışında, sistemlerin uzaktan güvenilir olarak görülmesi için denetime ek önlemler de eşlik etmelidir.

Metcalf’a göre, “Kritik derecede önemli ve genellikle gözden kaçan bir denetim ve değerlendirme hedefi, zarar görmüş taraflara veya etkilenen topluluklara sistemin nasıl kurulduğuna ve sistemin ne yaptığına itiraz etme fırsatı vermektir”. “Değerlendirmeyi yapmanın amacı zararı azaltmaksa, değerlendirmenin yapılandırılma şekli, etkilenen tarafların bir değişiklik talep etmeleri için bir dayanak sağlamalıdır.”

Nihai hedefin, AI ve diğer algoritmik teknolojilerin daha fazla demokratik kontrolü olduğunu ekledi: “Bu, bu sistemleri demokratik olarak kontrol etme hakkını savunmamız gereken bir an. Yapay zeka, insanların daha iyi yaşamaları içindir. Geleceğimizi sınırlamak şirketlerin işi değil.”

Mozilla’nın Molavi’sine göre, sosyo-teknik denetim gereksinimlerine de güçlü yaptırımlar eşlik etmelidir. “Uygulamaya fon sağlamak isteyip istemediğiniz politik bir soru” dedi ve gizlilik ve veri koruma alanlarında, örneğin “yasayı uygulayan neredeyse hiç kimsemiz yok” dedi.

Read Previous

Kredi ücreti yüklenicileri, yeni firmadan yeni kredi geri ödeme talebiyle karşılaştı

Read Next

Siber suçluların gözü önünde Dünya Kupası 2022 Katar

Leave a Reply

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

organik hit - iş fikirleri -