“Denetim yıkama” uygulamaları tarafından engellenen AI hesap verebilirliği

Bir Alman Marshall Fonu (GMF) raporuna göre, yapay zeka (AI) ile sorunlu veya yasa dışı uygulamaları maskelemek için yetersiz ve kötü tanımlanmış algoritmik denetim süreçleri kullanılıyor.

GMF düşünce kuruluşunun Dijital İnovasyon ve Demokrasi Girişimi kapsamında yayınlanan raporda, algoritmik denetimlerin yapay zeka sistemlerinin opaklığını düzeltmeye yardımcı olabilirken, kötü tasarlanmış veya yürütülen denetimlerin en iyi ihtimalle anlamsız olduğu ve en kötü ihtimalle dikkati başka yöne çevirebileceği, hatta saptırabileceği belirtildi. bahane, hafifletmeleri gereken zararlar.

Bu, başka bir deyişle “denetim yıkama” olarak bilinir ve rapor, teknoloji endüstrisinin mevcut denetim uygulamalarının çoğunun yanlış güvence sağladığını, çünkü şirketlerin ya kendi öz değerlendirmelerini yürüttüklerini ya da dış kontroller olduğunda hala kendi değerlendirmelerine göre değerlendirildiğini söylüyor. Üçüncü taraf standartlarına uygunluk yerine kendi hedefleri.

Raporda, “İyi tasarlanmış ve uygulanmışsa, denetimler şeffaflığı ve açıklanabilirliği teşvik edebilir” dedi. “Sistem inşasının ve işleyişinin aksi takdirde gizlenecek yönlerini görünür hale getirebilirler. Denetimler ayrıca şeffaflık ve açıklanabilirliğin yerini alabilir. Denetçiler, açıklamak veya ifşa etmek için algoritmik sistemler geliştiren ve uygulayanlara güvenmek yerine, sistemleri kendileri araştırır.

“Denetimler, kendileri güvenilir olmadıkça güvenilir yapay zeka veya platform hesap verebilirliğini ilerletmeyecektir.”

GMF, algoritmik denetimlerin yapay zeka yönetiminin güvenilir ve anlamlı bir parçası olmasını sağlamak için bir dizi kilit sorunun dikkate alınması gerektiğini söyledi.

Bunlar, denetimi kimin yaptığını içerir. Örneğin, iç denetimler sorunları insanları etkilemeden önce tespit etmek için yararlı olsa da GMF, yapay zekanın yasal veya etik standartları geçtiğine dair doğrulanamayan iddialar sağlamak için kullanılabileceği için bu sürecin doğası gereği güvenilmez olduğunu söyledi.

Öte yandan dış denetimler, yapay zeka geliştirme sürecinde zorunlu olarak geriye doğru bakılması nedeniyle sorunları erken yakalayamasa da, genellikle dağıtım yapan kuruluştan bağımsızlık göstererek güvenilirlik ve uyumluluğun sinyalini verir.

Örneğin Temmuz 2022’de Meta, şirketin kendisi tarafından yürütülen ilk insan hakları raporunu yayınladı. Şirketin en “belirgin risklerini” ve “haklara saygılı uygulamaları, kararları, yaklaşımları ve ürünleri” nasıl yarattığını detaylandırırken, kampanyacılar o sırada Meta’nın kendi gözetim tabanlı işinin olumsuz haklar üzerindeki etkilerini düzgün bir şekilde incelemeyi ihmal ettiğini söylediler. modeli.

Kuruluşların denetim yaparken göz önünde bulundurması gereken diğer sorular arasında tam olarak neyin ne zaman denetlendiğinin tanımlanması yer alır. GMF raporu şunları söyledi: “Problemin tanımlanmasından veri toplama, modelleme ve doğrulamaya, dağıtıma ve hatta dağıtım sonrası ayarlamalara kadar uzanan algoritmik bir süreç. Sosyal medya algoritmaları gibi dinamik süreçler için bu süreç yinelemeli ve sürekli yenileniyor.

“‘Risk değerlendirmesi’ veya ‘denetim’ gibi terimler kullanan algoritmik denetim hükümleri, sorgulamanın amacı ve zamanlaması ve bir yapay zeka sisteminin tüm yaşam döngüsüne mi yoksa yalnızca parçalarına mı bakmayı amaçladıkları konusunda genellikle belirsizdir.”

“Teknoloji alanındaki diğer bir yaygın tuzak, bir firmanın sistemlerini bu standartları sağlayacak şekilde tasarlamadan insan hakları standartlarına bağlı olduğunu beyan etmesidir.”

Kuruluşların yapay zeka sistemlerini sorumlu bir şekilde nasıl yönetebileceklerine ilişkin bilgileri ve en iyi uygulamaları paylaşmak üzere denetim uzmanları ve uygulayıcıları için kurulmuş bir forum olan ilk Uluslararası Algoritmik Denetim Konferansında, kuruluşların uçtan uca denetimler gerçekleştirmesi gerektiği konusunda fikir birliği sağlandı. herhangi bir sistemin etkilerini tam olarak anlamak için yapay zekanın hem sosyal hem de teknik yönlerini anlamak.

GMF’ye benzer sonuçlar çıkaran denetim uzmanları, sorunun büyük bir kısmının, AI sistemlerinin genellikle gelişigüzel bir şekilde geliştirilmesi, firmaların geliştirme sürecini düzgün bir şekilde belgelememesi ve bu “sosyo-teknik” denetimleri gerçekleştirmeyi çok daha zorlaştırması olduğunu söyledi. daha sonra.

Anlamlı olması için GMF, denetçiler ve denetlenen arasındaki hedefler ve temel tanımlar konusunda anlaşma eksikliği nedeniyle “tartışmalı ve zor” olmaya devam eden bir dizi ortak standart olması gerektiğini söyledi.

Denetim hükümlerinin, denetim tarafından ele alınan konu hakkında da net olması gerektiğini söyledi. Örneğin, ister yasal bir gerekliliği yerine getirmek için ister etik bir amaç için yürütülsünler, çoğu denetim adalet, açıklanabilirlik, tazminat, mahremiyet veya sağlamlık ve güvenlik konularını ele alacaktır.

Denetimin adalet, mahremiyet ve doğruluk gibi normları değerlendirmek için kullandığı standartlar, mümkün olduğunca fikir birliğine dayalı olmalıdır” dedi. “Sık sık olacak olan fikir birliğinin yokluğunda, uygulanan standartlar en azından iyi ifade edilmelidir. Denetçilerin kendi standartlarını önerdikleri bir durum ideal değildir.

“Ortak veya en azından belirgin standartlar, sivil toplumun algoritmik sistemler için sertifikalar ve mühürler geliştirmesini teşvik ederken, muğlak ve çelişkili standartlar, sistemlerin ‘denetim-yıkama’ işlemini kolaylaştırarak, titiz incelemeler yapıldığına dair yanlış bir izlenim verecektir.”

Çalışmanın Geleceği Enstitüsü direktörü Anna Thomas, Parlamentonun İş, Enerji ve Sanayi Stratejisi (BEIS) Komitesine yapay zekanın işyerini nasıl etkilediğine dair kanıt sunarken şunları söyledi: “Denetim araçlarının kendileri, denetimin amacı hakkında nadiren açık olacaktır. veya eşitlik ve adalet dahil olmak üzere temel tanımlar. Bu kavramlarla ilgili birçok kültürel varsayımın ABD’den ithal edildiğini ekledi.

17 Kasım 2022 tarihinde yayınlanan bir raporda, Verileri yeniden düşünmek ve dijital gücü yeniden dengelemekAda Lovelace Enstitüsü, bu sorunların bazılarının üstesinden gelmeye yardımcı olabilecek verilerin ve algoritmaların incelenmesine daha fazla halkın katılımını savundu.

“Önemli toplumsal etkileri ve etkileri olan veri kümelerinin ve algoritmaların denetimi ve değerlendirilmesi konusunda girdi sağlamak için yurttaşlardan oluşan paneller veya jüriler, uzman sivil toplum kuruluşları tarafından koordine edilebilir” denilerek, “katılımcı ortak tasarım veya müzakere meclislerinin” sağlayabileceği de ifade edildi. aynı zamanda tasarım sürecine kamu yararı hususlarını dahil etmeye yardımcı olmak için de kullanılabilir.

GMF raporu, eski bir GMF kıdemli üyesi ve şu anda Ulusal Telekomünikasyon ve Bilgi İdaresi’nde algoritmik adalet kıdemli danışmanı olan Ellen P Goodman ve GMF program yöneticisi ve arkadaşı Julia Tréhu tarafından yazılmıştır.

Read Previous

Kırmızı ekip aracı geliştiricisi ‘sorumsuzca’ açıklamayı eleştirdi

Read Next

Güney Kore veri yeterliliği anlaşması £ 15m Brexit bonusu getiriyor

Leave a Reply

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

organik hit - iş fikirleri -