Milletvekilleri, AI’nın işçiler için gerekli değerlendirme yapılmadan kabul edildiğini söyledi

Milletvekillerine, işletmelerin pandemi sırasında yapay zekayı (AI) hızlı bir şekilde benimsemesinin, Birleşik Krallık’taki işçileri istilacı gözetim, ayrımcılık ve ağır iş yoğunlaştırma dahil olmak üzere algoritmik olarak uyarılan çeşitli zararlara karşı savunmasız bıraktığı söylendi.

Yapay zeka ve dijital teknolojinin genel olarak işyerini nasıl değiştirdiğini inceleyen bir oturumda, Prospect Union genel sekreter yardımcısı Andrew Pakes İş, Enerji ve Endüstriyel Strateji (BEIS) Komitesine yeni teknolojilerin tüm dünyadaki işyerlerine hızla tanıtılmasının önemini anlattı. İngiltere, pandemi sırasında birçok işletmenin ayakta kalmasına yardımcı oldu.

Ancak işe alım, duygu tespiti, gözetim, üretkenlik izleme ve daha fazlası için sistemler dahil olmak üzere iş yerlerinde yapay zeka destekli teknolojilerin hızla yaygınlaşmasının, olumsuz yönlerin gerektiği gibi değerlendirilmediği anlamına geldiğini ve istihdam yasalarının artık uygun olmadığı bir durum yarattığını söyledi. insanların dijital teknolojiler aracılığıyla yönetilme biçimlerindeki değişikliklerle başa çıkmak.

Pakes, “Pandemi sırasında gördüğümüz şey, güvenli, bağlantıda ve iyi durumda kalmamızı sağlayan dijital teknolojinin hızlanmasıydı – ancak bu hızlanmada, incelemeye daha az zaman harcandığını da gördük” dedi.

Patronlara personelinin gözetimi veya mikro yönetimi konusunda yardımcı olabilecek görev tahsis yazılımı örneğini veren Pakes, şunları ekledi: “Giriş yapıyorsunuz ve bir görevi yapmak için ne kadar zamanınız olduğunu size söylüyor. Henüz sahip olmadığımız şey, bu verilerin daha sonra bir işin hızını veya ‘iyi’ bir çalışan mı yoksa ‘kötü’ bir çalışan mı olduğunuzu belirlemek için yönetim sürecinde nasıl kullanıldığı konusunda netliktir.

“Yapay zekanın arkasında yatan şey, bireysel çalışma hayatları ve işyerinde nerede oturdukları hakkında seçimler yapmak için verilerimizin kullanılmasıdır. Yasalarımızın birçoğu şu anda fiziksel mevcudiyete dayalıdır, dolayısıyla fiziksel zararlar ve risklerle ilgili sağlık ve güvenlik yasaları. Verilerimizin kullanılmasıyla ortaya çıkan zararı veya riski yeterince temsil eden bir dilimiz veya yasal çerçevemiz henüz yok.”

Mart 2021’de, Sendikalar Kongresi (TUC) de benzer şekilde, Birleşik Krallık yasalarında yapay zekanın işyerinde kullanımına ilişkin büyük boşluklar olduğu konusunda uyardı ve bu da çalışanlara karşı ayrımcılığa ve haksız muameleye yol açacak ve “acil yasal değişiklikler” çağrısında bulundu.

Bir yıl sonra, Mart 2022’de TUC, işyerinde – genellikle yapay zeka tarafından desteklenen – müdahaleci ve artan gözetim teknolojisi kullanımının “kontrolden çıktığını” söyledi ve yeni teknolojilerin uygulanması konusunda işçilere danışılması için baskı yaptı. iş.

Ada Lovelace Enstitüsü müdürü Carly Kind, Birleşik Krallık yasalarının işyerinde yapay zekanın bir sonucu olarak ortaya çıkabilecek ayrımcılık ve eşitlik risklerini yeterince kapsamadığını tespit eden Robin Allen QC tarafından hazırlanan bir rapora atıfta bulunarak, milletvekillerine birçoğunun Dağıtılan yapay zeka araçları, yalnızca yasallığın değil, aynı zamanda bilimsel doğruluğun da dış sınırındaydı.

“Görüşme yapılan kişilerden otomatik bir görüşmeciyle veya başka bir şekilde ekranda görüşme yapmalarının istendiği ve yüz hareketlerinden güvenilir olup olmadıklarını çıkarmaya çalışan bir tür görüntü tanımanın uygulandığı duygu tanıma veya sınıflandırma gibi şeyler. veya güvenilir,” dedi ve duygu sınıflandırması için AI kullanımında gerçek bir “yasal boşluk” olduğunu da sözlerine ekledi.

Örneğin, duygu tanıma gibi yapay zeka destekli araçların nöro-farklı koşullara sahip olanları nasıl etkileyebileceği hakkında konuşan Kind, eşitsizliğin “genel olarak yapay zeka ile ilgili gerçek bir endişe” olduğunu, çünkü “gelecek hakkında tahminler oluşturmak için mevcut veri kümelerini kullandığını ve optimize etme eğiliminde olduğunu” söyledi. homojenlik ve statüko için – örneğin, farklılık veya çeşitlilik için optimizasyonda pek iyi değil”.

İşin Geleceği Enstitüsü direktörü Anna Thomas, AI’dan hesap sorma söz konusu olduğunda, denetim araçlarının genellikle AI zararlarını ele almanın bir yolu olarak görülmesine rağmen, Birleşik Krallık çalışma ve eşitlik yasalarına uygunluğu sağlamak için genellikle yetersiz kaldığını söyledi. .

“Özellikle, denetim araçlarının kendileri, denetimin amacı veya eşitlik ve adalet dahil olmak üzere temel tanımlar ve ABD için getirilen varsayımlar hakkında nadiren açık olacaktır” dedi ve politika yapıcıların daha geniş bir sistem uygulamaya çalışması gerektiğini de sözlerine ekledi. AI’nın neden olduğu zararları ele almak için sosyo-teknik denetim. “Araçlar genellikle bulunan sorunları çözmek için tasarlanmamıştı veya donatılmamıştı” dedi.

Kültürel varsayımların teknoloji aracılığıyla ithal edilmesine de değinen Pakes, işyerinde yapay zeka ile ilgili sorunların çoğu işletmenin kendi iç yönetim sistemlerini geliştirmemesi ve bu nedenle hazır ürünlere güvenmesi nedeniyle daha da kötüleştiğini söyledi. yönetim uygulamalarının ve işçi haklarının çok farklı olabildiği dünyanın başka yerlerinde.

Pakes, işverenlerin personel e-postalarını gizlice okumasına ve işyerindeki bilgisayar kullanımlarını izlemesine olanak tanıyan araçlar içeren Microsoft Teams ve Office365 örneğini vererek, başlangıçta yararlı olsa da, daha sonra otomatik “verimlilik puanlamasının” getirilmesinin sorunlar barındırıyor.

“Ansızın, bulduğumuz gibi, altı ay sonra insanlar disiplin cezasına çarptırılırsa ve yöneticiler ‘e-posta trafiğinize, kullandığınız yazılımlara baktık’ derse kullandığınızda, web sitelerinize bakıyorduk, üretken bir çalışan olduğunuza inanmıyoruz’ – bunun, bu teknolojinin daha ürkütücü kullanımına dönüştüğünü düşünüyoruz,” dedi Pakes.

Ancak sorunun teknolojinin kendisi olmadığını da sözlerine ekledi, “düzeltilmesi gereken, teknolojinin nasıl uygulandığına ilişkin yönetim uygulamasıdır”.

Örnek olay: Amazon’da yapay zeka destekli otomasyon

Yapay zekanın üretkenliğe sağladığı faydalarla ilgili olarak, Amazon’da Avrupa kamu politikası başkanı Brian Palmer, milletvekillerine e-ticaret devi tarafından ikmal merkezlerinde otomasyon kullanımının mevcut işleri değiştirmek için tasarlanmadığını ve bunun yerine kullanıldığını söyledi. çalışanlar için sıradan veya tekrarlayan görevleri hedefleyin.

“İnsanlar için sonuçların iyileştirilmesi açısından gördüğümüz şey, güvenlikte bir gelişme, tekrarlayan hareket yaralanmaları veya kas-iskelet bozuklukları gibi şeylerin azaltılması, çalışanların elde tutulmasında iyileştirmeler, işler daha sürdürülebilir” dedi.

Oxford İnternet Enstitüsü’nde doktora sonrası araştırmacı olan Matthew Cole’un Dijital, Kültür, Medya ve Spor (DCMS) Komitesi’ne verdiği yakın tarihli ifadeyi tekrarlayan İşçi Milletvekili Andy McDonald, şunları söyledi: “Kanıtlar, Amazon’un kullandığı teknolojilerin gerçek olmadığını gösteriyor. güçlendirici – fazla çalışmaya, aşırı strese ve endişeye yol açarlar ve eklem ve sağlık sorunları ile ilgili sorunlar olmuştur.

Verilerin çalışanların davranışlarını ve üretkenliğini izlemek için nasıl kullanıldığı sorulduğunda Palmer, Amazon’un çalışanları izlemek veya gözetlemek istediğini reddetti.

Mahremiyetleri saygı duyduğumuz bir şeydir” dedi. “Tartıştığımız yazılım ve donanımın odak noktası mallar, insanlar değil.” Palmer, toplanan performans verilerinin çalışan tarafından dahili sistemler aracılığıyla erişilebilir olduğunu da sözlerine ekledi.

Palmer’a karakterizasyonunda “yanlış” olduğunu söyleyen komite başkanı Darren Jones tarafından sorgulandığında Palmer, Amazon sistemlerinin birincil ve ikincil amacının sırasıyla “ağın sağlığını” ve “envanter kontrolünü” izlemek olduğunu söyledi.

Amazon için çalışan 63 yaşındaki bir bileşenin hikayesini anlatan Jones, şirketin bireysel işçi üretkenliğini izlediğinin bir gerçek olduğunu, çünkü bu bileşenin öğeleri paketlemede çok yavaş olduğu için halihazırda iki greve sahip olduğunu ve kovulabileceğini söyledi. menajeri üçüncü bir vuruş için.

Bu değiş tokuşun ardından Palmer, Amazon çalışanlarının üretkenlik hedeflerini karşılamadığı için kovulabileceğini kabul etti. Ancak, her zaman “döngüde bir insan” olacağını ve herhangi bir performans sorununun genellikle çalışanın şirket içinde farklı bir “görev”e taşınmasıyla sonuçlandığını ileri sürdü.

Diğer tanıklar da Palmer’ın Amazon’daki otomasyon tanımlamasına itiraz etti. GMB birliğinin araştırma ve politika başkanı Laurence Turner, üyelerinin, algoritma aracılığıyla yönetilen her zamankinden daha yüksek üretkenlik hedeflerinin bir sonucu olarak “iş yoğunluğunda” bir artış olduğunu bildirdiklerini söyledi.

Turner, algoritmik gözetimin insanların ruh sağlığı üzerinde de bir etkisi olduğunu söyledi; işçiler “işverenin onları gizlice izlediği anlaşıldığında – üyeler çok sık olarak çağrılacaklarını bildiriyorlar” GMB’ye “ihanet duygusu” bildiriyorlar. bir disiplin ve üzerlerinde toplandığından haberdar olmadıkları ve meydan okuma konusunda kendilerine güvenmedikleri bir dizi sayı veya ölçüt ile sunuldu”.

Pakes, Prospect sendika üyelerinin de AI’nın iş yoğunluğu üzerindeki etkisi hakkında benzer, “önemli” endişeler bildirdiklerini söyledi.

Turner, “Yapay zekanın modern Taylorizm’in yeni bir biçimi olma tehlikesi olduğunu düşünüyoruz – aynı zamanda uzun vadede işverenin zararına olacak kısa vadeli üretkenlik kazanımları için kullanılan algoritmalar da var” dedi. Palmer’dan gelen “üyelerimizin o depolarda neler olduğu hakkında bize anlattıklarını yansıtmayan oldukça sıra dışı bir kanıt seti” idi.

Yapay zekanın iş yoğunlaştırmadaki rolü konusunda Thomas, sistemlerin çalışanlar için sonuçlar düşünülerek tasarlanması gerektiğini söyledi. “Eğer amaç yalnızca birinin bir dakika içinde paketlemesi gereken çanta sayısını artırmak değilse, aynı zamanda insanlar üzerindeki – refahları, haysiyetleri, özerklikleri, katılım üzerine – sonuçların başarılı olma olasılığı daha yüksektir” dedi.

Komite, yeni teknolojilerin etkisi de dahil olmak üzere Birleşik Krallık işgücüne ilişkin sorunları anlama göreviyle, Haziran 2020’de Birleşik Krallık işgücü piyasalarının salgın sonrası ekonomik büyümesine ilişkin bir soruşturma başlattı.

Daha önce yapay zeka destekli işyeri gözetimine yönelik bir parlamento soruşturması, yapay zekanın çalışanları çok az hesap verebilirlik veya şeffaflıkla izlemek ve kontrol etmek için kullanıldığını ortaya çıkardı ve bir Algoritma Sorumluluğu Yasası oluşturulması çağrısında bulundu.

Read Previous

Bug Bounty Calculator, kuruluşların ödemelerinde ince ayar yapmasına yardımcı olur

Read Next

Robotlar neden işi daha insancıl hale getirecek?

Leave a Reply

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

organik hit - iş fikirleri -