OpenAI, zararlı içerikleri filtrelemek için düşük ücretle Kenyalı çalıştırıyor

Sohbet robotu ChatGPT’yi geliştiren OpenAI’nin, yasa dışı içerikleri denetim etmek emeliyle ek yapay zeka filtresi oluşturduğu ve bunun için Kenyalıları kullandığı sav edildi.

Time mecmuasında yer alan habere nazaran OpenAI’de saati 2 dolar üzere düşük bir fiyatla çalışan Kenyalılar, sohbet robotundaki makus içerikleri tarıyor. Bir çeşit yapay zeka vazifesi gören Kenyalı çalışanlar, çocukların cinsel istismarı, cinayet, azap, intihar ve ensest içerikli metinlere müdahale ediyor.

OpenAI, yapay zekanın tüm insanlığa yarar sağlayacağını, ön yargıyı ve ziyanlı içeriği sınırlayacağını belirterek, inançlı ve kullanışlı sistemler oluşturmak maksadıyla çok çalıştıklarını kaydediyor.

Afrikalı tarayıcılar ise içerik moderatörlüğü konusunda yakın vakte kadar Sama ve Meta (Facebook) ile birlikte çalışıyordu.

YOKSULLUKTAN KURTARMAYA ÇALIŞTIĞINI SAV EDİYOR AMA…

San Francisco merkezli ABD firması Sama, kendisini “etik yapay zeka” şirketi olarak pazarlıyor ve 50 binden fazla insanın yoksulluktan kurtulmasına yardımcı olduğunu savunuyor.

Kenya Anayasası’nı ihlal ettiği teziyle Sama ve Meta, eski bir içerik moderatörü tarafından dava edilmiş durumda.

OpenAI ismine çalışan Sama’nın yüksek kâr oranına rağmen Kenyalı çalışanlara saatte 1,32 ila 2 dolar ödemesi, büyük tenkitlere neden oldu.

Sama ise dergiye yaptığı açıklamada, çalışanlardan vardiya başına sırf 70 pasajı etiketlemelerinin beklendiğini söyleyerek bu sayılara itiraz etti.

ÇALIŞANLAR ŞİKAYETÇİ

Kenyalı içerik gruplarının dokuz saatlik vardiyada yaklaşık 150-250 metin pasajı okumak ve etiketlemekle görevlendirildiği bildirildi. Sağlıklı hayat danışmanlarıyla görüşme imkanı verilmiş olsa da birçok çalışan, dergiye yaptığı açıklamada, zihinsel olarak yaralanmış hissettiklerini belirtti.

Dergide yer alan evraka nazaran, geçen yıl mart başlarında bir Sama çalışanı, iş yerinde cinsel içerikli öyküye denk geldi. Metni etiketlemekle vazifeli Sama çalışanı, öyküde muğlak bir durumun kelam konusu olduğunu fark etti. Başı karışan çalışan, OpenAI araştırmacılarından metnin nasıl etiketleneceği konusunda açıklama istedi. “Bu pasaj, cinsel şiddet olarak etiketlenmeli mi, etiketlenmemeli?” sorusuna OpenAI’dan karşılık gelmedi, gelse dahi bu açıklama evraklarda yer almadı.

OpenAI’dan olayla ilgili açıklama yapılmazken Sama çalışanı da Time mecmuasının röportaj talebine cevap vermedi. Bu olayın akabinde birkaç hafta içinde Sama, OpenAI için yaptığı tüm çalışmaları iptal etti. (AA)

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir