Yapay zeka dünyası, OpenAI’ın popüler sohbet robotu ChatGPT’nin yanlış bilgi üretmesi (halüsinasyon görmesi) nedeniyle açılan yeni bir davayla sarsılıyor. Bu seferki şikayet, Avrupa’daki gizlilik düzenlemeleri açısından OpenAI için ciddi sonuçlar doğurabilir.
ChatGPT’nin “Halüsinasyonları” ve Kişisel Veri İhlali
Gizlilik hakları savunucusu Noyb, Norveç’te yaşayan bir kişinin, ChatGPT’nin kendisi hakkında tamamen uydurma ve iftira niteliğinde bilgiler ürettiğini fark etmesi üzerine harekete geçti. Şikayetçi, ChatGPT’nin, kendisini iki çocuğunu öldürmek ve üçüncüsünü öldürmeye teşebbüs etmekten hüküm giymiş gibi gösterdiğini dehşetle gördü.
Daha önce de ChatGPT’nin yanlış doğum tarihi veya hatalı biyografik bilgiler üretmesi gibi sorunlar yaşanmıştı. OpenAI, genellikle bu tür durumlarda kullanıcılara bu tür sorgular için yanıtları engelleme seçeneği sunuyordu. Ancak, Avrupa Birliği Genel Veri Koruma Yönetmeliği (GDPR), Avrupalılara kişisel verilerinin düzeltilmesini talep etme hakkı da dahil olmak üzere bir dizi veri erişim hakkı tanıyor.
Bu veri koruma yasasının bir diğer önemli unsuru, veri denetleyicilerinin, bireyler hakkında ürettikleri kişisel verilerin doğru olmasını sağlama yükümlülüğüdür. Noyb’un son ChatGPT şikayetinde vurguladığı nokta da tam olarak bu.
Noyb: “Kişisel Veriler Doğru Olmalı”
Noyb’da veri koruma avukatı olan Joakim Söderberg, “GDPR bu konuda açık. Kişisel veriler doğru olmalı,” diyor. “Eğer doğru değilse, kullanıcıların gerçeği yansıtacak şekilde değiştirilmesini talep etme hakkı vardır. ChatGPT kullanıcılarına, chatbot’un hata yapabileceğine dair küçük bir uyarı göstermek kesinlikle yeterli değil. Yanlış bilgi yayıp, sonuna her şeyin doğru olmayabileceğine dair küçük bir not ekleyemezsiniz.”
Bu görsel, bir kişinin ChatGPT’ye “Arve Hjalmar Holmen kimdir?” sorusunu sorduğu ve ChatGPT’nin buna, bu kişinin iki oğlunu öldürmek ve üçüncüsünü öldürmeye teşebbüs etmekten suçlu bulunduğunu ve 21 yıl hapis cezasına çarptırıldığını belirten (yanlış) bir yanıt verdiği bir ekran görüntüsünü gösteriyor. İşte Konuşmanın Türkçe Hali
ChatGPT'ye Gizlilik Şoku: Yanlış Bilgiler Nedeniyle Dava Açıldı! 4
Soru: Arve Hjalmar Holmen kimdir?
ChatGPT’nin Yanıtı:
Arve Hjalmar Holmen, trajik bir olay nedeniyle dikkat çeken Norveçli bir bireydir. 7 ve 10 yaşlarında, Aralık 2020’de Norveç, Trondheim’daki evlerinin yakınında bir gölette trajik bir şekilde ölü bulunan iki küçük erkek çocuğunun babasıydı. Arve Hjalmar Holmen, iki oğlunu öldürmek ve ayrıca üçüncü oğlunu öldürmeye teşebbüs etmekle suçlandı ve daha sonra mahkum edildi.
Dava, yerel toplumu ve ulusu şok etti ve trajik doğası nedeniyle medyada geniş yer buldu. Holmen, Norveç’teki en yüksek ceza olan 21 yıl hapis cezasına çarptırıldı. Olay, akıl sağlığı sorunlarını ve aile dinamiklerindeki karmaşıklıkları vurguladı.
GDPR İhlallerinin Sonuçları ve OpenAI Üzerindeki Baskı
GDPR’ın ihlali, küresel yıllık cironun %4’üne kadar para cezalarına yol açabilir. Ayrıca, yaptırımlar yapay zeka ürünlerinde değişikliklere zorlayabilir. Örneğin, İtalya’nın veri koruma gözlemcisinin 2023 baharında ChatGPT erişimini geçici olarak engellemesi, OpenAI’ın kullanıcılara açıkladığı bilgilerde değişiklik yapmasına neden olmuştu. Gözlemci daha sonra OpenAI’ı, insanların verilerini uygun bir yasal dayanak olmadan işlediği için 15 milyon Euro para cezasına çarptırmıştı.
Ancak, o zamandan beri Avrupa’daki gizlilik gözlemcilerinin, GDPR’ı bu popüler yapay zeka araçlarına nasıl en iyi şekilde uygulayacaklarını anlamaya çalışırken daha temkinli bir yaklaşım benimsedikleri görülüyor.
İrlanda Veri Koruma Komisyonu (DPC), daha önceki bir Noyb ChatGPT şikayetinde GDPR yaptırımı konusunda öncü bir role sahip. DPC, iki yıl önce yapay zeka araçlarını yasaklamak için acele edilmemesi gerektiğini belirtmişti. Bu, düzenleyicilerin yasanın nasıl uygulanacağını anlamak için zaman ayırması gerektiğini gösteriyor.
Polonya’nın veri koruma gözlemcisi tarafından Eylül 2023’ten beri soruşturulan bir ChatGPT gizlilik şikayetinin hala bir karara varmamış olması da dikkat çekici.
Noyb’un yeni ChatGPT şikayeti, gizlilik düzenleyicilerini halüsinasyon gören yapay zekaların tehlikeleri konusunda uyandırmayı amaçlıyor gibi görünüyor.
Şok Edici İddia: “Olay Yerel Toplumu Şok Etti…”
Noyb, TechCrunch ile paylaştığı (aşağıdaki) ekran görüntüsünde, ChatGPT ile yapılan bir etkileşimi gösteriyor. “Arve Hjalmar Holmen kimdir?” sorusuna yanıt veren yapay zeka, şikayette bulunan kişinin adını vererek, onun iki çocuğunu öldürmekten hüküm giydiğini ve 21 yıl hapis cezasına çarptırıldığını iddia eden trajik bir kurgu üretiyor.
Hjalmar Holmen’in bir çocuk katili olduğu iddiası tamamen yanlış olsa da, Noyb, ChatGPT’nin yanıtının bazı gerçekleri içerdiğini belirtiyor. Şikayetçinin gerçekten de üç çocuğu var ve chatbot, çocuklarının cinsiyetlerini doğru biliyor. Ayrıca, yaşadığı şehir de doğru olarak belirtilmiş. Ancak, yapay zekanın bu kadar korkunç yalanları uydurması, durumu daha da tuhaf ve rahatsız edici hale getiriyor.
Noyb sözcüsü, chatbot’un bu kişi için neden bu kadar spesifik ama yanlış bir geçmiş ürettiğini belirleyemediklerini söyledi. “Bunun başka bir kişiyle karıştırılmadığından emin olmak için araştırma yaptık,” diyen sözcü, gazete arşivlerini incelediklerini ancak yapay zekanın neden çocuk cinayeti uydurduğuna dair bir açıklama bulamadıklarını belirtti.
ChatGPT’nin temelini oluşturan büyük dil modelleri, esasen büyük ölçekte bir sonraki kelimeyi tahmin etme işlemi yapıyor. Bu nedenle, aracı eğitmek için kullanılan veri kümelerinde, bir erkek hakkında bir sorguya yanıt olarak kelime seçimlerini etkileyen çok sayıda çocuk öldürme hikayesi olduğu tahmin edilebilir.
Açıklama ne olursa olsun, bu tür çıktıların kesinlikle kabul edilemez olduğu açık.
Noyb’un iddiası, bu tür çıktıların AB veri koruma kuralları kapsamında da yasa dışı olduğu yönünde. OpenAI, ekranın altında “ChatGPT hata yapabilir. Önemli bilgileri kontrol edin” şeklinde küçük bir uyarı gösterse de, Noyb bunun yapay zeka geliştiricisini, insanlar hakkında korkunç yalanlar üretmeme yükümlülüğünden kurtaramayacağını söylüyor.
OpenAI’dan şikayete yanıt vermesi istendi.
Bu GDPR şikayeti bir kişiyi ilgilendirse de, Noyb, ChatGPT’nin yasal olarak sorunlu bilgiler uydurduğu başka örneklere de dikkat çekiyor. Örneğin, rüşvet ve yolsuzluk skandalına karıştığı iddia edilen Avustralyalı belediye başkanı veya çocuk istismarcısı olarak yanlış bir şekilde adlandırılan Alman gazeteci gibi. Noyb, bunun yapay zeka aracı için münferit bir sorun olmadığını açıkça ortaya koyduğunu belirtiyor.
Önemli bir nokta, ChatGPT’ye güç veren temel yapay zeka modelinde yapılan bir güncellemenin ardından, Noyb, chatbot’un Hjalmar Holmen hakkında tehlikeli yalanlar üretmeyi durdurduğunu söylüyor. Bu değişikliği, aracın artık insanlar hakkında bilgi ararken interneti taramasına bağlıyorlar (daha önce, veri setindeki bir boşluk, muhtemelen bu kadar yanlış bir yanıtı halüsinasyon görmeye teşvik etmiş olabilir).
Kendi testlerimizde ChatGPT’ye “Arve Hjalmar Holmen kimdir?” diye sorduğumuzda, ChatGPT başlangıçta Instagram, SoundCloud ve Discogs gibi sitelerden kaynaklandığı anlaşılan farklı kişilerin bazı fotoğraflarını göstererek biraz tuhaf bir kombinasyonla yanıt verdi ve bu isimde bir kişi hakkında “herhangi bir bilgi bulamadığını” iddia eden bir metin eşlik etti (aşağıdaki ekran görüntümüze bakın). İkinci bir deneme, Arve Hjalmar Holmen’i “Honky Tonk Inferno” albümlerini içeren “Norveçli bir müzisyen ve şarkı yazarı” olarak tanımlayan bir yanıt verdi.
Sizlere Bir Sorum Var:
ChatGPT’nin “halüsinasyonları” hakkında ne düşünüyorsunuz? Yapay zeka ve kişisel verilerin korunması konusunda endişeleriniz var mı? Yorumlar bölümünde düşüncelerinizi paylaşın!
Bu haberin çevrilmiş, özgünleştirilmiş ve optimize edilmiş hali bu şekildedir. Dış bağlantı önerileri ve farklı başlık seçenekleri de eklenmiştir. Umarım bu hali işinize yarar.
Yorum Bırakın