Birleşik Krallık'ın Yapay Zeka Güvenliği Enstitüsü, Amerika Birleşik Devletleri'nde yeni bir şube açarak uluslararası alanda faaliyet göstermeye başlayacak.
OpenAI'ın Sohbet Robotu ChatGPT Kişisel Verileri Yanlış mı İşliyor?
Yapay zeka (YZ) teknolojisi hayatımızın birçok alanına nüfuz ederken, beraberinde gizlilik ve veri koruma konularındaki endişeler de gündeme geliyor. Son olarak, önde gelen yapay zeka geliştiricisi OpenAI, Avusturya merkezli bir veri koruma savunucusu grup olan Noyb tarafından açılan bir şikayetin odağında yer aldı. Noyb, OpenAI'ın geliştirdiği popüler sohbet robotu ChatGPT'nin kişisel verileri yanlış işlediğini iddia ediyor. Bu durum, yapay zeka uygulamalarının Avrupa Birliği'ndeki (AB) gizlilik kurallarına uyumu konusunda soru işaretleri doğuruyor.
Şikayete göre, ismi açıklanmayan bir kamu figürü, kendisi hakkındaki bilgileri öğrenmek için OpenAI'ın ChatGPT sohbet robotunu kullandı. Ancak robot, kamu figürüne sürekli olarak yanlış bilgiler sundu. Daha sonra kamu figürü, verilerin düzeltilmesi veya silinmesini talep ettiyse de OpenAI bu talebi reddetti. OpenAI, düzeltmenin mümkün olmadığını ve eğitim verileriyle ilgili bilgi vermeyi de reddetti.
Noyb veri koruma avukatı Maartje de Graaf, bu durumu şu sözlerle eleştirdi: "Eğer bir sistem doğru ve şeffaf sonuçlar üretemezse, bireyler hakkında veri üretmek için kullanılamaz. Teknolojinin yasal gerekliliklere uyması gerekiyor, tersi değil."
Noyb'un şikayeti, Avusturya veri koruma yetkililerine iletildi. Şikayette, OpenAI'ın veri işleme süreçlerinin ve büyük dil modellerinin kişisel verileri işlerken nasıl doğruluk sağladığının araştırılması talep edildi. De Graaf, "Şirketlerin şu anda ChatGPT gibi sohbet robotlarının, bireyler hakkında veri işlerken AB yasalarına uymasını sağlayamadığı açık" şeklinde konuştu.
Bu şikayet, yapay zeka sohbet robotlarının veri işleme uygulamalarındaki potansiyel sorunlara ışık tutuyor. Ancak bu, Avrupa'da ilk yaşanan olay değil. Aralık 2023'te yapılan bir araştırma, Microsoft'un Bing AI sohbet robotunun (Copilot olarak yeniden adlandırıldı) Almanya ve İsviçre'deki yerel seçimler hakkında yanıltıcı bilgiler verdiğini ortaya koymuştu. Benzer şekilde, Google'ın Gemini AI sohbet robotunun da görüntü oluşturucusunda yanlış ve "woke" içerikler ürettiği tespit edilmişti. Bu örnekler, yapay zeka modellerinin veri ile eğitilmeleri sırasında kullanılan verilerin kalitesi ve tarafsızlığı konusundaki endişeleri de gündeme getiriyor.
Avrupa Birliği, General Data Protection Regulation (GDPR) kapsamında sıkı veri koruma yasalarına sahip. Bu yasalar, kişisel verilerin işlenmesi ve korunması konusunda şirketlere sorumluluklar yüklüyor. Noyb gibi kuruluşlar da bu yasaların uygulanmasını sağlamak için stratejik davalar ve medya girişimleri yürütüyor.
OpenAI henüz Noyb'un şikayetine resmi bir yanıt vermedi. Ancak bu olay, yapay zeka geliştiricilerin veri koruma ve şeffaflık konularına daha fazla dikkat etmeleri gerektiğinin altını çiziyor. Şirketlerin, kullanıcı verilerini nasıl topladıklarını, kullandıklarını ve koruduklarını daha açık bir şekilde ortaya koymaları gerekiyor. Aynı zamanda, yapay zeka modellerinin eğitiminde kullanılan verilerin tarafsızlığı ve doğruluğu da sorgulanmalı.
Yapay zeka teknolojisi hızla gelişmeye devam ederken, beraberinde gelen etik ve hukuki meselelerle de yüzleşmek gerekiyor. OpenAI şikayeti, bu alandaki tartışmaları alevlendirerek yapay zeka uygulamalarının sorumlu bir şekilde geliştirilmesi ve kullanılması için önemli bir adım olabilir.
Yorum yapabilmek için lütfen giriş yapınız