Giriş Yap
üye Ol

Loading...

AI Deep Fake'lerine Karşı Koruma: COPIED Yasası'nın Önemi

Yeni bir tasarı, iki partiden oluşan bir grup senatör tarafından sunuldu ve yapay zeka (AI) deep fake'lerinin kötüye kullanımını önlemek amacıyla bu tür içeriklerin filigranlanmasını zorunlu kılmayı hedefliyor.

Senatör Maria Cantwell (D-WA), Senatör Marsha Blackburn (R-TN) ve Senatör Martin Heinrich (D-NM) tarafından sunulan bu tasarı, AI tarafından üretilen içeriklerin filigranlanması için standart bir yöntem öneriyor.

İçerik Kaynağı Koruma ve Düzenlenmiş ve Deep Fake Medya Yasası (COPIED) olarak adlandırılan bu tasarı, yaratıcıların korunmasını güçlendirecek ve AI'nin eğitimine tabi tutulabileceği içerik türleri üzerinde kontroller oluşturacaktır.

Senatör Cantwell, bu tasarının AI tarafından üretilen içeriklere "çok ihtiyaç duyulan şeffaflığı" sağlayacağını belirtirken, "yerel gazeteciler, sanatçılar ve müzisyenler de dahil olmak üzere yaratıcıları, içeriklerinin kontrolünü geri almalarını" sağlayacağını vurguluyor.

Bu tasarı, AI hizmet sağlayıcılarının, kullanıcıların ürettikleri içeriğin kökeni hakkında bilgi eklemelerini zorunlu kılacak ve bu bilginin "makine tarafından okunabilir" bir şekilde uygulanmasını ve AI tabanlı araçlar kullanılarak atlanamaz veya kaldırılamaz olmasını gerektirecektir.

Federal Ticaret Komisyonu (FTC), COPIED Yasası'nın uygulanmasını denetleyecek ve düzenleyici, ihlalleri FTC Yasası kapsamında diğer ihlallerle benzer şekilde haksız veya aldatıcı davranışlar olarak değerlendirecektir. Yapay zekanın tanıtılmasıyla birlikte, teknolojinin web genelinde büyük miktarda veriyi tarama yeteneği göz önünde bulundurulduğunda, etik sonuçları etrafında çok sayıda tartışma olmuştur. Bu endişeler, teknoloji devi Microsoft'un OpenAI'de yönetim kurulu üyeliği yapmaktan geri adım attığında belirgindi.

Senatör Blackburn, "Yapay zeka, kötü niyetli kişilere her bireyin, yaratıcı topluluk üyeleri de dahil olmak üzere, izni olmadan taklit ederek ve sahte içeriklerden kar elde ederek deep fake'ler oluşturma yeteneği verdi" dedi. Önerilen tasarı, deep fake içerik kullanarak yapılan dolandırıcılık ve sahtekarlıklarda %245'lik bir artışla aynı döneme denk gelmekte.

Bitget'ten bir rapor, bu tür şemalardan kaynaklanan kayıpların 2025 yılına kadar 10 milyar dolar değerinde olacağını tahmin ediyor. Kripto alanında, dolandırıcılar, kullanıcıları kandırmak için Elon Musk ve Vitalik Buterin gibi tanınmış kişilikleri taklit etmek için yapay zekayı kullanıyorlar.

Haziran 2024'te, kripto borsası OKX'in bir müşterisi, saldırganların kurbanın deep fake videolarını kullanarak platformun güvenliğini atlatmayı başarması sonucu 2 milyon dolardan fazla kaybetti.

Bir ay önce, Hong Kong yetkilileri, yatırımcıları yanıltmak için Elon Musk'ın benzerliğini kullanan bir dolandırıcılık platformunu çökertti. Bu olaylar, AI'nin kötü niyetli kullanımının ne kadar ciddi sonuçlara yol açabileceğini gösteriyor ve bu da COPIED tasarısının ne kadar önemli olduğunu vurguluyor.

Bu arada, teknoloji devi Google, Ulusal Siber Güvenlik Merkezi (NCC) kurucusu Michael Marcotte tarafından, kripto hedefli deep fake'lerle ilgili yetersiz önlemler almakla eleştirildi.

Marcotte, Google'ın platformlarında yayılan sahte içeriklerin engellenmesi için daha fazla çaba göstermesi gerektiğini belirtti. Bu eleştiriler, büyük teknoloji şirketlerinin AI'nin kötüye kullanımını önlemek için daha proaktif olmaları gerektiğini gösteriyor.

COPIED tasarısı, yapay zeka teknolojisinin etik ve güvenli kullanımını sağlamak için atılmış önemli bir adım olarak görülüyor. AI'nin hızla gelişen yetenekleri, içerik üretiminde büyük fırsatlar sunarken, aynı zamanda kötüye kullanım potansiyeli de barındırıyor.

Bu nedenle, bu tür yasal düzenlemeler, hem yaratıcıların haklarını korumak hem de kamu güvenliğini sağlamak için kritik öneme sahip. Eğer tasarı yasalaşırsa, AI tabanlı içeriklerin daha şeffaf ve izlenebilir olması sağlanacak ve böylece deep fake'lerin ve diğer kötüye kullanımların önüne geçilecektir.

Alakalı Gönderiler

0 yorum

Yorum yapabilmek için lütfen giriş yapınız

Gündem

Takip et

Bülten

Bültenimize abone olmak için lütfen e posta adresinizi aşağıya girin