Beata Zawrzel | Nurfoto | Getty Images
İçerik oluşturucuların biyometrik verilerini kullanarak, yapay zeka tarafından oluşturulan ve kendilerine benzeyen videoları kaldırmalarına yardımcı olan bir YouTube aracı, aynı zamanda Google Uzmanlar CNBC’ye yapay zeka modellerini bu hassas veriler üzerinde eğitmelerini söyledi.
YouTube, fikri mülkiyet uzmanlarının endişelerine yanıt olarak CNBC’ye, Google’ın yaratıcıların biyometrik verilerini yapay zeka modellerini eğitmek için hiçbir zaman kullanmadığını ve karışıklığı önlemek için aracın kayıt formunda kullanılan dili gözden geçirdiğini söyledi. Ancak YouTube, CNBC’ye temel politikasını değiştirmeyeceğini söyledi.
Bu tutarsızlık içeride daha geniş bir bölünmenin altını çiziyor AlfabeGoogle’ın agresif bir şekilde genişlettiği Yapay zeka çabaları YouTube ise işleri için platforma bağımlı olan içerik oluşturucuların ve hak sahiplerinin güvenini korumak için çalışıyor.
YouTube, şirketin Ekim ayında tanıttığı ve bir içerik oluşturucunun yüzünün derin sahtekarlıklarda izni olmadan kullanıldığını işaretleyen bir araç olan “benzerlik tespitini” genişletiyor; bu terim, yapay zeka kullanılarak oluşturulan sahte videoları tanımlamak için kullanılıyor. Yapay zeka tarafından manipüle edilen içerik sosyal medyada daha yaygın hale geldikçe bu özellik YouTube İş Ortağı Programındaki milyonlarca içerik oluşturucuyu kapsayacak şekilde genişletiliyor.
Araç, bir içerik oluşturucunun yüzünün yapay zeka tarafından değiştirilmiş veya oluşturulmuş olabileceğini tespit etmek için YouTube’a yüklenen videoları tarar. İçerik oluşturucular daha sonra videonun kaldırılmasını talep edip etmeyeceklerine karar verebilir ancak aracı kullanmak için YouTube, içerik oluşturucuların resmi kimlik bilgilerini ve yüzlerinin biyometrik videosunu yüklemelerini gerektirir. Biyometri, bir kişinin kimliğini doğrulamak için fiziksel özelliklerin ölçümüdür.
Uzmanlar, YouTube’un aracı Google’ın Gizlilik Politikası’na bağlayarak içerik oluşturucuların biyometrik bilgilerinin gelecekte kötüye kullanılmasına kapı açtığını söylüyor. politika biyometrik bilgiler de dahil olmak üzere herkese açık içeriğin “Google’ın yapay zeka modellerini eğitmeye ve ürün ve özellikler oluşturmaya yardımcı olmak için” kullanılabileceğini belirtiyor.
YouTube sözcüsü Jack Malon, CNBC’ye yaptığı açıklamada, “Benzerlik tespiti tamamen isteğe bağlı bir özellik, ancak çalışması için görsel bir referans gerektiriyor.” dedi. “Bu verilere yaklaşımımız değişmiyor. Yardım Merkezimizin yaptığı gibi belirtilmiş Lansmandan bu yana, benzerlik tespit aracı için sağlanan veriler yalnızca kimlik doğrulama amacıyla ve bu özel güvenlik özelliğini güçlendirmek için kullanılıyor.”
YouTube, CNBC’ye “ürün içi dili daha anlaşılır hale getirmenin yollarını düşündüğünü” söyledi. Şirket, metinde hangi spesifik değişikliklerin yapılacağını veya bunların ne zaman yürürlüğe gireceğini söylemedi.
Uzmanlar, politikayla ilgili endişelerini aylar önce YouTube’a ilettiklerini söyleyerek temkinli davranmayı sürdürüyor.
Vermillio CEO’su Dan Neely, “Google yapay zeka alanında rekabet etmek için yarışırken ve eğitim verileri stratejik altın haline geldikçe, içerik oluşturucuların yüzlerinin kendilerine ait olmak yerine bir platform tarafından kontrol edilmesini isteyip istemedikleri konusunda dikkatli düşünmeleri gerekiyor” dedi. “Sizin benzerliğiniz yapay zeka çağındaki en değerli varlıklardan biri olacak ve bu kontrolü bir kez verdiğinizde onu bir daha geri alamayabilirsiniz.”
Vermlio ve Loti, internetteki benzerlik haklarını izlemek ve uygulamak için yaratıcılar, ünlüler ve medya şirketleriyle birlikte çalışan üçüncü taraf şirketlerdir. Yapay zeka video oluşturma alanındaki gelişmelerle birlikte, bunların fikri mülkiyet hakları sahipleri için kullanışlılığı da arttı.
Loti CEO’su Luke Arrigoni, YouTube’un mevcut biyometrik politikasının risklerinin “çok büyük” olduğunu söyledi.
Arrigoni, “Sürüm şu anda birisinin bu adı yüzün gerçek biyometrisine eklemesine izin verdiği için, o kişiye benzeyen daha sentetik bir şey yaratabilirler” dedi.
Neely ve Arrigoni, şu anda müşterilerinin YouTube’da benzerlik tespitine kaydolmalarını tavsiye etmeyeceklerini söyledi.
YouTube İçerik Oluşturucu Ürün Başkanı Amjad Hanif, YouTube’un benzerlik tespit aracını her dakika yüzlerce saatlik yeni görüntülerin yayınlandığı “YouTube ölçeğinde” çalışacak şekilde geliştirdiğini söyledi. Hanif, aracın Ocak ayı sonuna kadar YouTube İş Ortağı Programındaki 3 milyondan fazla içerik oluşturucunun kullanımına sunulacağını söyledi.
Hanif CNBC’ye “Yaratıcılar başarılı olduğunda biz de başarılı oluyoruz” dedi. “Yaratıcı ekosistemin koruyucuları ve destekçileri olarak buradayız ve bu yolculukta onları destekleyecek araçlara yatırım yapıyoruz.”
Bu lansman, yapay zeka tarafından oluşturulan video araçlarının kalite ve erişilebilirlik açısından hızla gelişmesi ve benzerliği ve sesi işlerinin merkezinde yer alan içerik oluşturucular için yeni endişelerin ortaya çıkmasıyla birlikte geliyor.
Gerçek adı Mikhail Varshavski olan YouTuber Doktor Mike, TV’deki tıbbi dramalara tepki gösteren videolar çekiyor, sağlıkla ilgili merak edilen soruları yanıtlıyor ve yaklaşık on yıldır internette dolaşan efsaneleri çürütüyor.
Doktor Mike
Video platformunda Doctor Mike’ın adını kullanan bir doktor olan YouTube yaratıcısı Mikhail Varshavski, her hafta düzinelerce AI tarafından manipüle edilen videoyu incelemek için hizmetin benzerlik tespit aracını kullandığını söyledi.
Varshavski neredeyse on yıldır YouTube’da ve platformda 14 milyondan fazla aboneye sahip. TV’deki tıp dramalarına tepki gösteren videolar hazırlıyor, sağlıkla ilgili merak edilen soruları yanıtlıyor ve mitleri çürütüyor. İzleyicilerini bilgilendirmek için kurul onaylı bir doktor olarak güvenilirliğine güveniyor.
Varshavski, yapay zekadaki hızlı ilerlemelerin, kötü aktörlerin, izleyicilerine yanıltıcı tıbbi tavsiyeler verebilecek derin sahte videolarda yüzünü ve sesini kopyalamasını kolaylaştırdığını söyledi.
Kendisinin deepfake’iyle ilk kez TikTok’ta karşılaştı; burada yapay zeka tarafından oluşturulan bir doppelgänger, Varshavski’nin adını bile duymadığı bir “mucize” eki tanıttı.
“Bu beni açıkça korkuttu, çünkü izleyicinin güvenini kazanmak, onlara gerçeği söylemek ve sağlık konusunda iyi kararlar almalarına yardımcı olmak için on yılı aşkın bir süre yatırım yaptım” dedi. “Birinin, birisini ihtiyaç duymadığı veya potansiyel olarak ona zarar verebilecek bir şeyi satın alması için kandırmak amacıyla benim benzerliğimi kullandığını görmek, bu durumda benim hakkımda her şeyi korkuttu.”
AI video oluşturma araçları gibi Google’da 3 görüyorum Ve OpenAI’ler Sora, ünlülerin ve Varshavski gibi yaratıcıların deepfake’lerini oluşturmayı önemli ölçüde kolaylaştırdı. Bunun nedeni, teknoloji şirketlerinin yapay zeka modellerini eğitmek için kullandıkları veri setlerinde benzerliklerinin sıklıkla yer almasıdır.
Veo 3, YouTube’a yüklenen 20 milyardan fazla videonun bir alt kümesi üzerinde eğitilmiştir. CNBC Temmuz ayında bildirdi. Buna Varshavski’nin yüzlerce saatlik videosu da dahil olabilir.
Varshavski, Deepfake’lerin “daha yaygın hale geldiğini ve çoğaldığını” söyledi. “İnsanları bir ürün satın almaları için kandırmak veya birine zorbalık yapmak için bu tür yapay zeka derin sahtekarlıklarını silah haline getiren tam kapsamlı kanallar gördüm.”
Şu anda içerik oluşturucuların, genellikle büyük telif hakkı kataloglarına sahip şirketler tarafından kullanılan, telif hakkıyla korunan materyaller için YouTube’un Content ID sistemi aracılığıyla sunulan gelir paylaşımı seçeneklerinin aksine, kendi benzerlerinin izinsiz kullanımından para kazanmanın bir yolu yok. YouTube’dan Hanif, şirketin benzer bir modelin gelecekte AI tarafından oluşturulan benzerlik kullanımı için nasıl çalışabileceğini araştırdığını söyledi.
Bu yılın başlarında YouTube, içerik oluşturuculara üçüncü taraf yapay zeka şirketlerinin videoları üzerinde eğitim vermesine izin verme seçeneği sundu. Hanif, milyonlarca yaratıcının herhangi bir tazminat vaadi olmaksızın bu programa katıldığını söyledi.
Hanif, ekibinin hala ürünün doğruluğunu artırmak için çalıştığını ancak doğruluk ölçümleri vermese de erken testlerin başarılı olduğunu söyledi.
Hanif, platformdaki yayından kaldırma faaliyetlerine gelince, bunun büyük ölçüde düşük kaldığını, çünkü birçok içerik oluşturucunun işaretlenen videoları silmemeyi tercih ettiğini söyledi.
Hanif, “Orada olduğunu bilmekten mutlu olacaklar, ancak aslında onun yıkılmaya değer olduğunu düşünmüyorlar” dedi. “Şu ana kadar en yaygın eylem, ‘Baktım ama sorun değil’ demekti.”
Temsilciler ve hak savunucuları CNBC’ye, düşük yayından kaldırma sayılarının yapay zeka içeriğinden ziyade kafa karışıklığı ve farkındalık eksikliğinden kaynaklandığını söyledi.
KOL SAATİ: Plexo Capital’dan Lo Toney, AI anlatımının tüm yığınıyla Google’a doğru kaydığını söylüyor
