Teknoloji Dünyası

OpenAI, Yapay Zeka İçeriklerinin Şefaflığını Geliştiriyor!

OpenAI C2 PA

OpenAI, İçerik Kaynağı ve Orijinallik Koalisyonu’nun (C2PA) yönetim komitesine katılarak, oluşturulan içeriğin şeffaflığını artırmak için açık standartların meta verilerini üretken yapay zeka modellerine entegre etme çabalarını sürdürüyor.

OpenAI

C2PA standardı, dijital içeriğin kökenini kanıtlayan meta verilerle sertifikalandırılmasına olanak tanır; bu içerik tamamen yapay zeka tarafından oluşturulmuş, yapay zeka araçlarıyla düzenlenmiş veya geleneksel olarak yakalanmış olabilir. OpenAI, en son ChatGPT ve OpenAI API’deki DALL-E 3 modelinden elde edilen görüntülere C2PA meta verilerini eklemeye başladı. Bu meta veriler, yakında piyasaya sürülecek olan OpenAI’nin video oluşturma modeli Sora’ya da entegre edilecek.

Güvenlik ve Yapay Zeka: Verilerimizi Nasıl Koruyoruz?

OpenAI’nin açıklamasına göre, “İnsanlar bu bilgi olmadan da yanıltıcı içerik oluşturabilir veya kaldırabilir, ancak bu bilgiyi kolayca taklit edemez veya değiştiremezler, bu da onu güven oluşturmak için önemli bir kaynak haline getirir.”

Bu adım, yapay zeka tarafından oluşturulan içeriğin ABD, İngiltere ve diğer ülkelerdeki bu yıl yapılacak büyük seçimler öncesinde seçmenleri yanıltma potansiyeline ilişkin artan endişelerin gölgesinde gerçekleşti. Yapay zeka tarafından üretilen medyanın kimliğinin doğrulanması, derin sahtekarlıklarla ve diğer manipülatif içeriklerle mücadelede bir araç olabilir.

OpenAI Code

Teknik önlemler faydalı olmakla birlikte, OpenAI, içerik özgünlüğünün sağlanmasının, platformların, yaratıcıların ve içerik işleyicilerin son tüketiciler için meta verilerini korumak amacıyla ortak bir eylemde bulunmalarının gerekli olduğunu kabul ediyor.

C2PA entegrasyonuna ek olarak, OpenAI, yapay zeka tarafından oluşturulan görsellerin tanımlanmasına yardımcı olmak için ses ve görüntü algılama sınıflandırıcıları için dayanıklı filigranlama gibi yeni kaynak yöntemlerini geliştiriyor.

OpenAI, DALL-E 3 ve Diğer Yapay Zeka Modelleri İçin Görüntü Algılama Sınıflandırıcısı Erişimi ve Değerlendirme Çabalarını Açıklıyor!

OpenAI, Araştırmacı Erişim Programı kapsamında DALL-E 3 görüntü algılama sınıflandırıcısına başvuruları açtı. Bu araç, bir görüntünün OpenAI modellerinden biri tarafından oluşturulup oluşturulmadığını tahmin ediyor.

Şirket, “Amacımız, sınıflandırıcının etkinliğini değerlendirmek, gerçek dünya uygulamalarını analiz etmek, ilgili hususları belirlemek ve yapay zeka tarafından oluşturulan içeriğin özelliklerini araştırmak için bağımsız araştırmalara imkan sağlamaktır,” dedi.

Yapılan dahili testler, DALL-E görüntülerinin yaklaşık %98’inin doğru şekilde tanımlandığını ve yapay zeka olmayan görüntülerin %0,5’inden azının yanlış işaretlendiğini gösterdi; bu, DALL-E 3 görüntülerini diğerlerinden ayıran yüksek bir doğruluk oranıdır. Ancak sınıflandırıcının, DALL-E tarafından oluşturulan görüntüler ile diğer üretken yapay zeka modelleri arasında ayrım yapma konusunda daha fazla zorlandığı belirtildi.

OpenAI voice engine

OpenAI, ayrıca şu anda sınırlı ön izleme aşamasında olan Voice Engine özel ses modeline filigran eklemeyi planlıyor.

Şirket, kaynak standartlarının giderek daha fazla benimsenmesinin, “dijital içerik özgünlüğü uygulamalarındaki önemli bir boşluğu” doldurmak için tüm yaşam döngüsü boyunca içeriğe eşlik eden meta verilere yol açacağına inanıyor.

Ayrıca, OpenAI, yapay zeka eğitimini ve anlayışını desteklemek amacıyla Microsoft’a katılarak, AARP, Uluslararası IDEA ve Yapay Zeka Ortaklığı gibi kuruluşlarla birlikte 2 milyon dolarlık bir toplumsal dayanıklılık fonu başlatıyor.

Kaynak


    Masqot sitesinden daha fazla şey keşfedin

    Subscribe to get the latest posts sent to your email.

    Shares:

    Bir Cevap Yazın

    0 Yorum
    Eskiler
    En Yeniler Beğenilenler
    Inline Feedbacks
    View all comments