Yapay Zeka Uzmanları: "YZ'yi YZ ile eğitmeyin"
Yapay zeka uzmanları (YZU), gelecek nesil yapay zeka sohbet botlarının diğer yapay zekalardan elde edilen verilerle eğitilmesinin, anlamsız içeriklerin artmasına yol açabileceğini ortaya koydu. Orijinal verinin korunması ve yapay zeka üretimi içeriğin insan üretimi içerikten ayrıştırılması için adımlar atılması gerektiği vurgulanıyor.
21 Haziran 2023 - 01:09
YZ uzmanları, yapay zeka tarafından üretilen içeriğin insan tarafından üretilen içerikten ayrıştırılması için adımlar atılması gerektiğini belirtiyor. Yeni bir araştırmaya göre, diğer yapay zekalardan elde edilen verilerle eğitilen gelecek nesil yapay zeka sohbet botları, internet üzerinde anlamsız içeriklerin artmasına neden olabilir.
Büyük dil modelleri (large language models/LLM'ler) gibi ChatGPT gibi yapay zeka modelleri, internet kullanıcıları tarafından benimsenerek yapay zeka tarafından oluşturulan metin ve görsellerden oluşan yeni bir ekosistem yaratma trendi haline geldi. Ancak henüz hakem denetiminden geçmemiş bir çalışma, bu tür yapay zeka sistemlerinden elde edilen çıktı verilerinin sonraki nesil yapay zeka modellerinin eğitiminde kullanılması durumunda, "geri dönüşü olmayan bozukluklara" ve çöp içeriğe yol açabileceğini gösteriyor.
Şu anda çoğunlukla insanlar tarafından oluşturulan internet platformlarından elde edilen büyük miktarda veri, ChatGPT gibi yapay zeka modellerinin eğitiminde kullanılıyor. Ancak yapay zeka tarafından üretilen veri, internet üzerinde giderek daha fazla yer kaplıyor.
Oxford Üniversitesi'nden araştırmacılar da dahil olmak üzere araştırmacılar, yapay zekaların ardışık nesiller boyunca birbirlerini eğitmesinin sonuçlarını anlamaya çalıştı. Araştırmacılar, büyük dil modellerinin internet üzerinde içerik yayınlamak için yaygın olarak kullanılmasının, "eğitim verisini kirleteceğini" ve "modelin çökmesine" yol açabileceğini buldular.
Bilim insanları, arXiv'de yayımlanan ön baskıda "Diğer modeller tarafından üretilen veriden öğrenmenin modelin çökmesine yol açabileceğini keşfettik. Bu, modellerin zaman içinde temel gerçek veri dağılımını unutarak olumsuz bir süreç" şeklinde yazdı. Yeni bulgular, büyük dil modellerinin eğitiminde "ilk hamle avantajı" olduğunu ortaya koyuyor.
Bilim insanları, bu değişimi insan bestecilerin yarattığı ve insan müzisyenlerin çaldığı müzik üzerinde yapay zeka modellerinin eğitilmesiyle yaşananlara benzetiyor. Elde edilen yapay zeka çıktısı daha sonra diğer modelleri eğitiyor ve bu da müzik kalitesinin düşmesine yol açıyor.
Sonraki nesil yapay zeka modelleri, kaynaklarında daha düşük kalitede verilerle karşılaşma olasılığı nedeniyle, "veri zehirlenmesi" adı verilen bir süreçte hatalı bilgi ekleyerek bilgileri yanlış yorumlayabilir. Araştırmacılar, LLM'lerin devreye girmesinden sonra veri zehirlenmesinin yaşanabilecek ölçeğinin büyük ölçüde değiştiği konusunda uyarıyor.
Bilim insanları, orijinal verinin korunması çabalarının yanı sıra yapay zeka üretimi içeriğin insan üretimi içerikten ayrıştırılması için adımlar atılması gerektiğini belirtiyor. Araştırmacılar, "Öğrenmenin uzun süre devam etmesini sağlamak için orijinal veri kaynağına erişimin korunması ve LLM'lerin oluşturmadığı ek verilerin zaman içinde korunması gerekiyor" şeklinde açıklama yapıyorlar. Aksi takdirde, internette bu teknolojinin yaygın benimsenmesi öncesi taranmış veya büyük ölçekte insanlarca üretilmiş verilere doğrudan erişim olmaksızın LLM'lerin yeni sürümlerini eğitmek giderek daha zor hale gelebilir.
Kaynak: Independent Türkçe
Büyük dil modelleri (large language models/LLM'ler) gibi ChatGPT gibi yapay zeka modelleri, internet kullanıcıları tarafından benimsenerek yapay zeka tarafından oluşturulan metin ve görsellerden oluşan yeni bir ekosistem yaratma trendi haline geldi. Ancak henüz hakem denetiminden geçmemiş bir çalışma, bu tür yapay zeka sistemlerinden elde edilen çıktı verilerinin sonraki nesil yapay zeka modellerinin eğitiminde kullanılması durumunda, "geri dönüşü olmayan bozukluklara" ve çöp içeriğe yol açabileceğini gösteriyor.
Şu anda çoğunlukla insanlar tarafından oluşturulan internet platformlarından elde edilen büyük miktarda veri, ChatGPT gibi yapay zeka modellerinin eğitiminde kullanılıyor. Ancak yapay zeka tarafından üretilen veri, internet üzerinde giderek daha fazla yer kaplıyor.
Oxford Üniversitesi'nden araştırmacılar da dahil olmak üzere araştırmacılar, yapay zekaların ardışık nesiller boyunca birbirlerini eğitmesinin sonuçlarını anlamaya çalıştı. Araştırmacılar, büyük dil modellerinin internet üzerinde içerik yayınlamak için yaygın olarak kullanılmasının, "eğitim verisini kirleteceğini" ve "modelin çökmesine" yol açabileceğini buldular.
Bilim insanları, arXiv'de yayımlanan ön baskıda "Diğer modeller tarafından üretilen veriden öğrenmenin modelin çökmesine yol açabileceğini keşfettik. Bu, modellerin zaman içinde temel gerçek veri dağılımını unutarak olumsuz bir süreç" şeklinde yazdı. Yeni bulgular, büyük dil modellerinin eğitiminde "ilk hamle avantajı" olduğunu ortaya koyuyor.
Bilim insanları, bu değişimi insan bestecilerin yarattığı ve insan müzisyenlerin çaldığı müzik üzerinde yapay zeka modellerinin eğitilmesiyle yaşananlara benzetiyor. Elde edilen yapay zeka çıktısı daha sonra diğer modelleri eğitiyor ve bu da müzik kalitesinin düşmesine yol açıyor.
Sonraki nesil yapay zeka modelleri, kaynaklarında daha düşük kalitede verilerle karşılaşma olasılığı nedeniyle, "veri zehirlenmesi" adı verilen bir süreçte hatalı bilgi ekleyerek bilgileri yanlış yorumlayabilir. Araştırmacılar, LLM'lerin devreye girmesinden sonra veri zehirlenmesinin yaşanabilecek ölçeğinin büyük ölçüde değiştiği konusunda uyarıyor.
Bilim insanları, orijinal verinin korunması çabalarının yanı sıra yapay zeka üretimi içeriğin insan üretimi içerikten ayrıştırılması için adımlar atılması gerektiğini belirtiyor. Araştırmacılar, "Öğrenmenin uzun süre devam etmesini sağlamak için orijinal veri kaynağına erişimin korunması ve LLM'lerin oluşturmadığı ek verilerin zaman içinde korunması gerekiyor" şeklinde açıklama yapıyorlar. Aksi takdirde, internette bu teknolojinin yaygın benimsenmesi öncesi taranmış veya büyük ölçekte insanlarca üretilmiş verilere doğrudan erişim olmaksızın LLM'lerin yeni sürümlerini eğitmek giderek daha zor hale gelebilir.
Kaynak: Independent Türkçe







YORUMLAR