1. HABERLER

  2. ÇEVİRİ

  3. Yapay zeka sistemleri bize "saçma sapan bilgiler" vermeye başlarsa ne olacak?
Yapay zeka sistemleri bize "saçma sapan bilgiler" vermeye başlarsa ne olacak?

Yapay zeka sistemleri bize "saçma sapan bilgiler" vermeye başlarsa ne olacak?

Andrew Griffin, ChatGPT gibi sistemleri daha az kullanışlı kılan "model çöküşü" problemini inceliyor.

28 Temmuz 2024 Pazar 16:45A+A-

Andrew Griffin / Independent Türkçe

Yapay zeka sistemleri "saçmalığa dönüşmenin eşiğinde olabilir"

Araştırmacılar internet yapay zekanın ürettiği içeriklerle dolmasıyla, yapay zeka sistemlerinin saçmalığa dönüşebileceğine dair uyarıda bulundu.

OpenAI'ın ChatGPT'si gibi metin üreten sistemlere duyulan heyecan son yıllarda giderek arttı. Bu heyecan, pek çok kişiyi sistemler tarafından yaratılan blog yazıları ve çeşitli içerikler yayımlamaya teşvik etti,  böylelikle yapay zekanın ürettiği içerikler, internetin giderek daha büyük bir kısmını kapladı.

Fakat bu sistemleri üreten şirketlerin çoğu, sistemleri eğitmek için internetteki metinlerden yararlanıyor. Bu, metinleri üretmek için kullanılan yapay zeka sistemlerinin aynı metinlerle eğitildiği bir döngüye yol açabilir.

Yeni bir çalışmada araştırmacılar, bunun yapay zeka araçlarını hızlıca anlamsızlığa ve saçmalığa sürükleyebileceği konusunda uyardı. Uyarıları, internetin giderek büyüyen bir kısmının kısır döngüye girerek otomatikleştiğini öne süren daha geniş "ölü internet teorisi" kaygısının bir parçası.    

Araştırmaya göre, sistemin içerik ürettiği ve ürettiği içeriklerle eğitildiği döngünün yalnızca birkaç kez yaşanması, sistemin saçmalık üretmeye başlaması için yeterli.

Örneğin araştırmacılar, ortaçağ mimarisi hakkındaki metinlerle test edilen bir sistemde, sadece 9 üretimde çıktının kendini tekrarlayan bir kır tavşanı çeşitleri listesine dönüştüğünü gözlemledi.

Yapay zekanın yine yapay zeka tarafından üretilen veri setleriyle eğitilmesi ve çıktıları kirletmesine "model çöküşü" denmişti. Araştırmacılar, yapay zeka sistemleri internette daha sık kullanıldıkça bu durumun yaygınlaşabileceği konusunda uyarıyor.

Sistemler ürettikleri verilerle eğitildikçe, verinin daha az yaygın kısımlarını dışarıda bırakmaya eğilimli olduğu için bu sorun yaşanıyor. Bu çalışmada yer almayan araştırmacı Emily Wenger, farklı köpek cinsleriyle eğitilen bir sistemi örnek vermişti: asıl veride golden retriever daha çok varsa sistem veriden onları seçerek süreç ilerledikçe diğer köpekleri dışarda bırakıyor ve sonunda çökerek yalnızca saçmalık üretmeye başlıyor.

Araştırmacılar, ChatGPT ve Google'ın Gemini'ı çalıştıran büyük dil modellerinde de aynı sonucun ortaya çıktığını gözlemledi.

Bu, yalnızca sistemler giderek işlevini yitireceği için değil, çıktılarındaki çeşitlilik giderek azalacağı için de sorun teşkil edebilir. Veri üretilip geri dönüştürüldükçe sistemler, dünyadaki farklılıkları yansıtmakta zorlanabilir ve daha küçük gruplar ve bakış açıları tamamen silinebilir.

Araştırmacılar, makalede "eğitimde internetteki büyük ölçekli verileri temizlemenin faydalarını sürdürmek isteniyorsa sorunun ciddiye alınması gerektiğini" yazıyor. Bu durum, halihazırda sistemlerini eğitmek üzere veri kazımış şirketlerin, geçmişte toplanan verilerde gerçek insan çıktısı daha fazla bulunduğu için avantajlı olduğu anlamına da gelebilir.

Bu sorun, çıktıyı filigranla işaretleyip otomatik sistemler tarafından tespit edilerek eğitim kümelerinin dışında tutulmasını sağlamak da dahil birçok farklı yolla çözülebilir. Ama filigranları silmenin kolay olması ve yapay zeka şirketlerinin filigran kullanmakta işbirliğine direnmesi gibi başka problemler de bulunuyor.

"Yapay zeka modelleri özyineleyerek üretilen verilerle eğitildiğinde çöküyor (AI models collapse when trained on recursively generated data)" isimli çalışma Nature'da yayımlandı.

HABERE YORUM KAT

1 Yorum