Artık Elimiz Kolumuz Olan Yapay Zekâ Programları Tam Olarak Nasıl Çalışıyor? Her Şey Bu 5 Maddede Gizli!

Günümüz dünyasında, yapay zekâ terimi çabucak hemen herkesin aşina olduğu bir kavram hâline geldi. Ama bu karmaşık teknolojinin gerisindeki perdeyi aralamak ve nasıl çalıştığını nitekim anlamak biraz daha komplike olabilir. Güya bir bilim kurgu sinemasından fırlamış üzere duran yapay zekâ; aslında algoritma denizlerinde yüzerek, bilgi okyanuslarını aşarak hayatımıza entegre oluyor.

Peki bu akıllı sistemler, tam olarak nasıl çalışıyor? Bilhassa ChatGPT, Midjourney ve DALL-E üzere yapay zekâ araçları bizlere verdikleri yanıtla hayrete düşürüyor, doğal olarak aklımıza “Yapay zekâ uygulamaları nasıl çalışıyor?” sorusu da sıkça geliyor. Biz de sizler için yapay zekânın gizemli dünyasını aralayacak ve sofistike teknolojinin nasıl her sorumuza karşılık verip görseller oluşturabildiğini ayrıntılarıyla ele alacağız.

ChatGPT üzere yapay zekâ uygulamaları tam olarak nasıl çalışıyor?

ChatGPT, sorunuzu anlamaya çalışarak ve daha sonra eğitildiği datalara dayanarak sorunuzu en yeterli biçimde yanıtlayacağını kestirim ettiği söz dizilerini ortaya çıkararak çalışıyor. Kulağa nispeten kolay gelse de neler olup bittiği kabul edelim ki biraz karmaşık, o yüzden husus unsur gitmekte yarar var.

  • Denetimli ve kontrolsüz öğrenme
  • Transformatör mimarisi (GPT’deki T)
  • Belirteçler
  • İnsan geri bildiriminden destekli öğrenme (RLHF)
  • Doğal lisan sürece (NLP)

Denetimli ve kontrolsüz öğrenme

GPT’deki P “önceden eğitilmiş” manasına geliyor ve GPT’nin yapabildiklerini yapabilmesinin çok değerli bir kesimi. GPT’den önceki en yeterli performans gösteren yapay zekâ modelleri, temel algoritmalarını geliştirmek için kontrollü öğrenme kullanıyordu.

GPT, birkaç temel kuralın verildiği ve akabinde büyük ölçülerde etiketsiz datanın (neredeyse tüm açık internet) beslendiği üretken ön eğitim kullanıyor. Daha sonra tüm bu bilgiler ortasında gezinmesi ve metni yöneten kurallar ve bağlar hakkında kendi anlayışını geliştirmesi için kontrolsüz bırakılıyor.

Denetimsiz öğrenmeyi kullandığınızda doğal olarak ne elde edeceğinizi nitekim bilmeniz pek de mümkün değil. ChatGPT de bunun için davranışını daha öngörülebilir ve uygun hâle getirebilmek adına ince ayar yapıyor.

Transformatör mimarisi (GPT’deki T)

Tüm bu eğitimin hedefi; metin bilgilerindeki kalıpları, alakaları, bir sonraki metnin ne olacağını kestirim etmeyi ve insan gibisi cevap oluşturmayı öğretmek. Natürel bu süreç inanılmaz karmaşık ve çok katmanlı. Yani özetle derin öğrenme hudut ağı oluşturmak amaçlanıyor da diyebiliriz.

Açıkladığınızda kulağa karmaşık gelse de transformatör modeli, yapay zekâ algoritmalarının nasıl tasarlandığını bayağı kolaylaştırdı. Hesaplamaların paralelleştirilmesine ya da tıpkı anda yapılmasına olanak tanımasını sağladı.

Bu sayede eğitim müddetleri kıymetli ölçüde kısaldı. Yalnızca yapay zekâ modellerini daha düzgün hâle getirmekle kalmadı aynı vakitte onları daha süratli ve daha ucuza üretilebilir hâle getirdi.

Transformatörlerin özünde “kendi kendine dikkat” ismi verilen bir süreç vardır. Eski tekrarlayan hudut ağları (RNN’ler) metni soldan sağa hakikat okur. Bu formül, birbiriyle alakalı sözler ve kavramlar yan yana olduğunda âlâ olabilir lakin sözler zıt uçlar olduğunda işler biraz karmaşık hâle gelebiliyor. Bizce bunun en büyük örneği de Türkçe lisanında vakit zaman sapıtması.

Transformatörler cümledeki her kelimeyi bir defada okur ve her kelimeyi başkalarıyla karşılaştırır. Bu da cümlenin neresinde olurlarsa olsunlar, dikkatlerini en alakalı sözlere yönlendirmelerini sağlıyor.

Tabii ki tüm anlattıklarımız işleri büyük ölçüde kolaylaştırıyor. Transformatörler sözlerle çalışmaz, bir vektör (konum ve istikamet içeren bir sayı) olarak kodlanmış metin kesimleri olan “belirteçlerle” çalışırlar. Dikkat de bir vektör olarak kodlanır ve dönüştürücü tabanlı hudut ağlarının bir paragrafın başındaki kıymetli bilgileri hatırlamasını sağlar. 

Belirteçler

GPT-3 yaklaşık 500 milyar belirteç üzerinde eğitilmiş, böylelikle lisan modellerinin daha kolay mana atamasına ve bunları vektör uzayında eşleştirerek makul metni kestirim etmesine imkan tanıyordu. Birçok sözcük tek belirteçle eşleşiyordu ancak daha uzun yahut daha karmaşık sözcükler ekseriyetle birden fazla belirtece ayrılıyordu.

OpenAI, GPT-4’ün iç işleyişi hakkında sessiz kalsa da hemen çabucak birebir bilgi kümesi üzerinde eğitildiğini varsayabiliriz.

Tüm belirteçler, beşerler tarafından yazılmış devasa bir data külliyatından geliyor. Bunlar ortasında; kitaplar, makaleler ve tüm farklı bahisler, biçimler ve çeşitlerdeki öteki evraklar ve açık internette bulunan inanılmaz ölçüde içerik yer alıyor.

Tüm bu eğitimin sonucu olarak GPT-3’ün hudut ağı 175 milyar parametreye ya da değişkene sahipti. Eğitimi sayesinde girdi alıp farklı parametrelere verdiği pahalara ve tartılara dayanarak en uygun çıktıyı veriyordu.

OpenAI, GPT-4’ün kaç parametresi olduğunu söylemedi ancak muhtemelen 175 milyardan fazladır. GPT-4’ün artan gücünün bir kısmı, muhtemelen GPT-3’ten daha fazla parametreye sahip olmasından ve eğitimindeki iyileştirmeden kaynaklanıyor.

İnsan geri bildiriminden destekli öğrenme (RLHF)

GPT’nin birinci hudut ağı halka açık kullanıma uygun değildi, yani neredeyse hiç rehberlik olmadan açık internet üzerinde eğitildi. Bu nedenle ChatGPT‘nin çeşitli farklı istemlere inançlı, mantıklı ve dengeli bir biçimde karşılık verme yeteneğini daha da geliştirmek için insan geri bildiriminden destekli öğrenme adı verilen bir teknikle diyalog için optimize edildi. 

Esasen OpenAI, hudut ağına tipik durumlarda nasıl reaksiyon vermesi gerektiğini gösteren kimi gösterim ve karşılaştırma verileri oluşturdu. Böylelikle yapay zekâ rastgele bir durumda hangisinin en uygun cevap olduğunu öğrenebildi. RLHF Saf kontrollü öğrenme olmasa da GPT üzere ağların tesirli bir biçimde ince ayarlanmasına imkan tanıdı.

Doğal lisan sürece (NLP)

Tüm bu uğraşlar alışılmış ki GPT’yi doğal lisan sürece konusunda mümkün olduğunca tesirli hâle getirmeyi amaçlıyor. NLP; konuşma tanıma, makine çevirisi ve sohbet robotları da dahil olmak üzere yapay zekânın birçok tarafını kapsayan büyük bir kategori de diyebiliriz. Yani NLP kategorisi, yapay zekâya lisan kurallarını ve sözdizimini anlamayı öğretiyor.

Ancak unutmayın ki hâlâ tam olarak öğrenmiş değil. Bilhassa pek çok kişinin ChatGPT ve gibisi yapay zekâ modellerine tez/ödev/içerik yazdırdığı bu devirde robot yazısı kestirim edersiniz ki kendini açık ediyor. Okuduğunuz yazıların yapay zekâyla yazılıp yazılmadığını anlayabilmeniz için bir içerik oluşturmuştuk. Aşağıdan ayrıntılıca göz atabilirsiniz.

Nasıl çalıştığını uzun uzadıya anlattık, gelin artık anlamanız ismine ChatGPT kendini bilgi kümeleriyle nasıl geliştirmiş biraz da onu karşılaştıralım.

İlk başta ChatGPT 3.5‘a “Kendimi soğuk kış günlerinde hasta olmamak ismine nasıl koruyabilirim?” temalı bir soru sorduk. Yanıtları kâfi seviyedeydi lakin GPT-4 kadar gelişmiş yanıtlar doğal olarak vermedi ayrıyeten kimi bilgileri de eksik anlattı. İşte farkı anlamanız ismine yanıtlar:

ChatGPT-3.5 karşılığı.

Örneğin bu karşılıklarda tıpkı ChatGPT-4 üzere yazdığını görebiliyoruz lakin işi ayrıntılandırmaya gelince doğal olarak gelişmiş yapay zekâ modelinden daha geri kalıyor. Alt başlık açılıyor lakin devam cümleleri daima kendini tekrar ediyor. İstikrarlı beslenmemiz isteniyor lakin ne usul yiyecek yemeliyiz üzere bilgiler yer almıyor. 

ChatGPT-4 yanıtı.

GPT-4 daha birinci bakışta ayrıntılı açıklamalarıyla gözümüze çarpıyor. İstikrarlı beslenme adımını verirken neler yememiz ne yapmamız konusunda bize rehber niteliğinde karşılıklar veriyor alışılmış ki bunu da kullanıcıların geri bildirimine ve data kümelerinin gelişmiş olmasına bağlı.

Bir karşılığı beğenmediğiniz yahut uygunsuz bulduğunuz vakit geribildirim yani “feedback” atmanız çok değerli. Neden mi? Zira daha evvel de bahsettiğimiz üzere, GPT temelinin birçok buna bağlı. İnsan tabanlı öğrenme modeli, size daha gelişmiş karşılıklar sunmasına imkan tanıyor. Yani GPT’yi aslında kendiniz eğitiyorsunuz.

Kaynaklar: Zapier, TechTarget

İlginizi çekebilecek başka yapay zekâ içeriklerimize aşağıdan ulaşabilirsiniz: