8000 GitHub - eonurk/eksiGPT: Kaliteli ekşi girdileri oluşturan bir hede
[go: up one dir, main page]
More Web Proxy on the site http://driver.im/
Skip to content

eonurk/eksiGPT

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

12 Commits
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

EksiGPT

Herkese merhaba! Bu projenin amacı bir yapay bir Ekşi Sözlük kullanıcısı yaratmak.

Bunu yapmak için Generative Pre-trained Transformer (GPT) modelini hep beraber oluşturacağız yani kodunu yazacağız. Bunu da YouTube'da yapacağımız bir video serisi ile birlikte gerçekleştireceğiz.

Verisetimiz 700 adet ekşiseyler.com'dan indirdiğimiz makalelerden oluşuyor (3.4 Megabyte) yani çok küçük bir veri seti. Ama sonunda minik bir ekşici oluşturmamız için yeterli olacak :)

İlk videoda bir 2-gram modeli oluşturduk ve tahminleri karakter seviyesinde yapıyoruz. Yani bir kelimedeki sonraki karakteri tahmin ediyoruz.

Umarım beğenirsiniz!

Watch the video

Tanıtım ve bigram model'in oluşturulması

Burada ilk videoyu bitirdik! Peki neler ogrendik?

  • Dokümanların içerisindeki karakter sayısı boyutunu belirliyor. Bizim dokümanda 3.5 milyon karakter var yani yaklaşık 3.5 Megabyte.

  • Next token prediction, yani sonraki hece tahmini en önemli fikirlerden biri. Çünkü neyi tahmin etmemiz gerektiğini artık biliyoruz.

  • Normalde heceleri de tahmin edebiliriz ama biz şu anda karakterleri tahmin ediyoruz ve bunları teker teker yapıyoruz. Yani bir önceki harf diğerini takip ediyor. Buna literatürde bigram model deniliyor. Matematiksel olarak da şöyle:

    𝑃(𝑐𝑖∣𝑐1,𝑐2,…,𝑐𝑖−1)≈𝑃(𝑐𝑖∣𝑐𝑖−1)

    yani, bir dökümandaki i sıradaki karakteri tahmin etmek için normalde ondan önceki tüm karakterleri bilmemiz gerekir ama burada sadece i-1 inci karakteri (yani tahmin edilenden sadece bir önceki) bilmenin tüm karakterleri bilmeye eşit olduğunu varsayıyoruz. Tabi bu bi noktaya kadar doğru ve çok da iyi bir model değil! Örneğin 'anen göteğ' tahmin etmesi gibi :D

Watch the video

İkinci videoda dikkat (attention) mekanizmasıni kodluyoruz. Baştan başlayıp attention nasıl çalıştığını anlatıyoruz. Daha fazla bilgi için makaleye buradan göz atabilirsiniz:

Colab linki

Watch the video

Son videoda Transformer modelini oluşturuyoruz! Bu videoda her şeyi bir araya getiriyoruz ve modeli tamamlayıp çalıştırıyoruz. Oluşturduğumuz tahminler data/more2.txt dosyasında. Şimdilik bu kadar!

Genel Bilgiler

Discord Kanalımız: https://discord.gg/abCgk6hMqx

About

Kaliteli ekşi girdileri oluşturan bir hede

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published
0