Artık ChatGPT’ye açık kaynaklı bir alternatif var, ancak çalıştırırken iyi şanslar • Tmzilla

OpenAI’nin ChatGPT’sinin ilk açık kaynak eşdeğeri geldi, ancak onu dizüstü bilgisayarınızda çalıştırırken iyi şanslar – veya hiç.
Bu hafta, Meta’nın Make-A-Video’su da dahil olmak üzere kapalı kaynaklı AI sistemlerinin tersine mühendislikten sorumlu geliştiricisi Philip Wang, ChatGPT’ye benzer şekilde davranan bir metin oluşturma modeli olan PaLM + RLHF’yi piyasaya sürdü. Sistem, Google’ın geniş bir dil modeli olan PaLM ile İnsan Geri Bildirimi ile Güçlendirmeli Öğrenim (kısaca RLHF) adlı bir tekniği bir araya getirerek, e-posta taslağı hazırlamak ve bilgisayar kodu önermek de dahil olmak üzere ChatGPT’nin yapabileceği hemen hemen her görevi yerine getirebilen bir sistem oluşturur.
Ancak PaLM + RLHF önceden eğitilmemiştir. Diğer bir deyişle, sistem, gerçekten çalışması için gerekli web’den alınan örnek veriler üzerinde eğitilmemiştir. PaLM + RLHF’yi indirmek, ChatGPT benzeri bir deneyimi sihirli bir şekilde yüklemez; bu, modelin öğrenebileceği gigabaytlarca metin derlemeyi ve eğitim iş yükünü kaldıracak kadar sağlam donanım bulmayı gerektirir.
ChatGPT gibi, PaLM + RLHF de temelde kelimeleri tahmin etmek için istatistiksel bir araçtır. Eğitim verilerinden muazzam sayıda örnek beslendiğinde – örneğin, Reddit gönderileri, haber makaleleri ve e-kitaplar – PaLM + RLHF, çevreleyen metnin anlamsal bağlamı gibi kalıplara dayalı olarak kelimelerin oluşma olasılığının ne olduğunu öğrenir.
ChatGPT ve PaLM + RLHF, dil modellerini kullanıcıların başarmalarını istedikleri şeyle daha iyi hizalamayı amaçlayan bir teknik olan İnsan Geri Bildirimiyle Güçlendirmeli Öğrenmede özel bir sos paylaşır. RLHF, bir dil modelinin (PaLM + RLHF durumunda, PaLM) eğitilmesini ve insan gönüllülerin modelden bekledikleriyle eşleştirilmiş istemleri (ör. “Makine öğrenimini altı yaşındaki bir çocuğa açıklayın”) içeren bir veri kümesi üzerinde ince ayarının yapılmasını içerir. (örneğin, “Makine öğrenimi bir yapay zeka biçimidir…”). Daha sonra yukarıda belirtilen istemler, birkaç yanıt oluşturan ince ayarlı modele beslenir ve gönüllüler tüm yanıtları en iyiden en kötüye doğru sıralar. Son olarak, sıralamalar, orijinal modelin yanıtlarını alan ve bunları tercih sırasına göre sıralayan, belirli bir soruya en iyi yanıtları filtreleyen bir “ödül modeli” yetiştirmek için kullanılır.
Eğitim verilerini toplamak pahalı bir süreçtir. Ve eğitimin kendisi ucuz değil. PaLM, 540 milyar parametre boyutundadır, “parametreler” eğitim verilerinden öğrenilen dil modelinin bölümlerine atıfta bulunur. 2020’de yapılan bir çalışma, yalnızca 1,5 milyar parametreyle metin üreten bir model geliştirmenin masraflarını 1,6 milyon dolara kadar sabitledi. 176 milyar parametreye sahip açık kaynak modeli Bloom’u eğitmek ise 384 Nvidia A100 GPU kullanılarak üç ay sürdü; tek bir A100’ün maliyeti binlerce dolar.
PaLM + RLHF boyutunda eğitimli bir model çalıştırmak da önemsiz değildir. Bloom, yaklaşık sekiz A100 GPU’lu özel bir bilgisayar gerektirir. OpenAI’nin yaklaşık 175 milyar parametreye sahip metin üreten GPT-3’ünü tek bir Amazon Web Hizmetleri eşgörünümünde çalıştırmanın maliyetinin yılda yaklaşık 87.000 ABD Doları olduğunu bulan en basit matematikle birlikte bulut alternatifleri pahalıdır.
Bir AI araştırmacısı olan Sebastian Raschka, PaLM + RLHF ile ilgili bir LinkedIn gönderisinde, gerekli geliştirici iş akışlarını ölçeklendirmenin de zor olabileceğini belirtiyor. “Birisi size bu modeli eğitmeniz için 500 GPU sağlasa bile, yine de altyapıyla uğraşmanız ve bununla başa çıkabilecek bir yazılım çerçevesine sahip olmanız gerekir” dedi. “Elbette mümkün, ancak şu anda büyük bir çaba (elbette, bunu daha basit hale getirmek için çerçeveler geliştiriyoruz, ancak yine de önemsiz değil).”
Bu, PaLM + RLHF’nin bugün ChatGPT’nin yerini almayacağı anlamına gelir – iyi finanse edilen bir girişim (veya kişi) onu eğitme ve halka açık hale getirme zahmetine girmediği sürece.
Daha iyi bir haberimiz var, ChatGPT’yi kopyalamaya yönelik diğer birkaç çaba hızlı bir şekilde ilerliyor, bunlardan biri CarperAI adlı bir araştırma grubu tarafından yürütülen bir girişim. Açık yapay zeka araştırma kuruluşu EleutherAI ve Scale AI ve Hugging Face startup’ları ile ortaklaşa CarperAI, insan geri bildirimiyle eğitilmiş ilk çalışmaya hazır, ChatGPT benzeri yapay zeka modelini piyasaya sürmeyi planlıyor.
Stable Diffusion’ı eğitmek için kullanılan ilk veri setini sağlayan kâr amacı gütmeyen kuruluş LAION, aynı zamanda en yeni makine öğrenimi tekniklerini kullanarak ChatGPT’yi çoğaltma projesine öncülük ediyor. LAION iddialı bir şekilde, yalnızca e-postalar ve ön yazılar yazan değil, aynı zamanda “anlamlı işler yapan, API’leri kullanan, bilgileri dinamik olarak araştıran ve çok daha fazlasını yapan” bir “geleceğin asistanı” oluşturmayı hedefliyor. Erken aşamalarda. Ancak proje için kaynakların bulunduğu bir GitHub sayfası birkaç hafta önce yayına girdi.