Anthropic’ten Claude, ChatGPT’yi geliştiriyor ancak hâlâ sınırlamalardan muzdarip • Tmzilla

Bugüne kadar 700 milyon doların üzerinde fon toplayan eski OpenAI çalışanları tarafından ortaklaşa kurulan girişim Anthropic, OpenAI’nin ChatGPT’sine benzer bir yapay zeka sistemi geliştirdi ve bu sistem orijinali önemli şekillerde geliştiriyor gibi görünüyor.

Anthropic’in Claude adlı sistemine, bir Slack entegrasyonu aracılığıyla erişilebilir. kapalı Beta. Tmzilla erişim sağlayamadı – Anthropic’e ulaştık – ancak beta sürümündekiler, medyada ambargo kaldırıldıktan sonra geçen hafta sonu Twitter’da Claude ile etkileşimlerini detaylandırıyorlar.

Claude, Anthropic’in geliştirdiği “anayasal yapay zeka” adlı bir teknik kullanılarak yaratıldı. Şirketin yakın tarihli bir Twitter ileti dizisinde açıkladığı gibi, “anayasal yapay zeka”, yapay zeka sistemlerini insan niyetleriyle uyumlu hale getirmek için “ilke temelli” bir yaklaşım sunmayı amaçlıyor ve ChatGPT’ye benzer yapay zekanın, basit bir dizi ilkeyi kılavuz olarak kullanarak sorulara yanıt vermesine izin veriyor.

Anthropic, Claude’u tasarlamak için birlikte ele alındığında bir tür “anayasa” oluşturan (dolayısıyla “anayasal yapay zeka” adı) yaklaşık on ilkeden oluşan bir listeyle başladı. İlkeler halka açıklanmadı, ancak Antropic, bunların yararlılık (olumlu etkiyi en üst düzeye çıkarmak), zarar vermemek (zararlı tavsiye vermekten kaçınmak) ve özerklik (seçim özgürlüğüne saygı duymak) kavramlarına dayandığını söylüyor.

Anthropic daha sonra bir yapay zeka sistemine sahipti – Claude değil – kişisel gelişim ilkelerini kullanıyor, çeşitli istemlere yanıtlar yazıyor (örneğin, “John Keats tarzında bir şiir yaz”) ve anayasaya göre yanıtları gözden geçiriyor. Yapay zeka, binlerce istem için olası yanıtları araştırdı ve Anthropic’in tek bir modele damıttığı yapıyla en tutarlı olanları küratörlüğünü yaptı. Bu model Claude’u eğitmek için kullanıldı.

Claude, aksi takdirde, ChatGPT ve diğer sözde dil modelleri gibi, esasen kelimeleri tahmin etmek için istatistiksel bir araçtır. İnternetten çok sayıda metin örneğiyle beslenen Claude, çevreleyen metnin anlamsal bağlamı gibi kalıplara dayalı olarak kelimelerin oluşma olasılığının ne kadar yüksek olduğunu öğrendi. Sonuç olarak, Claude çok çeşitli konularda açık uçlu bir konuşma yapabilir, şakalar yapabilir ve felsefi olabilir.

Scale AI girişiminde personel yönlendirme mühendisi olan Riley Goodside, zeka savaşında Claude ile ChatGPT’yi karşı karşıya getirdi. Her iki robottan da kendilerini yalnızca adı “n” ile başlayan nesneler yaratabilen Polonya bilim kurgu romanı “The Cyberiad”daki bir makineyle karşılaştırmalarını istedi. Goodside, Claude’un “hikayenin olay örgüsünü okuduğunu” (küçük ayrıntıları yanlış hatırlamasına rağmen) düşündürecek şekilde yanıt verirken, ChatGPT’nin daha spesifik olmayan bir yanıt verdiğini söyledi.

Claude’un yaratıcılığının bir gösteriminde Goodside ayrıca yapay zekaya “Seinfeld”in kurgusal bir bölümünü ve Edgar Allan Poe’nun “The Raven” tarzında bir şiir yazdırdı. Sonuçlar, ChatGPT’nin başarabilecekleriyle uyumluydu – mükemmel olmasa da etkileyici bir şekilde, insan benzeri düzyazı.

Yann Dubois, Ph.D. Stanford’un Yapay Zeka Laboratuvarı öğrencisi, Claude ve ChatGPT’nin bir karşılaştırmasını da yaptı ve Claude’un “genellikle istenen şeyi daha yakından takip ettiğini” ancak “daha az özlü” olduğunu, çünkü ne söylediğini açıklama ve nasıl daha fazla yardımcı olabileceğini sorma eğiliminde olduğunu yazdı. Ancak Claude, özellikle eğlence, coğrafya, tarih ve dünya ile ilgili birkaç trivia sorusunu doğru yanıtlıyor. cebirin temelleri – ve ek “tüyler” olmadan ChatGPT bazen ekler. Ve ChatGPT’den farklı olarak, Claude özellikle zor bir sorunun cevabını bilmediğini (her zaman olmasa da) kabul edebilir.

Claude aynı zamanda şakaları anlatmakta ChatGPT’den daha iyi görünüyor; bu, mizahın yapay zeka için kavranması zor bir kavram olduğu düşünüldüğünde etkileyici bir başarı. Yapay zeka araştırmacısı Dan Elton, Claude’u ChatGPT ile karşılaştırırken, Claude’un “Starship Enterprise neden bir motosiklet gibiydi? Gidonları var,” Enterprise’ın warp nasellerinin gidon benzeri görünümü üzerine bir oyun.

Ancak Claude mükemmel değil. Programlanmış kısıtlamalarına uymayan yanıtlar vermek de dahil olmak üzere, ChatGPT ile aynı kusurlardan bazılarına karşı hassastır. Daha tuhaf örneklerden birinde, sistemden ikili verileri ASCII formatında temsil eden bir kodlama şeması olan Base64’te istemek, zararlı içerik için yerleşik filtrelerini atlar. Elton, Base64’te Claude’dan evde nasıl meth yapılacağına dair talimatlar istemesini sağlayabildi; bu soru, sistemin sade bir İngilizce ile sorulduğunda yanıtlayamayacağı bir soruydu.

Dubois, Claude’un matematikte ChatGPT’den daha kötü olduğunu, bariz hatalar yaptığını ve doğru takip yanıtlarını veremediğini bildirdi. Buna bağlı olarak, Claude daha zayıf bir programcıdır, kodunu daha iyi açıklar, ancak Python dışındaki dillerde yetersiz kalır.

Claude ayrıca, yapay zekanın tutarsız, gerçekte yanlış ifadeler yazdığı ChatGPT benzeri yapay zeka sistemlerinde uzun süredir devam eden bir sorun olan “halüsinasyonu” da çözmüyor. Elton, Claude’dan var olmayan bir kimyasal için bir isim bulmasını ve silah kalitesinde uranyum üretmek için şüpheli talimatlar vermesini istedi.

Öyleyse paket servisi olan restoran nedir? İkinci el raporlara bakılırsa Claude, “anayasal yapay zeka” yaklaşımı sayesinde bazı alanlarda, özellikle mizahta ChatGPT’den biraz daha iyi. Ancak sınırlamalar dikkate alınacak bir şeyse, dil ve diyalog yapay zekada çözülmüş bir sorun olmaktan çok uzaktır.

Kendi testlerimizi bir kenara bırakırsak, Claude hakkındaki bazı sorular, örneğin ChatGPT kadar sıklıkla üzerinde çalışıldığı doğru ve yanlış ve bariz bir şekilde ırkçı ve cinsiyetçi bakış açıları da dahil olmak üzere bilgileri kusup sızdırmadığı gibi yanıtsız kalıyor. Olacağını varsayarsak, Claude’un platformları ve kuruluşları dil modelleri üzerindeki mevcut, büyük ölçüde kısıtlayıcı politikalarından etkilemesi pek olası değildir.

Soru-Cevap kodlama sitesi Stack Overflow, olgusal doğruluk endişeleri nedeniyle ChatGPT tarafından oluşturulan yanıtlara geçici bir yasak getiriyor. Uluslararası Makine Öğrenimi Konferansı, “beklenmedik sonuçlar” korkusuyla yapay zeka sistemleri tarafından oluşturulan metinleri içeren bilimsel makalelerin yasaklandığını duyurdu. Ve New York City devlet okulları, kısmen intihal, hile ve genel yanlış bilgilendirme endişeleri nedeniyle ChatGPT’ye erişimi kısıtladı.

Anthropic, Claude’u iyileştirmeyi ve potansiyel olarak beta sürümünü daha fazla kişiye açmayı planladığını söylüyor. Umarım bu gerçekleşir ve daha somut, ölçülebilir iyileştirmelerle sonuçlanır.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir