Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Zaten bir üyeliğiniz mevcut mu ? Giriş yapın
Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Üyelerimize Özel Tüm Opsiyonlardan Kayıt Olarak Faydalanabilirsiniz
Son yıllarda yapay zeka modellerinin insan düşüncesi ve davranışını taklit etmedeki ilerlemeleri, bu modellerin sosyal etkileşim becerilerini de tartışmalı hale getirdi. Bu konudaki en yeni araştırma, dünyanın önde gelen dergisi Nature Human Behaviour‘da yayınlandı ve GPT-4’ün bazı sosyal zeka alanlarında insanları geride bıraktığını ortaya koydu.
Çalışmada, araştırmacılar GPT-4, GPT-3.5 ve LLaMA2 model ailelerinin performansını, zihin kuramı testlerinde insan katılımcılarla karşılaştırdı. Zihin kuramı, insanların diğer insanların zihinsel durumlarını anlama ve onların davranışlarını öngörebilme yeteneğini ifade ediyor.
GPT-4, insanların dolaylı istekleri anlamadaki performansını aştı. Örneğin, “Burada biraz sıcak” gibi ifadelerin aslında pencereyi açma isteğini ima ettiğini GPT-4 doğru şekilde çözümledi.
GPT-4, bir karakterin yanlış inancını doğru şekilde tahmin ederek, insanlarla aynı başarıyı gösterdi.
Karakterlerin gerçek niyetlerini gizlediği durumlarda da GPT-4, insan katılımcılarla benzer performans sergiledi.
Buna karşın, bir karakterin söylediği ve aslında söylememesi gereken sözleri, yani “gaf”ları tespit etmede GPT-4 insan seviyesinin altında kaldı. Özellikle, karakterin söylediklerini bilerek mi söylediği, yoksa bilmeyerek mi söylediği konusunda doğru çıkarımlar yapmakta zorlandı.
Araştırmacılar, GPT-4’ün gaf tespitindeki başarısızlığının nedenini, modelin aşırı ihtiyatlı bir yaklaşım sergilemesine bağlıyor. Yani model, doğru çıkarımı yapabiliyor ama bunu kesin olarak ifade etmekten kaçınıyor.
Öte yandan, LLaMA2 modeli ise gaf tespiti testinde insanları geçmeyi başardı. Ancak araştırmacılar, LLaMA2’nin üstünlüğünün yanıltıcı olabileceğini, modelin aslında karakterin bilgisizliğini abartma eğiliminde olduğunu vurguluyor.
Çalışma, yapay zeka modellerinin sosyal zeka becerilerinin sistematik olarak test edilmesinin önemini ortaya koyuyor. Böylece bu modellerin insan benzeri akıl yürütme kapasiteleri ve sınırları daha iyi anlaşılabilecek.
Sonuç olarak, GPT-4 gibi gelişmiş dil modelleri, bazı zihin kuramı becerilerinde insanları aşarken, daha karmaşık sosyal yetilerde hala geliştirilmesi gereken alanlar bulunuyor. Yapay zekanın insan düşüncesini tam olarak taklit edebilmesi için daha fazla araştırma ve ilerlemeler gerekiyor.