Eli Kulağında Süper Zekâ Hayali Sonunda Bozuluyor

OpenAI’nin milyarlarca dolarlık yatırım ve üç yıllık çalışmanın ürünü olan en son yapay zekâ sistemi GPT-5’nin çığır açması bekleniyordu. Şirketin CEO’su Sam Altman GPT-5’in, herhangi bir insan uzman kadar akıllı ve esnek olan yapay genel zekânın eşdeğeri olacağını ima ediyordu. Bunun aksine, daha önce de yazdığım gibi, model yetersiz kaldı. Yayınlanmasından sonra saatler içinde eleştirmenler […]

(Yazar)
(Çevirmen)
Eli Kulağında Süper Zekâ Hayali Sonunda Bozuluyor

OpenAI’nin milyarlarca dolarlık yatırım ve üç yıllık çalışmanın ürünü olan en son yapay zekâ sistemi GPT-5’nin çığır açması bekleniyordu. Şirketin CEO’su Sam Altman GPT-5’in, herhangi bir insan uzman kadar akıllı ve esnek olan yapay genel zekânın eşdeğeri olacağını ima ediyordu.

Bunun aksine, daha önce de yazdığım gibi, model yetersiz kaldı. Yayınlanmasından sonra saatler içinde eleştirmenler her çeşit şaşırtıcı hatayı keşfettiler: bazı basit matematik sorularında başarısız oldu, güvenilir bir şekilde sayamıyordu ve eski bilmecelere absürt yanıtlar verdi. Selefleri gibi bu yapay zekâ modeli de hala (daha düşük bir oranda olsa da) halüsinasyon görüyor ve güvenilirliği ile ilgili sorularla boğuşuyor. Her ne kadar bazı insanlar etkilenmiş olsa da, çok az kişi onu önemli bir atılım olarak gördü ve hiç kimse yapay genel zekâ olduğuna inanmadı. Çoğu kullanıcı eski modeli geri istedi.

GPT-5 ileriye doğru bir adımdı ama çoğu kişinin beklediği yapay zekâ devriminden çok uzak. Bu durum, bu teknolojiye hatırı sayılır bir bahis oynayan şirketler ve yatırımcılar için kötü bir haber. Aşırı şişirilmiş beklentiler üzerine inşa edilmiş hükümet politikaları ve yatırımlarının yeniden düşünülmesini de gerektiriyor. Sadece yapay zekâyı daha büyük yapmaya yönelik mevcut strateji bilimsel, ekonomik ve politik açıdan son derece kusurludur. Düzenlemeden araştırma stratejisine kadar birçok şey yeniden düşünülmelidir. Bunun anahtarlarından biri bilişsel bilimlerden esinlenerek yapay zekâ eğitmek ve geliştirmek olabilir.Temelde, Altman , Anthropic CEO’su Dario Amodei gibi sayısız diğer teknoloji liderleri ve yatırımcısı gibi kişiler, ölçeklendirme denilen spekülatif ve kanıtlanmamış bir hipoteze, yapay zekâ modellerini giderek daha fazla veri ile eğitmek ve giderek daha fazla donanım kullanmak eninde sonunda yapay genel zekâya ve hatta insanları aşan bir süper zekâya açacağı fikrine, çok fazla bel bağlıyorlar.

Ancak, 2022 tarihli “Derin Öğrenme Bir Duvara Çarpmak Üzere” başlıklı yazımda uyardığım üzere, sözde ölçeklendirme yasaları yerçekimi gibi evrenin fiziksel yasalarına değil, tarihsel eğilimlere dayanan hipotezlerdir. GPT-5 gibi sistemlerin ardındaki büyük dil modelleri güçlendirilmiş istatistiksel tekrar makinelerinden başka bir şey değildir, tam da bu nedenle gerçeklik, halüsinasyonlar ve çıkarsama ile ilgili sorunlarla karşılaşmayı sürdüreceklerdir. Ölçeklendirme bizi yapay genel zekânın kutsal kasesine ulaştırmayacaktır.

Teknoloji sanayideki çoğu kişi tahminlerime düşmanca yaklaştı. Altman benimle “vasat derin öğrenme şüphecisi” diyerek dalga geçti ve geçen yıl “duvar yok” iddiasında bulundu. Elon Musk yazımla alay eden bir paylaşım yaptı.

Şimdi öyle görünüyor ki ben haklıymışım. İnsan metinlerinden oluşan geniş veritabanlarından öğrenerek metin üretmek için eğitilen büyük dil modellerine daha fazla veri eklemek onların ancak belli bir dereceye kadar iyileşmesine yarıyor. Önemli derecede ölçeklendirilseler bile, maruz kaldıkları kavramları hala tam olarak anlamıyorlar. Bu yüzden bazen yanlış yanıtlar veriyorlar veya gülünç derecede hatalı çizimler yapıyorlar.

ChatGPT çok iyi bir öğretmen. Arabalar hakkında ondan çok şey öğreniyorum.pic.twitter.com/GBEDIrfeys— Gary Marcus (@GaryMarcus) 28 Ağustos 2025

GaryMarcus Araba - Eli Kulağında Süper Zekâ Hayali Sonunda Bozuluyor - 6

— Gary Marcus (@GaryMarcus) 28 Ağustos 2025 

Evet, öğretim gerçekten çok iyi gidiyor. pic.twitter.com/aMM03VzJhd

GaryMarcus Fil - Eli Kulağında Süper Zekâ Hayali Sonunda Bozuluyor - 8

— Gary Marcus (@GaryMarcus) 28 Ağustos 2025

Ölçeklendirme bir süre işe yaradı; önceki nesil GPT modelleri kendilerinden öncekilere göre etkileyici ilerlemeler kaydetti. Ancak geçen yıldan itibaren şans yaver gitmemeye başladı. Musk’ın Temmuz ayında piyasaya sürdüğü yapay zekâ sistemi Grok 4, Grok 2’ye göre 100 kat daha fazla eğitilmişti ancak sadece biraz daha iyiydi. Meta’nın önceki modelinden çok daha büyük olan devasa Llama 4 modeli de çoğunlukla bir başarısızlık olarak görüldü. Birçok kişinin artık gördüğü gibi GPT-5 ölçeklendirmenin ivme kaybettiğini kesin olarak gösteriyor.

Yapay genel zekânın 2027 yılına kadar ortaya çıkma ihtimali artık uzak görünüyor. Hükümet yapay zekâ şirketlerinin neredeyse hiç bir düzenleme olmadan rahat bir şekilde yaşamalarına izin verdi. Artık, yanlış bilgilendirme, deepfake‘ler, yapay zekâ ile üretilmiş düşük kaliteli içerikler, siber suçlar, telif hakkı ihlalleri, ruh sağlığı ve enerji kullanımı gibi konularda, haksız bir şekilde halka yüklenen maliyet ve zararları ele alan yasalar çıkarılması gerekiyor.

Ayrıca hükümetler ve yatırımcılar ölçeklendirme dışındaki araştırma yatırımlarını güçlü bir şekilde desteklemeliler. Bilişsel bilimler (psikoloji, çocuk gelişimi, zihin felsefesi ve dilbilim dahil) bize zekânın sadece istatistiksel taklitten ibaret olmadığını öğretir ve bel bağlanacak kadar güvenilir, çok daha zengin bir zekâya sahip yapay zekâ geliştirmek için üç umut verici fikir önerir.

İlk olarak insanlar sürekli olarak çevrelerindeki insanlar ve nesneler ile bunların nasıl işlediğine dair dünyanın dünyanın içsel modellerini (veya dünya modellerini) oluşturur ve sürdürürler. Örneğin bir roman okuduğunuzda her bir karakterin kim olduğu ve neyi temsil ettiğiyle ilgili bir tür zihinsel veritabanı oluşturursunuz. Bu karakterlerin meslekleri, birbirleriyle ilişkileri, motivasyonları ve hedefleri gibi şeyleri içerebilir. Bir fantezi veya bilim kurgu romanında, bir dünya modeli yeni fiziksel yasalar bile içerebilir.

Üretken yapay zekânın birçok eksikliği, eğitim verilerinden uygun dünya modellerini çıkarmadaki başarısızlıklara bağlanabilir. Bu örneğin en son büyük dil modellerinin satrancın nasıl işlediğini neden tam olarak kavrayamadığını açıklar. Sonuç olarak, ne kadar çok oyunla eğitilirlerse eğitilsinler geçersiz hamleler yapmaya eğilimlidirler. Bize salt insanın dilini taklit eden sistemler değil, dünyayı anlayacak ve onun hakkında derin bir çıkarsama yapabilecek sistemlere ihtiyacımız var. Araştırmanın ana odağı dünya modellerini merkez alan yeni nesil yapay zekâ sistemlerinin nasıl geliştirileceği olmalıdır. Google DeepMind ve Fei-Fei Li’nin World Labs‘ı bu yönde adımlar atıyor.

İkincisi, (büyük dil modellerini destekleyen) makine öğrenmesi alanı, yapay zekâ sistemlerine, hiçbir şeyin yerleşik olmadığı bir ortamda, İnternetten veri toplayarak her şeyi sıfırdan öğrenme görevini vermeyi seviyor. Ancak Steven Pinker, Elizabeth Spelke ve benim gibi bilişsel bilimcilerin vurguladığı gibi insan zihni daha karmaşık kavramları idrak etmemizi sağlayan bazı temel dünya bilgisiyle doğar. Zaman, uzay ve nedensellik gibi temel kavramları sisteme dahil etmek, sistemlerin karşılaştıkları verileri daha zengin başlangıç noktaları olarak daha iyi organize etmelerini sağlayabilir ve bu da potansiyel olarak daha zengin sonuçlara yol açabilir. (Verses AI’nın video oyunlarında fiziksel ve algısal anlayış üzerine yaptığı çalışmalar bu yönde atılmış bir adımdır.)

Son olarak mevcut paradigma her şeyi çözmek için tek bir bilişsel mekanizmaya (büyük dil modeline) dayanarak bir tür tek tip yaklaşım benimsemektedir. Ancak biliyoruz ki insan zihni birçok farklı türdeki problem için birçok farklı araç kullanır. Örneğin, ünlü psikolog Daniel Kahneman, insanların hızlı, refleksif ve otomatik olan ve büyük ölçüde deneyim istatistiklerine dayanan, ancak yüzeysel ve hatalara eğilimli bir düşünce sistemi ile birlikte daha çok soyut çıkarsama ve bilinçli düşünceye dayanan ancak yavaş ve zahmetli olan ikinci bir sistemi kullandığını öne sürmüştür. İlk sisteme biraz benzeyen büyük dil modelleri her şeyi tek bir istatistiksel yaklaşımla yapmaya çalışır ancak sonuçta güvenilmez olurlar.

Kahneman’nın tanımladığına daha yakın yeni bir yaklaşıma ihtiyacımız var. Bu, (büyük dil modellerinin dayandığı) istatistiksel olarak yönlendirilen sinir ağları ile sembolik yapay zekâdan gelen bazı eski fikirleri birleştiren nörosembolik yapay zekâ şeklinde olabilir. Sembolik yapay zekâ, doğası gereği daha soyut ve düşünsel bir yapıya sahiptir; mantık, cebir ve bilgisayar programlamadan esinlenerek bilgileri işler. Bu iki geleneğin birlikteliğini uzun zamandır savunuyorum. Amazon ve Google DeepMind gibi şirketlerin giderek daha fazla bu tür bir melez yaklaşım benimsediğini de görüyoruz. (OpenAI bile sessizce bu yönde adımlar atıyor gibi görünüyor.) Bu on yılın sonunda, nörosembolik yapay zekâ, saf ölçeklendirmeyi gölgede bırakabilir.

Büyük dil modelleri insanların doğrudan bir parçası olduğu özellikle kodlama, yazma ve beyin fırtınası gibi alanlarda kullanılıyorlar. Ancak ne kadar büyük hale getirirsek getirelim, hiçbir zaman güvenimize layık olamadılar. Gerçekten güvenebileceğimiz bir yapay zekâ inşa etmek ve yapay genel zekâyı denemek için ölçeklemenin tuzaklarından kaçınmamız gerekiyor. Yeni fikirlere ihtiyacımız var. Bilişsel bilimlere geri dönüş, bu yolculuğun bir sonraki mantıklı aşaması olabilir.

Resimlerin kaynağı Getty Images’tir.

Gary Marcus, New York Üniversitesi’nde emeritus profesördür ve Geometric Intelligence’ın kurucusu ve genel müdürüdür. En son kitabı “Silikon Vadisini Ehlileştirmek”. Yapay zekâ hakkında bir bülten yayınlıyor.
Kaynak: The New York Times, 3 Eylül 2025

Sitemizde yer alan çeviri ve yazılardaki tüm görüşler kolektifimizin fikirlerini yansıtmayabilir. Bu yazıları, bilişim alanındaki gelişmeleri Marksist bir perspektifle ele almayı mümkün kılacak katkılar sunduğu için seçip yayımlıyoruz.