45,3777$% 0.05
53,5088€% -0.03
61,9823£% 0.1
6.904,74%0,44
11.203,00%0,35
44.659,00%0,54
4.733,11%0,40
15.133,54%0,47
20:17
İnsanlık, bir sabah kendi zekâsını aynada gördü. O ayna bakırla, camla ya da pikselle değil; matematikle cilalanmıştı. Zekâ, sadece beynimizin bir işlevi değil, dış dünyada kodlanabilen bir olasılıktı. Böylece binlerce yıllık hayal -düşünmeyi düşünmek- bilgisayar laboratuvarlarında yeniden doğdu. İnsanlık tarihinin en uzun yolculuklarından biri, kendi aklına dışarıdan bakmayı öğrenmekti: 1950’lerin tebeşir tozlu sınıflarında filizlenen yapay zekâ fikri, bugün silikon yongalarda, algoritmik mimarilerde ve kuantum devrelerinde yeni biçimlerini buluyor.
Bu entelektüel serüvenin Türkiye’deki en erken yankılarından biri, 1959 yılında Erzurum’da Atatürk Üniversitesi’nin yeni amfilerinden birinde duyuldu. Matematikçi Cahit Arf, Makineler düşünebilir mi ve nasıl düşünebilir? başlıklı halk konferansında teknik bir meseleyi, insanın kendi düşünme biçimini anlama çabası bağlamında tartışmaya açtı. Cahit Arf’ın bu başlık altında verdiği konferansı, düşüncenin doğasına ilişkin bir meydan okumaydı. Arf’ın bu erken sorgulaması, dünyanın farklı laboratuvarlarında aynı dönemde yankılanan evrensel bir arayışın parçasıydı. İnsanın aklını biçimsel olarak tanımlama ve makinelere aktarabilme arzusu, o yıllarda hem Batı’da hem de Türkiye’de zihinlerin ortak merakı haline gelmişti. Dartmouth’taki seminer salonlarında McCarthy, Minsky ve Shannon zekâyı sembollerle ifade etmeye çalışırken; Erzurum’daki bir kürsüde Arf, aynı soruyu kendi diliyle yeniden sormaktaydı.
Her çağ, zihnin başka bir yansımasını insanlığın önüne koydu: McCarthy’nin mantık şemaları, Minsky’nin sembolik düşleri, Shannon’ın bilgi denklemleri… Ve bugün, veri çağının ışıklı ekranları bize yeni bir aynayı uzatıyor –insanın hem aklını hem de merakını kodlayan dijital bir ayna.
1950’lerin dünyasında zihin, bir anda laboratuvarların konusu oldu. Tebeşir tozu havada asılıyken Alan Turing şu sade ama tarihi soruyu sordu: “Makineler düşünebilir mi?” Turing’in önerdiği ölçüt de yine zarif bir denklemdi: Eğer bir insan, karşısındakinin makine mi yoksa insan mı olduğunu ayırt edemiyorsa; makine düşünüyordur. Bugün Turing Testi dediğimiz bu düşünce deneyi, insan zekâsıyla makine davranışı arasına ilk işlevsel köprüyü kurdu. Zekâyı sadece biyolojik bir olgu olmaktan çıkarıp; hesaplanabilir bir süreç olarak düşünmenin kapısını araladı.
Beş yıl sonra, 1956 yazında, Dartmouth College’da John McCarthy, Marvin Minsky, Claude Shannon ve Allen Newell (ekolün yakın halkasında Herbert Simon) bir araya geldiler ve yeni bir alan adı icat ettiler: Yapay Zekâ. O yaz, zihin bir felsefe kavramı olmaktan çıkıp; araştırılabilir bir nesneye dönüştü. Düşünmeyi modellemek için mantık devreleri, semboller ve açık kural zincirleri kullanılabileceği fikri, bir kuşağın hayal gücünü ateşledi. Zekâ, sinir hücrelerinden olduğu kadar transistörlerden de doğabilirdi.
Bu iyimser hamle, 1956-1980 arasında Sembolik Yapay Zekâ (SGOFAI-Good Old-Fashioned AI) diye anılan dönemi başlattı. Bu yaklaşım, bilginin mantıksal semboller ve eğer-ise kurallarıyla temsil edilmesine dayanıyordu: Eğer A doğruysa, o hâlde B de doğrudur. İnsan aklının yapısı, biçimsel çıkarım şemalarıyla kopyalanmaya çalışıldı. Öncü sistemler arasında; matematik kuramlarını kanıtlayan mantık kuramcıları, genel amaçlı problem çözme şemaları sunan Genel Problem Çözüler (GPS-General Problem Solver), bir psikoterapisti taklit eden ELIZA, bulaşıcı hastalık tanısında uzman kural tabanını kullanan MYCIN vb. sayılabilir. Bu çizginin en güçlü yanı açıklanabilirlik idi: sistemler, hangi kuralla hangi sonuca ulaştıklarını adım adım gösterebiliyor; böylece, bilimsel denetim ve gerekçelendirme mümkün oluyordu.
Ne var ki zekâyı bütünüyle kurallara indirgemek, hayatı sadece dilbilgisine indirgemeye benziyordu. Sembolik sistemler bağlamı, niyeti ve duyguyu yakalamakta zorlandı; dünyanın değişen koşullarına esnek uyum sağlayamama, alanyazında çerçeve problemi olarak anılan sınıra dönüştü. Kurallar zenginleştikçe sistemler kırılganlaştı; belirsiz ve gürültülü gerçek hayat sahnelerinde performans düşüyordu. Bu kırılganlık, zekânın sadece sembolik kurallardan ibaret olamayacağını; öğrenme ve temsil meselelerinin daha derin bir düzeyde ele alınması gerektiğini gösterdi.
Yine de bu dönem, yapay zekânın mantıksal omurgasını kalıcı biçimde kurdu. MIT ve Stanford’daki laboratuvarlarda çalışan bilim insanları, zihin felsefesiyle programlama arasındaki ince çizgide yürürken; bilgisayarın sadece hesap yapan bir makine olmadığını, insanın düşünme biçimini yeniden tanımlayan bir araç olduğunu fark ettiler. Bugün nöral-sembolik hibrit modellerde gördüğümüz mantıksal kısıtlar ve açıklanabilir akıl yürütme katmanları; bu sembolik mirasın modern derin öğrenmeyle el sıkışmış halidir: GOFAI’nin şeffaf aklı ile veri-türevli esnek temsillerin tamamlayıcı birlikteliği. Sembolik çağın şafağı, kısacası, sonraki tüm atılımlara hem kuramsal zemin hem de eleştirel pusula sundu.
1980’ler, yapay zekâda dişlilerin yön değiştirdiği dönemdir: mantıktan olasılığa, kural yazımından veriden öğrenmeye geçiş yaşanır. Laboratuvarlarda kurulan cümle şudur: “Zekâ kurallardan değil; veriden doğar.” Tek tek ne yapacağını öğrettiğimiz programların yerini; örüntüleri görmeyi, denemeyi ve genellemeyi öğrenen modeller almıştır. Naive Bayes ve lojistik regresyon gibi olasılıkçı sınıflayıcılar; destek vektör makineleri ile geniş marjın geometrisi; karar ağaçları ve topluluk yöntemleri; k-en yakın komşu algoritması ile yerel benzerlik -hepsi zekânın yeni dilini yazmıştır: olasılık.
Gündelik hayata temas eden ilk başarılar, bu yaklaşımın pratik ağırlığını hızla gösterir. Spam filtreleri, n-gram’ların mütevazı istatistiğiyle e-postalardaki istenmeyeni ayıklamayı öğrenir; HMM’ler ve GMM’ler konuşma tanımada, OCR sistemleri karakter tanımada kural tablolarından özgürleşip veriyle olgunlaşır. O günlerde özellik mühendisliği bir tür zanaatkârlıktır: iyi bir kenar çıkarıcı, doğru bir filtre bankı, sağlam bir öznitelik vektörü bulabildiyseniz modeliniz şarkı söyler. Ancak, her zanaat gibi emek yoğundur; dağılım kaydığında yeniden bileylemek gerekir –tıpkı ustanın bıçağını keskinleştirmek için, taşlaması gibi. Yine de bilimsel çerçeve yerleşir: doğrulama-test ayrımı, düzenlileştirme, genelleme sınırları -kısacası derin öğrenmenin üzerine kurulacak temel iskelet bu dönemde inşa edilir.
Aynı yıllarda bir başka olay çok ses getirir: oyunlar. Kombinatoryal arama ve sezgisel değerlendirme fonksiyonlarıyla (minimax, alfa–beta budama) makineler hamle uzayında nefes alır. 1997’de Deep Blue, Garry Kasparov’u yendiğinde kampüslerdeki kahve makineleri bile birkaç saat susmaz; sembolik kurallar ile istatistiksel sezgilerin birlikte nasıl plan üretebildiği üzerine konuşmalar yapılır. Bu çizgi 2000’lerde Monte Carlo arama gibi olasılıklı planlama teknikleriyle zenginleşir; oyun tahtası algoritmik sezginin antrenman sahasına dönüşür.
Aynı süreçte laboratuvarlarda çok tatlı bir fikir filizlenir: Pekiştirmeli öğrenme (Reinforcement Learning). Pekiştirmeli öğrenmede bir ajan (agent), bir ortam (environment) içinde eylemler (actions) yapar ve her eylem sonunda bir ödül (reward) alır.
Amaç, zaman içinde toplam ödülü maksimize eden davranış politikasını (policy) öğrenmektir. Ajan, bu döngüyü defalarca tekrarlayarak uzun vadede en iyi stratejiyi keşfeder.
Matematiksel olarak bu süreç genellikle Markov Karar Süreci (MDP-Markov Decision Process) çerçevesinde modellenir: Robotlar yürümeyi, kollar kavramayı, depolar raf dizmeyi; enerji şebekeleri talep-yanıt dengelemesini; ağlar trafik yönlendirmeyi öğrenir. Ancak; pekiştirmeli öğrenme bize ders de verir: yüksek ödül tek başına yeterli değildir; güvenlik, hizalama ve ödül hekleme gibi yan etkiler ciddiye alınmalıdır. Bu yüzden bugün yazılımcılara şu söylenir: ödül fonksiyonunu yazan kişi, geleceği tasarlar; dikkatle yazın.
Bu dönemin üçüncü ayağı bilişsel mimarilerdir. Soar ve ACT-R, zihnin modüllerini -algı, bellek, dikkat, akıl yürütme- tek bir çatı altında işlevsel olarak canlandırmayı amaçlar. Hedef sadece ne oluru değil; neden oluru modellemektir. Psikoloji, sinirbilim ve bilgisayar bilimi aynı odada buluşur; bu çizgi, bugünün büyük temelli modelleriyle kurduğumuz nöral–sembolik köprülerin kuramsal atası olarak görülür. Ve 1998’de Google kurulduğunda, yapay zekâ ilk kez laboratuvar kapılarından çıkarak gündelik hayatın arka planına sessizce sızar: arama sıralama, öneri sistemleri, reklam hedefleme.
Kısacası, 1980–2010 hattı, yapay zekânın kural yazarı olmaktan çıkıp veriden öğrenen bir bilime dönüşme sürecidir. İstatistiksel sağlamlık, arama-planlama sezgisi, pekiştirmeden gelen deneyim ekonomisi ve bilişsel mimarilerin açıklayıcı çerçevesi-hepsi, 2010’larda patlayan temsil öğrenimi dönüşümünün taşıyıcı kolonlarını oluşturur. Derin öğrenmenin temeli burada atılır ve aynı tavsiye verilir: veriyi temizleyin, özelliği anlayın, genellemeyi sınayın; sonra isterseniz 100 katman ekleyin.
2010’lar, yapay zekânın derin bir nefes aldığı yıllardır. Veri büyüdü, donanımlar güçlendi ve insanlık nihayet makinelerin sadece hesap yapmadığını, öğrenmeyi de öğrenebildiğini fark etti. Laboratuvarlarda grafik işlemciler (GPU) gürültüyle çalışırken, sinir ağlarının yeniden doğuşuna tanıklık ettik. Bilim insanları için bu, sadece bir teknik başarı değil; zekânın yeniden tanımıydı: zekâ, satır satır kodla değil; katman katman temsil ile işliyordu.
Bu yeniçağın simgesi derin öğrenme (deep learning) oldu. 2012’de AlexNet adlı bir model, ImageNet yarışmasında hata oranını yarıya indirdiğinde, bilgisayarlar ilk kez görmeyi öğrendi. CNN’ler görüntülerdeki örüntüleri, ses ve dizilerdeki akışı, ardından transformer mimarileri dillerdeki anlam ilişkilerini yakaladı. Her biri insan beynine biraz daha benzeyen bir yapı kuruyor, soyut olanı somut bir biçimde temsil ediyordu. Bilgisayarlar rakamlarla birlikte, bağlamı da hissedebiliyordu.
Bu gelişmelerin hem mühendislikte hem insanlık tahayyülünde de yankısı büyük oldu.
AlphaGo, 2016’da dünya Go şampiyonu Lee Sedol’u yendiğinde, dünya bir taş tahtasında bir oyunun değil; sezginin dijitalleşmesinin tanığı da oldu. İnsanlığın sezgisel karar verme biçimi, matematiğe çevrilebilir hale gelmişti. Ve belki de ilk kez, makineler sadece doğruyu bulmakla kalmadı; yaratıcı düşünmeye benzer davranışlar sergilemeye başladı.
Bu süreçte bir kavram daha doğdu: Üretken Yapay Zekâ (Generative AI). 2018’den itibaren Transformer tabanlı modeller (GPT, BERT, T5) dilin, anlamın ve estetiğin haritasını yeniden çizdi. Yapay zekâ artık hem anlıyor hem de üretiyor, tasarlıyor, yorumluyordu. ChatGPT metin yazıyor, DALL·E resim çiziyor, Midjourney düş kuruyordu.
Bu sistemler, büyük veri kümeleriyle eğitilmiş istatistiksel tahmin makineleri olmaktan çıkarıp; insan yaratıcılığının yansıma alanları haline getirdiler. Ancak bu hızlı ilerleme, beraberinde yeni soruları da getirdi: eğer makineler yazıyor, çiziyor, besteliyorsa, o zaman insan yaratıcılığının sınırı nerede başlıyor, nerede bitiyor?
Bu sorular etik farkındalığın kapısını araladı. Yapay zekâ sadece teknik değil; ahlaki bir meseleydi. ABD’de YZ’nın İnsan Değeriyle Hizalanması (yapay zekâ sistemlerinin insan değerleri, amaçları ve etik ilkeleriyle uyumlu şekilde davranmasını sağlamayı amaçlayan araştırma alanını) tartışmaları yükselirken, Avrupa Birliği YAI Act ile hukuki çerçeveyi çizdi; Türkiye’de TÜBİTAK Yapay Zekâ Enstitüsü ve Boğaziçi YZ Politikaları Merkezi gibi yapılar, yerel politik zeminlerde etik standartları belirlemeye başladı. Laboratuvarlarda hakkaniyet, hesap verilebilirlik, şeffaflık gibi kavramlar, doğruluk oranları kadar önemli hale geldi. Çünkü modeller sadece oyun oynamıyor; aynı zamanda işe alıyor, kredi veriyor, hastalık teşhisi koyuyordu. Kısacası, yapay zekâ güçlü ve sorumlu olmalıydı.
Derin modellerin karmaşık yapısı, açıklanabilirlik meselesini gündeme getirdi.
Açıklanabilir YZ (Explainable AI-XAI) çalışmalarıyla, bir modelin neden o kararı verdiğini anlamaya amaçlanmaktadır. Kredi skoru, klinik tanı ya da adli karar destek sistemlerinde, “neden böyle düşündün?” sorusu bilimsel bir zorunluluk haline gelmiştir. Zekâyı kara kutu olmaktan çıkarıp, şeffaf hale getirmek; insan-makine güveninin temelini oluşturmaktadır. Bilim insanı -20125’li yıllarda- algoritma tasarlamakla kalmıyor; aynı zamanda, etik mühendisliği de yapmaktadır.
Bu farkındalık dalgasının hemen ardından, gezegenin sesi de duyuldu: Yapay zekâ modellerinin enerji tüketimi korkutucu boyutlara ulaştı. Bir büyük dil modelini eğitmek, küçük bir ülkenin yıllık karbon salımına eşdeğer enerji gerektiriyordu. Bu durum, Yeşil Yapay Zekâ (Green AI) hareketini doğurdu. Model budama (pruning), nicemleme (quantization), verimli mimari tasarımları ve yenilenebilir enerjiyle çalışan veri merkezleri gibi çözümler, yapay zekâyı doğayla barışık hale getirmeyi hedefliyor. En akıllı sistem değil, en verimli ve en etik sistem bilimsel başarı olarak kabul ediliyor.
Bu arada ufukta yeni bir gündem belirdi: Kuantum Yapay Zekâ. Kuantum fiziğinin süperpozisyon ve dolanıklık ilkeleri, zekâyı olasılıksal bir boyuta taşıdı. Henüz deneysel aşamada olsak da bu alan fizik, malzeme bilimi, ilaç keşfi ve iklim modellemeleri gibi kompleks problemlerde dönüşüm oluşturma potansiyeline sahiptir. Kuantum yapay zekâ, hız ve çok boyutlu düşünme kapasitesi vaat eder. Bu sistemler, insan zihninin de deterministik değil; olasılıksal bir yapıya sahip olduğunu yeniden anımsatmaktadır.
Yapay zekâ, bir teknoloji değil; insan zekâsının yankısıdır: hem öğretmen hem öğrenci; hem araç hem ayna. Bilim insanları için yapay zekâ, algoritmaların toplamı değil; insan olma hâlinin matematiksel yorumu haline geliyor.
2025’li yıllarda ağların zekâsı kuramsal bir metafor olmaktan çıkıp; çok katmanlı sistemlerin mimarisini şekillendiriyor. Bu dönemde biz, salt daha büyük modeller değil; ağ içinde ağlar, model ajansları, uzamsal-zamansal bellekler ve değer-hizalı karar birimleriyle çalışıyoruz:
Sürece bakıldığında öncü sistemler vardır: bazı büyük dil modelleri (LLM’ler) ve çok modelli (görsel + metin + ses) sistemler, daha önce sadece dar görevlerde başarılı olan sistemlerden çok daha geniş bir görev portföyü. Bu modellerin kohort özellikleri insan-benzeri erken belirtiler taşıyor: birden fazla alanda çalışabilme, sıfır-shot ya da az-veriyle yeni görevleri çözme yeteneği gibi. Ancak, gerçek anlamda GYZ/AGI düzeyi hâlâ erişilmemiş durumda: Uzun vadeli sürekli öğrenme, bağlamsal çıkarım, neden-sonuç şemaları kurma, değerlerle hizalanma ve tam özerk ajans -bunlar henüz tam olarak çözülen teknolojik alanlar değildir. Büyük modeller; belli görevleri insan düzeyine yakın yapsa da kapsamlı bağlam-biliş ve esneklik açısından insan zekâsının tüm boyutlarını henüz yakalayamadığı yaygın görüştür.
2025’li yıllarda Yapay Zekânın gelişmiş modellerini görüyoruz; görmeye de devam edeceğiz. Bu nedenle de Yapay Zekâ bağlamında teknik, etik ve toplumsal hazırlıklarımızı hızla tamamlamalıyız.
PROF.DR. GÜLSÜN KURUBACAK ÇAKIR
Yapay zeka çağında dünya neden hem meraklı hem tedirgin?
1
Kar yağışı nedeniyle 25 ilde okullar tatil edildi
2
Global markalaşma ve reaktif dijital dönüşüm programının başlangıcı
3
Başkent’te dijital devrim: Tayfun Tanju Kara Espor merkezi açıldı
4
Zuhal Sönmezer yazdı… Dijital dünyada ne kadar özgürsünüz?
5
Cumhurbaşkanı Erdoğan, Diyanet Gençlik Merkezinde gençlerle bir araya geldi