Yapay Sinir Ağları (Neural Networks) Nasıl Çalışır?

Yapay Sinir Ağları (Neural Networks) Nasıl Çalışır?

Yapay Sinir Ağı (YSA); insan beyninin bilgi işleme yönteminden ilham alınarak geliştirilen, birbirine bağlı yapay nöronlardan oluşan ve verilerdeki karmaşık örüntüleri öğrenerek tahminlerde bulunan gelişmiş bir makine öğrenimi modelidir. Biyolojik sinir sistemini taklit eden bu algoritmalar; girdi, gizli ve çıktı katmanları aracılığıyla veriyi işleyerek sınıflandırma, tanıma ve karar verme süreçlerini otomatikleştirir.

Peki, Yapay Sinir Ağları (Neural Networks) tam olarak nasıl çalışır? Bu sorunun cevabı, aslında kendi kafatasımızın içinde, biyolojik beynimizin çalışma prensiplerinde gizlidir. İnsan beyni, yaklaşık 100 milyar nöronun trilyonlarca bağlantı (sinaps) kurduğu, evrendeki bilinen en karmaşık yapıdır. Bugün kullandığımız yapay zekâ teknolojileri, bu muazzam biyolojik yapının çok basitleştirilmiş bir matematiksel modelini taklit etmeye çalışır.

Günümüzde, otonom sürüş yapan Tesla araçlarından, kanserli hücreleri doktorlardan daha hızlı tespit eden tıbbi yazılımlara ve bizimle felsefi tartışmalara giren ChatGPT gibi sistemlere kadar her teknolojinin arkasında bu matematiksel yapılar yatmaktadır.

Geleneksel yazılım geliştirme ile YSA arasındaki farkı anlamak kritiktir:

  • Geleneksel Programlama: Bir bilgisayara kuralları siz verirsiniz (Eğer X olursa Y yap). Bilgisayar sadece sizin yazdığınız mantığı uygular.
  • Yapay Sinir Ağları: Bilgisayara kuralları vermezsiniz; ona binlerce örnek (veri) gösterirsiniz. Sistem, “X olduğunda Y olması gerektiğini” kendi içindeki parametreleri ayarlayarak kendisi öğrenir.

Bu öğrenme süreci, modern teknolojinin belkemiği olan Makine Öğrenimi disiplininin en güçlü ve en hızlı gelişen alt dalını oluşturur. Şimdi, bu dijital beynin kaputunu açalım ve içindeki dişlilerin nasıl döndüğüne, derin bir teknik bakış atalım.

Yapay Sinir Ağlarının Temel Mimarisi ve Bileşenleri

Bir yapay sinir ağını anlamak için onu sadece bir yazılım kodu olarak değil yaşayan bir organizma veya devasa bir veri işleme fabrikası gibi düşünmek gerekir. Bu fabrikada ham madde (veri) bir uçtan girer, sayısız banttan ve işlemden (katmanlar) geçer ve diğer uçtan işlenmiş ürün (karar/tahmin) olarak çıkar.

Bu fabrikanın temel bileşenleri şunlardır:

Nöron (Perceptron): Karar Verici Birim

YSA’nın en küçük yapı taşı olan nöronu (veya teknik adıyla Perceptron‘u), küçük ama etkili bir karar verme mekanizması olarak düşünebilirsiniz. Biyolojik nöronların dijital karşılığıdır:

  • Dendritler (Giriş): Veriyi diğer nöronlardan alır.
  • Hücre Gövdesi (İşlem): Gelen veriyi işler.
  • Akson (Çıkış): Sonucu diğer nöronlara iletir.

Yapay nöronda ise bu süreç matematiktir. Bir nöronun görevi basittir: Girdileri al, önem sırasına koy (ağırlıklandır), topla ve bir karar ver.

Matematiksel olarak bu işlem şu formülle ifade edilir:

Nöron (Perceptron): Karar Verici Birim

Bu formül gözünüzü korkutmasın; aslında günlük hayatta sürekli yaptığımız bir işlemdir. Örneğin, bir araba satın alırken fiyatı, markayı, yakıt tüketimini kafanızda çarpar, toplar ve bir “al/alma” kararı verirsiniz. Nöronun yaptığı tam olarak budur.

Katmanlar (Layers): Derinliğin Gücü

Sinir ağları, nöronların rastgele saçıldığı bir yapı değil, düzenli katmanlar halindedir.

  • Giriş Katmanı (Input Layer): Verinin ağa girdiği ilk kapıdır. Buradaki nöron sayısı, verinizin özelliklerine eşittir. Örneğin 28×28 piksellik bir resmi tanıyacak bir ağda, giriş katmanında 784 adet (28 çarpı 28) nöron bulunur. Burada herhangi bir işlem yapılmaz, sadece veri içeri alınır.
  • Gizli Katmanlar (Hidden Layers): “Sihrin” ve asıl hesaplamanın gerçekleştiği yerdir. Neden “gizli” denir? Çünkü bu katmanlar ne ham girdiyi görür ne de son kullanıcıya çıktıyı gösterir; ağın kara kutusudur.
    • Özellik Hiyerarşisi: Gizli katmanlar veriyi hiyerarşik olarak öğrenir. İlk gizli katmanlar resimdeki basit çizgileri veya kenarları tanır. Sonraki katmanlar bu çizgileri birleştirip şekilleri (kare, daire) tanır. Daha derin katmanlar ise bu şekilleri birleştirip karmaşık nesneleri (göz, kulak, tekerlek) algılar. “Derin Öğrenme” (Deep Learning) terimi, işte bu gizli katmanların sayısının çokluğundan gelir.
  • Çıkış Katmanı (Output Layer): İşlenmiş verinin sonuca, yani bizim anlayacağımız bir formata dönüştüğü yerdir. Bir sınıflandırma probleminde (Kedi mi, Köpek mi?), çıkış katmanı her bir sınıf için bir olasılık değeri üretir.

Ağırlıklar (Weights): Bilginin Önem Derecesi

Ağırlıklar, nöronlar arasındaki bağlantıların “gücünü” veya “kalınlığını” temsil eder. Ağın öğrendiği asıl bilgi, veride değil, bu ağırlıkların sayısal değerlerinde saklıdır.

Örnek: Hafta sonu dışarı çıkıp çıkmayacağınıza karar veren bir yapay sinir ağı hayal edin.

  1. Girdi 1: Hava durumu (Güneşli mi?)
  2. Girdi 2: Arkadaşların müsait mi?
  3. Girdi 3: Cüzdanında para var mı?

Eğer sizin için hava durumu çok önemliyse, Girdi 1’in ağırlığı (örneğin 0.9) çok yüksek olacaktır. Arkadaşlarınızın gelip gelmemesi sizin için önemsizse, Girdi 2’nin ağırlığı (örneğin 0.01) sıfıra yakın olacaktır. Sinir ağı eğitim sürecinde, doğru sonuca ulaşmak için hangi girdiye ne kadar “ağırlık” vermesi gerektiğini, deneme-yanılma yoluyla öğrenir.

Sapma (Bias): Tetikleyici Eşik

Ağırlıklar girdilerin önemini belirlerken Bias (Sapma), nöronun ne kadar kolay “ateşleneceğini” (aktif olacağını) belirler. Matematikteki $y = mx + c$ doğrusundaki $c$ sabiti gibidir; grafiği yukarı veya aşağı kaydırır.

Yukarıdaki örneğe dönelim: Hava kötü, arkadaşlarınız yok, paranız az (Girdiler negatif). Ancak siz evde durmayı hiç sevmeyen, dışa dönük birisiniz. İşte buradaki kişisel eğiliminiz Bias değeridir. Girdiler olumsuz olsa bile yüksek bir pozitif bias, nöronun yine de “Dışarı Çık” sinyali üretmesini sağlayabilir. Bias, ağın esnekliğini artırır ve girdiler “0” olsa bile ağın bir çıktı üretebilmesini sağlar.

Yapay Sinir Ağlarının Çalışma Mekanizması: İleri ve Geri Yayılım

Bir YSA’nın “öğrenmesi” aslında bir hata minimize etme sanatıdır. Bu süreç, İleri Yayılım (Tahmin) ve Geri Yayılım (Öğrenme) olmak üzere iki ana döngüden oluşur ve bu döngü milyonlarca kez tekrarlanır.

Adım 1: İleri Yayılım (Forward Propagation) – Tahmin Anı

Veri giriş katmanından girer. Her nöron, kendisine gelen veriyi ağırlıklarıyla çarpar, bias ile toplar ve sonucu bir sonraki katmana iletir. Bu akış, şelale gibi çıkış katmanına kadar devam eder. Başlangıçta ağırlıklar rastgele atandığı için ağın yaptığı ilk tahminler tamamen saçmadır (Örneğin kedi resmine “Tost makinesi” diyebilir).

Buradaki kritik nokta şudur: Doğrusallıktan Kurtulmak. Eğer nöronlar sadece çarpma ve toplama yapsaydı (Lineer işlem), binlerce katmanlı bir ağ kurmak anlamsız olurdu; çünkü sonuç yine tek bir lineer işlem (basit bir regresyon) olurdu. Karmaşık dünyayı modellemek için “eğilip bükülebilen” fonksiyonlara ihtiyacımız vardır. İşte burada devreye Aktivasyon Fonksiyonları girer.

Aktivasyon Fonksiyonları: Ağın Kişiliği

Aktivasyon fonksiyonu, nöronun çıktısını büker, eğer ve sıkıştırır. Bu “Non-lineerlik” (Doğrusal olmama), ağın karmaşık verileri (kıvrımlı grafikler, düzensiz şekiller) öğrenmesini sağlar.

  • Sigmoid: Çıktıyı 0 ile 1 arasına sıkıştırır (“S” şeklinde bir eğri). Genellikle “Evet/Hayır” gibi olasılık kararlarında kullanılır. Ancak derin ağlarda, uç değerlerde türevi sıfıra yaklaştığı için “Kaybolan Gradyan” (Vanishing Gradient) sorununa yol açar ve öğrenmeyi durdurabilir.
  • ReLU (Rectified Linear Unit): Modern yapay zekanın kahramanıdır. Mantığı çok basittir: “Gelen değer negatifse 0 yap, pozitifse olduğu gibi geçir.” İşlem yükü çok hafiftir ve ağın çok hızlı öğrenmesini sağlar. Ancak bazen nöronların tamamen ölmesine (Dead ReLU) neden olabilir.
  • Softmax: Genellikle çok sınıflı sınıflandırma problemlerinde (Bu resim kedi mi, köpek mi, kuş mu?) çıkış katmanında kullanılır. Tüm çıktıları topladığınızda sonucun 1 (yani %100) olmasını sağlar, böylece çıktıyı “olasılık” olarak yorumlayabiliriz.

Adım 2: Hata Hesaplama (Loss Function) – Karne Zamanı

Ağ bir tahmin yaptı: “Bu resim %70 ihtimalle köpek.” Ancak resim bir kediydi (Etiket: 0, Köpek: 1). Ağın tahmini ile gerçek arasındaki bu uçuruma “Hata” (Loss) denir.

Loss Function (Maliyet Fonksiyonu), ağın performansına not veren öğretmendir.

  • Mean Squared Error (MSE): Genellikle sayısal tahminlerde (ev fiyatı gibi) kullanılır.
  • Cross-Entropy Loss: Sınıflandırma problemlerinde (Kedi/Köpek) kullanılır. Amaç, eğitim boyunca bu hata skorunu (Loss) sıfıra en yakın hale getirmektir.

Adım 3: Geri Yayılım (Backpropagation) – Öğrenme Anı

Burası, Derin Öğrenme modellerinin kalbinin attığı yerdir. İleri yayılımda veri baştan sona gitmişti; şimdi ise Hata sondan başa doğru akar. Ağ, hatasını kabul eder ve şu soruyu sorar: “Bu hataya hangi katmandaki, hangi nöron, hangi ağırlık ne kadar sebep oldu?”

Bunu yapmak için matematiksel bir yöntem olan Zincir Kuralı (Chain Rule) kullanılır.

  1. Ağın çıkışındaki hata hesaplanır.
  2. Bu hata, geriye doğru katman katman dağıtılır.
  3. Her bir bağlantının hataya katkısı (Türev/Gradyan) hesaplanır.

Optimizasyon (Gradient Descent): Dağdan İniş

Geri yayılım hatanın kaynağını bulur, Optimizasyon Algoritması (örneğin SGD veya Adam) ise bu hatayı düzeltmek için ağırlıkları günceller.

Bunu sisli, karanlık bir dağın tepesinden (Yüksek Hata) vadiye (Minimum Hata) inmeye benzetebilirsiniz. Gözünüz kapalıdır, sadece ayağınızın altındaki eğimi (gradyan) hissedersiniz.

  • Gradyan (Eğim): Hangi yöne gitmeliyim?
  • Learning Rate (Öğrenme Oranı): Adımım ne kadar büyük olmalı?
    • Çok büyük adımlar atarsanız vadinin dibini ıskalayıp karşı tepeye çıkabilirsiniz.
    • Çok küçük adımlar atarsanız inmeniz yıllar sürer (Eğitim bitmez). Bu döngü (Epoch) binlerce kez tekrarlandığında ağırlıklar en mükemmel hallerine ulaşır ve “öğrenme” tamamlanmış olur.

Yapay Sinir Ağlarında Karşılaşılan Zorluklar

Her şey her zaman mükemmel gitmez. Yapay sinir ağları eğitilirken mühendislerin boğuştuğu iki temel canavar vardır:

  1. Overfitting (Aşırı Öğrenme / Ezberleme): Ağın eğitim verisini o kadar iyi öğrenmesidir ki verideki gürültüyü bile ezberler. Bu durumda eğitim setinde %99 başarı sağlar, ancak daha önce hiç görmediği bir veri geldiğinde çuvallar. Tıpkı sınav sorularını ezberleyip sorunun rakamları değişince çözemeyen öğrenci gibidir. Çözüm için “Dropout” (rastgele nöron kapatma) gibi teknikler kullanılır.
  2. Underfitting (Eksik Öğrenme): Ağın yapısı o kadar basittir ki verideki karmaşık ilişkiyi bir türlü öğrenemez. Hem eğitimde hem testte başarısızdır. Çözüm, ağı derinleştirmek veya daha fazla özellik eklemektir.

Farklı Sinir Ağı Türleri ve Uygulamaları

Tıpkı insan beyninin görme, duyma ve konuşma için özelleşmiş farklı lobları olduğu gibi, yapay zekâ dünyasında da farklı veri tipleri için özelleşmiş sinir ağı mimarileri bulunur. Standart bir ağ her sorunu çözemez; verinin doğasına uygun mimariyi seçmek, başarının anahtarıdır.

A. İleri Beslemeli Sinir Ağları (Feedforward Neural Networks): Temel Yapı

En basit ve en eski yapay sinir ağı türüdür. Bu yapıda bilgi, girişten çıkışa doğru tek bir yönde akar; asla geriye dönmez veya döngüler oluşturmaz. Genellikle basit sınıflandırma ve regresyon (sayı tahmin etme) problemlerinde kullanılır. Karmaşık görüntüleri veya zaman serilerini işlemek için yetersiz kalsa da yapay zekânın “merhaba dünya”sı kabul edilir.

B. Evrişimli Sinir Ağları (CNN - Convolutional Neural Networks): Görsel Dünyanın Hâkimi

Eğer bir yapay zekâ bir kediyi tanıyor, MR görüntüsünden tümör teşhisi koyuyor, Instagram filtrelerini yüzünüze oturtuyor veya otonom bir aracı şeritte tutuyorsa, arkasında mutlaka bir CNN vardır.

Nasıl Çalışır? (Filtreleme Mantığı): Standart ağlar bir resmi dümdüz bir sayı dizisi olarak görür ve mekansal ilişkileri (gözün burnun üstünde olması gibi) kaybeder. CNN ise görseli matrisler halinde işler.

  • Evrişim (Convolution): Küçük bir el fenerini (Filtre/Kernel) karanlık bir resmin üzerinde gezdirdiğinizi hayal edin. Bu filtre, resimdeki dikey çizgileri, kıvrımları veya renk geçişlerini tarar.
  • Ortaklama (Pooling): Resmin boyutunu küçülterek işlem gücünden tasarruf eder ama önemli özellikleri (örneğin bir kulağın varlığını) korur. Bu katmanlar art arda dizildiğinde ağ piksellerden başlayıp soyut kavramlara (“Bu bir Golden Retriever”) ulaşır.

C. Tekrarlayan Sinir Ağları (RNN) ve LSTM: Hafızası Olan Ağlar

Standart ağların en büyük eksiği “hafızasız” olmalarıdır. Onlara bir film izletseniz son sahneyi yorumlarken başını unuturlar. Oysa dil, müzik, video veya borsa verileri gibi sıralı verilerde (sequential data) geçmiş, geleceği belirler.

LSTM (Long Short-Term Memory): Klasik RNN’ler, “Vanishing Gradient” problemi yüzünden uzun cümlelerde cümlenin başını unutma eğilimindedir. LSTM (Uzun Kısa-Süreli Bellek) hücreleri ise bir bilginin ne kadar süre hatırlanacağına veya ne zaman unutulacağına (örneğin cümlenin konusu değiştiğinde) karar veren akıllı “kapılara” (Gates) sahiptir. Bu sayede Siri sesinizi tanır, Google Translate uzun paragrafları çevirir.

D. Transformatör Modelleri (Transformers): Oyunun Kurallarını Değiştirenler

2017’de Google’ın “Attention is All You Need” makalesiyle doğan bu mimari, Doğal Dil İşleme (NLP) dünyasında devrim yarattı ve RNN’lerin tahtını sarstı.

Dikkat Mekanizması (Self-Attention): Transformatörler, bir cümleyi RNN gibi kelime kelime sırayla okumaz; cümlenin tamamına aynı anda bakar (Paralel İşleme). “Dikkat” mekanizması sayesinde bir kelimenin cümledeki diğer tüm kelimelerle olan ilişkisini hesaplar. Örnek Cümle: “Banka, nehrin kenarındaydı.” Transformer, buradaki “Banka” kelimesini işlerken cümledeki “nehir” kelimesine yüksek dikkat (attention) puanı verir. Böylece buradaki bankanın “para çekilen yer” değil “nehir kıyısı” olduğunu bağlamdan anlar.

Bu mimari, bugün kullandığımız GPT (Generative Pre-trained Transformer), BERT ve Claude gibi Büyük Dil Modellerinin (LLM) temelidir. Bu modellerin dilin matematiğini nasıl çözdüğünü anlamak ve onlara daha iyi komutlar vermek için Prompt Mühendisliği rehberimize mutlaka göz atmalısınız.

Sıkça Sorulan Sorular (SSS)

Okuyucularımızın zihnindeki soru işaretlerini gidermek adına, yapay sinir ağları hakkında en çok merak edilenleri derledik:

Geleneksel algoritmaların yetersiz kaldığı durumlarda kullanılır. Özellikle veri seti çok büyük olduğunda, kuralların net olarak yazılamadığı (resimdeki yüzü tanımak gibi) ve veride karmaşık, doğrusal olmayan örüntülerin (patterns) bulunduğu durumlarda rakipsizdir.

Yapay sinir ağı (YSA) genel şemsiye terimdir. Eğer bir sinir ağı çok sayıda (genellikle 3’ten fazla) gizli katmana (hidden layers) sahipse buna “Derin Öğrenme” (Deep Learning) denir. Her derin öğrenme modeli bir YSA’dır, ancak tek katmanlı basit bir YSA derin öğrenme değildir.

Bu tamamen çözülecek probleme bağlıdır. “Ne kadar çok o kadar iyi” her zaman doğru değildir. Basit bir sınıflandırma için 1-2 gizli katman yeterliyken otonom sürüş veya gelişmiş dil modelleri için yüzlerce katman ve milyarlarca parametre gerekebilir.

Python programlama dili, bu işin “lingua franca”sıdır. Google’ın TensorFlow, Facebook’un PyTorch veya daha kullanıcı dostu olan Keras gibi kütüphaneler, sıfırdan karmaşık matematiksel formüller yazmadan, lego parçaları gibi katmanları birleştirerek kendi sinir ağınızı kurmanıza olanak tanır.

Sonuç

Yapay Sinir Ağları, sadece geçici bir teknoloji trendi değil veriyi anlama ve işleme şeklimizi kökten değiştiren bir paradigmadır. Biyolojik beynimizden ilham alan ancak matematiğin gücüyle onu farklı bir boyuta taşıyan bu yapılar, bugün hastalıkları teşhis ediyor, sanat eserleri üretiyor, şiir yazıyor ve bizimle konuşuyor.

Geri yayılım algoritmaları, devasa veri setleri ve artan GPU işlemci güçleri (NVIDIA gibi) sayesinde YSA’ların yetenekleri her geçen gün artıyor. Ancak unutmamalıyız ki bu ağlar hala birer “kara kutu” özelliğini koruyor ve nasıl karar verdiklerini tam olarak anlamak (Explainable AI), geleceğin en büyük araştırma konularından biri olacak.

İlgili Diğer İçerikler
Yazıyı Beğendiniz mi? Yorum Yapın

E-posta adresiniz yayınlanmayacaktır.Zorunlu alanlar * ile işaretlenmiştir.