SlideShare a Scribd company logo
1 of 35
Download to read offline
İçerik
• Biyolojik sinirler ve beyin
• Tek bir sinirin modeli
• Sinir Ağları
• Eğitim Algoritmaları
• Uygulamalar
• Faydalar, zayıf yönler ve uygulamalar
Tarihsel Olaylar
• 1943: McCulloch ve Pitts, ilk kez sinirlerin bilgisayar ortamında
modelini(computational model of neuron) önerdiler.
• 1949: Hebb, ilk kez öğrenme kuralını(learning rule) önerdi.
• 1958: Rosenblatt’s yapay nöronlar(perceptrons) üzerine çalışmalar yaptı.
• 1969: Minsky ve Papert’ın makalesi teorinin sınırlamalarını öne çıkardı.
• 1970’ler Yapay sinir ağlarının aktif olmadığı dönem
• 1980–90’lar Yapay sinir ağlarının yeniden gündeme geldiği dönem
Sinir hücreleri
Sinir hücreleri
Biyolojik sinir hücresi;
gövde(cell body),
çekirdek(nucleus),
akson(axon),
birçok sinir ucu (dendrite) ve
akson ile diğer sinir hücresinin sinir ucu
arasındaki uzantılardan (synapse)
oluşmaktadır.
Sinir hücreleri
Üç temel olay vardır:
• Receive(al)
• Analyze(analiz et)
• Transmit(ilet)
– Dendrite’ler, gelen sinyalleri çekirdeğe iletir.
– Çekirdek(nucleus) dendriteden gelen sinyalleri toplar ve aksona iletir.
– Aksonda toplanmış bu sinyaller, akson tarafından işlenerek
synapse’lere gönderilir.
– Synapse’ler de yeni üretilen sinyalleri diğer sinir hücrelerine iletir.
Yapay sinir hücresi modeli
McCulloch ve Pitts (1943) “entegre et ve ateşle” modelini
önermiştir.
Girişler(input values) : X1, X2, . . . , Xm.
Herbir giriş hücresinin ağırlıkları(weights) : W1, W2, . . . ,Wm.
Giriş değerleri, ağırlıkları ile çarpılırlar ve toplamı alınır:
Yapay Sinir Ağlarının Bileşenleri
• Giriş(input values):Yapay sinir ağlarına dış ortamlar veya diğer bir hücreden
gelen veriler.
• Ağırlıklar(weights):Hücreye gelen bilgilerin etkisini, ağırlığını gösterir.
• Toplama Fonksiyonu(sum function): Hücreye gelen bilgilerle, bu hücrelerin
ağırlıklarını çarpımını toplar ve o hücrenin net giriş bilgisinin hesaplanmasını
sağlar.
• Aktivasyon Fonksiyonu(activation function): Hücreye gelen net bilgiyi analiz
ederek, hücrenin bu giriş bilgisine göre karşılık üreteceği çıkış bilgisinin
belirlenmesini sağlar.
• Çıkış(output): Aktivasyon fonksiyonlarının oluşturduğu çıkış bilgileridir.
Bu bilgi,dış dünyaya, başka bir hücreye ya da kendisine giriş bilgisi olarak
iletilebilir.
Yapay Sinir Ağlarının Çalışması
• Yapay sinir ağlarının genel çalışma prensibi, bir giriş setini(örnekleri) alarak
onları çıkış setine çevirmektir.
• Bunun için ağın kendisine gösterilen giriş verileri için doğru çıkış değerleri
üretecek hale gelmesi(yani eğitilmesi) gerekmektedir.
• Ağa gösterilecek örnekler öncelikle bir vektör haline getirilir.
• Bu vektör ağa gösterilir ve ağ bu vektör için gerekli çıkış vektörünü üretir.
• Ağın parametre değerleri doğru çıkış bilgisini üretecek şekilde düzenlenir.
Yapay Sinir Ağlarının Çalışması
• Giriş vektörü;
– haftanın günlerini gösteren sayısal değerler,
– bir resmin gri tonları,
– bir parmak izini,
– bir ürünün satış miktarı vb. gibi değişik olayları gösteren
nümerik değerlerden oluşan vektörler olabilir.
Yapay Sinir Ağlarının Çalışması
• Benzer şekilde çıkış vektörü de giriş vektörünün sınıfını
gösterebilir.
• Bir değerin tahmin edilmesi olabilir.
• Giriş ve çıkış vektörlerinin tasarımı ağı geliştiren kişi tarafından
belirlenir ve örnekler(girişler) belirlenen formatta toplanarak
eğitim sırasında ağa gösterilir.
Toplama Fonksiyonu
• Toplama fonksiyonu y = f (v)
• Örnek:
Girişler x = (0, 1, 1) ve
Ağırlıklar w = (1,−2, 4).
Toplama fonksiyonu:
v = 1 · 0 − 2 · 1 + 4 · 1 = 2
Aktivasyon Fonksiyonları
• Lineer fonksiyon:
f (v) = a + v = a +∑wi xi
Aktivasyon Fonksiyonları
Örnek: a=0 ve v=2 > 0, ise
f(2) = 1
•Basamak(step) fonksiyonu
Aktivasyon Fonksiyonları
•Sigmoid fonksiyonu
Yapay Sinir Modeli
• Giriş(x) ve çıkış(y) değişkenleri arasındaki ilişki aşağıdaki
şekildedir.
y = f(x) + Hata(Error)
•Hatayı azaltmak için ağırlık(weight) bilgileri ayarlanır.
• Eğer lineer aktivasyon fonksiyonu kullanılırsa model aşağıdaki
şekilde ifade edilebilir:
f(x1, . . . , xm) = a + w1x1 + · · · + wmwm
İleri Beslemeli Yapay Sinir Ağları
Düğümler(Nodes) sinirleri temsil ederler ve
oklar da bunlar arasındaki bağlantıları
gösterirler.
Her bir düğümün bir numarası vardır ve ikili
numaralarla gösterilirler. Örneğin, (1,4) 1 ve
4 numaralı düğümün bağlantısını gösterir.
Düğümler, girişten çıkışa doğru katmanlar
şeklindedir. Giriş düğümlerine gelen bilgiler,
gizli katmanları geçerek çıkışa gider. Bu tür
ağlara ileri beslemeli (feed-forward
networks) ağlar denir.
Giriş ve Çıkışlar
Giriş(input) :1,2 ve 3
Çıkış(Output): 4 ve 5
Gizli Düğümler ve Katmanlar
•Bir yapay sinir ağı gizli düğümlere sahip olabilir
( Ağ içinde gizli ve çevreyle doğrudan bağlantısı
olmayabilir).
•Bir yapay sinir ağının birçok gizli katmanı olabilir.
Katmanlar(Layers):
•Giriş( input): 1,2 ve 3
•Gizli(hidden): 4 ve 5
•Çıkış( output):6 ve 7
Ağırlıkların(weigths) Numaralandırılması
•Ağdaki herbir düğümün ağırlığı Wij olarak gösterilir.
•Örneğin 4 nolu düğümün ağırlıkları : W14, W24 ve W34
Örnek
• Giriş değerleri X1 = 1 ve X2 = 0 için çıkış değeri nedir?
1. İlk gizli katmandaki ağırlıklarlarla giriş değerleri çarpılarak toplamı
hesaplanır:
2. Aktivasyon fonksiyonu uygulanır:
3. 5 nolu düğümdeki ağırlıklarlarla giriş değerleri çarpılarak toplamı
hesaplanır:
4. Sonuç:
Yapay Sinir Ağlarının Eğitilmesi
• Bir önceki problemi şu şekilde düşünelim:
– Yapay sinir ağında giriş değerlerimiz X1 = 1 and X2 = 0, ve f bir
basamak(step) fonksiyonu
– y5 = 0 verilmiş ve biz ağırlıkları(weights) yani Wij değerlerini
bulabilirmiyiz?
• Bu problem oldukça zordur, çünkü bilinmeyen birçok ağırlık var ve sonsuz
çözüm olabilir.
• İstenilen sonuç için bir grup ağırlık değerlerinin bulunmasına ağın
eğitilmesi denir.
Yapay Sinir Ağlarında Öğrenme
• Yapay sinir ağlarında düğüm elemanlarının ağırlık(weight) değerlerinin
belirlenmesi işlemine “ağın eğitilmesi” denir.
• Başlangıçta bu ağırlık değerleri rastgele olarak atanır.
• Yapay sinir ağları kendilerine örnekler gösterildikçe bu ağırlık değerlerini
değiştirirler.
• Amaç ağa gösterilen örnekler için doğru çıkış değerlerini üretecek ağırlık
değerlerini bulmaktır.
• Örnekler ağa defalarca gösterilerek en doğru ağırlık değerleri bulunmaya
çalışılır.
Yapay Sinir Ağlarında Öğrenme
• Ağın doğru ağırlık değerlerine ulaşması örneklerin temsil ettiği
olay hakkında genellemeler yapabilme yeteneğine kavuşması
demektir.
• Bu genelleştirme özelliğine kavuşması işlemine ağın
öğrenmesi denir.
• Ağırlıkların değerlerinin değişmesi belirli kuralara göre
yürütülmektedir. Bu kurallara öğrenme kuralları denir.
Yapay Sinir Ağlarında Öğrenme
• Yapay sinir ağlarında öğrenme olayının iki aşaması vardır:
– Ağa gösterilecek örnek için ağın üreteceği çıkış belirlenir.
– Bu çıkış değerinin doğruluk derecesine göre ikinci aşamada
ağın bağlantılarının sahip olduğu ağırlıklar değiştirilir.
Yapay Sinir Ağlarında Öğrenme
• Ağın eğitimi tamamlandıktan sonra öğrenip
öğrenmediği(performansını) ölçmek için yapılan denemelere
ağın test edilmesi denir.
• Test etmek için ağın öğrenme sırasında görmedikleri örnekler
kullanılır.
• Test etme sırasında ağın ağırlık değerleri değiştirilmez.
• Test örnekleri ağa gösterilir.
Yapay Sinir Ağlarında Öğrenme
• Ağ eğitim sırasında belirlenen bağlantı ağırlıklarının kullanarak
görmediği bu örnekleri için çıkış üretir.
• Elde edilen çıkış doğruluk değerleri ağın öğrenmesi hakkında
bilgiler verir.
• Sonuçlar ne kadar iyi olursa eğitimin performansı o kadar iyi
demektir.
• Eğitimde kullanılan örnek setine eğitim seti, test için kullanılan
sete ise test seti denir.
Öğretmensiz Öğrenme
• Yapay sinir ağının öğrenmesini sağlayacak bir öğretmen
yoktur.
• Yapay sinir ağı,giriş verilerinden ve parametrelerden kendi
kendine öğrenmeye çalışır.
Basit algılayıcı öğrenme kuralı-örnek
Yapay Sinir Ağlarının Yapısını Oluşturan
Bilgiler
• Ağın Topolojisi
• Kullanılan toplama fonksiyonu
• Kullanılan aktivasyon fonksiyonu
• Öğrenme stratejisi
• Öğrenme kuralı
Yapay Sinir Ağlarının Uygulamaları
• Örüntü sınıflandırma-Pattern classification (analysis of time–
series, customer databases, etc).
• Obje tanıma- Object recognition (ör. Karakter tanıma)
• Güvenlik-security (kredi kartı sahteciliği)
Yapay Sinir Ağlarının Yararları
• Birçok alana uygulanabilir.
• Doğrusal olmayan çok boyutlu, gürültülü, eksik
veri olması durumlarında ve özellikle problemin çözümünde
kesin bir matematiksel modelin veya algoritmanın
bulunmadığı koşullarda uygulanabilir.
Yapay Sinir Ağlarının Zayıf Yönleri
• Diğer birçok algoritmada olduğu gibi az sayıda veri ile
kullanılamaz.
• Gizli düğümlerin sayısı, öğrenme oranı, minimum hata gibi
parametrelerin belirlenmesi için net bir kural yoktur.
• Aritmetik ve kesin hesaplamalarda başarılı değildir.
• Ağda çok fazla çok fazla düğüm varsa, bu nedenle çok fazla
ağırlık vardır ve bunların yorumlanması oldukça zordur.
Kaynaklar
• Middlesex University, Dr. Roman V Belavkin, BIS4435, Lecture notes.
• Russell, S. and Norvig, P. (2010). Artificial Intelligence: A Modern Approach. Series
in Artificial Intelligence. Prentice-Hall.
• Öztemel E., Yapay sinir Ağları, 2012, Papatya Yayıncılık.
• Bilecik Üniversitesi, Dr. Cihan Karakuzu, Nöral Sistemlere Giriş Ders Notları

More Related Content

What's hot

Artificial nueral network slideshare
Artificial nueral network slideshareArtificial nueral network slideshare
Artificial nueral network slideshareRed Innovators
 
Deep Feed Forward Neural Networks and Regularization
Deep Feed Forward Neural Networks and RegularizationDeep Feed Forward Neural Networks and Regularization
Deep Feed Forward Neural Networks and RegularizationYan Xu
 
Fundamental, An Introduction to Neural Networks
Fundamental, An Introduction to Neural NetworksFundamental, An Introduction to Neural Networks
Fundamental, An Introduction to Neural NetworksNelson Piedra
 
FUNCTION APPROXIMATION
FUNCTION APPROXIMATIONFUNCTION APPROXIMATION
FUNCTION APPROXIMATIONankita pandey
 
Artifical Neural Network and its applications
Artifical Neural Network and its applicationsArtifical Neural Network and its applications
Artifical Neural Network and its applicationsSangeeta Tiwari
 
Artificial Neural Networks for NIU session 2016 17
Artificial Neural Networks for NIU session 2016 17 Artificial Neural Networks for NIU session 2016 17
Artificial Neural Networks for NIU session 2016 17 Prof. Neeta Awasthy
 
Neural network final NWU 4.3 Graphics Course
Neural network final NWU 4.3 Graphics CourseNeural network final NWU 4.3 Graphics Course
Neural network final NWU 4.3 Graphics CourseMohaiminur Rahman
 
Convolutional Neural Network (CNN)
Convolutional Neural Network (CNN)Convolutional Neural Network (CNN)
Convolutional Neural Network (CNN)Muhammad Haroon
 
CVPR 2018 Paper Reading MobileNet V2
CVPR 2018 Paper Reading MobileNet V2CVPR 2018 Paper Reading MobileNet V2
CVPR 2018 Paper Reading MobileNet V2Khang Pham
 
Artificial Neural Network Paper Presentation
Artificial Neural Network Paper PresentationArtificial Neural Network Paper Presentation
Artificial Neural Network Paper Presentationguestac67362
 
Artificial neural network
Artificial neural networkArtificial neural network
Artificial neural networknainabhatt2
 
Regularization in deep learning
Regularization in deep learningRegularization in deep learning
Regularization in deep learningKien Le
 
Multi Layer Perceptron & Back Propagation
Multi Layer Perceptron & Back PropagationMulti Layer Perceptron & Back Propagation
Multi Layer Perceptron & Back PropagationSung-ju Kim
 
lecture07.ppt
lecture07.pptlecture07.ppt
lecture07.pptbutest
 
Notes from Coursera Deep Learning courses by Andrew Ng
Notes from Coursera Deep Learning courses by Andrew NgNotes from Coursera Deep Learning courses by Andrew Ng
Notes from Coursera Deep Learning courses by Andrew NgdataHacker. rs
 
Artificial neural network for machine learning
Artificial neural network for machine learningArtificial neural network for machine learning
Artificial neural network for machine learninggrinu
 
Artificial Neural Network
Artificial Neural NetworkArtificial Neural Network
Artificial Neural NetworkMuhammad Ishaq
 

What's hot (20)

Lecture 9 Perceptron
Lecture 9 PerceptronLecture 9 Perceptron
Lecture 9 Perceptron
 
Artificial nueral network slideshare
Artificial nueral network slideshareArtificial nueral network slideshare
Artificial nueral network slideshare
 
Deep Feed Forward Neural Networks and Regularization
Deep Feed Forward Neural Networks and RegularizationDeep Feed Forward Neural Networks and Regularization
Deep Feed Forward Neural Networks and Regularization
 
Fundamental, An Introduction to Neural Networks
Fundamental, An Introduction to Neural NetworksFundamental, An Introduction to Neural Networks
Fundamental, An Introduction to Neural Networks
 
Perceptron in ANN
Perceptron in ANNPerceptron in ANN
Perceptron in ANN
 
FUNCTION APPROXIMATION
FUNCTION APPROXIMATIONFUNCTION APPROXIMATION
FUNCTION APPROXIMATION
 
Artifical Neural Network and its applications
Artifical Neural Network and its applicationsArtifical Neural Network and its applications
Artifical Neural Network and its applications
 
Artificial Neural Networks for NIU session 2016 17
Artificial Neural Networks for NIU session 2016 17 Artificial Neural Networks for NIU session 2016 17
Artificial Neural Networks for NIU session 2016 17
 
Neural network final NWU 4.3 Graphics Course
Neural network final NWU 4.3 Graphics CourseNeural network final NWU 4.3 Graphics Course
Neural network final NWU 4.3 Graphics Course
 
Convolutional Neural Network (CNN)
Convolutional Neural Network (CNN)Convolutional Neural Network (CNN)
Convolutional Neural Network (CNN)
 
CVPR 2018 Paper Reading MobileNet V2
CVPR 2018 Paper Reading MobileNet V2CVPR 2018 Paper Reading MobileNet V2
CVPR 2018 Paper Reading MobileNet V2
 
Artificial Neural Network Paper Presentation
Artificial Neural Network Paper PresentationArtificial Neural Network Paper Presentation
Artificial Neural Network Paper Presentation
 
Artificial neural network
Artificial neural networkArtificial neural network
Artificial neural network
 
Neural networks
Neural networksNeural networks
Neural networks
 
Regularization in deep learning
Regularization in deep learningRegularization in deep learning
Regularization in deep learning
 
Multi Layer Perceptron & Back Propagation
Multi Layer Perceptron & Back PropagationMulti Layer Perceptron & Back Propagation
Multi Layer Perceptron & Back Propagation
 
lecture07.ppt
lecture07.pptlecture07.ppt
lecture07.ppt
 
Notes from Coursera Deep Learning courses by Andrew Ng
Notes from Coursera Deep Learning courses by Andrew NgNotes from Coursera Deep Learning courses by Andrew Ng
Notes from Coursera Deep Learning courses by Andrew Ng
 
Artificial neural network for machine learning
Artificial neural network for machine learningArtificial neural network for machine learning
Artificial neural network for machine learning
 
Artificial Neural Network
Artificial Neural NetworkArtificial Neural Network
Artificial Neural Network
 

Viewers also liked

Open cv kütüphanesi
Open cv kütüphanesiOpen cv kütüphanesi
Open cv kütüphanesiahmetkakici
 
Yapay Zeka, Deep Learning and Machine Learning
Yapay Zeka, Deep Learning and Machine LearningYapay Zeka, Deep Learning and Machine Learning
Yapay Zeka, Deep Learning and Machine LearningAlper Nebi Kanlı
 
Python mu Java mı?
Python mu Java mı?Python mu Java mı?
Python mu Java mı?aerkanc
 
Man in the Middle Atack (Ortadaki Adam Saldırısı)
Man in the Middle Atack (Ortadaki Adam Saldırısı)Man in the Middle Atack (Ortadaki Adam Saldırısı)
Man in the Middle Atack (Ortadaki Adam Saldırısı)Ahmet Gürel
 
TCP/IP Ağlarda İleri Seviye Paket Analizi – Tshark
TCP/IP Ağlarda İleri Seviye Paket Analizi – TsharkTCP/IP Ağlarda İleri Seviye Paket Analizi – Tshark
TCP/IP Ağlarda İleri Seviye Paket Analizi – TsharkBGA Cyber Security
 
Python İle Ağ Programlama
Python İle Ağ ProgramlamaPython İle Ağ Programlama
Python İle Ağ ProgramlamaOguzhan Coskun
 
YAPAY ZEKÂ VE DUYGUSAL ZEKÂ KULLANIM FARKLILIKLARININ İNCELENMESİ: TEKNOLOJİK...
YAPAY ZEKÂ VE DUYGUSAL ZEKÂ KULLANIM FARKLILIKLARININ İNCELENMESİ: TEKNOLOJİK...YAPAY ZEKÂ VE DUYGUSAL ZEKÂ KULLANIM FARKLILIKLARININ İNCELENMESİ: TEKNOLOJİK...
YAPAY ZEKÂ VE DUYGUSAL ZEKÂ KULLANIM FARKLILIKLARININ İNCELENMESİ: TEKNOLOJİK...SELENGCN
 
Görüntü işleme - Image Processing
Görüntü işleme - Image ProcessingGörüntü işleme - Image Processing
Görüntü işleme - Image Processingİbrahim Bayraktar
 
Nessus Kullanım Kitapçığı
Nessus Kullanım KitapçığıNessus Kullanım Kitapçığı
Nessus Kullanım KitapçığıBGA Cyber Security
 
YÜZ BULMA VE TANIMA SİSTEMLERİ KULLANARAK
YÜZ BULMA VE TANIMA SİSTEMLERİ KULLANARAKYÜZ BULMA VE TANIMA SİSTEMLERİ KULLANARAK
YÜZ BULMA VE TANIMA SİSTEMLERİ KULLANARAKRecep Holat
 
Kara Sistemlerinde Yapay Zeka Uygulamaları
Kara Sistemlerinde Yapay Zeka UygulamalarıKara Sistemlerinde Yapay Zeka Uygulamaları
Kara Sistemlerinde Yapay Zeka UygulamalarıFerhat Kurt
 
Bigdata Nedir? Hadoop Nedir? MapReduce Nedir? Big Data.
Bigdata Nedir? Hadoop Nedir? MapReduce Nedir? Big Data.Bigdata Nedir? Hadoop Nedir? MapReduce Nedir? Big Data.
Bigdata Nedir? Hadoop Nedir? MapReduce Nedir? Big Data.Zekeriya Besiroglu
 
Python Programlama Dili Eğitimi
Python Programlama Dili EğitimiPython Programlama Dili Eğitimi
Python Programlama Dili EğitimiEnes Ateş
 
Biyometrik Tanıma Sistemleri
Biyometrik Tanıma SistemleriBiyometrik Tanıma Sistemleri
Biyometrik Tanıma SistemleriBetül Becit
 
Büyük veri(bigdata)
Büyük veri(bigdata)Büyük veri(bigdata)
Büyük veri(bigdata)Hülya Soylu
 
Tcpdump ile Trafik Analizi(Sniffing)
Tcpdump ile Trafik Analizi(Sniffing)Tcpdump ile Trafik Analizi(Sniffing)
Tcpdump ile Trafik Analizi(Sniffing)BGA Cyber Security
 
AI - Tekil 12 GSÜ
AI - Tekil 12 GSÜAI - Tekil 12 GSÜ
AI - Tekil 12 GSÜBurak Evren
 

Viewers also liked (20)

Open cv kütüphanesi
Open cv kütüphanesiOpen cv kütüphanesi
Open cv kütüphanesi
 
Yapay Zeka, Deep Learning and Machine Learning
Yapay Zeka, Deep Learning and Machine LearningYapay Zeka, Deep Learning and Machine Learning
Yapay Zeka, Deep Learning and Machine Learning
 
Python mu Java mı?
Python mu Java mı?Python mu Java mı?
Python mu Java mı?
 
Man in the Middle Atack (Ortadaki Adam Saldırısı)
Man in the Middle Atack (Ortadaki Adam Saldırısı)Man in the Middle Atack (Ortadaki Adam Saldırısı)
Man in the Middle Atack (Ortadaki Adam Saldırısı)
 
TCP/IP Ağlarda İleri Seviye Paket Analizi – Tshark
TCP/IP Ağlarda İleri Seviye Paket Analizi – TsharkTCP/IP Ağlarda İleri Seviye Paket Analizi – Tshark
TCP/IP Ağlarda İleri Seviye Paket Analizi – Tshark
 
Python İle Ağ Programlama
Python İle Ağ ProgramlamaPython İle Ağ Programlama
Python İle Ağ Programlama
 
YAPAY ZEKÂ VE DUYGUSAL ZEKÂ KULLANIM FARKLILIKLARININ İNCELENMESİ: TEKNOLOJİK...
YAPAY ZEKÂ VE DUYGUSAL ZEKÂ KULLANIM FARKLILIKLARININ İNCELENMESİ: TEKNOLOJİK...YAPAY ZEKÂ VE DUYGUSAL ZEKÂ KULLANIM FARKLILIKLARININ İNCELENMESİ: TEKNOLOJİK...
YAPAY ZEKÂ VE DUYGUSAL ZEKÂ KULLANIM FARKLILIKLARININ İNCELENMESİ: TEKNOLOJİK...
 
Görüntü işleme - Image Processing
Görüntü işleme - Image ProcessingGörüntü işleme - Image Processing
Görüntü işleme - Image Processing
 
Metasploit El Kitabı
Metasploit El KitabıMetasploit El Kitabı
Metasploit El Kitabı
 
EXPLOIT POST EXPLOITATION
EXPLOIT POST EXPLOITATIONEXPLOIT POST EXPLOITATION
EXPLOIT POST EXPLOITATION
 
Nessus Kullanım Kitapçığı
Nessus Kullanım KitapçığıNessus Kullanım Kitapçığı
Nessus Kullanım Kitapçığı
 
Pasif Bilgi Toplama
Pasif Bilgi ToplamaPasif Bilgi Toplama
Pasif Bilgi Toplama
 
YÜZ BULMA VE TANIMA SİSTEMLERİ KULLANARAK
YÜZ BULMA VE TANIMA SİSTEMLERİ KULLANARAKYÜZ BULMA VE TANIMA SİSTEMLERİ KULLANARAK
YÜZ BULMA VE TANIMA SİSTEMLERİ KULLANARAK
 
Kara Sistemlerinde Yapay Zeka Uygulamaları
Kara Sistemlerinde Yapay Zeka UygulamalarıKara Sistemlerinde Yapay Zeka Uygulamaları
Kara Sistemlerinde Yapay Zeka Uygulamaları
 
Bigdata Nedir? Hadoop Nedir? MapReduce Nedir? Big Data.
Bigdata Nedir? Hadoop Nedir? MapReduce Nedir? Big Data.Bigdata Nedir? Hadoop Nedir? MapReduce Nedir? Big Data.
Bigdata Nedir? Hadoop Nedir? MapReduce Nedir? Big Data.
 
Python Programlama Dili Eğitimi
Python Programlama Dili EğitimiPython Programlama Dili Eğitimi
Python Programlama Dili Eğitimi
 
Biyometrik Tanıma Sistemleri
Biyometrik Tanıma SistemleriBiyometrik Tanıma Sistemleri
Biyometrik Tanıma Sistemleri
 
Büyük veri(bigdata)
Büyük veri(bigdata)Büyük veri(bigdata)
Büyük veri(bigdata)
 
Tcpdump ile Trafik Analizi(Sniffing)
Tcpdump ile Trafik Analizi(Sniffing)Tcpdump ile Trafik Analizi(Sniffing)
Tcpdump ile Trafik Analizi(Sniffing)
 
AI - Tekil 12 GSÜ
AI - Tekil 12 GSÜAI - Tekil 12 GSÜ
AI - Tekil 12 GSÜ
 

Similar to Yapay Sinir Ağları

Som algorithms in artificial neural networks
Som algorithms in artificial neural networksSom algorithms in artificial neural networks
Som algorithms in artificial neural networksEsranur Öğretmen
 
Yapaysinirağları
YapaysinirağlarıYapaysinirağları
YapaysinirağlarıEmel AKBULUT
 
Clustering Analysis DBSCAN & SOM
Clustering Analysis DBSCAN & SOMClustering Analysis DBSCAN & SOM
Clustering Analysis DBSCAN & SOMÖmer Can Koç
 
Görüntü i̇şlemede makine öğrenme teknikleri
Görüntü i̇şlemede makine öğrenme teknikleriGörüntü i̇şlemede makine öğrenme teknikleri
Görüntü i̇şlemede makine öğrenme teknikleriTalha Kabakus
 
Recurrent neural network
Recurrent neural networkRecurrent neural network
Recurrent neural networkServer CALAP
 
Rassal Bölümlenmiş Veri Üzerinde Aşırı Öğrenme Makinesi ve Topluluk Algoritma...
Rassal Bölümlenmiş Veri Üzerinde Aşırı Öğrenme Makinesi ve Topluluk Algoritma...Rassal Bölümlenmiş Veri Üzerinde Aşırı Öğrenme Makinesi ve Topluluk Algoritma...
Rassal Bölümlenmiş Veri Üzerinde Aşırı Öğrenme Makinesi ve Topluluk Algoritma...Ferhat Ozgur Catak
 

Similar to Yapay Sinir Ağları (7)

Som algorithms in artificial neural networks
Som algorithms in artificial neural networksSom algorithms in artificial neural networks
Som algorithms in artificial neural networks
 
Yapaysinirağları
YapaysinirağlarıYapaysinirağları
Yapaysinirağları
 
Clustering Analysis DBSCAN & SOM
Clustering Analysis DBSCAN & SOMClustering Analysis DBSCAN & SOM
Clustering Analysis DBSCAN & SOM
 
Görüntü i̇şlemede makine öğrenme teknikleri
Görüntü i̇şlemede makine öğrenme teknikleriGörüntü i̇şlemede makine öğrenme teknikleri
Görüntü i̇şlemede makine öğrenme teknikleri
 
Recurrent neural network
Recurrent neural networkRecurrent neural network
Recurrent neural network
 
Rassal Bölümlenmiş Veri Üzerinde Aşırı Öğrenme Makinesi ve Topluluk Algoritma...
Rassal Bölümlenmiş Veri Üzerinde Aşırı Öğrenme Makinesi ve Topluluk Algoritma...Rassal Bölümlenmiş Veri Üzerinde Aşırı Öğrenme Makinesi ve Topluluk Algoritma...
Rassal Bölümlenmiş Veri Üzerinde Aşırı Öğrenme Makinesi ve Topluluk Algoritma...
 
Ysa dönem ödevi̇
Ysa dönem ödevi̇Ysa dönem ödevi̇
Ysa dönem ödevi̇
 

Yapay Sinir Ağları

  • 1. İçerik • Biyolojik sinirler ve beyin • Tek bir sinirin modeli • Sinir Ağları • Eğitim Algoritmaları • Uygulamalar • Faydalar, zayıf yönler ve uygulamalar
  • 2. Tarihsel Olaylar • 1943: McCulloch ve Pitts, ilk kez sinirlerin bilgisayar ortamında modelini(computational model of neuron) önerdiler. • 1949: Hebb, ilk kez öğrenme kuralını(learning rule) önerdi. • 1958: Rosenblatt’s yapay nöronlar(perceptrons) üzerine çalışmalar yaptı. • 1969: Minsky ve Papert’ın makalesi teorinin sınırlamalarını öne çıkardı. • 1970’ler Yapay sinir ağlarının aktif olmadığı dönem • 1980–90’lar Yapay sinir ağlarının yeniden gündeme geldiği dönem
  • 4. Sinir hücreleri Biyolojik sinir hücresi; gövde(cell body), çekirdek(nucleus), akson(axon), birçok sinir ucu (dendrite) ve akson ile diğer sinir hücresinin sinir ucu arasındaki uzantılardan (synapse) oluşmaktadır.
  • 5. Sinir hücreleri Üç temel olay vardır: • Receive(al) • Analyze(analiz et) • Transmit(ilet) – Dendrite’ler, gelen sinyalleri çekirdeğe iletir. – Çekirdek(nucleus) dendriteden gelen sinyalleri toplar ve aksona iletir. – Aksonda toplanmış bu sinyaller, akson tarafından işlenerek synapse’lere gönderilir. – Synapse’ler de yeni üretilen sinyalleri diğer sinir hücrelerine iletir.
  • 6. Yapay sinir hücresi modeli McCulloch ve Pitts (1943) “entegre et ve ateşle” modelini önermiştir. Girişler(input values) : X1, X2, . . . , Xm. Herbir giriş hücresinin ağırlıkları(weights) : W1, W2, . . . ,Wm. Giriş değerleri, ağırlıkları ile çarpılırlar ve toplamı alınır:
  • 7. Yapay Sinir Ağlarının Bileşenleri • Giriş(input values):Yapay sinir ağlarına dış ortamlar veya diğer bir hücreden gelen veriler. • Ağırlıklar(weights):Hücreye gelen bilgilerin etkisini, ağırlığını gösterir. • Toplama Fonksiyonu(sum function): Hücreye gelen bilgilerle, bu hücrelerin ağırlıklarını çarpımını toplar ve o hücrenin net giriş bilgisinin hesaplanmasını sağlar. • Aktivasyon Fonksiyonu(activation function): Hücreye gelen net bilgiyi analiz ederek, hücrenin bu giriş bilgisine göre karşılık üreteceği çıkış bilgisinin belirlenmesini sağlar. • Çıkış(output): Aktivasyon fonksiyonlarının oluşturduğu çıkış bilgileridir. Bu bilgi,dış dünyaya, başka bir hücreye ya da kendisine giriş bilgisi olarak iletilebilir.
  • 8. Yapay Sinir Ağlarının Çalışması • Yapay sinir ağlarının genel çalışma prensibi, bir giriş setini(örnekleri) alarak onları çıkış setine çevirmektir. • Bunun için ağın kendisine gösterilen giriş verileri için doğru çıkış değerleri üretecek hale gelmesi(yani eğitilmesi) gerekmektedir. • Ağa gösterilecek örnekler öncelikle bir vektör haline getirilir. • Bu vektör ağa gösterilir ve ağ bu vektör için gerekli çıkış vektörünü üretir. • Ağın parametre değerleri doğru çıkış bilgisini üretecek şekilde düzenlenir.
  • 9. Yapay Sinir Ağlarının Çalışması • Giriş vektörü; – haftanın günlerini gösteren sayısal değerler, – bir resmin gri tonları, – bir parmak izini, – bir ürünün satış miktarı vb. gibi değişik olayları gösteren nümerik değerlerden oluşan vektörler olabilir.
  • 10. Yapay Sinir Ağlarının Çalışması • Benzer şekilde çıkış vektörü de giriş vektörünün sınıfını gösterebilir. • Bir değerin tahmin edilmesi olabilir. • Giriş ve çıkış vektörlerinin tasarımı ağı geliştiren kişi tarafından belirlenir ve örnekler(girişler) belirlenen formatta toplanarak eğitim sırasında ağa gösterilir.
  • 11. Toplama Fonksiyonu • Toplama fonksiyonu y = f (v) • Örnek: Girişler x = (0, 1, 1) ve Ağırlıklar w = (1,−2, 4). Toplama fonksiyonu: v = 1 · 0 − 2 · 1 + 4 · 1 = 2
  • 12.
  • 13. Aktivasyon Fonksiyonları • Lineer fonksiyon: f (v) = a + v = a +∑wi xi
  • 14. Aktivasyon Fonksiyonları Örnek: a=0 ve v=2 > 0, ise f(2) = 1 •Basamak(step) fonksiyonu
  • 16. Yapay Sinir Modeli • Giriş(x) ve çıkış(y) değişkenleri arasındaki ilişki aşağıdaki şekildedir. y = f(x) + Hata(Error) •Hatayı azaltmak için ağırlık(weight) bilgileri ayarlanır. • Eğer lineer aktivasyon fonksiyonu kullanılırsa model aşağıdaki şekilde ifade edilebilir: f(x1, . . . , xm) = a + w1x1 + · · · + wmwm
  • 17. İleri Beslemeli Yapay Sinir Ağları Düğümler(Nodes) sinirleri temsil ederler ve oklar da bunlar arasındaki bağlantıları gösterirler. Her bir düğümün bir numarası vardır ve ikili numaralarla gösterilirler. Örneğin, (1,4) 1 ve 4 numaralı düğümün bağlantısını gösterir. Düğümler, girişten çıkışa doğru katmanlar şeklindedir. Giriş düğümlerine gelen bilgiler, gizli katmanları geçerek çıkışa gider. Bu tür ağlara ileri beslemeli (feed-forward networks) ağlar denir.
  • 18. Giriş ve Çıkışlar Giriş(input) :1,2 ve 3 Çıkış(Output): 4 ve 5
  • 19. Gizli Düğümler ve Katmanlar •Bir yapay sinir ağı gizli düğümlere sahip olabilir ( Ağ içinde gizli ve çevreyle doğrudan bağlantısı olmayabilir). •Bir yapay sinir ağının birçok gizli katmanı olabilir. Katmanlar(Layers): •Giriş( input): 1,2 ve 3 •Gizli(hidden): 4 ve 5 •Çıkış( output):6 ve 7
  • 20. Ağırlıkların(weigths) Numaralandırılması •Ağdaki herbir düğümün ağırlığı Wij olarak gösterilir. •Örneğin 4 nolu düğümün ağırlıkları : W14, W24 ve W34
  • 22. • Giriş değerleri X1 = 1 ve X2 = 0 için çıkış değeri nedir? 1. İlk gizli katmandaki ağırlıklarlarla giriş değerleri çarpılarak toplamı hesaplanır: 2. Aktivasyon fonksiyonu uygulanır: 3. 5 nolu düğümdeki ağırlıklarlarla giriş değerleri çarpılarak toplamı hesaplanır: 4. Sonuç:
  • 23. Yapay Sinir Ağlarının Eğitilmesi • Bir önceki problemi şu şekilde düşünelim: – Yapay sinir ağında giriş değerlerimiz X1 = 1 and X2 = 0, ve f bir basamak(step) fonksiyonu – y5 = 0 verilmiş ve biz ağırlıkları(weights) yani Wij değerlerini bulabilirmiyiz? • Bu problem oldukça zordur, çünkü bilinmeyen birçok ağırlık var ve sonsuz çözüm olabilir. • İstenilen sonuç için bir grup ağırlık değerlerinin bulunmasına ağın eğitilmesi denir.
  • 24. Yapay Sinir Ağlarında Öğrenme • Yapay sinir ağlarında düğüm elemanlarının ağırlık(weight) değerlerinin belirlenmesi işlemine “ağın eğitilmesi” denir. • Başlangıçta bu ağırlık değerleri rastgele olarak atanır. • Yapay sinir ağları kendilerine örnekler gösterildikçe bu ağırlık değerlerini değiştirirler. • Amaç ağa gösterilen örnekler için doğru çıkış değerlerini üretecek ağırlık değerlerini bulmaktır. • Örnekler ağa defalarca gösterilerek en doğru ağırlık değerleri bulunmaya çalışılır.
  • 25. Yapay Sinir Ağlarında Öğrenme • Ağın doğru ağırlık değerlerine ulaşması örneklerin temsil ettiği olay hakkında genellemeler yapabilme yeteneğine kavuşması demektir. • Bu genelleştirme özelliğine kavuşması işlemine ağın öğrenmesi denir. • Ağırlıkların değerlerinin değişmesi belirli kuralara göre yürütülmektedir. Bu kurallara öğrenme kuralları denir.
  • 26. Yapay Sinir Ağlarında Öğrenme • Yapay sinir ağlarında öğrenme olayının iki aşaması vardır: – Ağa gösterilecek örnek için ağın üreteceği çıkış belirlenir. – Bu çıkış değerinin doğruluk derecesine göre ikinci aşamada ağın bağlantılarının sahip olduğu ağırlıklar değiştirilir.
  • 27. Yapay Sinir Ağlarında Öğrenme • Ağın eğitimi tamamlandıktan sonra öğrenip öğrenmediği(performansını) ölçmek için yapılan denemelere ağın test edilmesi denir. • Test etmek için ağın öğrenme sırasında görmedikleri örnekler kullanılır. • Test etme sırasında ağın ağırlık değerleri değiştirilmez. • Test örnekleri ağa gösterilir.
  • 28. Yapay Sinir Ağlarında Öğrenme • Ağ eğitim sırasında belirlenen bağlantı ağırlıklarının kullanarak görmediği bu örnekleri için çıkış üretir. • Elde edilen çıkış doğruluk değerleri ağın öğrenmesi hakkında bilgiler verir. • Sonuçlar ne kadar iyi olursa eğitimin performansı o kadar iyi demektir. • Eğitimde kullanılan örnek setine eğitim seti, test için kullanılan sete ise test seti denir.
  • 29. Öğretmensiz Öğrenme • Yapay sinir ağının öğrenmesini sağlayacak bir öğretmen yoktur. • Yapay sinir ağı,giriş verilerinden ve parametrelerden kendi kendine öğrenmeye çalışır.
  • 31. Yapay Sinir Ağlarının Yapısını Oluşturan Bilgiler • Ağın Topolojisi • Kullanılan toplama fonksiyonu • Kullanılan aktivasyon fonksiyonu • Öğrenme stratejisi • Öğrenme kuralı
  • 32. Yapay Sinir Ağlarının Uygulamaları • Örüntü sınıflandırma-Pattern classification (analysis of time– series, customer databases, etc). • Obje tanıma- Object recognition (ör. Karakter tanıma) • Güvenlik-security (kredi kartı sahteciliği)
  • 33. Yapay Sinir Ağlarının Yararları • Birçok alana uygulanabilir. • Doğrusal olmayan çok boyutlu, gürültülü, eksik veri olması durumlarında ve özellikle problemin çözümünde kesin bir matematiksel modelin veya algoritmanın bulunmadığı koşullarda uygulanabilir.
  • 34. Yapay Sinir Ağlarının Zayıf Yönleri • Diğer birçok algoritmada olduğu gibi az sayıda veri ile kullanılamaz. • Gizli düğümlerin sayısı, öğrenme oranı, minimum hata gibi parametrelerin belirlenmesi için net bir kural yoktur. • Aritmetik ve kesin hesaplamalarda başarılı değildir. • Ağda çok fazla çok fazla düğüm varsa, bu nedenle çok fazla ağırlık vardır ve bunların yorumlanması oldukça zordur.
  • 35. Kaynaklar • Middlesex University, Dr. Roman V Belavkin, BIS4435, Lecture notes. • Russell, S. and Norvig, P. (2010). Artificial Intelligence: A Modern Approach. Series in Artificial Intelligence. Prentice-Hall. • Öztemel E., Yapay sinir Ağları, 2012, Papatya Yayıncılık. • Bilecik Üniversitesi, Dr. Cihan Karakuzu, Nöral Sistemlere Giriş Ders Notları