SlideShare a Scribd company logo
1 of 19
UNIVERSITÀ DEGLI STUDI DI PERUGIA




                FACOLTÀDIECONOMIA
         Corso di Laurea in Statistica e Informatica per
                   la Gestione delle Imprese

                               Prova Finale
Apprendimento Automatico e Reti
           Neurali
                      Intelligenza Artificiale

           Relatore
 Prof.ssa Valentina Poggioni
                                                   Laureando
                                                 Giuseppe Agabiti   S
Cos’è l’Intelligenza
            Artificiale?
 L’intelligenza artificiale ha lo scopo di sviluppare
  algoritmi che fanno operazioni che apparentemente
  richiedono cognizione quando fatte da umani.
 Le azioni che un sistema intelligente deve svolgere
  sono fondamentalmente tre:
  1. Memorizzare la conoscenza
  2. Applicare la conoscenza per risolvere problemi
  3. Acquisire nuova conoscenza tramite l’esperienza
Calcolatore e Cervello Umano
 Un chip è più veloce di un singolo neurone del
  cervello:
  • 1 milione eventi/ms contro 1 evento/ms

 Però il cervello è composto da 100 miliardi di
  neuroni ognuno dei quali comunica con altri
  diecimila neuroni
 Il calcolatore è molto rapido e efficiente nel risolvere
  compiti in cui l’essere umano è in difficoltà
 Però è molto lento e inefficiente nel risolvere
  problemi che richiedano intuito o esperienza
Calcolatore e Cervello Umano
                                  Esiste un solo elemento di
                                  elaborazione (processore) che fa
                                  tutte le operazioni

                                  Il calcolatore deve essere
                                  programmato per svolgere un
                                  compito
Molti elementi di
elaborazione (neuroni)
lavorano allo stesso problema
Il cervello impara in base
all’esperienza o con l’aiuto di
un insegnante
Reti Neurali Biologiche
Il cervello è costituito da
una rete di neuroni
Al singolo
neurone, tramite dendriti e
sinapsi arrivano segnali
elettrici dagli altri neuroni
Se il segnale è al di sopra
di una soglia il neurone
genera un segnale in uscita
lungo l’assone
Reti Neurali Artificiali
 Le reti neurali artificiali sono sistemi di elaborazione
  ispirati al sistema nervoso degli esseri viventi
 I neuroni che compongono una rete neurale artificiale
  vengono raccolti in strati:
  1. Strati di ingresso, contenenti solo i
                                                      Strato    Strato Strato di
     neuroni che ricevono direttamente segnali     di Ingresso Nascosto Uscita
     provenienti dall’esterno della rete
  2. Strati di uscita, contenenti solo i neuroni
     che hanno un canale di uscita verso
     l’esterno
  3. Strati nascosti, che non sono né d’ingresso
     né d’uscita. I neuroni che compongono
     questi strati sono detti unità nascoste
Struttura di un nodo
 La rete neurale artificiale è costituita da semplici unità che simulano i
   neuroni (nodi)

                                              Il singolo nodo riceve i
                                                segnali dai suoi collegamenti
                                                in ingresso e calcola un
                                                nuovo livello d’attivazione
                                                che invia lungo tutti i suoi
                                                collegamenti in uscita

 Il calcolo del valore di attivazione ai è composto da due componenti:
    1   Componente lineare (funzione di ingresso), calcola la somma pesata dei
        valori d'ingresso del nodo
    2   Componente non lineare g(funzione di attivazione), trasforma la somma
        pesata nel valore finale ai
Funzioni di Attivazione “g”
La funzione a gradino ha
una soglia t che individua
l’ingresso pesato minimo che
permetta al neurone di inviare
l’impulso
Nella funzione di segno, invece di
avere una soglia t, si considera
per ciascun nodo un ingresso
aggiuntivo, la cui attivazione è
fissata a -1; il peso extra
associato ricopre il ruolo della
soglia t, in questo modo tutte le
unità possono avere una soglia
fissata a 0
Architettura di una Rete Neurale
 La connessione e la distribuzione dei nodi dipende dal
  tipo di Architettura di rete neurale a cui appartengono

 Le Architetture possono essere ragruppate in due classi:
  • Rete alimentata in avanti (feed-forward): I
    collegamenti sono in un’unica direzione e non ci
    sono cicli
    Il modello più famoso è il Percettrone
  • Reti ricorrenti con reazione (feed-back):
    L’attivazione può essere ripassata all’indietro
    Uno dei modelli più noti sono le Reti di Hopfield
Il Percettrone
 Il Percettrone sta alla base delle reti neurali; nasce da
  un’idea di Rosenblatt (1962) e con esso si cerca di simulare
  il funzionamento di un singolo neurone; viene utilizzato
  come sinonimo di rete alimentata in avanti ad uno strato
  (nessuna unità nascosta)
 Nel caso più basilare ha solo 2 input e un output:
  • Ognuno degli input, x1 e x2 ha un peso corrispondente, quindi
     l’output del percettrone sarà una funzione semplicemente data
     dalla somma ponderata degli input:
  y = f(x1*w1+x2*w2)
Le Reti di Hopfield
 Secondo questo modello ogni nodo può comunicare con
  tutti o almeno con una grande maggioranza degli altri
  neuroni non solo nello strato immediatamente
  successivo, ma potenzialmente in qualunque strato
 Tutte le unità sono sia
  d’ingresso che d’uscita
 La funzione di attivazione
  è la funzione segno e i livelli
  di attivazione possono
  essere solo ±1
L’Addestramento delle Reti
 I computer tradizionali non
  imparano dai propri sbagli
 Il cervello umano si

 La maggior parte delle reti
  neurali anche, attraverso
  l’aggiornamento dei pesi
 Una rete neurale addestrata è
  quindi una rete in cui i pesi delle
  connessioni sono stati fissati
Apprendimento Automatico
 Una definizione di tale concetto è stata formulata da
  Mitchell nel 1997:
  • “Un programma apprende dall’esperienza (E) rispetto ad
     una classe di problemi (T) e alla misura di performance
     (P), se la sua performance sui problemi in (T), così come
     misurata da (P), migliora con le esperienze in (E)”
                    Esempio: Gioco degli Scacchi

 Paradigmi di Apprendimento Automatico:
  • Apprendimento non supervisionato (unsupervisedlearning)
  • Apprendimento supervisionato (supervisedlearning)
  • Apprendimento con rinforzo (reinforcementlearning)
Apprendimento non Supervisionato
 Esperienza E
  • È costituita da una serie di esempi raccolti di cui non
    sappiamo quasi nulla
 Problema T
  • Individuare qualcosa d’interessante
 Performance P
  • Dipende da quanto è interessante quello che è stato
    trovato
                Esempio: Motori di ricerca
Apprendimento Supervisionato
 Esperienza E
   • Una serie di esempi che sono stati elaborati da un esperto,
   il supervisore
   • L’esperto o supervisore classifica gli esempi individuando un
       particolare fenomeno interessante

 Problema T
   • Estrarre dagli esempi una descrizione compatta del fenomeno
     descritto
  • La descrizione può essere successivamente sfruttata per fare delle
     previsioni sul fenomeno
 Performance P
  • Dipende da quanto accurata è la previsione su esempi non considerati
     dal supervisore

  Esempio: Cartelle Cliniche “Pazienti affetti da Patologia”
Apprendimento per Rinforzo
 Il sistema agisce direttamente sul problema “per tentativi”

 Un istruttore “premia” o “punisce” il sistema attraverso un segnale
  numerico di rinforzo a seconda del comportamento istantaneo del
  sistema

 Esperienza E
  • Le esperienze che il sistema colleziona
 Problema T
  • È quello di ottenere quanto più rinforzo possibile
 Performance P
  • Dipende dalla quantità di rinforzo ottenuta

          Esempio: Agente per il trading on-line
Applicazioni esistenti Reti
         Neurali
 Compressione dei dati

 Riconoscimento segnali Sonar

 Riconoscimento di caratteri

 Sistemi di guida automatica

 Analisi finanziarie

 Medicina
Vantaggi e Limiti delle Reti
         Neurali
 Vantaggi:
  • Le reti neurali sono in grado di risolvere problemi
    estremamente complessi per algoritmi tradizionali
  • Sono in grado di imparare
  • Lavorano in tempo reale
  • Ottengono risultati anche in presenza di dati complicati e
    imprecisi
 Limiti:
  • Sono “scatole nere”, i problemi vengono risolti, non capiti
  • È necessario disporre di un ampio numero di esempi per
     addestrarle
FINE

Tesi di Laurea di
Giuseppe Agabiti    S

More Related Content

What's hot

Adaptive Resonance Theory
Adaptive Resonance TheoryAdaptive Resonance Theory
Adaptive Resonance Theorysurat murthy
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORKESCOM
 
Goodfellow, Bengio, Couville (2016) "Deep Learning", Chap. 7
Goodfellow, Bengio, Couville (2016) "Deep Learning", Chap. 7Goodfellow, Bengio, Couville (2016) "Deep Learning", Chap. 7
Goodfellow, Bengio, Couville (2016) "Deep Learning", Chap. 7Ono Shigeru
 
Activation functions
Activation functionsActivation functions
Activation functionsPRATEEK SAHU
 
Artifical Neural Network and its applications
Artifical Neural Network and its applicationsArtifical Neural Network and its applications
Artifical Neural Network and its applicationsSangeeta Tiwari
 
Artificial Neural Network
Artificial Neural NetworkArtificial Neural Network
Artificial Neural NetworkKnoldus Inc.
 
Neural networks
Neural networksNeural networks
Neural networksBasil John
 
Artificial Neural Network
Artificial Neural NetworkArtificial Neural Network
Artificial Neural NetworkNainaBhatt1
 
Feedforward neural network
Feedforward neural networkFeedforward neural network
Feedforward neural networkSopheaktra YONG
 
Artificial Neural Network(Artificial intelligence)
Artificial Neural Network(Artificial intelligence)Artificial Neural Network(Artificial intelligence)
Artificial Neural Network(Artificial intelligence)spartacus131211
 
Artificial Neural Network Lecture 6- Associative Memories & Discrete Hopfield...
Artificial Neural Network Lecture 6- Associative Memories & Discrete Hopfield...Artificial Neural Network Lecture 6- Associative Memories & Discrete Hopfield...
Artificial Neural Network Lecture 6- Associative Memories & Discrete Hopfield...Mohammed Bennamoun
 
Artificial nueral network slideshare
Artificial nueral network slideshareArtificial nueral network slideshare
Artificial nueral network slideshareRed Innovators
 
Training Neural Networks
Training Neural NetworksTraining Neural Networks
Training Neural NetworksDatabricks
 
Yapay Sinir Aglari
Yapay Sinir AglariYapay Sinir Aglari
Yapay Sinir Aglariahmetkakici
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORKESCOM
 

What's hot (20)

Adaptive Resonance Theory
Adaptive Resonance TheoryAdaptive Resonance Theory
Adaptive Resonance Theory
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
 
Lecture11 - neural networks
Lecture11 - neural networksLecture11 - neural networks
Lecture11 - neural networks
 
Goodfellow, Bengio, Couville (2016) "Deep Learning", Chap. 7
Goodfellow, Bengio, Couville (2016) "Deep Learning", Chap. 7Goodfellow, Bengio, Couville (2016) "Deep Learning", Chap. 7
Goodfellow, Bengio, Couville (2016) "Deep Learning", Chap. 7
 
Perceptron
PerceptronPerceptron
Perceptron
 
Activation functions
Activation functionsActivation functions
Activation functions
 
Artifical Neural Network and its applications
Artifical Neural Network and its applicationsArtifical Neural Network and its applications
Artifical Neural Network and its applications
 
Artificial Neural Network
Artificial Neural NetworkArtificial Neural Network
Artificial Neural Network
 
Neural networks
Neural networksNeural networks
Neural networks
 
03 Single layer Perception Classifier
03 Single layer Perception Classifier03 Single layer Perception Classifier
03 Single layer Perception Classifier
 
Artificial neural network
Artificial neural networkArtificial neural network
Artificial neural network
 
Artificial Neural Network
Artificial Neural NetworkArtificial Neural Network
Artificial Neural Network
 
Feedforward neural network
Feedforward neural networkFeedforward neural network
Feedforward neural network
 
Artificial Neural Network(Artificial intelligence)
Artificial Neural Network(Artificial intelligence)Artificial Neural Network(Artificial intelligence)
Artificial Neural Network(Artificial intelligence)
 
Artificial Neural Network Lecture 6- Associative Memories & Discrete Hopfield...
Artificial Neural Network Lecture 6- Associative Memories & Discrete Hopfield...Artificial Neural Network Lecture 6- Associative Memories & Discrete Hopfield...
Artificial Neural Network Lecture 6- Associative Memories & Discrete Hopfield...
 
Artificial nueral network slideshare
Artificial nueral network slideshareArtificial nueral network slideshare
Artificial nueral network slideshare
 
Training Neural Networks
Training Neural NetworksTraining Neural Networks
Training Neural Networks
 
Yapay Sinir Aglari
Yapay Sinir AglariYapay Sinir Aglari
Yapay Sinir Aglari
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
 
Neural
NeuralNeural
Neural
 

Viewers also liked

(Italian) Applicazione dei metodi quasi-Newton per la convergenza delle reti ...
(Italian) Applicazione dei metodi quasi-Newton per la convergenza delle reti ...(Italian) Applicazione dei metodi quasi-Newton per la convergenza delle reti ...
(Italian) Applicazione dei metodi quasi-Newton per la convergenza delle reti ...emapesce
 
MASTER "re-design Medicine" THE BOOKLET
MASTER "re-design Medicine" THE BOOKLETMASTER "re-design Medicine" THE BOOKLET
MASTER "re-design Medicine" THE BOOKLETGiorgia Zunino
 
"APPLICAZIONI DI MACHINE LEARNING NEL DIGITAL OUT OF HOME
"APPLICAZIONI DI MACHINE LEARNING NEL DIGITAL OUT OF HOME"APPLICAZIONI DI MACHINE LEARNING NEL DIGITAL OUT OF HOME
"APPLICAZIONI DI MACHINE LEARNING NEL DIGITAL OUT OF HOMEConcordia Srl
 
RETI NEURALI ARTIFICIALI E RETI NEURALI BAYESIANE
RETI NEURALI ARTIFICIALI E RETI NEURALI BAYESIANERETI NEURALI ARTIFICIALI E RETI NEURALI BAYESIANE
RETI NEURALI ARTIFICIALI E RETI NEURALI BAYESIANEFausto Intilla
 
Smau Firenze 2015 - Startupitalia!
Smau Firenze 2015 - Startupitalia!Smau Firenze 2015 - Startupitalia!
Smau Firenze 2015 - Startupitalia!SMAU
 
Game of Thrones Infographic
Game of Thrones InfographicGame of Thrones Infographic
Game of Thrones InfographicValerio Capozio
 
Sissa presentazione crisci
Sissa presentazione crisciSissa presentazione crisci
Sissa presentazione crisciAlfonso Crisci
 
Tecniche basate su machine learning per la determinazione del profilo di un a...
Tecniche basate su machine learning per la determinazione del profilo di un a...Tecniche basate su machine learning per la determinazione del profilo di un a...
Tecniche basate su machine learning per la determinazione del profilo di un a...kylanee
 
Introduzione Alle Reti Neurali (Marco Botta)
Introduzione Alle Reti Neurali (Marco Botta)Introduzione Alle Reti Neurali (Marco Botta)
Introduzione Alle Reti Neurali (Marco Botta)Fausto Intilla
 
[SLIDE] Tecniche basate su machine learning per la determinazione del profilo...
[SLIDE] Tecniche basate su machine learning per la determinazione del profilo...[SLIDE] Tecniche basate su machine learning per la determinazione del profilo...
[SLIDE] Tecniche basate su machine learning per la determinazione del profilo...kylanee
 
Introduzione ai Big Data e alla scienza dei dati - I formati dati
Introduzione ai Big Data e alla scienza dei dati - I formati datiIntroduzione ai Big Data e alla scienza dei dati - I formati dati
Introduzione ai Big Data e alla scienza dei dati - I formati datiVincenzo Manzoni
 
Presentazione Manuel Kirschner, Phd symposium UniBZ, 12/2010
Presentazione Manuel Kirschner, Phd symposium UniBZ, 12/2010Presentazione Manuel Kirschner, Phd symposium UniBZ, 12/2010
Presentazione Manuel Kirschner, Phd symposium UniBZ, 12/2010makirs
 
Le tecnologie dei Big Data
Le tecnologie dei Big DataLe tecnologie dei Big Data
Le tecnologie dei Big DataVincenzo Manzoni
 
Big data e analisi predittiva
Big data e analisi predittivaBig data e analisi predittiva
Big data e analisi predittivaAntonio Bucciol
 
Azure Machine Learning (Italian)
Azure Machine Learning (Italian)Azure Machine Learning (Italian)
Azure Machine Learning (Italian)Davide Mauri
 
Introduzione ai Big Data e alla scienza dei dati - Big Data
Introduzione ai Big Data e alla scienza dei dati - Big DataIntroduzione ai Big Data e alla scienza dei dati - Big Data
Introduzione ai Big Data e alla scienza dei dati - Big DataVincenzo Manzoni
 

Viewers also liked (20)

(Italian) Applicazione dei metodi quasi-Newton per la convergenza delle reti ...
(Italian) Applicazione dei metodi quasi-Newton per la convergenza delle reti ...(Italian) Applicazione dei metodi quasi-Newton per la convergenza delle reti ...
(Italian) Applicazione dei metodi quasi-Newton per la convergenza delle reti ...
 
Previsione della radiazione solare mediante modelli basati su reti neurali ar...
Previsione della radiazione solare mediante modelli basati su reti neurali ar...Previsione della radiazione solare mediante modelli basati su reti neurali ar...
Previsione della radiazione solare mediante modelli basati su reti neurali ar...
 
MASTER "re-design Medicine" THE BOOKLET
MASTER "re-design Medicine" THE BOOKLETMASTER "re-design Medicine" THE BOOKLET
MASTER "re-design Medicine" THE BOOKLET
 
"APPLICAZIONI DI MACHINE LEARNING NEL DIGITAL OUT OF HOME
"APPLICAZIONI DI MACHINE LEARNING NEL DIGITAL OUT OF HOME"APPLICAZIONI DI MACHINE LEARNING NEL DIGITAL OUT OF HOME
"APPLICAZIONI DI MACHINE LEARNING NEL DIGITAL OUT OF HOME
 
RETI NEURALI ARTIFICIALI E RETI NEURALI BAYESIANE
RETI NEURALI ARTIFICIALI E RETI NEURALI BAYESIANERETI NEURALI ARTIFICIALI E RETI NEURALI BAYESIANE
RETI NEURALI ARTIFICIALI E RETI NEURALI BAYESIANE
 
Smau Firenze 2015 - Startupitalia!
Smau Firenze 2015 - Startupitalia!Smau Firenze 2015 - Startupitalia!
Smau Firenze 2015 - Startupitalia!
 
Game of Thrones Infographic
Game of Thrones InfographicGame of Thrones Infographic
Game of Thrones Infographic
 
Sissa presentazione crisci
Sissa presentazione crisciSissa presentazione crisci
Sissa presentazione crisci
 
Progetto RACES
Progetto RACES Progetto RACES
Progetto RACES
 
Tecniche basate su machine learning per la determinazione del profilo di un a...
Tecniche basate su machine learning per la determinazione del profilo di un a...Tecniche basate su machine learning per la determinazione del profilo di un a...
Tecniche basate su machine learning per la determinazione del profilo di un a...
 
Introduzione Alle Reti Neurali (Marco Botta)
Introduzione Alle Reti Neurali (Marco Botta)Introduzione Alle Reti Neurali (Marco Botta)
Introduzione Alle Reti Neurali (Marco Botta)
 
AV_slides
AV_slidesAV_slides
AV_slides
 
[SLIDE] Tecniche basate su machine learning per la determinazione del profilo...
[SLIDE] Tecniche basate su machine learning per la determinazione del profilo...[SLIDE] Tecniche basate su machine learning per la determinazione del profilo...
[SLIDE] Tecniche basate su machine learning per la determinazione del profilo...
 
Introduzione ai Big Data e alla scienza dei dati - I formati dati
Introduzione ai Big Data e alla scienza dei dati - I formati datiIntroduzione ai Big Data e alla scienza dei dati - I formati dati
Introduzione ai Big Data e alla scienza dei dati - I formati dati
 
Presentazione Manuel Kirschner, Phd symposium UniBZ, 12/2010
Presentazione Manuel Kirschner, Phd symposium UniBZ, 12/2010Presentazione Manuel Kirschner, Phd symposium UniBZ, 12/2010
Presentazione Manuel Kirschner, Phd symposium UniBZ, 12/2010
 
Le tecnologie dei Big Data
Le tecnologie dei Big DataLe tecnologie dei Big Data
Le tecnologie dei Big Data
 
Big data e analisi predittiva
Big data e analisi predittivaBig data e analisi predittiva
Big data e analisi predittiva
 
Azure Machine Learning (Italian)
Azure Machine Learning (Italian)Azure Machine Learning (Italian)
Azure Machine Learning (Italian)
 
Le reti neurali
Le reti neuraliLe reti neurali
Le reti neurali
 
Introduzione ai Big Data e alla scienza dei dati - Big Data
Introduzione ai Big Data e alla scienza dei dati - Big DataIntroduzione ai Big Data e alla scienza dei dati - Big Data
Introduzione ai Big Data e alla scienza dei dati - Big Data
 

Similar to Reti Neurali

Identificare feature significative per l’analisi nell’informatica forense uti...
Identificare feature significative per l’analisi nell’informatica forense uti...Identificare feature significative per l’analisi nell’informatica forense uti...
Identificare feature significative per l’analisi nell’informatica forense uti...Antonio Notarangelo
 
MATLAB Environment for Neural Network Deployment
MATLAB Environment for Neural Network DeploymentMATLAB Environment for Neural Network Deployment
MATLAB Environment for Neural Network DeploymentAngelo Cardellicchio
 
Reti Neurali Su Personal Computer + Fuzzy Logic
Reti Neurali Su Personal Computer + Fuzzy LogicReti Neurali Su Personal Computer + Fuzzy Logic
Reti Neurali Su Personal Computer + Fuzzy LogicFausto Intilla
 
Lezione 2 (29 febbraio 2012)
Lezione 2 (29 febbraio 2012)Lezione 2 (29 febbraio 2012)
Lezione 2 (29 febbraio 2012)STELITANO
 
The first human-electrinic creature: Cremino.
The first human-electrinic creature: Cremino.The first human-electrinic creature: Cremino.
The first human-electrinic creature: Cremino.rita.pizzi
 
The first human-electronic creature: Cremino
The first human-electronic creature: CreminoThe first human-electronic creature: Cremino
The first human-electronic creature: CreminoRita Pizzi
 
Blockchain e AI: verso una nuova finanza
Blockchain e AI: verso una nuova finanzaBlockchain e AI: verso una nuova finanza
Blockchain e AI: verso una nuova finanzaAlessandro Greppi
 
Programmazione Genetica per l'Inferenza di Reti di Kauffman
Programmazione Genetica per l'Inferenza di Reti di KauffmanProgrammazione Genetica per l'Inferenza di Reti di Kauffman
Programmazione Genetica per l'Inferenza di Reti di KauffmanDaniele Bellavista
 
EEG - Datamining pres. 08-10-2013
EEG - Datamining pres. 08-10-2013EEG - Datamining pres. 08-10-2013
EEG - Datamining pres. 08-10-2013Claudio Camuto
 
GFilosofi_neural-networks_2006
GFilosofi_neural-networks_2006GFilosofi_neural-networks_2006
GFilosofi_neural-networks_2006Gabriele Filosofi
 
Extended Summary of “Co-Learning of Task and Sensor Placement for Soft Robotics”
Extended Summary of “Co-Learning of Task and Sensor Placement for Soft Robotics”Extended Summary of “Co-Learning of Task and Sensor Placement for Soft Robotics”
Extended Summary of “Co-Learning of Task and Sensor Placement for Soft Robotics”RiccardoWeis
 
Arduino basic workshop
Arduino basic workshopArduino basic workshop
Arduino basic workshopDaniele Iori
 
Deep Learning on Event-Based Cameras
Deep Learning on Event-Based CamerasDeep Learning on Event-Based Cameras
Deep Learning on Event-Based CamerasMarco Cannici
 
Elaborazione automatica dei dati: computer e matlab
Elaborazione automatica dei dati: computer e matlabElaborazione automatica dei dati: computer e matlab
Elaborazione automatica dei dati: computer e matlabprofman
 
I principi base dell’intelligenza artificiale spiegata ai non tecnici
I principi base dell’intelligenza artificiale spiegata ai non tecnici I principi base dell’intelligenza artificiale spiegata ai non tecnici
I principi base dell’intelligenza artificiale spiegata ai non tecnici KEA s.r.l.
 
From cnn to capsule_Matteo_Alberti
From cnn to capsule_Matteo_AlbertiFrom cnn to capsule_Matteo_Alberti
From cnn to capsule_Matteo_AlbertiDeep Learning Italia
 
Lezione 9 (14 marzo 2012)
Lezione 9 (14 marzo 2012)Lezione 9 (14 marzo 2012)
Lezione 9 (14 marzo 2012)STELITANO
 
Neural Network per la composizione musicale
Neural Network per la composizione musicaleNeural Network per la composizione musicale
Neural Network per la composizione musicaleCorinne Schillizzi
 

Similar to Reti Neurali (20)

Identificare feature significative per l’analisi nell’informatica forense uti...
Identificare feature significative per l’analisi nell’informatica forense uti...Identificare feature significative per l’analisi nell’informatica forense uti...
Identificare feature significative per l’analisi nell’informatica forense uti...
 
MATLAB Environment for Neural Network Deployment
MATLAB Environment for Neural Network DeploymentMATLAB Environment for Neural Network Deployment
MATLAB Environment for Neural Network Deployment
 
AV_tesi_v5
AV_tesi_v5AV_tesi_v5
AV_tesi_v5
 
Reti Neurali Su Personal Computer + Fuzzy Logic
Reti Neurali Su Personal Computer + Fuzzy LogicReti Neurali Su Personal Computer + Fuzzy Logic
Reti Neurali Su Personal Computer + Fuzzy Logic
 
Lezione 2 (29 febbraio 2012)
Lezione 2 (29 febbraio 2012)Lezione 2 (29 febbraio 2012)
Lezione 2 (29 febbraio 2012)
 
The first human-electrinic creature: Cremino.
The first human-electrinic creature: Cremino.The first human-electrinic creature: Cremino.
The first human-electrinic creature: Cremino.
 
The first human-electronic creature: Cremino
The first human-electronic creature: CreminoThe first human-electronic creature: Cremino
The first human-electronic creature: Cremino
 
Blockchain e AI: verso una nuova finanza
Blockchain e AI: verso una nuova finanzaBlockchain e AI: verso una nuova finanza
Blockchain e AI: verso una nuova finanza
 
Programmazione Genetica per l'Inferenza di Reti di Kauffman
Programmazione Genetica per l'Inferenza di Reti di KauffmanProgrammazione Genetica per l'Inferenza di Reti di Kauffman
Programmazione Genetica per l'Inferenza di Reti di Kauffman
 
EEG - Datamining pres. 08-10-2013
EEG - Datamining pres. 08-10-2013EEG - Datamining pres. 08-10-2013
EEG - Datamining pres. 08-10-2013
 
GFilosofi_neural-networks_2006
GFilosofi_neural-networks_2006GFilosofi_neural-networks_2006
GFilosofi_neural-networks_2006
 
Extended Summary of “Co-Learning of Task and Sensor Placement for Soft Robotics”
Extended Summary of “Co-Learning of Task and Sensor Placement for Soft Robotics”Extended Summary of “Co-Learning of Task and Sensor Placement for Soft Robotics”
Extended Summary of “Co-Learning of Task and Sensor Placement for Soft Robotics”
 
Arduino basic workshop
Arduino basic workshopArduino basic workshop
Arduino basic workshop
 
Deep Learning on Event-Based Cameras
Deep Learning on Event-Based CamerasDeep Learning on Event-Based Cameras
Deep Learning on Event-Based Cameras
 
02 algo programmi
02 algo programmi02 algo programmi
02 algo programmi
 
Elaborazione automatica dei dati: computer e matlab
Elaborazione automatica dei dati: computer e matlabElaborazione automatica dei dati: computer e matlab
Elaborazione automatica dei dati: computer e matlab
 
I principi base dell’intelligenza artificiale spiegata ai non tecnici
I principi base dell’intelligenza artificiale spiegata ai non tecnici I principi base dell’intelligenza artificiale spiegata ai non tecnici
I principi base dell’intelligenza artificiale spiegata ai non tecnici
 
From cnn to capsule_Matteo_Alberti
From cnn to capsule_Matteo_AlbertiFrom cnn to capsule_Matteo_Alberti
From cnn to capsule_Matteo_Alberti
 
Lezione 9 (14 marzo 2012)
Lezione 9 (14 marzo 2012)Lezione 9 (14 marzo 2012)
Lezione 9 (14 marzo 2012)
 
Neural Network per la composizione musicale
Neural Network per la composizione musicaleNeural Network per la composizione musicale
Neural Network per la composizione musicale
 

Reti Neurali

  • 1. UNIVERSITÀ DEGLI STUDI DI PERUGIA FACOLTÀDIECONOMIA Corso di Laurea in Statistica e Informatica per la Gestione delle Imprese Prova Finale Apprendimento Automatico e Reti Neurali Intelligenza Artificiale Relatore Prof.ssa Valentina Poggioni Laureando Giuseppe Agabiti S
  • 2. Cos’è l’Intelligenza Artificiale?  L’intelligenza artificiale ha lo scopo di sviluppare algoritmi che fanno operazioni che apparentemente richiedono cognizione quando fatte da umani.  Le azioni che un sistema intelligente deve svolgere sono fondamentalmente tre: 1. Memorizzare la conoscenza 2. Applicare la conoscenza per risolvere problemi 3. Acquisire nuova conoscenza tramite l’esperienza
  • 3. Calcolatore e Cervello Umano  Un chip è più veloce di un singolo neurone del cervello: • 1 milione eventi/ms contro 1 evento/ms  Però il cervello è composto da 100 miliardi di neuroni ognuno dei quali comunica con altri diecimila neuroni  Il calcolatore è molto rapido e efficiente nel risolvere compiti in cui l’essere umano è in difficoltà  Però è molto lento e inefficiente nel risolvere problemi che richiedano intuito o esperienza
  • 4. Calcolatore e Cervello Umano Esiste un solo elemento di elaborazione (processore) che fa tutte le operazioni Il calcolatore deve essere programmato per svolgere un compito Molti elementi di elaborazione (neuroni) lavorano allo stesso problema Il cervello impara in base all’esperienza o con l’aiuto di un insegnante
  • 5. Reti Neurali Biologiche Il cervello è costituito da una rete di neuroni Al singolo neurone, tramite dendriti e sinapsi arrivano segnali elettrici dagli altri neuroni Se il segnale è al di sopra di una soglia il neurone genera un segnale in uscita lungo l’assone
  • 6. Reti Neurali Artificiali  Le reti neurali artificiali sono sistemi di elaborazione ispirati al sistema nervoso degli esseri viventi  I neuroni che compongono una rete neurale artificiale vengono raccolti in strati: 1. Strati di ingresso, contenenti solo i Strato Strato Strato di neuroni che ricevono direttamente segnali di Ingresso Nascosto Uscita provenienti dall’esterno della rete 2. Strati di uscita, contenenti solo i neuroni che hanno un canale di uscita verso l’esterno 3. Strati nascosti, che non sono né d’ingresso né d’uscita. I neuroni che compongono questi strati sono detti unità nascoste
  • 7. Struttura di un nodo  La rete neurale artificiale è costituita da semplici unità che simulano i neuroni (nodi)  Il singolo nodo riceve i segnali dai suoi collegamenti in ingresso e calcola un nuovo livello d’attivazione che invia lungo tutti i suoi collegamenti in uscita  Il calcolo del valore di attivazione ai è composto da due componenti: 1 Componente lineare (funzione di ingresso), calcola la somma pesata dei valori d'ingresso del nodo 2 Componente non lineare g(funzione di attivazione), trasforma la somma pesata nel valore finale ai
  • 8. Funzioni di Attivazione “g” La funzione a gradino ha una soglia t che individua l’ingresso pesato minimo che permetta al neurone di inviare l’impulso Nella funzione di segno, invece di avere una soglia t, si considera per ciascun nodo un ingresso aggiuntivo, la cui attivazione è fissata a -1; il peso extra associato ricopre il ruolo della soglia t, in questo modo tutte le unità possono avere una soglia fissata a 0
  • 9. Architettura di una Rete Neurale  La connessione e la distribuzione dei nodi dipende dal tipo di Architettura di rete neurale a cui appartengono  Le Architetture possono essere ragruppate in due classi: • Rete alimentata in avanti (feed-forward): I collegamenti sono in un’unica direzione e non ci sono cicli Il modello più famoso è il Percettrone • Reti ricorrenti con reazione (feed-back): L’attivazione può essere ripassata all’indietro Uno dei modelli più noti sono le Reti di Hopfield
  • 10. Il Percettrone  Il Percettrone sta alla base delle reti neurali; nasce da un’idea di Rosenblatt (1962) e con esso si cerca di simulare il funzionamento di un singolo neurone; viene utilizzato come sinonimo di rete alimentata in avanti ad uno strato (nessuna unità nascosta)  Nel caso più basilare ha solo 2 input e un output: • Ognuno degli input, x1 e x2 ha un peso corrispondente, quindi l’output del percettrone sarà una funzione semplicemente data dalla somma ponderata degli input: y = f(x1*w1+x2*w2)
  • 11. Le Reti di Hopfield  Secondo questo modello ogni nodo può comunicare con tutti o almeno con una grande maggioranza degli altri neuroni non solo nello strato immediatamente successivo, ma potenzialmente in qualunque strato  Tutte le unità sono sia d’ingresso che d’uscita  La funzione di attivazione è la funzione segno e i livelli di attivazione possono essere solo ±1
  • 12. L’Addestramento delle Reti  I computer tradizionali non imparano dai propri sbagli  Il cervello umano si  La maggior parte delle reti neurali anche, attraverso l’aggiornamento dei pesi  Una rete neurale addestrata è quindi una rete in cui i pesi delle connessioni sono stati fissati
  • 13. Apprendimento Automatico  Una definizione di tale concetto è stata formulata da Mitchell nel 1997: • “Un programma apprende dall’esperienza (E) rispetto ad una classe di problemi (T) e alla misura di performance (P), se la sua performance sui problemi in (T), così come misurata da (P), migliora con le esperienze in (E)” Esempio: Gioco degli Scacchi  Paradigmi di Apprendimento Automatico: • Apprendimento non supervisionato (unsupervisedlearning) • Apprendimento supervisionato (supervisedlearning) • Apprendimento con rinforzo (reinforcementlearning)
  • 14. Apprendimento non Supervisionato  Esperienza E • È costituita da una serie di esempi raccolti di cui non sappiamo quasi nulla  Problema T • Individuare qualcosa d’interessante  Performance P • Dipende da quanto è interessante quello che è stato trovato  Esempio: Motori di ricerca
  • 15. Apprendimento Supervisionato  Esperienza E • Una serie di esempi che sono stati elaborati da un esperto, il supervisore • L’esperto o supervisore classifica gli esempi individuando un particolare fenomeno interessante  Problema T • Estrarre dagli esempi una descrizione compatta del fenomeno descritto • La descrizione può essere successivamente sfruttata per fare delle previsioni sul fenomeno  Performance P • Dipende da quanto accurata è la previsione su esempi non considerati dal supervisore  Esempio: Cartelle Cliniche “Pazienti affetti da Patologia”
  • 16. Apprendimento per Rinforzo  Il sistema agisce direttamente sul problema “per tentativi”  Un istruttore “premia” o “punisce” il sistema attraverso un segnale numerico di rinforzo a seconda del comportamento istantaneo del sistema  Esperienza E • Le esperienze che il sistema colleziona  Problema T • È quello di ottenere quanto più rinforzo possibile  Performance P • Dipende dalla quantità di rinforzo ottenuta  Esempio: Agente per il trading on-line
  • 17. Applicazioni esistenti Reti Neurali  Compressione dei dati  Riconoscimento segnali Sonar  Riconoscimento di caratteri  Sistemi di guida automatica  Analisi finanziarie  Medicina
  • 18. Vantaggi e Limiti delle Reti Neurali  Vantaggi: • Le reti neurali sono in grado di risolvere problemi estremamente complessi per algoritmi tradizionali • Sono in grado di imparare • Lavorano in tempo reale • Ottengono risultati anche in presenza di dati complicati e imprecisi  Limiti: • Sono “scatole nere”, i problemi vengono risolti, non capiti • È necessario disporre di un ampio numero di esempi per addestrarle
  • 19. FINE Tesi di Laurea di Giuseppe Agabiti S