SlideShare ist ein Scribd-Unternehmen logo
1 von 6
Downloaden Sie, um offline zu lesen
Ejemplo de Funciones logsig y tansig
Andrea Armijos
Ingenieria en Sistemas
Vanessa Erraez
Ingenieria en Sistemas
Resúmen
En el presente artículo abordará el tema de funciones de activación, las cuales permiten dar
mayor flexibilidad al sistema,y por ende mayor capacidad. En el presente trabajo se hará uso
de dos funciones muy importantes como lo son logarítmica sigmoidea (Logsig) y tangente
sigmoidal (Tansig). Los valores de entrada de estas dos funciones pueden oscilar entre menos
y más infinito; y las salidas que proporcionan la función Logsig esta dentro de un rango que va
de 0 a 1 y la función Tansig de -1 a 1.
Introducción
Una neurona artificial está formada por un sumador que
se encarga de sumar todas las entradas multiplicadas por las
respectivas sinapsis, un umbral exterior que determina el um-
bral por encima del cual la neurona se activa y una función
de activación, representada por f(n), donde la función de ac-
tivación puede ser una función lineal o no lineal de n, y es
escogida dependiendo de las especificaciones del problema
que la neurona tenga que resolver, en el presente trabajo se
utilizara función logarítmica sigmoidea (Logsig) y la función
tangente sigmoidal (Tansig).
Desarrollo
Redes Neuronales Artificiales
Las Redes Neuronales Supervisadas (RNS) son un
conjunto de algoritmos matemáticos que encuentran las
relaciones no lineales entre conjuntos de datos. Suelen
ser utilizadas comoherramientas para la predicción de
tendencias y como clasificadoras de conjuntos de datos.Se
denominan Neuronales porque están basadasen el fun-
cionamiento de una neurona biológica cuando procesa
información(Estévez, 2002).
El modelo de una neurona consta de:
Las entradas x e y.
Los pesos sinápticos w1 y w2 correspondientes a cada
entrada.
Un término aditivo b.
Una salida z. (Claudio Tablada, s.f.).
En la siguiente figura se muestra los elementos que
conforman una neurona artificial.
Figura 1: Modelo de una neurona artificial
Existen muchas formas de clasificcar a las neuronas,
las más utilizadas son según su arquitectura o sus métodos
de entrenamiento.
Arquitectura de una red neuronal
Una vez definida el tipo de neurona que se utilizar á en un
modelo de redes neuronales artificiales es necesario definir
la topología de la misma.
La organización y disposición de la s neuronas dentro de
una red neuronal se denomina topología, y viene dada por el
número de capas, la cantidad de neuronas por capa, el grad
o de conectividad, y el tipo de conexión entre neuronas.
Las neuronas suelen agruparse en unidades funcionales
denominadas capas. Se denomina capa de entrada a aquella
que esta compuesta por neuronas de entradas y por lo
tanto recibe info rmación procedente desde el exterior.
Análogamente, se denomina ca pa oculta y capa de salida a
aquellas capas que están compuestas por neuronas ocultas y
de salida respectivamente. Una red neuronal arti ficial esta
compuesta por una o más capas, las cuales se encuentran
Andrea Armijos-Vanessa Erraez Tutor: Ing Henry Paz
interconectadas entre sí(Bertona, 2005).
Aprendizaje de una neurona artificial
Durante la operatoria de una red neuronal podemos di stin-
guir claramente dos fases o modos de operación: la fase de
aprendizaje o ent renamiento, y la fase de operación o ejecu-
ción. Durante la primera fase, la fase de aprendizaje, la red es
entrenada para realizar un determinado ti po de procesamien-
to. Una vez alcanzado un nivel de entrenamiento adecuado,
se pa sa a la fase de oper ación, donde la red es utilizada
para llevar a cabo la tarea para la cual fue entrenada(Bertona,
2005).
Fase de entrenamiento
Una vez seleccionada el tipo de neurona artificial que se
utilizará en una red neuronal y determinada su topología
es ne cesario entrenarla para que la red pueda ser utilizada.
Partiendo de un conjunt o de pesos sinápticos aleatorio,
el proceso de aprendizaje busca un conjunto de pesos que
permitan a la red desarrollar correctamente una determinada
tarea. Durante el proceso de aprendizaje se va refinando
iterativamente la solución hasta alcanzar un nivel de
operación suficientemente bueno. (Bertona, 2005).
El proceso de parendizaje se divide en tres grupos:
• Aprendizaje supervisado. Se pr esenta a la red un
conjunto de patrones de entrada junt o con la salida esper
ada. Los pesos se van modificando de manera proporcional
al error que se produce entre la salida real de la red y la
salida esperada.
• Aprendizaje no supervisado. Se presenta a la red un
conjunto de patrones de entrada. No hay informa ción dispo-
nible sobre la salida esperada. El proceso de entrenamiento
en este caso deberá ajustar sus pesos en base a la correlación
existente entre los datos de entrada.
• Aprendizaje por refuerzo. Este tipo de aprendizaje se
ubica entre medio de los dos anteriores. Se le presenta a
la r ed un conjunto de patrones de entrada y se le indica a
la red si la salida obtenida es o no correcta. Sin embargo,
no se le proporciona el valor de la salida esperada. Este
tipo de aprendizaje es muy útil en aquellos casos en que se
desconoce cual es la sali da exacta que debe proporcionar la
red (Bertona, 2005).
Fase de operación
Una vez finalizada la fase de aprendizaje, la red puede ser
utilizada para realizar la tarea para la que fue entrenada. Una
de las principales ventajas que posee este modelo es que la
red aprende la relación existente entre los datos, adquiriendo
la capacidad de generalizar conceptos. De esta manera, una
red neuronal puede tratar con información que no le fue
presentada durante de la fase de entrenamiento(Bertona,
2005).
Función de transferencia Logarítmica Sigmoidea (Log-
sig)
La salida de esta función siempre será continua en el
rango entre cero y uno. Con esta familia de funciones se
pueden utilizar datos continuos o digitales proporcionando
salidas exclusivamente continuas(Estévez, 2002).
Algoritmo
Logsig(n) es equivalente a:
Gráfica
Figura21: Funcion Logsig
En la figura 2 se observa como la función adopta valores
muy próximos a cero cuando X es pequeño, pero según
aumenta el valor en el eje de las abscisas la función pasa a
ser creciente. Al principio la pendiente de la función crece
hasta llegar a un punto de inflexión, momento en el cual la
pendiente comienza a descender hasta llegar a cero, a partir
del cual la función vuelve a dar un valor constante e igual a
uno.
(Estévez, 2002).
Ejemplo:
Encuentre la salida de la red neuronal mostrada, suponga
que f(x) es la función logsig(x)(Ledesma, s.f.).
UNIVERSIDAD NACIONAL DE LOJA
aearmijosc@unl.edu.ec, mverraeaze@unl.edu.ec
2
Andrea Armijos-Vanessa Erraez Tutor: Ing Henry Paz
Figura 2: Ejemplo
Donde tenemos las siguientes entradas, pesos y bias:
Para encontrar la solución, primeramente se debe encon-
trar N por lo tanto se aplica la fórmula:
Y se lo reemplaza en la fórmula dada en el algoritmo:
Quedando de la siguiente manera el resultado:
Función de transferencia Tangente Hiperbólica(Tansig)
Esta es una de las funciones más utilizadas en las
redes neuronales por su flexibilidad y el amplio rango de
resultados que ofrece. Las ventajas de utilizar una tangente
sigmoidea frente a una sigmoidea reside en que la segunda
sólo ofrece resultados en el rango positivo entre cero y uno,
en cambio la tangente sigmoidea da resultados entre 1 y -1,
por lo que se amplía a los números negativos los posibles
resultados(Estévez, 2002).
Algoritmo
Tansig(n) es equivalente a:
Gráfica
Figura 3: Funcion Tansig
El resultado que nos ofrecen cada una de estas funciones
será el dato de salida de la neurona que se dirigirá bien a otra
neurona o al resultado final.
Ejemplo:
Encuentre la salida de la red neuronal mostrada, suponga
que f(x) es la función logsig(x). Donde tenemos las siguien-
tes entradas, pesos y bias:
Para encontrar la solución, primeramente se debe encon-
trar N por lo tanto se aplica la fórmula:
UNIVERSIDAD NACIONAL DE LOJA
aearmijosc@unl.edu.ec, mverraeaze@unl.edu.ec
3
Andrea Armijos-Vanessa Erraez Tutor: Ing Henry Paz
Y se reemplaza el valor encontrado en la fórmula dada en
el algoritmo:
Ejercicio realizado en matlab
Para crear la red neuronal se utilizó el comando newff,
cuyo formato basico es el siguiente:
newff([min1 max1; min2 max2; ...], [3, ..., 4], ’logsig’,...,
’traingdx’)(Ledesma, s.f.).
(min1 max1; min2 max2)= rango entradas.
(3, ..., 4)= numero de neuronas en el nivel Escondido
a cada entrada.
(’logsig’,...)= Función.
’traingdx’ = Entrenamiento(Claudio Tablada, s.f.).
BOTON CLASIFICAR
codigo para elegir el tipo de función
switch funcion
case 1
handles.fun=’logsig’;
guidata(hObject,handles);
case 2
handles.fun=’tansig’;
guidata(hObject,handles);
end
ncapas=[];
fact=;
Se obtienes el número de capas
numCapa=str2num(get(handles.ncapas,’String’))
Ingreso del númmero de neuronas por cada capa
for c=1:1:numCapa
entrada=inputdlg(’N◦
de neuronas’,’N◦
neuronas’,1,’0’);
ncapas=[ncapas str2num(entrada1,1)];
fact(c)=handles.fun;
end
ncapas;
handles.nunC=ncapas;
guidata(hObject,handles);
fact;
handles.funAct=fact;
guidata(hObject,handles);
Se obtiene los valores de entrada
entrad = str2num(get(handles.entrada1,’String’));
Codigo para crear y entrenar la red
net = newff(minmax(entrad),handles.nunC,
handles.funAct,handles.current_dat);
net.trainParam.show = 50;
net.trainParam.lr = 0.04;
net.trainParam.epochs = 400;
net.trainParam.goal = 1e-5;
a = sim(net,entrad);
view(net);
plot(entrad);
Codigo para el tipo de entrenamiento
UNIVERSIDAD NACIONAL DE LOJA
aearmijosc@unl.edu.ec, mverraeaze@unl.edu.ec
4
Andrea Armijos-Vanessa Erraez Tutor: Ing Henry Paz
val = get(hObject,’Value’);
str = get(hObject,’String’);
switch strval case ’traingdx’
handles.currentdat = traingdx ;
guidata(hObject,handles);
case ’traingdm’
handles.currentdat = traingdm ;
guidata(hObject,handles);
case ’trainlm’
handles.currentdat = trainlm ;
guidata(hObject,handles);
end
guidata(hObject,handles);
Interfáz gráfica
La siguinte ventana permite ingresar los siguientes da-
tos:elegir la función logsig o tansig, escoger el tipo de entre-
namiento, datos de entrada, el número de capas y al momento
de presionar el botón clasificar se podrá ingresar el número
de neuronas.
Figura 4: Ventana para el ingreso de datos
Ingreso de datos
Figura 4: Ventana para el Ingreso de datos para la función tansig
Resultado de la función tansig
Figura 5: Resultado de la función tansig
De acuerdo a los datos ingresados se puedes observar que
la red neuronal posee dos entradas, dos capas, tres neuronas
en cada capa y 3 salidas.
Figura 5:Red Neuronal
Referencias
Bertona, L. F. (2005). Entrenamiento de redes neuro-
nales basado en algoritmos evolutivos. Descargado de
http://www.monografias.com/trabajos-pdf
/entrenamiento-redes-neuronales-algoritmos
-evolutivos/
UNIVERSIDAD NACIONAL DE LOJA
aearmijosc@unl.edu.ec, mverraeaze@unl.edu.ec
5
Andrea Armijos-Vanessa Erraez Tutor: Ing Henry Paz
entrenamiento-redes-neuronales-
algoritmos-evolutivos.pdf
Claudio Tablada, G. A. T. (s.f.). Redes neuronales artificiales. Des-
cargado de http://www.fis.uncor.edu/revedu/documents
/vol24/243redes.pd f
Estévez, P. G. (2002). The interpretation of dreams. Descargado
de http://eprints.ucm.es/6767/1/0205.pdf
Ledesma, S. (s.f.). Las redes neuronales. Descargado de
http://newton.azc.uam.mx/mcc/01e sp
/08sitios/micai06/TUTORIALS/
UNIVERSIDAD NACIONAL DE LOJA
aearmijosc@unl.edu.ec, mverraeaze@unl.edu.ec
6

Weitere ähnliche Inhalte

Was ist angesagt?

Lab de tele 1 - Fourier using matlab - UNTECS
Lab de tele 1 - Fourier using matlab - UNTECSLab de tele 1 - Fourier using matlab - UNTECS
Lab de tele 1 - Fourier using matlab - UNTECSIng. Electrónica xD
 
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesConstruccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesESCOM
 
Sistemas de control en tiempo discreto por katsuhiko ogata
Sistemas de control en tiempo discreto por katsuhiko ogataSistemas de control en tiempo discreto por katsuhiko ogata
Sistemas de control en tiempo discreto por katsuhiko ogataWill Benavides
 
SICRONIZACION DE PROCESOS
SICRONIZACION DE PROCESOSSICRONIZACION DE PROCESOS
SICRONIZACION DE PROCESOSlorenapardo
 
Deep Learning A-Z™: Artificial Neural Networks (ANN) - The Activation Function
Deep Learning A-Z™: Artificial Neural Networks (ANN) - The Activation FunctionDeep Learning A-Z™: Artificial Neural Networks (ANN) - The Activation Function
Deep Learning A-Z™: Artificial Neural Networks (ANN) - The Activation FunctionKirill Eremenko
 
RED NEURONAL ADALINE
RED NEURONAL ADALINERED NEURONAL ADALINE
RED NEURONAL ADALINEESCOM
 
Red NEURONAL de Hamming
Red   NEURONAL    de HammingRed   NEURONAL    de Hamming
Red NEURONAL de HammingESCOM
 
Convolutional Neural Networks
Convolutional Neural NetworksConvolutional Neural Networks
Convolutional Neural NetworksTianxiang Xiong
 
Muestreo y cuantificación de una señal analógica con MatLab
Muestreo y cuantificación de una señal analógica con MatLabMuestreo y cuantificación de una señal analógica con MatLab
Muestreo y cuantificación de una señal analógica con MatLabmarco calderon layme
 
Artificial Neural Networks Lect5: Multi-Layer Perceptron & Backpropagation
Artificial Neural Networks Lect5: Multi-Layer Perceptron & BackpropagationArtificial Neural Networks Lect5: Multi-Layer Perceptron & Backpropagation
Artificial Neural Networks Lect5: Multi-Layer Perceptron & BackpropagationMohammed Bennamoun
 

Was ist angesagt? (20)

Recurrent Neural Network
Recurrent Neural NetworkRecurrent Neural Network
Recurrent Neural Network
 
Robotica Avanzada.pdf
Robotica Avanzada.pdfRobotica Avanzada.pdf
Robotica Avanzada.pdf
 
Lab de tele 1 - Fourier using matlab - UNTECS
Lab de tele 1 - Fourier using matlab - UNTECSLab de tele 1 - Fourier using matlab - UNTECS
Lab de tele 1 - Fourier using matlab - UNTECS
 
Lab2 digitales
Lab2 digitalesLab2 digitales
Lab2 digitales
 
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesConstruccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
 
Recurrent neural network
Recurrent neural networkRecurrent neural network
Recurrent neural network
 
Estabilidad relativa
Estabilidad relativaEstabilidad relativa
Estabilidad relativa
 
flip flop.pdf
flip flop.pdfflip flop.pdf
flip flop.pdf
 
Sistemas de control en tiempo discreto por katsuhiko ogata
Sistemas de control en tiempo discreto por katsuhiko ogataSistemas de control en tiempo discreto por katsuhiko ogata
Sistemas de control en tiempo discreto por katsuhiko ogata
 
Scrip de la base de datos cine
Scrip de la base de datos cineScrip de la base de datos cine
Scrip de la base de datos cine
 
SICRONIZACION DE PROCESOS
SICRONIZACION DE PROCESOSSICRONIZACION DE PROCESOS
SICRONIZACION DE PROCESOS
 
Logica difusa grupo 2
Logica difusa grupo 2Logica difusa grupo 2
Logica difusa grupo 2
 
Deep Learning A-Z™: Artificial Neural Networks (ANN) - The Activation Function
Deep Learning A-Z™: Artificial Neural Networks (ANN) - The Activation FunctionDeep Learning A-Z™: Artificial Neural Networks (ANN) - The Activation Function
Deep Learning A-Z™: Artificial Neural Networks (ANN) - The Activation Function
 
Mapas karnaught
Mapas karnaughtMapas karnaught
Mapas karnaught
 
RED NEURONAL ADALINE
RED NEURONAL ADALINERED NEURONAL ADALINE
RED NEURONAL ADALINE
 
Red NEURONAL de Hamming
Red   NEURONAL    de HammingRed   NEURONAL    de Hamming
Red NEURONAL de Hamming
 
transformada z
transformada ztransformada z
transformada z
 
Convolutional Neural Networks
Convolutional Neural NetworksConvolutional Neural Networks
Convolutional Neural Networks
 
Muestreo y cuantificación de una señal analógica con MatLab
Muestreo y cuantificación de una señal analógica con MatLabMuestreo y cuantificación de una señal analógica con MatLab
Muestreo y cuantificación de una señal analógica con MatLab
 
Artificial Neural Networks Lect5: Multi-Layer Perceptron & Backpropagation
Artificial Neural Networks Lect5: Multi-Layer Perceptron & BackpropagationArtificial Neural Networks Lect5: Multi-Layer Perceptron & Backpropagation
Artificial Neural Networks Lect5: Multi-Layer Perceptron & Backpropagation
 

Andere mochten auch

Funciones de activacion Poslin y Purelin
Funciones de activacion Poslin y PurelinFunciones de activacion Poslin y Purelin
Funciones de activacion Poslin y PurelinDiego Guamán
 
Función de activación de Logsig y tansig
Función  de activación de Logsig y tansigFunción  de activación de Logsig y tansig
Función de activación de Logsig y tansigVanee2014
 
Funciones de Activación Tansig y Logsig
Funciones de Activación Tansig y Logsig Funciones de Activación Tansig y Logsig
Funciones de Activación Tansig y Logsig Raul
 
Función de Activación POSLIN y PURELIN
Función de Activación POSLIN y PURELINFunción de Activación POSLIN y PURELIN
Función de Activación POSLIN y PURELINRossy Faican Cango
 
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESESCOM
 
Computación neuronal
Computación neuronalComputación neuronal
Computación neuronalHugo Banda
 
Reconocimiento de caracteres atravez de redes neuronales
Reconocimiento de caracteres atravez de redes neuronalesReconocimiento de caracteres atravez de redes neuronales
Reconocimiento de caracteres atravez de redes neuronalesluisfe
 
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoPerceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoAndrea Lezcano
 
Algoritmo de Gradiente Conjugado CGBP
Algoritmo de Gradiente Conjugado CGBPAlgoritmo de Gradiente Conjugado CGBP
Algoritmo de Gradiente Conjugado CGBPESCOM
 

Andere mochten auch (9)

Funciones de activacion Poslin y Purelin
Funciones de activacion Poslin y PurelinFunciones de activacion Poslin y Purelin
Funciones de activacion Poslin y Purelin
 
Función de activación de Logsig y tansig
Función  de activación de Logsig y tansigFunción  de activación de Logsig y tansig
Función de activación de Logsig y tansig
 
Funciones de Activación Tansig y Logsig
Funciones de Activación Tansig y Logsig Funciones de Activación Tansig y Logsig
Funciones de Activación Tansig y Logsig
 
Función de Activación POSLIN y PURELIN
Función de Activación POSLIN y PURELINFunción de Activación POSLIN y PURELIN
Función de Activación POSLIN y PURELIN
 
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
 
Computación neuronal
Computación neuronalComputación neuronal
Computación neuronal
 
Reconocimiento de caracteres atravez de redes neuronales
Reconocimiento de caracteres atravez de redes neuronalesReconocimiento de caracteres atravez de redes neuronales
Reconocimiento de caracteres atravez de redes neuronales
 
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoPerceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
 
Algoritmo de Gradiente Conjugado CGBP
Algoritmo de Gradiente Conjugado CGBPAlgoritmo de Gradiente Conjugado CGBP
Algoritmo de Gradiente Conjugado CGBP
 

Ähnlich wie Ejemplo de Redes Neuronales con Funciones Logsig y Tansig

Redes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlabRedes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlabAna Mora
 
Redes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansigRedes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansigJefferson Sarmiento
 
Problema de Aplicación sobre la fertilidad en los hombres aplicando las Funci...
Problema de Aplicación sobre la fertilidad en los hombres aplicando las Funci...Problema de Aplicación sobre la fertilidad en los hombres aplicando las Funci...
Problema de Aplicación sobre la fertilidad en los hombres aplicando las Funci...Henry Quezada
 
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...Sheyli Patiño
 
Redes neuronales Luis Lozano CI 22.840.519
Redes neuronales   Luis Lozano CI 22.840.519Redes neuronales   Luis Lozano CI 22.840.519
Redes neuronales Luis Lozano CI 22.840.519lozanolc
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronaleslennydan11
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronaleslennydan11
 
Sistemas Basados en Casos IUT
Sistemas Basados en Casos IUTSistemas Basados en Casos IUT
Sistemas Basados en Casos IUTLuis Álamo
 
implementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapaimplementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapaBrian Piragauta
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronalesjjjss
 
Función de transferencia compet
Función de transferencia competFunción de transferencia compet
Función de transferencia competRichar León
 
REDES NEURONALES Mapas con Características Autoorganizativas Som
REDES NEURONALES Mapas   con Características Autoorganizativas  SomREDES NEURONALES Mapas   con Características Autoorganizativas  Som
REDES NEURONALES Mapas con Características Autoorganizativas SomESCOM
 
Hardlim hardlims en_matlab
Hardlim hardlims en_matlabHardlim hardlims en_matlab
Hardlim hardlims en_matlabjairo0990
 
Hardlim hardlims en_matlab
Hardlim hardlims en_matlabHardlim hardlims en_matlab
Hardlim hardlims en_matlabjhymermartinez
 

Ähnlich wie Ejemplo de Redes Neuronales con Funciones Logsig y Tansig (20)

Redes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlabRedes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlab
 
Redes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansigRedes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansig
 
Problema de Aplicación sobre la fertilidad en los hombres aplicando las Funci...
Problema de Aplicación sobre la fertilidad en los hombres aplicando las Funci...Problema de Aplicación sobre la fertilidad en los hombres aplicando las Funci...
Problema de Aplicación sobre la fertilidad en los hombres aplicando las Funci...
 
Funciones_ hardlim_hardlims
Funciones_ hardlim_hardlimsFunciones_ hardlim_hardlims
Funciones_ hardlim_hardlims
 
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
 
Redes neuronales Luis Lozano CI 22.840.519
Redes neuronales   Luis Lozano CI 22.840.519Redes neuronales   Luis Lozano CI 22.840.519
Redes neuronales Luis Lozano CI 22.840.519
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Sistemas Basados en Casos IUT
Sistemas Basados en Casos IUTSistemas Basados en Casos IUT
Sistemas Basados en Casos IUT
 
Trabajo rn
Trabajo rnTrabajo rn
Trabajo rn
 
implementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapaimplementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapa
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Tema3dm
Tema3dmTema3dm
Tema3dm
 
Funciones poslin y purelin
Funciones poslin y purelinFunciones poslin y purelin
Funciones poslin y purelin
 
Trabajo rn
Trabajo rnTrabajo rn
Trabajo rn
 
Función de transferencia compet
Función de transferencia competFunción de transferencia compet
Función de transferencia compet
 
REDES NEURONALES Mapas con Características Autoorganizativas Som
REDES NEURONALES Mapas   con Características Autoorganizativas  SomREDES NEURONALES Mapas   con Características Autoorganizativas  Som
REDES NEURONALES Mapas con Características Autoorganizativas Som
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Hardlim hardlims en_matlab
Hardlim hardlims en_matlabHardlim hardlims en_matlab
Hardlim hardlims en_matlab
 
Hardlim hardlims en_matlab
Hardlim hardlims en_matlabHardlim hardlims en_matlab
Hardlim hardlims en_matlab
 

Kürzlich hochgeladen

CLASe número 4 fotogrametria Y PARALAJE.pptx
CLASe número 4 fotogrametria Y PARALAJE.pptxCLASe número 4 fotogrametria Y PARALAJE.pptx
CLASe número 4 fotogrametria Y PARALAJE.pptxbingoscarlet
 
COMPEDIOS ESTADISTICOS DE PERU EN EL 2023
COMPEDIOS ESTADISTICOS DE PERU EN EL 2023COMPEDIOS ESTADISTICOS DE PERU EN EL 2023
COMPEDIOS ESTADISTICOS DE PERU EN EL 2023RonaldoPaucarMontes
 
Elaboración de la estructura del ADN y ARN en papel.pdf
Elaboración de la estructura del ADN y ARN en papel.pdfElaboración de la estructura del ADN y ARN en papel.pdf
Elaboración de la estructura del ADN y ARN en papel.pdfKEVINYOICIAQUINOSORI
 
CARGAS VIVAS Y CARGAS MUERTASEXPOCI.pptx
CARGAS VIVAS Y CARGAS MUERTASEXPOCI.pptxCARGAS VIVAS Y CARGAS MUERTASEXPOCI.pptx
CARGAS VIVAS Y CARGAS MUERTASEXPOCI.pptxvalenciaespinozadavi1
 
introducción a las comunicaciones satelitales
introducción a las comunicaciones satelitalesintroducción a las comunicaciones satelitales
introducción a las comunicaciones satelitalesgovovo2388
 
Clase 7 MECÁNICA DE FLUIDOS 2 INGENIERIA CIVIL
Clase 7 MECÁNICA DE FLUIDOS 2 INGENIERIA CIVILClase 7 MECÁNICA DE FLUIDOS 2 INGENIERIA CIVIL
Clase 7 MECÁNICA DE FLUIDOS 2 INGENIERIA CIVILProblemSolved
 
nomenclatura de equipo electrico en subestaciones
nomenclatura de equipo electrico en subestacionesnomenclatura de equipo electrico en subestaciones
nomenclatura de equipo electrico en subestacionesCarlosMeraz16
 
ARBOL DE CAUSAS ANA INVESTIGACION DE ACC.ppt
ARBOL DE CAUSAS ANA INVESTIGACION DE ACC.pptARBOL DE CAUSAS ANA INVESTIGACION DE ACC.ppt
ARBOL DE CAUSAS ANA INVESTIGACION DE ACC.pptMarianoSanchez70
 
Manual_Identificación_Geoformas_140627.pdf
Manual_Identificación_Geoformas_140627.pdfManual_Identificación_Geoformas_140627.pdf
Manual_Identificación_Geoformas_140627.pdfedsonzav8
 
clases de porcinos generales de porcinos
clases de porcinos generales de porcinosclases de porcinos generales de porcinos
clases de porcinos generales de porcinosDayanaCarolinaAP
 
Falla de san andres y el gran cañon : enfoque integral
Falla de san andres y el gran cañon : enfoque integralFalla de san andres y el gran cañon : enfoque integral
Falla de san andres y el gran cañon : enfoque integralsantirangelcor
 
Quimica Raymond Chang 12va Edicion___pdf
Quimica Raymond Chang 12va Edicion___pdfQuimica Raymond Chang 12va Edicion___pdf
Quimica Raymond Chang 12va Edicion___pdfs7yl3dr4g0n01
 
04. Sistema de fuerzas equivalentes II - UCV 2024 II.pdf
04. Sistema de fuerzas equivalentes II - UCV 2024 II.pdf04. Sistema de fuerzas equivalentes II - UCV 2024 II.pdf
04. Sistema de fuerzas equivalentes II - UCV 2024 II.pdfCristhianZetaNima
 
LA APLICACIÓN DE LAS PROPIEDADES TEXTUALES A LOS TEXTOS.pdf
LA APLICACIÓN DE LAS PROPIEDADES TEXTUALES A LOS TEXTOS.pdfLA APLICACIÓN DE LAS PROPIEDADES TEXTUALES A LOS TEXTOS.pdf
LA APLICACIÓN DE LAS PROPIEDADES TEXTUALES A LOS TEXTOS.pdfbcondort
 
Obras paralizadas en el sector construcción
Obras paralizadas en el sector construcciónObras paralizadas en el sector construcción
Obras paralizadas en el sector construcciónXimenaFallaLecca1
 
Mapas y cartas topográficas y de suelos.pptx
Mapas y cartas topográficas y de suelos.pptxMapas y cartas topográficas y de suelos.pptx
Mapas y cartas topográficas y de suelos.pptxMONICADELROCIOMUNZON1
 
Sesión 02 TIPOS DE VALORIZACIONES CURSO Cersa
Sesión 02 TIPOS DE VALORIZACIONES CURSO CersaSesión 02 TIPOS DE VALORIZACIONES CURSO Cersa
Sesión 02 TIPOS DE VALORIZACIONES CURSO CersaXimenaFallaLecca1
 
Ejemplos de cadenas de Markov - Ejercicios
Ejemplos de cadenas de Markov - EjerciciosEjemplos de cadenas de Markov - Ejercicios
Ejemplos de cadenas de Markov - EjerciciosMARGARITAMARIAFERNAN1
 
PERFORACIÓN Y VOLADURA EN MINERÍA APLICADO
PERFORACIÓN Y VOLADURA EN MINERÍA APLICADOPERFORACIÓN Y VOLADURA EN MINERÍA APLICADO
PERFORACIÓN Y VOLADURA EN MINERÍA APLICADOFritz Rebaza Latoche
 
Tinciones simples en el laboratorio de microbiología
Tinciones simples en el laboratorio de microbiologíaTinciones simples en el laboratorio de microbiología
Tinciones simples en el laboratorio de microbiologíaAlexanderimanolLencr
 

Kürzlich hochgeladen (20)

CLASe número 4 fotogrametria Y PARALAJE.pptx
CLASe número 4 fotogrametria Y PARALAJE.pptxCLASe número 4 fotogrametria Y PARALAJE.pptx
CLASe número 4 fotogrametria Y PARALAJE.pptx
 
COMPEDIOS ESTADISTICOS DE PERU EN EL 2023
COMPEDIOS ESTADISTICOS DE PERU EN EL 2023COMPEDIOS ESTADISTICOS DE PERU EN EL 2023
COMPEDIOS ESTADISTICOS DE PERU EN EL 2023
 
Elaboración de la estructura del ADN y ARN en papel.pdf
Elaboración de la estructura del ADN y ARN en papel.pdfElaboración de la estructura del ADN y ARN en papel.pdf
Elaboración de la estructura del ADN y ARN en papel.pdf
 
CARGAS VIVAS Y CARGAS MUERTASEXPOCI.pptx
CARGAS VIVAS Y CARGAS MUERTASEXPOCI.pptxCARGAS VIVAS Y CARGAS MUERTASEXPOCI.pptx
CARGAS VIVAS Y CARGAS MUERTASEXPOCI.pptx
 
introducción a las comunicaciones satelitales
introducción a las comunicaciones satelitalesintroducción a las comunicaciones satelitales
introducción a las comunicaciones satelitales
 
Clase 7 MECÁNICA DE FLUIDOS 2 INGENIERIA CIVIL
Clase 7 MECÁNICA DE FLUIDOS 2 INGENIERIA CIVILClase 7 MECÁNICA DE FLUIDOS 2 INGENIERIA CIVIL
Clase 7 MECÁNICA DE FLUIDOS 2 INGENIERIA CIVIL
 
nomenclatura de equipo electrico en subestaciones
nomenclatura de equipo electrico en subestacionesnomenclatura de equipo electrico en subestaciones
nomenclatura de equipo electrico en subestaciones
 
ARBOL DE CAUSAS ANA INVESTIGACION DE ACC.ppt
ARBOL DE CAUSAS ANA INVESTIGACION DE ACC.pptARBOL DE CAUSAS ANA INVESTIGACION DE ACC.ppt
ARBOL DE CAUSAS ANA INVESTIGACION DE ACC.ppt
 
Manual_Identificación_Geoformas_140627.pdf
Manual_Identificación_Geoformas_140627.pdfManual_Identificación_Geoformas_140627.pdf
Manual_Identificación_Geoformas_140627.pdf
 
clases de porcinos generales de porcinos
clases de porcinos generales de porcinosclases de porcinos generales de porcinos
clases de porcinos generales de porcinos
 
Falla de san andres y el gran cañon : enfoque integral
Falla de san andres y el gran cañon : enfoque integralFalla de san andres y el gran cañon : enfoque integral
Falla de san andres y el gran cañon : enfoque integral
 
Quimica Raymond Chang 12va Edicion___pdf
Quimica Raymond Chang 12va Edicion___pdfQuimica Raymond Chang 12va Edicion___pdf
Quimica Raymond Chang 12va Edicion___pdf
 
04. Sistema de fuerzas equivalentes II - UCV 2024 II.pdf
04. Sistema de fuerzas equivalentes II - UCV 2024 II.pdf04. Sistema de fuerzas equivalentes II - UCV 2024 II.pdf
04. Sistema de fuerzas equivalentes II - UCV 2024 II.pdf
 
LA APLICACIÓN DE LAS PROPIEDADES TEXTUALES A LOS TEXTOS.pdf
LA APLICACIÓN DE LAS PROPIEDADES TEXTUALES A LOS TEXTOS.pdfLA APLICACIÓN DE LAS PROPIEDADES TEXTUALES A LOS TEXTOS.pdf
LA APLICACIÓN DE LAS PROPIEDADES TEXTUALES A LOS TEXTOS.pdf
 
Obras paralizadas en el sector construcción
Obras paralizadas en el sector construcciónObras paralizadas en el sector construcción
Obras paralizadas en el sector construcción
 
Mapas y cartas topográficas y de suelos.pptx
Mapas y cartas topográficas y de suelos.pptxMapas y cartas topográficas y de suelos.pptx
Mapas y cartas topográficas y de suelos.pptx
 
Sesión 02 TIPOS DE VALORIZACIONES CURSO Cersa
Sesión 02 TIPOS DE VALORIZACIONES CURSO CersaSesión 02 TIPOS DE VALORIZACIONES CURSO Cersa
Sesión 02 TIPOS DE VALORIZACIONES CURSO Cersa
 
Ejemplos de cadenas de Markov - Ejercicios
Ejemplos de cadenas de Markov - EjerciciosEjemplos de cadenas de Markov - Ejercicios
Ejemplos de cadenas de Markov - Ejercicios
 
PERFORACIÓN Y VOLADURA EN MINERÍA APLICADO
PERFORACIÓN Y VOLADURA EN MINERÍA APLICADOPERFORACIÓN Y VOLADURA EN MINERÍA APLICADO
PERFORACIÓN Y VOLADURA EN MINERÍA APLICADO
 
Tinciones simples en el laboratorio de microbiología
Tinciones simples en el laboratorio de microbiologíaTinciones simples en el laboratorio de microbiología
Tinciones simples en el laboratorio de microbiología
 

Ejemplo de Redes Neuronales con Funciones Logsig y Tansig

  • 1. Ejemplo de Funciones logsig y tansig Andrea Armijos Ingenieria en Sistemas Vanessa Erraez Ingenieria en Sistemas Resúmen En el presente artículo abordará el tema de funciones de activación, las cuales permiten dar mayor flexibilidad al sistema,y por ende mayor capacidad. En el presente trabajo se hará uso de dos funciones muy importantes como lo son logarítmica sigmoidea (Logsig) y tangente sigmoidal (Tansig). Los valores de entrada de estas dos funciones pueden oscilar entre menos y más infinito; y las salidas que proporcionan la función Logsig esta dentro de un rango que va de 0 a 1 y la función Tansig de -1 a 1. Introducción Una neurona artificial está formada por un sumador que se encarga de sumar todas las entradas multiplicadas por las respectivas sinapsis, un umbral exterior que determina el um- bral por encima del cual la neurona se activa y una función de activación, representada por f(n), donde la función de ac- tivación puede ser una función lineal o no lineal de n, y es escogida dependiendo de las especificaciones del problema que la neurona tenga que resolver, en el presente trabajo se utilizara función logarítmica sigmoidea (Logsig) y la función tangente sigmoidal (Tansig). Desarrollo Redes Neuronales Artificiales Las Redes Neuronales Supervisadas (RNS) son un conjunto de algoritmos matemáticos que encuentran las relaciones no lineales entre conjuntos de datos. Suelen ser utilizadas comoherramientas para la predicción de tendencias y como clasificadoras de conjuntos de datos.Se denominan Neuronales porque están basadasen el fun- cionamiento de una neurona biológica cuando procesa información(Estévez, 2002). El modelo de una neurona consta de: Las entradas x e y. Los pesos sinápticos w1 y w2 correspondientes a cada entrada. Un término aditivo b. Una salida z. (Claudio Tablada, s.f.). En la siguiente figura se muestra los elementos que conforman una neurona artificial. Figura 1: Modelo de una neurona artificial Existen muchas formas de clasificcar a las neuronas, las más utilizadas son según su arquitectura o sus métodos de entrenamiento. Arquitectura de una red neuronal Una vez definida el tipo de neurona que se utilizar á en un modelo de redes neuronales artificiales es necesario definir la topología de la misma. La organización y disposición de la s neuronas dentro de una red neuronal se denomina topología, y viene dada por el número de capas, la cantidad de neuronas por capa, el grad o de conectividad, y el tipo de conexión entre neuronas. Las neuronas suelen agruparse en unidades funcionales denominadas capas. Se denomina capa de entrada a aquella que esta compuesta por neuronas de entradas y por lo tanto recibe info rmación procedente desde el exterior. Análogamente, se denomina ca pa oculta y capa de salida a aquellas capas que están compuestas por neuronas ocultas y de salida respectivamente. Una red neuronal arti ficial esta compuesta por una o más capas, las cuales se encuentran
  • 2. Andrea Armijos-Vanessa Erraez Tutor: Ing Henry Paz interconectadas entre sí(Bertona, 2005). Aprendizaje de una neurona artificial Durante la operatoria de una red neuronal podemos di stin- guir claramente dos fases o modos de operación: la fase de aprendizaje o ent renamiento, y la fase de operación o ejecu- ción. Durante la primera fase, la fase de aprendizaje, la red es entrenada para realizar un determinado ti po de procesamien- to. Una vez alcanzado un nivel de entrenamiento adecuado, se pa sa a la fase de oper ación, donde la red es utilizada para llevar a cabo la tarea para la cual fue entrenada(Bertona, 2005). Fase de entrenamiento Una vez seleccionada el tipo de neurona artificial que se utilizará en una red neuronal y determinada su topología es ne cesario entrenarla para que la red pueda ser utilizada. Partiendo de un conjunt o de pesos sinápticos aleatorio, el proceso de aprendizaje busca un conjunto de pesos que permitan a la red desarrollar correctamente una determinada tarea. Durante el proceso de aprendizaje se va refinando iterativamente la solución hasta alcanzar un nivel de operación suficientemente bueno. (Bertona, 2005). El proceso de parendizaje se divide en tres grupos: • Aprendizaje supervisado. Se pr esenta a la red un conjunto de patrones de entrada junt o con la salida esper ada. Los pesos se van modificando de manera proporcional al error que se produce entre la salida real de la red y la salida esperada. • Aprendizaje no supervisado. Se presenta a la red un conjunto de patrones de entrada. No hay informa ción dispo- nible sobre la salida esperada. El proceso de entrenamiento en este caso deberá ajustar sus pesos en base a la correlación existente entre los datos de entrada. • Aprendizaje por refuerzo. Este tipo de aprendizaje se ubica entre medio de los dos anteriores. Se le presenta a la r ed un conjunto de patrones de entrada y se le indica a la red si la salida obtenida es o no correcta. Sin embargo, no se le proporciona el valor de la salida esperada. Este tipo de aprendizaje es muy útil en aquellos casos en que se desconoce cual es la sali da exacta que debe proporcionar la red (Bertona, 2005). Fase de operación Una vez finalizada la fase de aprendizaje, la red puede ser utilizada para realizar la tarea para la que fue entrenada. Una de las principales ventajas que posee este modelo es que la red aprende la relación existente entre los datos, adquiriendo la capacidad de generalizar conceptos. De esta manera, una red neuronal puede tratar con información que no le fue presentada durante de la fase de entrenamiento(Bertona, 2005). Función de transferencia Logarítmica Sigmoidea (Log- sig) La salida de esta función siempre será continua en el rango entre cero y uno. Con esta familia de funciones se pueden utilizar datos continuos o digitales proporcionando salidas exclusivamente continuas(Estévez, 2002). Algoritmo Logsig(n) es equivalente a: Gráfica Figura21: Funcion Logsig En la figura 2 se observa como la función adopta valores muy próximos a cero cuando X es pequeño, pero según aumenta el valor en el eje de las abscisas la función pasa a ser creciente. Al principio la pendiente de la función crece hasta llegar a un punto de inflexión, momento en el cual la pendiente comienza a descender hasta llegar a cero, a partir del cual la función vuelve a dar un valor constante e igual a uno. (Estévez, 2002). Ejemplo: Encuentre la salida de la red neuronal mostrada, suponga que f(x) es la función logsig(x)(Ledesma, s.f.). UNIVERSIDAD NACIONAL DE LOJA aearmijosc@unl.edu.ec, mverraeaze@unl.edu.ec 2
  • 3. Andrea Armijos-Vanessa Erraez Tutor: Ing Henry Paz Figura 2: Ejemplo Donde tenemos las siguientes entradas, pesos y bias: Para encontrar la solución, primeramente se debe encon- trar N por lo tanto se aplica la fórmula: Y se lo reemplaza en la fórmula dada en el algoritmo: Quedando de la siguiente manera el resultado: Función de transferencia Tangente Hiperbólica(Tansig) Esta es una de las funciones más utilizadas en las redes neuronales por su flexibilidad y el amplio rango de resultados que ofrece. Las ventajas de utilizar una tangente sigmoidea frente a una sigmoidea reside en que la segunda sólo ofrece resultados en el rango positivo entre cero y uno, en cambio la tangente sigmoidea da resultados entre 1 y -1, por lo que se amplía a los números negativos los posibles resultados(Estévez, 2002). Algoritmo Tansig(n) es equivalente a: Gráfica Figura 3: Funcion Tansig El resultado que nos ofrecen cada una de estas funciones será el dato de salida de la neurona que se dirigirá bien a otra neurona o al resultado final. Ejemplo: Encuentre la salida de la red neuronal mostrada, suponga que f(x) es la función logsig(x). Donde tenemos las siguien- tes entradas, pesos y bias: Para encontrar la solución, primeramente se debe encon- trar N por lo tanto se aplica la fórmula: UNIVERSIDAD NACIONAL DE LOJA aearmijosc@unl.edu.ec, mverraeaze@unl.edu.ec 3
  • 4. Andrea Armijos-Vanessa Erraez Tutor: Ing Henry Paz Y se reemplaza el valor encontrado en la fórmula dada en el algoritmo: Ejercicio realizado en matlab Para crear la red neuronal se utilizó el comando newff, cuyo formato basico es el siguiente: newff([min1 max1; min2 max2; ...], [3, ..., 4], ’logsig’,..., ’traingdx’)(Ledesma, s.f.). (min1 max1; min2 max2)= rango entradas. (3, ..., 4)= numero de neuronas en el nivel Escondido a cada entrada. (’logsig’,...)= Función. ’traingdx’ = Entrenamiento(Claudio Tablada, s.f.). BOTON CLASIFICAR codigo para elegir el tipo de función switch funcion case 1 handles.fun=’logsig’; guidata(hObject,handles); case 2 handles.fun=’tansig’; guidata(hObject,handles); end ncapas=[]; fact=; Se obtienes el número de capas numCapa=str2num(get(handles.ncapas,’String’)) Ingreso del númmero de neuronas por cada capa for c=1:1:numCapa entrada=inputdlg(’N◦ de neuronas’,’N◦ neuronas’,1,’0’); ncapas=[ncapas str2num(entrada1,1)]; fact(c)=handles.fun; end ncapas; handles.nunC=ncapas; guidata(hObject,handles); fact; handles.funAct=fact; guidata(hObject,handles); Se obtiene los valores de entrada entrad = str2num(get(handles.entrada1,’String’)); Codigo para crear y entrenar la red net = newff(minmax(entrad),handles.nunC, handles.funAct,handles.current_dat); net.trainParam.show = 50; net.trainParam.lr = 0.04; net.trainParam.epochs = 400; net.trainParam.goal = 1e-5; a = sim(net,entrad); view(net); plot(entrad); Codigo para el tipo de entrenamiento UNIVERSIDAD NACIONAL DE LOJA aearmijosc@unl.edu.ec, mverraeaze@unl.edu.ec 4
  • 5. Andrea Armijos-Vanessa Erraez Tutor: Ing Henry Paz val = get(hObject,’Value’); str = get(hObject,’String’); switch strval case ’traingdx’ handles.currentdat = traingdx ; guidata(hObject,handles); case ’traingdm’ handles.currentdat = traingdm ; guidata(hObject,handles); case ’trainlm’ handles.currentdat = trainlm ; guidata(hObject,handles); end guidata(hObject,handles); Interfáz gráfica La siguinte ventana permite ingresar los siguientes da- tos:elegir la función logsig o tansig, escoger el tipo de entre- namiento, datos de entrada, el número de capas y al momento de presionar el botón clasificar se podrá ingresar el número de neuronas. Figura 4: Ventana para el ingreso de datos Ingreso de datos Figura 4: Ventana para el Ingreso de datos para la función tansig Resultado de la función tansig Figura 5: Resultado de la función tansig De acuerdo a los datos ingresados se puedes observar que la red neuronal posee dos entradas, dos capas, tres neuronas en cada capa y 3 salidas. Figura 5:Red Neuronal Referencias Bertona, L. F. (2005). Entrenamiento de redes neuro- nales basado en algoritmos evolutivos. Descargado de http://www.monografias.com/trabajos-pdf /entrenamiento-redes-neuronales-algoritmos -evolutivos/ UNIVERSIDAD NACIONAL DE LOJA aearmijosc@unl.edu.ec, mverraeaze@unl.edu.ec 5
  • 6. Andrea Armijos-Vanessa Erraez Tutor: Ing Henry Paz entrenamiento-redes-neuronales- algoritmos-evolutivos.pdf Claudio Tablada, G. A. T. (s.f.). Redes neuronales artificiales. Des- cargado de http://www.fis.uncor.edu/revedu/documents /vol24/243redes.pd f Estévez, P. G. (2002). The interpretation of dreams. Descargado de http://eprints.ucm.es/6767/1/0205.pdf Ledesma, S. (s.f.). Las redes neuronales. Descargado de http://newton.azc.uam.mx/mcc/01e sp /08sitios/micai06/TUTORIALS/ UNIVERSIDAD NACIONAL DE LOJA aearmijosc@unl.edu.ec, mverraeaze@unl.edu.ec 6