SlideShare ist ein Scribd-Unternehmen logo
1 von 31
Downloaden Sie, um offline zu lesen
Universidad Autónoma de Coahuila.




Ingeniero en Sistemas Computacionales.



Materia: Metodología de la Investigación.


Tema: Redes Neuronales Artificiales (RNA)


Profesor: M.A. Juan Carlos López Sarmiento.


Alumno: Cecilio Andreu Moctezuma.


                                22 de Octubre 2010
                                                 1
INDICE GENERAL.

  1. ¿Por qué esta investigación?.......................................................................3
  2. El objetivo de esta investigación…………………………………..…….…….3
  3. Introducción……………………………………………………….………..……4
  4. Inspiración biológica……………………………………………….……..……..7
  5. Definición de redes neuronales artificiales (RNA)…………….……………..7
  6. Sistema neuronal biológico……………………………………….…...……….8
  7. Sistema neuronal artificial…………………………………………....……….11
  8. Niveles o capas de neuronas…………………………..……….…………....12
  9. Evolución histórica………………………………………..……….………..…13
  10. Campo de aplicación…………………………………………..……..……..…16
  11. ¿Cómo se construyen las Redes Neuronales?..........................................17
  12. Elemento básico. De la (RNA)…….……………………………..…….…..…17
  13. Tipo de información que manejan (RNA)…………………………...………18
  14. Los elementos que constituyen la neurona son……………….…..……….19
  15. Peso sinóptico…………………………………………………….……………20
  16. El aprendizaje de las redes neuronales……………………….….…………21
  17. Ejemplo…………………………………………………………….……………22
  18. Conclusión……………………………………………………….….………….30
  19. Bibliografías……………………………………………………….……………31




                                                                                                            2
¿Por que de esta investigación?

Mi investigación es sobre redes neuronales, ya que en la actualidad se utilizan en
las empresas, hospitales, problemas matemáticos, etc. Porque se les puede
agregar una gran cantidad de datos y son mas rápidas en procesar la información
que el cerebro humano y tiene un margen de error muy mínimo o ninguno.
Actualmente son la punta de la tecnología por su gran procesamiento de
información. Hoy en día existen una gran cantidad de sistemas de software
comerciales que se basan en los análisis de datos para hacer tareas como:
análisis financieros, vigilancia, economía.

Los biólogos y los ingenieros de software, los de robótica han tenido que unirse
para poder llevar acabo este tipo de redes aportando cada uno parte de sus
conocimientos para hacer mas rápido una tarea especifica y compleja.




El objetivo de esta investigación es: darnos cuenta has donde a llegado el ser
humano con la ayuda de la tecnología y como a ido evolucionando que,
actualmente hay máquinas inteligentes y con la apariencia de un ser humano. Y
como se han inspirado en el cerebro los ingenieros para poder realizar este tipo de
investigaciones y poder llevarlas a la tecnología.

      Conocer la inspiración biológica de las Redes Neuronales Artificiales (RNA)
       y sus fundamentos.
      Entender el funcionamiento de los modelos de las RNA.
      Identificar en donde se pueden aplicar los modelos de RNA.




                                                                                 3
Introducción.

Muchos de los desarrollos del hombre se deben a su capacidad para explicar y
emular funciones que son realizadas por seres vivos.

Por ejemplo, se puede citar el radar, que surge como imitación de la forma como
un murciélago es capaz de detectar los objetos que están en su camino sin
necesidad de verlos, por medio de emisión de una onda ultrasónica, la posterior
recepción de la señal de eco y su procesamiento. Así como el anterior hay muchos
ejemplos más: El helicóptero, el avión, el submarino.




                                          Existen dos tipos de visión nocturna:
                                          por aumento de luz y por visión
                                          térmica,      ambas          técnicas     son
                                          utilizadas por los animales. La retina
                                          de un animal (la parte de atrás del ojo
                                          donde    se   forma     la    imagen)     está
                                          compuesto mayormente por dos tipos
                                          de células sensibles a la luz llamadas
                                          bastones y conos. Los bastones son
                                          responsables     para         potenciar    los
                                          estímulos lumínicos pequeños




                                                                                       4
Radares y murciélagos
Ambos, el radar y el murciélago utilizan
el mismo principio: el eco. Las ondas
reflejadas     por         los     objetos    son
percibidas por los oídos del murciélago
y, en el otro caso, por una antena de
radar    que         las         transforma   en
información.



El avión y las aves
El principio que utilizan los aviones es
básicamente el mismo que utilizan las
aves, es la forma del ala y su posición
relativa con respecto a la corriente de
aire lo que produce la fuerza de
sustentación.



El submarino y el nautilos
Los submarinos poseen "tanques de
inmersión" ubicados a ambas bandas
los que, una vez inundados, le dan al
submarino      una         flotabilidad   apenas
positiva. Posee otro tanque, ubicado en
el centro, relativamente chico, que al
ser totalmente inundado le da al buque
flotabilidad negativa para ir a inmersión




                                                5
El   camarón   mantis     y   los
                                              aparatos de DVD. El ojo del
                                              camarón mantis puede convertir
                                              luz de todos los colores del
                                              espectro       visible.       Las
                                              investigaciones apuntan a que,
                                              tomando como modelo el ojo de
                                              este camarón, los ingenieros
                                              podrían fabricar un aparato de
                                              DVD que reprodujera discos con
                                              mucha más información que los
                                              actuales.




Aunque el hombre ha sido capaz de emular funciones de los animales, para él
siempre ha sido un sueño poder conocer e imitar, la llamada por muchos la
máquina perfecta: el cerebro humano. Cuando la neurociencia pudo explicar de
forma un poco convincente el funcionamiento de la unidad principal de
procesamiento de información que posee el cerebro, la neurona, surge casi de
manera automática la idea de poder emular dicho funcionamiento en un elemento
artificial "La neurona artificial."




                                                                              6
Inspiración biológica.

El cerebro humano.

                                 •    Trata gran cantidad de información.

                                 •    Capacidad de tratar situaciones nuevas.

                                 •    Capacidad de aprendizaje

                                 •    Almacenamiento distribuido.

                                 •    No binario, no estable y no secuencial.

                                 •    Poder desconocido

   •   1011 Neuronas (procesadores)

   •   1000 – 10000 conexiones por neurona.

   •   Capacidad basada en las conexiones.

   •   Cada neurona es muy compleja.




 Definición de redes neuronales artificiales (RNA).

Las Redes Neuronales Artificiales (RNA) o sistemas conexionistas son sistemas
de procesamiento de la información cuya estructura y funcionamiento están
inspirados en las redes neuronales biológicas. Consisten       en un conjunto de
elementos simples de procesamiento llamados nodos o neuronas conectadas
entre sí por conexiones que tienen un valor numérico modificable llamado peso.




                                                                                 7
Los tres conceptos claves de los sistemas biológicos, que se pretenden emular en
los artificiales son:

   •    Paralelismo de cálculo.

   •    Memoria distribuida.

   •    Adaptabilidad al entorno.




Las redes neuronales artificiales (RNAs) son modelos computacionales que
surgieron como un intento de conseguir formalizaciones matemáticas acerca de la
estructura del cerebro. Las RNAs imitan la estructura del hardware del sistema
nervioso, centrándose en el funcionamiento del cerebro humano, basado en el
aprendizaje a través de la experiencia, con la consiguiente extracción de
conocimiento a partir de la misma.




Sistema neuronal biológico:

Los elementos básicos de un sistema neuronal biológico son las neuronas,
agrupadas en redes compuestas por millones de ellas y organizadas a través de
una estructura de capas, que constituyen un sistema con funcionalidad propia.




                                                                                8
En general una neurona consta de un cuerpo celular más o menos esférico de 5 a
10 micras de diámetro, del que sale una rama principal el axón, y varias ramas
más cortas denominadas dendritas.




Neurona.

   •   Pueden presentar muchas formas, aunque presentan un aspecto similar.

   •   Cuerpo celular o soma (10 – 80 micras).

   •   Dendritas de entradas

   •   Un axón de salida

   •   Sinapsis de conexión.




                                                                              9
En la tabla 1 se muestra un paralelo entre un computador secuencial (Computador
de Von Neumann) y un sistema biológico



  Característica       Computador secuencial           Sistema biológico neuronal
Unidad de           Compleja, Veloz, Única           Simple, Lenta, Muchas
Procesamiento
Memoria             Separada del procesador,         Integrada dentro del
                    Localizada                       procesador, Distribuida,
                                                     Direccionable por contenido
Procesamiento de Centralizado, Secuencial,           Distribuido ,Paralelo, Auto
los Datos        Programas almacenados               aprendizaje
Confiabilidad       Muy vulnerable                   Robusto
Especialización     Manipulaciones simbólicas y      Problemas perceptuales
                    numéricas
Ambiente de         Bien definido, Muy restringido   Pobremente definido, Sin
operación                                            restricciones




En la tabla 2 se muestra la velocidad de procesamiento de información del cerebro
y la computadora.




                                                                                    10
Sistema neuronal artificial:

En un sistema neuronal artificial puede establecerse una estructura jerárquica
similar, de forma RNA puede concebirse como una colección de procesadores
elementales (neuronas artificiales), conectados a otras neuronas o bien a entradas
externas y con una salida que permite propagar las señales por múltiples caminos.




El elemento esencial de partida es la neurona artificial, que se organiza en capas;
varias capas constituyen una red neuronal; y, por ultimo, una red neuronal (o un
conjunto de ellas), junto con las interfaces de entrada y salida constituirán el
sistema neuronal.




                                                                                 11
Niveles o capas de neuronas.

La distribución de neuronas dentro de una red se realiza formando niveles o capas
de un número de neuronas determinado, donde se conoce como capa o nivel a un
conjunto de neuronas cuyas entradas provienen de la misma fuente (que puede
ser otra capa de neuronas) y cuyas salidas se dirigen al mismo destino (que puede
ser otra capa de neuronas).




Se pueden distinguir tres tipos de capas:

      1. Capa de Entrada.

      Es la capa que recibe directamente la información proveniente de las
      fuentes externas de la red

      2. Capa Oculta.

      Son internas a la red y no tiene contacto directo con el exterior. El número
      de niveles ocultos puede estar entre cero y un número elevado. Las
      neuronas de la capa oculta pueden estar interconectadas de diferentes
      maneras, lo que determina, junto con su número, las distintas tipologías de
      redes neuronales.

      3. Capa de Salida.

      Transfieren información de la red hacia el exterior.




                                                                                12
Evolución histórica

Los primeros análisis acerca del comportamiento del cerebro y el pensamiento se
deben a filósofos griegos, destacando las aportaciones realizadas por Aristóteles
(384 – 422 A.C).y Platón (427 – 347 A.C), continuadas en la Edad Media por
Descartes (1596 – 1650) y por los filósofos empiristas del siglo XVII.

En 1936, Alan Turing fue el primero en estudiar el cerebro desde el punto de vista
computacional, si bien los trabajos pioneros para la construcción de modelos
matemáticos que imitasen el comportamiento de las neuronas biológicas se deben
a Warren McCulloch y Walter Pitts (neurofisiólogo y matemático, respectivamente),
que presentaron en 1943 uno de los primeros modelos abstractos de una neurona
artificial.




                                                                                13
La historia de las redes neuronales puede dividirse en varios periodos:

1. Primeros intentos: Se realizaron algunas simulaciones usando lógica formal.
McCulloch and Pitts (1943) desarrollaron modelos de redes neuronales basados
en su conocimiento de neurología. Sus redes se basaban en neuronas simples,
consideradas como dispositivos binarios con umbrales fijos. Los resultados de sus
modelos fueron funciones lógicas elementales tales como "a o b" y "a y b". Dos
grupos (Farley and Clark, 1954; Rochester, Holland, Haibit and Duda, 1956) lo
intentaron usando simulaciones computacionales. El primer grupo conformado por
investigadores de IBM mantenía un contacto cercano con neurocientíficos de la
universidad de McGill.




2. Tecnología emergente y promisoria: No solo la neurociencia influía en el
desarrollo de las redes neuronales, también los físicos y los ingenieros contribuían
al progreso de las simulaciones de redes neuronales. Rosenblatt (1958) revitalizó
fuertemente el interés y la actividad en esta área cuando diseñó y desarrollo su
Perceptrón. El Perceptrón tiene tres capas, incluida la capa del medio denominada
de asociación. Este sistema pudo aprender a conectar y asociar unas entradas
dadas a una unidad de salida aleatoria. Otro sistema fue el ADALINE (ADAptive
LInear Element) el cual fue desarrollado en 1960 por Widrow and Hoff (de la
Universidad de Stanford). El ADALINE fue un dispositivo electrónico analógico
hecho de componentes simples, con un método de aprendizaje diferente al del
Perceptron, empleando una regla de aprendizaje basada en mínimos cuadrados
(LMS).

3. Periodo de frustración y desprestigio: En 1969 Minsky and Papert
escribieron un libro en cual ellos generalizaban las limitaciones de un Perceptron
monocapa a sistemas multicapa. En el libro ellos decían: "...nuestro intuitivo juicio
es que la extensión (a sistemas multicapa) es una tarea estéril". El resultado de las
afirmaciones de este libro fue eliminar la financiación para los investigadores que
trabajaban con simulaciones de redes neuronales. Las conclusiones del libro de


                                                                                  14
Minsky and Papert soportadas con el desencanto de los investigadores en el área,
trajo como resultado un gran prejuicio contra la actividad de la misma.

4. Innovación: Aunque el interés público por las redes neuronales era mínimo,
varios investigadores continuaron trabajando en el desarrollo de métodos
computacionales basados en neuromorfología para problemas de identificación de
patrones. Durante este periodo varios paradigmas fueron generados, los cuales
aun continúan con trabajos modernos, se puede mencionar a: Steve Grossberg
and Gail Carpenter quienes desarrollaron la teoría de la resonancia adaptativa,
ART (Adaptive Resonance Theory), Anderson y Kohonen (1982) quienes
desarrollaron técnicas para aprendizaje asociativo. Hopfield (1984) quien
desarrolló una red neuronal haciendo un símil energético. Werbos (Paul Werbos
1982) desarrolló y usó el método de aprendizaje conocido como Backpropagation,
destacando que varios años después de popularizarse este método, es
actualmente la arquitectura de red neuronal mejor conocida y más utilizada en las
aplicaciones de redes neuronales. En esencia una red Back-propagation es un
Perceptron con múltiples capas, con diferentes funciones de activación en las
neuronas artificiales y con una regla de aprendizaje más robusta y confiable.

5. Resurgimiento: Durante el final de la década de los 70s y principios de los 80s,
fue importante el resurgimiento del interés en el campo de las redes neuronales.

Varios factores han influenciado este movimiento, tales como la aparición de libros
y conferencias que han dado a conocer las bondades de esta técnica a personas
de diferentes áreas.

El financiamiento a proyectos de investigación en redes neuronales en Europa,
EUA y Japón que han hecho que aparezcan una gran variedad de aplicaciones
comerciales e industriales.




                                                                                   15
6. Hoy: Se han realizado progresos muy significativos en el campo de las RNA, lo
suficientes como para atraer una gran atención e interés en financiar
investigaciones. Ya se encuentran comercialmente circuitos integrados basados
en RNAs y las aplicaciones desarrolladas resuelven problemas cada vez más
complejos. Sin lugar a dudas, hoy es un periodo de transición y fuerte evolución
para la tecnología en redes neuronales.




Campo de aplicación.

Las Redes neuronales artificiales son interesantes para una gran cantidad de
personas de diferentes áreas:

      Científicos de la computación que quieren averiguar sobre las propiedades
       del procesamiento de información no-simbólica con una red neuronal y
       sobre sistemas de aprendizaje en general.
      Estadísticos utilizan redes neuronales como modelos de clasificación y
       regresión no lineal flexible
      Ingenieros de varias especialidades se aprovechan de las capacidades de
       redes neuronales en muchas áreas, como procesamiento de señales y
       control automático
      Los científicos cognoscitivos ven redes nerviosas como un posible aparato
       para describir modelos de pensamiento y conciencia (función cerebral de
       alto-nivel).
      Neuro-fisiólogos utilizan redes neuronales para describir y explorar
       funciones cerebrales de medio-nivel (memoria del ej., sistema sensorial y
       motriz).
      Físicos usan redes neuronales para modelar fenómenos en mecánica
       estadística y para muchas otras tareas.
      Biólogos utilizan Redes Neuronales para interpretar sucesiones del
       nucleótido.



                                                                              16
   Filósofos y otras personas también pueden ser interesadas en Redes
       Nerviosas por las varias razones.




Las RNA con su capacidad para deducir un significado desde datos complicados o
imprecisos, pueden ser utilizadas para detectar patrones o detectar una tendencia
que es muy compleja de hallar por una persona con modelos determísticos o por
otras técnicas computacionales tradicionales.

Una red entrenada puede ser vista como un experto en el manejo de la
información que se le ha dado para analizar. Este experto puede ser utilizado para
proporcionar proyecciones ante nuevas situaciones de interés.




¿Cómo se construyen las Redes Neuronales?

Se pueden realizar de varias maneras. Por ejemplo en hardware utilizando
transistores o amplificadores operacionales, pero la mayoría de las RNA se
construyen en software, esto es en programas de computación.




Elemento básico de la (RNA).

Una neurona artificial es un elemento con entradas, salida y memoria que puede
ser realizada mediante software o hardware. Posee entradas (I) que son
ponderadas (w), sumadas y comparadas con un umbral (t).

La señal computada de esa manera, es tomada como argumento para una función
no lineal (f), la cual determinará el tipo de neurona y en parte el tipo de red
neuronal




                                                                                17
Tipo de información que manejan (RNA).

Las redes neuronales manejan dos tipos de información.

La primera, es la información volátil, que se refiere a los datos que se están
usando y varían con la dinámica de la computación de la red, se encuentra
almacenada en el estado dinámico de las neuronas

El segundo tipo de información que manejan las redes neuronales, es la
información no volátil que se mantiene para recordar los patrones aprendidos y se
encuentra almacenada en los pesos sinápticos.




                                                                               18
Sinápticos: la conexión entre el axón de una neurona y las dendritas de otra
recibe el nombre de sinapsis o synapsis, y determina la fuerza y tipo de relación
entre ellas.




Las conexiones sinápticas son las vías o caminos de comunicación entre los
diferentes elementos de procesos (neuronas) y entre éstos y las entradas/salidas
del sistema.




Los elementos que constituyen la neurona son:




   •   Conjunto de entradas, Xj(t).

   •    Pesos sinápticos de la neurona i. Wij representa la intensidad de
       interacción entre cada neurona pre sináptica j y la neurona post sináptica i.

   •    Regla de propagación g(Wij, Xj(t)). Proporciona el valor del potencial post
       sináptico hi(t) = g(Wij, Xj(t)) de la neurona i en función de sus pesos y
       entradas.

                                                                                   19
•   Función de activación fi(ai(t-1), hi(t)), que proporciona el estado de
        activación actual ai(t) =fi(ai(t-1), hi(t)) de la neurona i, en función de su
        estado anterior ai(t-1) y de su potencial post sináptico actual.

• Función de salida Fi(ai(t)), que proporciona la salida actual yi(t) = Fi(ai(t)) de la
neurona i en función de su estado de activación.

De este modo, la operación de la neurona i puede expresarse como:

yi(t) = Fi(fi[ai(t-1), g(Wij, Xj(t))])

Interacción entre una neurona pre sináptica y una post sináptica:




Peso sináptico

Si el peso es positivo tendera a excitar a la neurona post sináptica, si el peso es
negativo tenderá a inhibirla. Así se habla de sinapsis excitadora e inhibidora en las
redes neuronales artificiales.




                                                                                    20
El aprendizaje de las redes neuronales.

Es el proceso de presentar los patrones a aprender, a la red y el cambio de los
pesos de las conexiones sinápticas usando una regla de aprendizaje.

La regla de aprendizaje consiste en algoritmos basados en formulas matemáticas,
que usando técnicas como minimización del error o la optimización de alguna
"función de energía", modifican el valor de los pesos sinápticos en función de las
entradas disponibles y con ello optimizan la respuesta de la red a las salidas que
deseamos.




El aprendizaje se basa en el entrenamiento de la red con patrones, que
usualmente son llamados patrones de muestra o entrenamiento. El proceso usual
del algoritmo es que la red ejecuta los patrones iterativamente, cambiando los
pesos de las sinapsis, hasta que convergen a un conjunto de pesos óptimos que
representan a los patrones lo suficientemente bien, entonces mostrará una
respuesta satisfactoria para esos patrones. Esto es, sus pesos sinápticos se
ajustan para dar respuestas correctas al conjunto de patrones de entrenamiento
que le hemos mostrado.




Podemos distinguir tres tipos de aprendizaje.

El modo más intuitivo es el Aprendizaje supervisado, que consiste en que la
red dispone de los patrones de entrada y los patrones de salida que deseamos
para esa entrada y en función de ellos se modifican los pesos de las sinapsis para
ajustar la entrada a esa salida.

Otro modo de aprendizaje, Aprendizaje no supervisado, consiste en no
presentar patrones objetivos, si no solo patrones de entrada, y dejar a la red
clasificar dichos patrones en función de las características comunes de los
patrones.


                                                                                21
Existe otro tipo de aprendizaje, que usa una formula híbrida, el supervisor no
enseña patrones objetivos si no que solo le dice se acierta o falla en su respuesta
ante un patrón de entrada. Es el aprendizaje reforzado,




Ejemplo:

Resumen

Este trabajo tuvo como objetivo predecir las manifestaciones macroscópicas de los
dos principales fenómenos de transferencia de masa en tres frutas (melón,
lechosa y manzana) osmóticamente deshidratadas.

Se consideró el efecto de cinco variables de proceso: tipo de alimento,
concentración de la solución osmótica, tamaño de la fruta, temperatura y tiempo
de proceso, sobre la pérdida de agua y ganancia de sólidos de las frutas. Para ello
se desarrolló un modelo neuronal artificial compuesto por cinco neuronas de
entrada y dos capas ocultas de procesamiento de información compuestas por
cinco neuronas cada una, utilizando funciones sigmoides como medio de
comunicación, y dos neuronas de salida representando a las variables
dependientes del modelo. La arquitectura neuronal desarrollada y entrenada
mediante el algoritmo Levenberg-Marquardt permitió predecir más de los 90% de
la variabilidad de los datos en los dos fenómenos de transferencia estudiados,
constituyéndose en un modelo alternativo a las ecuaciones para métricas
desarrolladas hasta el momento.




Introducción


La deshidratación osmótica es una tecnología que ha sido aplicada principalmente
en frutas, con el objeto de reducir la actividad de agua y el contenido de humedad
de las mismas, para así generar alimentos de humedad intermedia con una


                                                                                 22
estabilidad relativamente limitada, por lo cual, el proceso osmótico es usualmente
combinado con otra técnica de preservación que permita extender la vida útil del
alimento.

Generalmente, el proceso se desarrolla mediante la inmersión de trozos de fruta
en soluciones de sacarosa, mediante el control de variables como temperatura,
agitación y tiempo de proceso. En el curso de la tecnología se suscitan tres
fenómenos de transferencia de masa: la migración de agua desde la fruta hacia la
solución de impregnación, la transferencia de solutos de la solución a la fruta y la
salida de solutos propios del alimento a la solución.

El tercer fenómeno de transferencia resulta cuantitativamente despreciable en
comparación con los dos primeros, los cuales caracterizan el proceso y permiten
el logro de los objetivos ulteriores de la tecnología: la estabilidad del alimento
mediante el control de su contenido de humedad y la actividad de agua, y la
posibilidad de aplicación de efectos de formulación específicos mediante
componentes específicos.




En tal sentido, el objetivo de la presente investigación es desarrollar un modelo de
red neuronal artificial basado en un algoritmo de retro propagación del error, para
el modelado predictivo de los fenómenos de pérdida de agua y ganancia de
sólidos en frutas osmóticamente deshidratadas.




                                                                                  23
Materiales y Métodos


Proceso de deshidratación osmótica


Las frutas usadas en la investigación, lechosa, melón y manzana, seleccionadas
en virtud de su naturaleza porosa y por ende facilitadora de los fenómenos de
transferencia de masa, se obtuvieron de un mismo establecimiento comercial, sin
lesiones externas y con características similares de forma, tamaño y color. Se
determinó el contenido de humedad inicial de las frutas, de acuerdo a la
metodología de la AOAC (AOAC, 1990), obteniéndose los siguientes resultados:
lechosa 88,93% ± 0,71% (n=5), melón 93,07% ± 0,85% (n=5) y manzana 87,32%
±0,82% (n=5). Una vez lavadas, las frutas fueron picadas en cubos mediante la
utilización de un vernier y un cuchillo previamente desinfectado. Es importante
señalar que las frutas, con características similares de madurez (de acuerdo a la
relación ºBrix / pH), fueron asignadas aleatoriamente a cada condición
experimental (1 fruta o individuo por tratamiento) y se obtuvieron 10 unidades
experimentales (cubos) de cada fruta para conformar una réplica de cada i-ésimo
tratamiento (Tabla I). La obtención de cubos de geometría regular con
características finitas, permitió reducir la dimensión característica de las frutas y
minimizar los tiempos de impregnación empleados. Una vez cortadas y registrado
el peso inicial de las muestras de frutas, las mismas se sumergieron en las
soluciones de impregnación (soluciones de sacarosa), para cada una de las
condiciones experimentales (Tabla I). Para satisfacer cada una de las condiciones
de temperatura, las soluciones fueron colocadas en baños de agua y tapadas para
evitar la evaporación de las soluciones. Al finalizar el tiempo de proceso, los trozos
de fruta fueron cuidadosamente secados con papel absorbente para remover el
exceso de solución osmótica de la superficie y su peso se registró
inmediatamente. Posteriormente, las muestras se secaron en un horno de
convección a 60ºC por 16h., y posteriormente en una estufa al vacío a 70ºC por
24h., para determinar la masa seca de las frutas osmóticamente tratadas y



                                                                                   24
calcular por balance de masa el contenido de humedad de las mismas
(Panagiotou et al., 1998). Cada condición experimental se realizó por duplicado.

Con la primera réplica se entrenó la arquitectura neuronal artificial y con la
segunda, constituida a partir de muestras de frutas totalmente independientes de
las utilizadas para la primera réplica, se validó la habilidad predictiva y de
generalización del modelo (Millán et al., 2001).




Como se señaló en la introducción, los dos principales fenómenos de transferencia
de masa que se suscitan en la deshidratación osmótica, se evidencian
macroscópicamente mediante la pérdida de agua (PA) y la ganancia de sólidos
(GS), las cuales pueden ser definidas por las ecuaciones.


                                                                                   25
Donde M0: masa inicial de fruta antes de ser sometida al tratamiento osmótico, M:
masa de fruta luego del tratamiento osmótico, m0: masa seca inicial de la muestra
de fruta, y m: masa seca de la fruta luego del tratamiento osmótico.




Desarrollo del modelo neuronal artificial

Se desarrolló una estructura neuronal de retro propagación del error con 5
neuronas de entrada, constituidas por las variables tipo de alimento (melón,
lechosa y manzana), concentración de la solución de impregnación, tamaño de la
muestra de fruta, temperatura y tiempo de proceso, y dos neuronas de salida,
representativas de la     pérdida de agua y ganancia de                sólidos,   como
manifestaciones macroscópicas de la transferencia de agua desde la fruta hacia la
solución de impregnación y la transferencia de solutos desde la solución de
impregnación hacia la fruta, respectivamente. Los valores de entrada a las i-
ésimas neuronas de entrada estuvieron constituidos por los valores que
conforman las variables independientes mencionadas (Tabla I). A estos valores se
asoció aleatoriamente un peso de conexión de poca magnitud, que permitió la
propagación de la información a la primera capa de neuronas ocultas de
procesamiento de datos. La asignación aleatoria de los pesos de inicio de poca
magnitud es la técnica normalmente usada cuando no se dispone de información
previa acerca del sistema que se está modelando, ya que impide la temprana
                                                                                    26
saturación de la red por cuanto induce a la ruptura de simetría. Así, la entrada neta
de la j-ésima neurona de la capa oculta puede representarse a través de la
ecuación




Donde xpi: entrada que recibe la neurona procedente de la i-ésima unidad de
entrada, wjih: peso de la conexión y jh: término de tendencia. El índice h se
refiere a magnitudes de la capa oculta y el subíndice p al p-ésimo vector de
entrenamiento. El establecimiento del número de capas ocultas y el número de
neuronas que conforman dichas capas se seleccionó mediante un proceso de
ensayo y error

Luego, la salida de las j-ésimas neuronas de la capa oculta se transfirió a las
neuronas de la capa de salida mediante una función de transferencia fjh. Dicha
salida se representa por la ecuación




Donde ypj: salida neta de cada j-ésima neurona de la capa oculta, y netpjh:
entrada neta a la j-ésima neurona de la capa oculta. La función de transferencia
más empleada en las redes de retro propagación del error es la tangente
hiperbólica (Reed y Marks, 1999).

Luego, la entrada neta a la capa de neuronas de salida, representadas por el
número de variables dependientes del sistema, en este caso la pérdida de agua y
la ganancia de sólidos de las frutas osmóticamente deshidratadas, se representa
mediante la ecuación




                                                                                  27
Donde el índice 0 se refiere a magnitudes de la capa de salida, ypj: entrada
procedente de la j-ésima neurona oculta, wkj0: peso de conexión entre la j-ésima
unidad oculta y la k-ésima neurona de salida, k0: término de tendencia asociado
a la k-ésima neurona de salida, y netpk: entrada neta a la k-ésima neurona de
salida. Finalmente, la salida de las neuronas de salida se comparó con un vector
objetivo constituido por los valores experimentales de pérdida de agua y ganancia
de sólidos y se generó la siguiente función de error, constituida por la suma de
errores cuadráticos (Reed y Marks, 1999):




Donde ESSE: suma de cuadrados del error, p: vector de entrenamiento o conjunto
de datos experimentales, i: salida emitida por las neuronas de salida de la red, y
tpi y ypi representan el objetivo o conjunto de valores observados y la salida de la
red, respectivamente.

El proceso de entrenamiento y aprendizaje de la red se basó entonces en la
reducción de la función de error anterior, a través de un proceso iterativo de
actualización de pesos de conexión y términos de tendencia que se representa
esquemáticamente en la Figura 1.




                                                                                  28
La arquitectura neuronal, así como el proceso de entrenamiento, aprendizaje y
posterior simulación de la red, se desarrollaron con el módulo de redes del
programa Matlab 6.0.




                                                                           29
Conclusión.

Los computadores digitales actuales superan al hombre en su capacidad de
cálculo numérico y el manejo de símbolos relacionales. Sin embargo, el hombre
puede solucionar problemas mucho más complejos de percepción (por ejemplo,
reconocer a un amigo entre un tumulto desde un simple vistazo de su cara o al
escuchar su voz, incluso por el modo de caminar; definir la habitabilidad de un
aula a partir de sensaciones de temperatura, ruido, humedad, iluminación, etc.) a
muy altas velocidades y sin necesidad de concebir un complejo modelo
matemático o computacional.

La respuesta está en la arquitectura del sistema neuronal biológico que es
completamente diferente a la arquitectura del computador.




En este momento se ha dado solución a problemas con altos niveles de
incertidumbre que con métodos tradicionales jamás se habría obtenido.

Soluciones tan novedosas e interesantes como la reconstrucción craneofacial
para la identificación de hombres, música neurocomputacional, sistemas de
detección de virus en computadores conocidos y desconocidos, identificación de
usuarios en cajeros automáticos desde la imagen del iris de los ojos,
reconocimiento de emisores en comunicaciones, diagnóstico de hepatitis,
recuperación de telecomunicaciones ante fallas en el software, interpretación de
palabras chinas,   detección   de   minas submarinas,       análisis de   texturas,
reconocimiento de objetos tridimensionales y reconocimiento de texto manuscrito.




                                                                                30
9.- Bibliografías:




      Flórez López Raquel. (2008). Las Redes Neuronales Artificiales. Prited in
       Spain.
      Pino Diez Raúl (2001). Introducción a la inteligencia artificial. Servicio de
       publicaciones Universidad de Oviedo
      Jesús de la Fuente María (1999). Aplicaciones de las redes neuronales en
       supervisión, diagnosis y control de procesos. Impreso en Venezuela.
      Flórez López José María ( ). Las redes neuronales artificiales.
      Hernández López Leonor. ( ). Predicción y optimización de emisores y
       consumo mediante redes neuronales


      http://www.redes-neuronales.netfirms.com/tutorial-redes-
       neuronales/clasificacion-de-redes-neuronales-respecto-al-aprendizaje.htm
      http://www.books.google.com/books?id=X0uLwi1Ap4QC&pg=PA16&dq=co
       ncepto+de+redes+neuronales+artificiales&hl=es&ei=dwW_TMuzIoL88Aaa-
       826Bg&sa=X&oi=book_result&ct=book-
       thumbnail&resnum=1&ved=0CC8Q6wEwAA#v=onepage&q=concepto%20d
       e%20redes%20neuronales%20artificiales&f=false
      http://members.tripod.com/jesus_alfonso_lopez/RnaIntro.html
      http://listas.20minutos.es/lista/inventos-humanos-basados-en-aptitudes-
       animales-187409/
      http://www.answermath.com/neural-networks/tutorial-esp-4-
       construccion.htm




                                                                                  31

Weitere ähnliche Inhalte

Was ist angesagt?

Funciones satlin satlins
Funciones satlin satlinsFunciones satlin satlins
Funciones satlin satlinsChristian Lara
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronaleslennydan11
 
Modelo de una red neuronal artificial
Modelo de una red neuronal artificialModelo de una red neuronal artificial
Modelo de una red neuronal artificialLevy GT
 
Vision artificial
Vision artificialVision artificial
Vision artificialDavid Sari
 
Redes neuronales artificiales
Redes neuronales artificialesRedes neuronales artificiales
Redes neuronales artificialesJesus Palomino
 
Inteligencias multiples
Inteligencias multiplesInteligencias multiples
Inteligencias multipleswason2
 
Utp sirn_s2_rna
 Utp sirn_s2_rna  Utp sirn_s2_rna
Utp sirn_s2_rna jcbenitezp
 
Utp sirn_s2_rna 2012-2
 Utp sirn_s2_rna 2012-2  Utp sirn_s2_rna 2012-2
Utp sirn_s2_rna 2012-2 jcbenitezp
 

Was ist angesagt? (14)

377562475 inteligencia-artificial
377562475 inteligencia-artificial377562475 inteligencia-artificial
377562475 inteligencia-artificial
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Funciones satlin satlins
Funciones satlin satlinsFunciones satlin satlins
Funciones satlin satlins
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Perceptron
PerceptronPerceptron
Perceptron
 
Modelo de una red neuronal artificial
Modelo de una red neuronal artificialModelo de una red neuronal artificial
Modelo de una red neuronal artificial
 
Vision artificial
Vision artificialVision artificial
Vision artificial
 
Unidad V documento
Unidad V documentoUnidad V documento
Unidad V documento
 
Redes neuronales artificiales
Redes neuronales artificialesRedes neuronales artificiales
Redes neuronales artificiales
 
Redes neuronales artificiales
Redes neuronales artificialesRedes neuronales artificiales
Redes neuronales artificiales
 
Inteligencias multiples
Inteligencias multiplesInteligencias multiples
Inteligencias multiples
 
Utp sirn_s2_rna
 Utp sirn_s2_rna  Utp sirn_s2_rna
Utp sirn_s2_rna
 
Utp sirn_s2_rna 2012-2
 Utp sirn_s2_rna 2012-2  Utp sirn_s2_rna 2012-2
Utp sirn_s2_rna 2012-2
 
Curso mm
Curso mmCurso mm
Curso mm
 

Andere mochten auch

Mecanismos de Deterioro
Mecanismos de DeterioroMecanismos de Deterioro
Mecanismos de Deterioroleftrato
 
La Mejor Maestra
La Mejor MaestraLa Mejor Maestra
La Mejor Maestrahjpsiot
 
Nueva Colección Figuras Decorativas
Nueva Colección Figuras DecorativasNueva Colección Figuras Decorativas
Nueva Colección Figuras DecorativasYan Gao
 
Encuentra más formas de hacer negocio / Francisco Rojas (ITA)
Encuentra más formas de hacer negocio /  Francisco Rojas (ITA)Encuentra más formas de hacer negocio /  Francisco Rojas (ITA)
Encuentra más formas de hacer negocio / Francisco Rojas (ITA)ServiDocu
 
Especificación GxFIT - Defensa Tesis Maestría
Especificación GxFIT - Defensa Tesis MaestríaEspecificación GxFIT - Defensa Tesis Maestría
Especificación GxFIT - Defensa Tesis MaestríaAlejandro Araújo
 
Informe Publicidad Vídeo Online IAB 2011
Informe Publicidad Vídeo Online IAB 2011Informe Publicidad Vídeo Online IAB 2011
Informe Publicidad Vídeo Online IAB 2011Pablo Morales
 
Me gustan los catalanes
Me gustan los catalanesMe gustan los catalanes
Me gustan los catalanesaliga
 
Mianmar Birmania
Mianmar BirmaniaMianmar Birmania
Mianmar BirmaniaTere
 
Islas Canarias
Islas CanariasIslas Canarias
Islas CanariasTere
 
Cocinando Rankings de universidades
Cocinando Rankings de universidadesCocinando Rankings de universidades
Cocinando Rankings de universidadesTorres Salinas
 
Funciones trigonometricas directas iv
Funciones trigonometricas directas ivFunciones trigonometricas directas iv
Funciones trigonometricas directas ivRasec Dali
 
Gep2009 Eq1 T11 Herramientas Gido
Gep2009 Eq1 T11 Herramientas GidoGep2009 Eq1 T11 Herramientas Gido
Gep2009 Eq1 T11 Herramientas Gidoeder8
 

Andere mochten auch (20)

Mecanismos de Deterioro
Mecanismos de DeterioroMecanismos de Deterioro
Mecanismos de Deterioro
 
La Mejor Maestra
La Mejor MaestraLa Mejor Maestra
La Mejor Maestra
 
C2
C2C2
C2
 
Nueva Colección Figuras Decorativas
Nueva Colección Figuras DecorativasNueva Colección Figuras Decorativas
Nueva Colección Figuras Decorativas
 
Velazquez Abel Aceves 2º A
Velazquez Abel Aceves 2º AVelazquez Abel Aceves 2º A
Velazquez Abel Aceves 2º A
 
Competencias para la vida
Competencias para la vidaCompetencias para la vida
Competencias para la vida
 
Valoracion proyecto abp_mooc
Valoracion proyecto abp_moocValoracion proyecto abp_mooc
Valoracion proyecto abp_mooc
 
Encuentra más formas de hacer negocio / Francisco Rojas (ITA)
Encuentra más formas de hacer negocio /  Francisco Rojas (ITA)Encuentra más formas de hacer negocio /  Francisco Rojas (ITA)
Encuentra más formas de hacer negocio / Francisco Rojas (ITA)
 
Especificación GxFIT - Defensa Tesis Maestría
Especificación GxFIT - Defensa Tesis MaestríaEspecificación GxFIT - Defensa Tesis Maestría
Especificación GxFIT - Defensa Tesis Maestría
 
Informe Publicidad Vídeo Online IAB 2011
Informe Publicidad Vídeo Online IAB 2011Informe Publicidad Vídeo Online IAB 2011
Informe Publicidad Vídeo Online IAB 2011
 
Me gustan los catalanes
Me gustan los catalanesMe gustan los catalanes
Me gustan los catalanes
 
Mianmar Birmania
Mianmar BirmaniaMianmar Birmania
Mianmar Birmania
 
Islas Canarias
Islas CanariasIslas Canarias
Islas Canarias
 
Cocinando Rankings de universidades
Cocinando Rankings de universidadesCocinando Rankings de universidades
Cocinando Rankings de universidades
 
Eos
EosEos
Eos
 
Funciones trigonometricas directas iv
Funciones trigonometricas directas ivFunciones trigonometricas directas iv
Funciones trigonometricas directas iv
 
Plan nacional de desarrollo.
Plan nacional de desarrollo.Plan nacional de desarrollo.
Plan nacional de desarrollo.
 
Para abordar la guía
Para abordar la guíaPara abordar la guía
Para abordar la guía
 
Gep2009 Eq1 T11 Herramientas Gido
Gep2009 Eq1 T11 Herramientas GidoGep2009 Eq1 T11 Herramientas Gido
Gep2009 Eq1 T11 Herramientas Gido
 
Tema 5 habilidades digitales para todos.
Tema 5  habilidades digitales para todos.Tema 5  habilidades digitales para todos.
Tema 5 habilidades digitales para todos.
 

Ähnlich wie Redes neuronales

Investigación redes neuronales
Investigación redes neuronalesInvestigación redes neuronales
Investigación redes neuronalestiburciosam
 
REDES NEURONALES
REDES NEURONALESREDES NEURONALES
REDES NEURONALESHB09
 
INTRODUCCION A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCION A LAS REDES NEURONALES ARTIFICIALESINTRODUCCION A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCION A LAS REDES NEURONALES ARTIFICIALESESCOM
 
DETECCION DE OBSTACULOS POR MEDIO DE UN ROBOT APLICANDO REDES NEURONALES ARTI...
DETECCION DE OBSTACULOS POR MEDIO DE UN ROBOT APLICANDO REDES NEURONALES ARTI...DETECCION DE OBSTACULOS POR MEDIO DE UN ROBOT APLICANDO REDES NEURONALES ARTI...
DETECCION DE OBSTACULOS POR MEDIO DE UN ROBOT APLICANDO REDES NEURONALES ARTI...Saul Mamani
 
DETECCION DE OBSTACULOS POR MEDIO DE UN ROBOT APLICANDO REDES NEURONALES ARTI...
DETECCION DE OBSTACULOS POR MEDIO DE UN ROBOT APLICANDO REDES NEURONALES ARTI...DETECCION DE OBSTACULOS POR MEDIO DE UN ROBOT APLICANDO REDES NEURONALES ARTI...
DETECCION DE OBSTACULOS POR MEDIO DE UN ROBOT APLICANDO REDES NEURONALES ARTI...Saul Mamani
 
Proyecto Personal
Proyecto PersonalProyecto Personal
Proyecto Personalagc99
 
Historia de las redes neuronales
Historia de las redes neuronalesHistoria de las redes neuronales
Historia de las redes neuronalesLaura García
 
Aplicacion redes neuronales
Aplicacion redes neuronalesAplicacion redes neuronales
Aplicacion redes neuronalesErik Perera
 
5.2 Redes neuronales (RN) [investigación]
5.2 Redes neuronales (RN) [investigación]5.2 Redes neuronales (RN) [investigación]
5.2 Redes neuronales (RN) [investigación]Humberto Chalate Jorge
 
2024-T8-Redes_Neuronales_I.ppsx
2024-T8-Redes_Neuronales_I.ppsx2024-T8-Redes_Neuronales_I.ppsx
2024-T8-Redes_Neuronales_I.ppsxRicardo Lopez-Ruiz
 
Dierssen, M. (2007). Unidad Didáctica: Viaje al Universo Neural. Madrid, Espa...
Dierssen, M. (2007). Unidad Didáctica: Viaje al Universo Neural. Madrid, Espa...Dierssen, M. (2007). Unidad Didáctica: Viaje al Universo Neural. Madrid, Espa...
Dierssen, M. (2007). Unidad Didáctica: Viaje al Universo Neural. Madrid, Espa...Selene Catarino
 
REDES NEURONALES
REDES NEURONALESREDES NEURONALES
REDES NEURONALESeduardop18
 

Ähnlich wie Redes neuronales (20)

Investigación redes neuronales
Investigación redes neuronalesInvestigación redes neuronales
Investigación redes neuronales
 
REDES NEURONALES
REDES NEURONALESREDES NEURONALES
REDES NEURONALES
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Brain computer-interface
Brain computer-interfaceBrain computer-interface
Brain computer-interface
 
Redes Neuronale Sac
Redes Neuronale SacRedes Neuronale Sac
Redes Neuronale Sac
 
INTRODUCCION A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCION A LAS REDES NEURONALES ARTIFICIALESINTRODUCCION A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCION A LAS REDES NEURONALES ARTIFICIALES
 
DETECCION DE OBSTACULOS POR MEDIO DE UN ROBOT APLICANDO REDES NEURONALES ARTI...
DETECCION DE OBSTACULOS POR MEDIO DE UN ROBOT APLICANDO REDES NEURONALES ARTI...DETECCION DE OBSTACULOS POR MEDIO DE UN ROBOT APLICANDO REDES NEURONALES ARTI...
DETECCION DE OBSTACULOS POR MEDIO DE UN ROBOT APLICANDO REDES NEURONALES ARTI...
 
DETECCION DE OBSTACULOS POR MEDIO DE UN ROBOT APLICANDO REDES NEURONALES ARTI...
DETECCION DE OBSTACULOS POR MEDIO DE UN ROBOT APLICANDO REDES NEURONALES ARTI...DETECCION DE OBSTACULOS POR MEDIO DE UN ROBOT APLICANDO REDES NEURONALES ARTI...
DETECCION DE OBSTACULOS POR MEDIO DE UN ROBOT APLICANDO REDES NEURONALES ARTI...
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Proyecto Personal
Proyecto PersonalProyecto Personal
Proyecto Personal
 
Historia de las redes neuronales
Historia de las redes neuronalesHistoria de las redes neuronales
Historia de las redes neuronales
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Aplicacion redes neuronales
Aplicacion redes neuronalesAplicacion redes neuronales
Aplicacion redes neuronales
 
Red neuronal
Red neuronalRed neuronal
Red neuronal
 
Redes Neuronales
 Redes Neuronales Redes Neuronales
Redes Neuronales
 
5.2 Redes neuronales (RN) [investigación]
5.2 Redes neuronales (RN) [investigación]5.2 Redes neuronales (RN) [investigación]
5.2 Redes neuronales (RN) [investigación]
 
2024-T8-Redes_Neuronales_I.ppsx
2024-T8-Redes_Neuronales_I.ppsx2024-T8-Redes_Neuronales_I.ppsx
2024-T8-Redes_Neuronales_I.ppsx
 
Dierssen, M. (2007). Unidad Didáctica: Viaje al Universo Neural. Madrid, Espa...
Dierssen, M. (2007). Unidad Didáctica: Viaje al Universo Neural. Madrid, Espa...Dierssen, M. (2007). Unidad Didáctica: Viaje al Universo Neural. Madrid, Espa...
Dierssen, M. (2007). Unidad Didáctica: Viaje al Universo Neural. Madrid, Espa...
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
REDES NEURONALES
REDES NEURONALESREDES NEURONALES
REDES NEURONALES
 

Mehr von anlie

Desempleo en Acuña, Coahuila
Desempleo en Acuña, CoahuilaDesempleo en Acuña, Coahuila
Desempleo en Acuña, Coahuilaanlie
 
Economia competitiva y generador de empleos 1
Economia competitiva y generador de empleos 1Economia competitiva y generador de empleos 1
Economia competitiva y generador de empleos 1anlie
 
Ciencia e investigacion
Ciencia e investigacionCiencia e investigacion
Ciencia e investigacionanlie
 
La investigacion como ciencia
La investigacion como cienciaLa investigacion como ciencia
La investigacion como cienciaanlie
 
Riesgo de consumo de alcohol adulterado
Riesgo de consumo de alcohol adulteradoRiesgo de consumo de alcohol adulterado
Riesgo de consumo de alcohol adulteradoanlie
 
Energia solar
Energia solarEnergia solar
Energia solaranlie
 
Equidad de genero 2010
Equidad de genero 2010Equidad de genero 2010
Equidad de genero 2010anlie
 
Adiccion a las redes sociales
Adiccion a las redes socialesAdiccion a las redes sociales
Adiccion a las redes socialesanlie
 
Metodo Socratico
Metodo SocraticoMetodo Socratico
Metodo Socraticoanlie
 

Mehr von anlie (9)

Desempleo en Acuña, Coahuila
Desempleo en Acuña, CoahuilaDesempleo en Acuña, Coahuila
Desempleo en Acuña, Coahuila
 
Economia competitiva y generador de empleos 1
Economia competitiva y generador de empleos 1Economia competitiva y generador de empleos 1
Economia competitiva y generador de empleos 1
 
Ciencia e investigacion
Ciencia e investigacionCiencia e investigacion
Ciencia e investigacion
 
La investigacion como ciencia
La investigacion como cienciaLa investigacion como ciencia
La investigacion como ciencia
 
Riesgo de consumo de alcohol adulterado
Riesgo de consumo de alcohol adulteradoRiesgo de consumo de alcohol adulterado
Riesgo de consumo de alcohol adulterado
 
Energia solar
Energia solarEnergia solar
Energia solar
 
Equidad de genero 2010
Equidad de genero 2010Equidad de genero 2010
Equidad de genero 2010
 
Adiccion a las redes sociales
Adiccion a las redes socialesAdiccion a las redes sociales
Adiccion a las redes sociales
 
Metodo Socratico
Metodo SocraticoMetodo Socratico
Metodo Socratico
 

Kürzlich hochgeladen

_Planificacion Anual NTICX 2024.SEC.21.4.1.docx.pdf
_Planificacion Anual NTICX 2024.SEC.21.4.1.docx.pdf_Planificacion Anual NTICX 2024.SEC.21.4.1.docx.pdf
_Planificacion Anual NTICX 2024.SEC.21.4.1.docx.pdfBetianaJuarez1
 
TENDENCIAS DE IA Inteligencia artificial generativa.pdf
TENDENCIAS DE IA Inteligencia artificial generativa.pdfTENDENCIAS DE IA Inteligencia artificial generativa.pdf
TENDENCIAS DE IA Inteligencia artificial generativa.pdfJoseAlejandroPerezBa
 
Guía de Registro slideshare paso a paso 1
Guía de Registro slideshare paso a paso 1Guía de Registro slideshare paso a paso 1
Guía de Registro slideshare paso a paso 1ivanapaterninar
 
Análisis de los artefactos (nintendo NES)
Análisis de los artefactos (nintendo NES)Análisis de los artefactos (nintendo NES)
Análisis de los artefactos (nintendo NES)JuanStevenTrujilloCh
 
Trabajo de tecnología liceo departamental
Trabajo de tecnología liceo departamentalTrabajo de tecnología liceo departamental
Trabajo de tecnología liceo departamentalEmanuelCastro64
 
Inteligencia Artificial. Matheo Hernandez Serrano USCO 2024
Inteligencia Artificial. Matheo Hernandez Serrano USCO 2024Inteligencia Artificial. Matheo Hernandez Serrano USCO 2024
Inteligencia Artificial. Matheo Hernandez Serrano USCO 2024u20211198540
 
Nomisam: Base de Datos para Gestión de Nómina
Nomisam: Base de Datos para Gestión de NóminaNomisam: Base de Datos para Gestión de Nómina
Nomisam: Base de Datos para Gestión de Nóminacuellosameidy
 
La electricidad y la electronica.10-7.pdf
La electricidad y la electronica.10-7.pdfLa electricidad y la electronica.10-7.pdf
La electricidad y la electronica.10-7.pdfcristianrb0324
 
Slideshare y Scribd - Noli Cubillan Gerencia
Slideshare y Scribd - Noli Cubillan GerenciaSlideshare y Scribd - Noli Cubillan Gerencia
Slideshare y Scribd - Noli Cubillan Gerenciacubillannoly
 
Tecnología Educativa- presentación maestría
Tecnología Educativa- presentación maestríaTecnología Educativa- presentación maestría
Tecnología Educativa- presentación maestríaElizabethLpezSoto
 
Trabajo de tecnología primer periodo 2024
Trabajo de tecnología primer periodo 2024Trabajo de tecnología primer periodo 2024
Trabajo de tecnología primer periodo 2024anasofiarodriguezcru
 
Actividades de computación para alumnos de preescolar
Actividades de computación para alumnos de preescolarActividades de computación para alumnos de preescolar
Actividades de computación para alumnos de preescolar24roberto21
 
tecnologiaactividad11-240323205859-a9b9b9bc.pdf
tecnologiaactividad11-240323205859-a9b9b9bc.pdftecnologiaactividad11-240323205859-a9b9b9bc.pdf
tecnologiaactividad11-240323205859-a9b9b9bc.pdflauralizcano0319
 
Trabajo de tecnología excel avanzado.pdf
Trabajo de tecnología excel avanzado.pdfTrabajo de tecnología excel avanzado.pdf
Trabajo de tecnología excel avanzado.pdfedepmariaperez
 
certificado de oracle academy cetrificado.pdf
certificado de oracle academy cetrificado.pdfcertificado de oracle academy cetrificado.pdf
certificado de oracle academy cetrificado.pdfFernandoOblitasVivan
 
#Tare10ProgramacionWeb2024aaaaaaaaaaaa.pptx
#Tare10ProgramacionWeb2024aaaaaaaaaaaa.pptx#Tare10ProgramacionWeb2024aaaaaaaaaaaa.pptx
#Tare10ProgramacionWeb2024aaaaaaaaaaaa.pptxHugoGutierrez99
 
Clasificación de Conjuntos de Datos Desequilibrados.pptx
Clasificación de Conjuntos de Datos Desequilibrados.pptxClasificación de Conjuntos de Datos Desequilibrados.pptx
Clasificación de Conjuntos de Datos Desequilibrados.pptxCarolina Bujaico
 
ORIENTACIONES DE INFORMÁTICA-2024.pdf-guia
ORIENTACIONES DE INFORMÁTICA-2024.pdf-guiaORIENTACIONES DE INFORMÁTICA-2024.pdf-guia
ORIENTACIONES DE INFORMÁTICA-2024.pdf-guiaYeimys Ch
 
CommitConf 2024 - Spring Boot <3 Testcontainers
CommitConf 2024 - Spring Boot <3 TestcontainersCommitConf 2024 - Spring Boot <3 Testcontainers
CommitConf 2024 - Spring Boot <3 TestcontainersIván López Martín
 
TECNOLOGIA 11-4.8888888888888888888888888
TECNOLOGIA 11-4.8888888888888888888888888TECNOLOGIA 11-4.8888888888888888888888888
TECNOLOGIA 11-4.8888888888888888888888888ElianaValencia28
 

Kürzlich hochgeladen (20)

_Planificacion Anual NTICX 2024.SEC.21.4.1.docx.pdf
_Planificacion Anual NTICX 2024.SEC.21.4.1.docx.pdf_Planificacion Anual NTICX 2024.SEC.21.4.1.docx.pdf
_Planificacion Anual NTICX 2024.SEC.21.4.1.docx.pdf
 
TENDENCIAS DE IA Inteligencia artificial generativa.pdf
TENDENCIAS DE IA Inteligencia artificial generativa.pdfTENDENCIAS DE IA Inteligencia artificial generativa.pdf
TENDENCIAS DE IA Inteligencia artificial generativa.pdf
 
Guía de Registro slideshare paso a paso 1
Guía de Registro slideshare paso a paso 1Guía de Registro slideshare paso a paso 1
Guía de Registro slideshare paso a paso 1
 
Análisis de los artefactos (nintendo NES)
Análisis de los artefactos (nintendo NES)Análisis de los artefactos (nintendo NES)
Análisis de los artefactos (nintendo NES)
 
Trabajo de tecnología liceo departamental
Trabajo de tecnología liceo departamentalTrabajo de tecnología liceo departamental
Trabajo de tecnología liceo departamental
 
Inteligencia Artificial. Matheo Hernandez Serrano USCO 2024
Inteligencia Artificial. Matheo Hernandez Serrano USCO 2024Inteligencia Artificial. Matheo Hernandez Serrano USCO 2024
Inteligencia Artificial. Matheo Hernandez Serrano USCO 2024
 
Nomisam: Base de Datos para Gestión de Nómina
Nomisam: Base de Datos para Gestión de NóminaNomisam: Base de Datos para Gestión de Nómina
Nomisam: Base de Datos para Gestión de Nómina
 
La electricidad y la electronica.10-7.pdf
La electricidad y la electronica.10-7.pdfLa electricidad y la electronica.10-7.pdf
La electricidad y la electronica.10-7.pdf
 
Slideshare y Scribd - Noli Cubillan Gerencia
Slideshare y Scribd - Noli Cubillan GerenciaSlideshare y Scribd - Noli Cubillan Gerencia
Slideshare y Scribd - Noli Cubillan Gerencia
 
Tecnología Educativa- presentación maestría
Tecnología Educativa- presentación maestríaTecnología Educativa- presentación maestría
Tecnología Educativa- presentación maestría
 
Trabajo de tecnología primer periodo 2024
Trabajo de tecnología primer periodo 2024Trabajo de tecnología primer periodo 2024
Trabajo de tecnología primer periodo 2024
 
Actividades de computación para alumnos de preescolar
Actividades de computación para alumnos de preescolarActividades de computación para alumnos de preescolar
Actividades de computación para alumnos de preescolar
 
tecnologiaactividad11-240323205859-a9b9b9bc.pdf
tecnologiaactividad11-240323205859-a9b9b9bc.pdftecnologiaactividad11-240323205859-a9b9b9bc.pdf
tecnologiaactividad11-240323205859-a9b9b9bc.pdf
 
Trabajo de tecnología excel avanzado.pdf
Trabajo de tecnología excel avanzado.pdfTrabajo de tecnología excel avanzado.pdf
Trabajo de tecnología excel avanzado.pdf
 
certificado de oracle academy cetrificado.pdf
certificado de oracle academy cetrificado.pdfcertificado de oracle academy cetrificado.pdf
certificado de oracle academy cetrificado.pdf
 
#Tare10ProgramacionWeb2024aaaaaaaaaaaa.pptx
#Tare10ProgramacionWeb2024aaaaaaaaaaaa.pptx#Tare10ProgramacionWeb2024aaaaaaaaaaaa.pptx
#Tare10ProgramacionWeb2024aaaaaaaaaaaa.pptx
 
Clasificación de Conjuntos de Datos Desequilibrados.pptx
Clasificación de Conjuntos de Datos Desequilibrados.pptxClasificación de Conjuntos de Datos Desequilibrados.pptx
Clasificación de Conjuntos de Datos Desequilibrados.pptx
 
ORIENTACIONES DE INFORMÁTICA-2024.pdf-guia
ORIENTACIONES DE INFORMÁTICA-2024.pdf-guiaORIENTACIONES DE INFORMÁTICA-2024.pdf-guia
ORIENTACIONES DE INFORMÁTICA-2024.pdf-guia
 
CommitConf 2024 - Spring Boot <3 Testcontainers
CommitConf 2024 - Spring Boot <3 TestcontainersCommitConf 2024 - Spring Boot <3 Testcontainers
CommitConf 2024 - Spring Boot <3 Testcontainers
 
TECNOLOGIA 11-4.8888888888888888888888888
TECNOLOGIA 11-4.8888888888888888888888888TECNOLOGIA 11-4.8888888888888888888888888
TECNOLOGIA 11-4.8888888888888888888888888
 

Redes neuronales

  • 1. Universidad Autónoma de Coahuila. Ingeniero en Sistemas Computacionales. Materia: Metodología de la Investigación. Tema: Redes Neuronales Artificiales (RNA) Profesor: M.A. Juan Carlos López Sarmiento. Alumno: Cecilio Andreu Moctezuma. 22 de Octubre 2010 1
  • 2. INDICE GENERAL. 1. ¿Por qué esta investigación?.......................................................................3 2. El objetivo de esta investigación…………………………………..…….…….3 3. Introducción……………………………………………………….………..……4 4. Inspiración biológica……………………………………………….……..……..7 5. Definición de redes neuronales artificiales (RNA)…………….……………..7 6. Sistema neuronal biológico……………………………………….…...……….8 7. Sistema neuronal artificial…………………………………………....……….11 8. Niveles o capas de neuronas…………………………..……….…………....12 9. Evolución histórica………………………………………..……….………..…13 10. Campo de aplicación…………………………………………..……..……..…16 11. ¿Cómo se construyen las Redes Neuronales?..........................................17 12. Elemento básico. De la (RNA)…….……………………………..…….…..…17 13. Tipo de información que manejan (RNA)…………………………...………18 14. Los elementos que constituyen la neurona son……………….…..……….19 15. Peso sinóptico…………………………………………………….……………20 16. El aprendizaje de las redes neuronales……………………….….…………21 17. Ejemplo…………………………………………………………….……………22 18. Conclusión……………………………………………………….….………….30 19. Bibliografías……………………………………………………….……………31 2
  • 3. ¿Por que de esta investigación? Mi investigación es sobre redes neuronales, ya que en la actualidad se utilizan en las empresas, hospitales, problemas matemáticos, etc. Porque se les puede agregar una gran cantidad de datos y son mas rápidas en procesar la información que el cerebro humano y tiene un margen de error muy mínimo o ninguno. Actualmente son la punta de la tecnología por su gran procesamiento de información. Hoy en día existen una gran cantidad de sistemas de software comerciales que se basan en los análisis de datos para hacer tareas como: análisis financieros, vigilancia, economía. Los biólogos y los ingenieros de software, los de robótica han tenido que unirse para poder llevar acabo este tipo de redes aportando cada uno parte de sus conocimientos para hacer mas rápido una tarea especifica y compleja. El objetivo de esta investigación es: darnos cuenta has donde a llegado el ser humano con la ayuda de la tecnología y como a ido evolucionando que, actualmente hay máquinas inteligentes y con la apariencia de un ser humano. Y como se han inspirado en el cerebro los ingenieros para poder realizar este tipo de investigaciones y poder llevarlas a la tecnología.  Conocer la inspiración biológica de las Redes Neuronales Artificiales (RNA) y sus fundamentos.  Entender el funcionamiento de los modelos de las RNA.  Identificar en donde se pueden aplicar los modelos de RNA. 3
  • 4. Introducción. Muchos de los desarrollos del hombre se deben a su capacidad para explicar y emular funciones que son realizadas por seres vivos. Por ejemplo, se puede citar el radar, que surge como imitación de la forma como un murciélago es capaz de detectar los objetos que están en su camino sin necesidad de verlos, por medio de emisión de una onda ultrasónica, la posterior recepción de la señal de eco y su procesamiento. Así como el anterior hay muchos ejemplos más: El helicóptero, el avión, el submarino. Existen dos tipos de visión nocturna: por aumento de luz y por visión térmica, ambas técnicas son utilizadas por los animales. La retina de un animal (la parte de atrás del ojo donde se forma la imagen) está compuesto mayormente por dos tipos de células sensibles a la luz llamadas bastones y conos. Los bastones son responsables para potenciar los estímulos lumínicos pequeños 4
  • 5. Radares y murciélagos Ambos, el radar y el murciélago utilizan el mismo principio: el eco. Las ondas reflejadas por los objetos son percibidas por los oídos del murciélago y, en el otro caso, por una antena de radar que las transforma en información. El avión y las aves El principio que utilizan los aviones es básicamente el mismo que utilizan las aves, es la forma del ala y su posición relativa con respecto a la corriente de aire lo que produce la fuerza de sustentación. El submarino y el nautilos Los submarinos poseen "tanques de inmersión" ubicados a ambas bandas los que, una vez inundados, le dan al submarino una flotabilidad apenas positiva. Posee otro tanque, ubicado en el centro, relativamente chico, que al ser totalmente inundado le da al buque flotabilidad negativa para ir a inmersión 5
  • 6. El camarón mantis y los aparatos de DVD. El ojo del camarón mantis puede convertir luz de todos los colores del espectro visible. Las investigaciones apuntan a que, tomando como modelo el ojo de este camarón, los ingenieros podrían fabricar un aparato de DVD que reprodujera discos con mucha más información que los actuales. Aunque el hombre ha sido capaz de emular funciones de los animales, para él siempre ha sido un sueño poder conocer e imitar, la llamada por muchos la máquina perfecta: el cerebro humano. Cuando la neurociencia pudo explicar de forma un poco convincente el funcionamiento de la unidad principal de procesamiento de información que posee el cerebro, la neurona, surge casi de manera automática la idea de poder emular dicho funcionamiento en un elemento artificial "La neurona artificial." 6
  • 7. Inspiración biológica. El cerebro humano. • Trata gran cantidad de información. • Capacidad de tratar situaciones nuevas. • Capacidad de aprendizaje • Almacenamiento distribuido. • No binario, no estable y no secuencial. • Poder desconocido • 1011 Neuronas (procesadores) • 1000 – 10000 conexiones por neurona. • Capacidad basada en las conexiones. • Cada neurona es muy compleja. Definición de redes neuronales artificiales (RNA). Las Redes Neuronales Artificiales (RNA) o sistemas conexionistas son sistemas de procesamiento de la información cuya estructura y funcionamiento están inspirados en las redes neuronales biológicas. Consisten en un conjunto de elementos simples de procesamiento llamados nodos o neuronas conectadas entre sí por conexiones que tienen un valor numérico modificable llamado peso. 7
  • 8. Los tres conceptos claves de los sistemas biológicos, que se pretenden emular en los artificiales son: • Paralelismo de cálculo. • Memoria distribuida. • Adaptabilidad al entorno. Las redes neuronales artificiales (RNAs) son modelos computacionales que surgieron como un intento de conseguir formalizaciones matemáticas acerca de la estructura del cerebro. Las RNAs imitan la estructura del hardware del sistema nervioso, centrándose en el funcionamiento del cerebro humano, basado en el aprendizaje a través de la experiencia, con la consiguiente extracción de conocimiento a partir de la misma. Sistema neuronal biológico: Los elementos básicos de un sistema neuronal biológico son las neuronas, agrupadas en redes compuestas por millones de ellas y organizadas a través de una estructura de capas, que constituyen un sistema con funcionalidad propia. 8
  • 9. En general una neurona consta de un cuerpo celular más o menos esférico de 5 a 10 micras de diámetro, del que sale una rama principal el axón, y varias ramas más cortas denominadas dendritas. Neurona. • Pueden presentar muchas formas, aunque presentan un aspecto similar. • Cuerpo celular o soma (10 – 80 micras). • Dendritas de entradas • Un axón de salida • Sinapsis de conexión. 9
  • 10. En la tabla 1 se muestra un paralelo entre un computador secuencial (Computador de Von Neumann) y un sistema biológico Característica Computador secuencial Sistema biológico neuronal Unidad de Compleja, Veloz, Única Simple, Lenta, Muchas Procesamiento Memoria Separada del procesador, Integrada dentro del Localizada procesador, Distribuida, Direccionable por contenido Procesamiento de Centralizado, Secuencial, Distribuido ,Paralelo, Auto los Datos Programas almacenados aprendizaje Confiabilidad Muy vulnerable Robusto Especialización Manipulaciones simbólicas y Problemas perceptuales numéricas Ambiente de Bien definido, Muy restringido Pobremente definido, Sin operación restricciones En la tabla 2 se muestra la velocidad de procesamiento de información del cerebro y la computadora. 10
  • 11. Sistema neuronal artificial: En un sistema neuronal artificial puede establecerse una estructura jerárquica similar, de forma RNA puede concebirse como una colección de procesadores elementales (neuronas artificiales), conectados a otras neuronas o bien a entradas externas y con una salida que permite propagar las señales por múltiples caminos. El elemento esencial de partida es la neurona artificial, que se organiza en capas; varias capas constituyen una red neuronal; y, por ultimo, una red neuronal (o un conjunto de ellas), junto con las interfaces de entrada y salida constituirán el sistema neuronal. 11
  • 12. Niveles o capas de neuronas. La distribución de neuronas dentro de una red se realiza formando niveles o capas de un número de neuronas determinado, donde se conoce como capa o nivel a un conjunto de neuronas cuyas entradas provienen de la misma fuente (que puede ser otra capa de neuronas) y cuyas salidas se dirigen al mismo destino (que puede ser otra capa de neuronas). Se pueden distinguir tres tipos de capas: 1. Capa de Entrada. Es la capa que recibe directamente la información proveniente de las fuentes externas de la red 2. Capa Oculta. Son internas a la red y no tiene contacto directo con el exterior. El número de niveles ocultos puede estar entre cero y un número elevado. Las neuronas de la capa oculta pueden estar interconectadas de diferentes maneras, lo que determina, junto con su número, las distintas tipologías de redes neuronales. 3. Capa de Salida. Transfieren información de la red hacia el exterior. 12
  • 13. Evolución histórica Los primeros análisis acerca del comportamiento del cerebro y el pensamiento se deben a filósofos griegos, destacando las aportaciones realizadas por Aristóteles (384 – 422 A.C).y Platón (427 – 347 A.C), continuadas en la Edad Media por Descartes (1596 – 1650) y por los filósofos empiristas del siglo XVII. En 1936, Alan Turing fue el primero en estudiar el cerebro desde el punto de vista computacional, si bien los trabajos pioneros para la construcción de modelos matemáticos que imitasen el comportamiento de las neuronas biológicas se deben a Warren McCulloch y Walter Pitts (neurofisiólogo y matemático, respectivamente), que presentaron en 1943 uno de los primeros modelos abstractos de una neurona artificial. 13
  • 14. La historia de las redes neuronales puede dividirse en varios periodos: 1. Primeros intentos: Se realizaron algunas simulaciones usando lógica formal. McCulloch and Pitts (1943) desarrollaron modelos de redes neuronales basados en su conocimiento de neurología. Sus redes se basaban en neuronas simples, consideradas como dispositivos binarios con umbrales fijos. Los resultados de sus modelos fueron funciones lógicas elementales tales como "a o b" y "a y b". Dos grupos (Farley and Clark, 1954; Rochester, Holland, Haibit and Duda, 1956) lo intentaron usando simulaciones computacionales. El primer grupo conformado por investigadores de IBM mantenía un contacto cercano con neurocientíficos de la universidad de McGill. 2. Tecnología emergente y promisoria: No solo la neurociencia influía en el desarrollo de las redes neuronales, también los físicos y los ingenieros contribuían al progreso de las simulaciones de redes neuronales. Rosenblatt (1958) revitalizó fuertemente el interés y la actividad en esta área cuando diseñó y desarrollo su Perceptrón. El Perceptrón tiene tres capas, incluida la capa del medio denominada de asociación. Este sistema pudo aprender a conectar y asociar unas entradas dadas a una unidad de salida aleatoria. Otro sistema fue el ADALINE (ADAptive LInear Element) el cual fue desarrollado en 1960 por Widrow and Hoff (de la Universidad de Stanford). El ADALINE fue un dispositivo electrónico analógico hecho de componentes simples, con un método de aprendizaje diferente al del Perceptron, empleando una regla de aprendizaje basada en mínimos cuadrados (LMS). 3. Periodo de frustración y desprestigio: En 1969 Minsky and Papert escribieron un libro en cual ellos generalizaban las limitaciones de un Perceptron monocapa a sistemas multicapa. En el libro ellos decían: "...nuestro intuitivo juicio es que la extensión (a sistemas multicapa) es una tarea estéril". El resultado de las afirmaciones de este libro fue eliminar la financiación para los investigadores que trabajaban con simulaciones de redes neuronales. Las conclusiones del libro de 14
  • 15. Minsky and Papert soportadas con el desencanto de los investigadores en el área, trajo como resultado un gran prejuicio contra la actividad de la misma. 4. Innovación: Aunque el interés público por las redes neuronales era mínimo, varios investigadores continuaron trabajando en el desarrollo de métodos computacionales basados en neuromorfología para problemas de identificación de patrones. Durante este periodo varios paradigmas fueron generados, los cuales aun continúan con trabajos modernos, se puede mencionar a: Steve Grossberg and Gail Carpenter quienes desarrollaron la teoría de la resonancia adaptativa, ART (Adaptive Resonance Theory), Anderson y Kohonen (1982) quienes desarrollaron técnicas para aprendizaje asociativo. Hopfield (1984) quien desarrolló una red neuronal haciendo un símil energético. Werbos (Paul Werbos 1982) desarrolló y usó el método de aprendizaje conocido como Backpropagation, destacando que varios años después de popularizarse este método, es actualmente la arquitectura de red neuronal mejor conocida y más utilizada en las aplicaciones de redes neuronales. En esencia una red Back-propagation es un Perceptron con múltiples capas, con diferentes funciones de activación en las neuronas artificiales y con una regla de aprendizaje más robusta y confiable. 5. Resurgimiento: Durante el final de la década de los 70s y principios de los 80s, fue importante el resurgimiento del interés en el campo de las redes neuronales. Varios factores han influenciado este movimiento, tales como la aparición de libros y conferencias que han dado a conocer las bondades de esta técnica a personas de diferentes áreas. El financiamiento a proyectos de investigación en redes neuronales en Europa, EUA y Japón que han hecho que aparezcan una gran variedad de aplicaciones comerciales e industriales. 15
  • 16. 6. Hoy: Se han realizado progresos muy significativos en el campo de las RNA, lo suficientes como para atraer una gran atención e interés en financiar investigaciones. Ya se encuentran comercialmente circuitos integrados basados en RNAs y las aplicaciones desarrolladas resuelven problemas cada vez más complejos. Sin lugar a dudas, hoy es un periodo de transición y fuerte evolución para la tecnología en redes neuronales. Campo de aplicación. Las Redes neuronales artificiales son interesantes para una gran cantidad de personas de diferentes áreas:  Científicos de la computación que quieren averiguar sobre las propiedades del procesamiento de información no-simbólica con una red neuronal y sobre sistemas de aprendizaje en general.  Estadísticos utilizan redes neuronales como modelos de clasificación y regresión no lineal flexible  Ingenieros de varias especialidades se aprovechan de las capacidades de redes neuronales en muchas áreas, como procesamiento de señales y control automático  Los científicos cognoscitivos ven redes nerviosas como un posible aparato para describir modelos de pensamiento y conciencia (función cerebral de alto-nivel).  Neuro-fisiólogos utilizan redes neuronales para describir y explorar funciones cerebrales de medio-nivel (memoria del ej., sistema sensorial y motriz).  Físicos usan redes neuronales para modelar fenómenos en mecánica estadística y para muchas otras tareas.  Biólogos utilizan Redes Neuronales para interpretar sucesiones del nucleótido. 16
  • 17. Filósofos y otras personas también pueden ser interesadas en Redes Nerviosas por las varias razones. Las RNA con su capacidad para deducir un significado desde datos complicados o imprecisos, pueden ser utilizadas para detectar patrones o detectar una tendencia que es muy compleja de hallar por una persona con modelos determísticos o por otras técnicas computacionales tradicionales. Una red entrenada puede ser vista como un experto en el manejo de la información que se le ha dado para analizar. Este experto puede ser utilizado para proporcionar proyecciones ante nuevas situaciones de interés. ¿Cómo se construyen las Redes Neuronales? Se pueden realizar de varias maneras. Por ejemplo en hardware utilizando transistores o amplificadores operacionales, pero la mayoría de las RNA se construyen en software, esto es en programas de computación. Elemento básico de la (RNA). Una neurona artificial es un elemento con entradas, salida y memoria que puede ser realizada mediante software o hardware. Posee entradas (I) que son ponderadas (w), sumadas y comparadas con un umbral (t). La señal computada de esa manera, es tomada como argumento para una función no lineal (f), la cual determinará el tipo de neurona y en parte el tipo de red neuronal 17
  • 18. Tipo de información que manejan (RNA). Las redes neuronales manejan dos tipos de información. La primera, es la información volátil, que se refiere a los datos que se están usando y varían con la dinámica de la computación de la red, se encuentra almacenada en el estado dinámico de las neuronas El segundo tipo de información que manejan las redes neuronales, es la información no volátil que se mantiene para recordar los patrones aprendidos y se encuentra almacenada en los pesos sinápticos. 18
  • 19. Sinápticos: la conexión entre el axón de una neurona y las dendritas de otra recibe el nombre de sinapsis o synapsis, y determina la fuerza y tipo de relación entre ellas. Las conexiones sinápticas son las vías o caminos de comunicación entre los diferentes elementos de procesos (neuronas) y entre éstos y las entradas/salidas del sistema. Los elementos que constituyen la neurona son: • Conjunto de entradas, Xj(t). • Pesos sinápticos de la neurona i. Wij representa la intensidad de interacción entre cada neurona pre sináptica j y la neurona post sináptica i. • Regla de propagación g(Wij, Xj(t)). Proporciona el valor del potencial post sináptico hi(t) = g(Wij, Xj(t)) de la neurona i en función de sus pesos y entradas. 19
  • 20. Función de activación fi(ai(t-1), hi(t)), que proporciona el estado de activación actual ai(t) =fi(ai(t-1), hi(t)) de la neurona i, en función de su estado anterior ai(t-1) y de su potencial post sináptico actual. • Función de salida Fi(ai(t)), que proporciona la salida actual yi(t) = Fi(ai(t)) de la neurona i en función de su estado de activación. De este modo, la operación de la neurona i puede expresarse como: yi(t) = Fi(fi[ai(t-1), g(Wij, Xj(t))]) Interacción entre una neurona pre sináptica y una post sináptica: Peso sináptico Si el peso es positivo tendera a excitar a la neurona post sináptica, si el peso es negativo tenderá a inhibirla. Así se habla de sinapsis excitadora e inhibidora en las redes neuronales artificiales. 20
  • 21. El aprendizaje de las redes neuronales. Es el proceso de presentar los patrones a aprender, a la red y el cambio de los pesos de las conexiones sinápticas usando una regla de aprendizaje. La regla de aprendizaje consiste en algoritmos basados en formulas matemáticas, que usando técnicas como minimización del error o la optimización de alguna "función de energía", modifican el valor de los pesos sinápticos en función de las entradas disponibles y con ello optimizan la respuesta de la red a las salidas que deseamos. El aprendizaje se basa en el entrenamiento de la red con patrones, que usualmente son llamados patrones de muestra o entrenamiento. El proceso usual del algoritmo es que la red ejecuta los patrones iterativamente, cambiando los pesos de las sinapsis, hasta que convergen a un conjunto de pesos óptimos que representan a los patrones lo suficientemente bien, entonces mostrará una respuesta satisfactoria para esos patrones. Esto es, sus pesos sinápticos se ajustan para dar respuestas correctas al conjunto de patrones de entrenamiento que le hemos mostrado. Podemos distinguir tres tipos de aprendizaje. El modo más intuitivo es el Aprendizaje supervisado, que consiste en que la red dispone de los patrones de entrada y los patrones de salida que deseamos para esa entrada y en función de ellos se modifican los pesos de las sinapsis para ajustar la entrada a esa salida. Otro modo de aprendizaje, Aprendizaje no supervisado, consiste en no presentar patrones objetivos, si no solo patrones de entrada, y dejar a la red clasificar dichos patrones en función de las características comunes de los patrones. 21
  • 22. Existe otro tipo de aprendizaje, que usa una formula híbrida, el supervisor no enseña patrones objetivos si no que solo le dice se acierta o falla en su respuesta ante un patrón de entrada. Es el aprendizaje reforzado, Ejemplo: Resumen Este trabajo tuvo como objetivo predecir las manifestaciones macroscópicas de los dos principales fenómenos de transferencia de masa en tres frutas (melón, lechosa y manzana) osmóticamente deshidratadas. Se consideró el efecto de cinco variables de proceso: tipo de alimento, concentración de la solución osmótica, tamaño de la fruta, temperatura y tiempo de proceso, sobre la pérdida de agua y ganancia de sólidos de las frutas. Para ello se desarrolló un modelo neuronal artificial compuesto por cinco neuronas de entrada y dos capas ocultas de procesamiento de información compuestas por cinco neuronas cada una, utilizando funciones sigmoides como medio de comunicación, y dos neuronas de salida representando a las variables dependientes del modelo. La arquitectura neuronal desarrollada y entrenada mediante el algoritmo Levenberg-Marquardt permitió predecir más de los 90% de la variabilidad de los datos en los dos fenómenos de transferencia estudiados, constituyéndose en un modelo alternativo a las ecuaciones para métricas desarrolladas hasta el momento. Introducción La deshidratación osmótica es una tecnología que ha sido aplicada principalmente en frutas, con el objeto de reducir la actividad de agua y el contenido de humedad de las mismas, para así generar alimentos de humedad intermedia con una 22
  • 23. estabilidad relativamente limitada, por lo cual, el proceso osmótico es usualmente combinado con otra técnica de preservación que permita extender la vida útil del alimento. Generalmente, el proceso se desarrolla mediante la inmersión de trozos de fruta en soluciones de sacarosa, mediante el control de variables como temperatura, agitación y tiempo de proceso. En el curso de la tecnología se suscitan tres fenómenos de transferencia de masa: la migración de agua desde la fruta hacia la solución de impregnación, la transferencia de solutos de la solución a la fruta y la salida de solutos propios del alimento a la solución. El tercer fenómeno de transferencia resulta cuantitativamente despreciable en comparación con los dos primeros, los cuales caracterizan el proceso y permiten el logro de los objetivos ulteriores de la tecnología: la estabilidad del alimento mediante el control de su contenido de humedad y la actividad de agua, y la posibilidad de aplicación de efectos de formulación específicos mediante componentes específicos. En tal sentido, el objetivo de la presente investigación es desarrollar un modelo de red neuronal artificial basado en un algoritmo de retro propagación del error, para el modelado predictivo de los fenómenos de pérdida de agua y ganancia de sólidos en frutas osmóticamente deshidratadas. 23
  • 24. Materiales y Métodos Proceso de deshidratación osmótica Las frutas usadas en la investigación, lechosa, melón y manzana, seleccionadas en virtud de su naturaleza porosa y por ende facilitadora de los fenómenos de transferencia de masa, se obtuvieron de un mismo establecimiento comercial, sin lesiones externas y con características similares de forma, tamaño y color. Se determinó el contenido de humedad inicial de las frutas, de acuerdo a la metodología de la AOAC (AOAC, 1990), obteniéndose los siguientes resultados: lechosa 88,93% ± 0,71% (n=5), melón 93,07% ± 0,85% (n=5) y manzana 87,32% ±0,82% (n=5). Una vez lavadas, las frutas fueron picadas en cubos mediante la utilización de un vernier y un cuchillo previamente desinfectado. Es importante señalar que las frutas, con características similares de madurez (de acuerdo a la relación ºBrix / pH), fueron asignadas aleatoriamente a cada condición experimental (1 fruta o individuo por tratamiento) y se obtuvieron 10 unidades experimentales (cubos) de cada fruta para conformar una réplica de cada i-ésimo tratamiento (Tabla I). La obtención de cubos de geometría regular con características finitas, permitió reducir la dimensión característica de las frutas y minimizar los tiempos de impregnación empleados. Una vez cortadas y registrado el peso inicial de las muestras de frutas, las mismas se sumergieron en las soluciones de impregnación (soluciones de sacarosa), para cada una de las condiciones experimentales (Tabla I). Para satisfacer cada una de las condiciones de temperatura, las soluciones fueron colocadas en baños de agua y tapadas para evitar la evaporación de las soluciones. Al finalizar el tiempo de proceso, los trozos de fruta fueron cuidadosamente secados con papel absorbente para remover el exceso de solución osmótica de la superficie y su peso se registró inmediatamente. Posteriormente, las muestras se secaron en un horno de convección a 60ºC por 16h., y posteriormente en una estufa al vacío a 70ºC por 24h., para determinar la masa seca de las frutas osmóticamente tratadas y 24
  • 25. calcular por balance de masa el contenido de humedad de las mismas (Panagiotou et al., 1998). Cada condición experimental se realizó por duplicado. Con la primera réplica se entrenó la arquitectura neuronal artificial y con la segunda, constituida a partir de muestras de frutas totalmente independientes de las utilizadas para la primera réplica, se validó la habilidad predictiva y de generalización del modelo (Millán et al., 2001). Como se señaló en la introducción, los dos principales fenómenos de transferencia de masa que se suscitan en la deshidratación osmótica, se evidencian macroscópicamente mediante la pérdida de agua (PA) y la ganancia de sólidos (GS), las cuales pueden ser definidas por las ecuaciones. 25
  • 26. Donde M0: masa inicial de fruta antes de ser sometida al tratamiento osmótico, M: masa de fruta luego del tratamiento osmótico, m0: masa seca inicial de la muestra de fruta, y m: masa seca de la fruta luego del tratamiento osmótico. Desarrollo del modelo neuronal artificial Se desarrolló una estructura neuronal de retro propagación del error con 5 neuronas de entrada, constituidas por las variables tipo de alimento (melón, lechosa y manzana), concentración de la solución de impregnación, tamaño de la muestra de fruta, temperatura y tiempo de proceso, y dos neuronas de salida, representativas de la pérdida de agua y ganancia de sólidos, como manifestaciones macroscópicas de la transferencia de agua desde la fruta hacia la solución de impregnación y la transferencia de solutos desde la solución de impregnación hacia la fruta, respectivamente. Los valores de entrada a las i- ésimas neuronas de entrada estuvieron constituidos por los valores que conforman las variables independientes mencionadas (Tabla I). A estos valores se asoció aleatoriamente un peso de conexión de poca magnitud, que permitió la propagación de la información a la primera capa de neuronas ocultas de procesamiento de datos. La asignación aleatoria de los pesos de inicio de poca magnitud es la técnica normalmente usada cuando no se dispone de información previa acerca del sistema que se está modelando, ya que impide la temprana 26
  • 27. saturación de la red por cuanto induce a la ruptura de simetría. Así, la entrada neta de la j-ésima neurona de la capa oculta puede representarse a través de la ecuación Donde xpi: entrada que recibe la neurona procedente de la i-ésima unidad de entrada, wjih: peso de la conexión y jh: término de tendencia. El índice h se refiere a magnitudes de la capa oculta y el subíndice p al p-ésimo vector de entrenamiento. El establecimiento del número de capas ocultas y el número de neuronas que conforman dichas capas se seleccionó mediante un proceso de ensayo y error Luego, la salida de las j-ésimas neuronas de la capa oculta se transfirió a las neuronas de la capa de salida mediante una función de transferencia fjh. Dicha salida se representa por la ecuación Donde ypj: salida neta de cada j-ésima neurona de la capa oculta, y netpjh: entrada neta a la j-ésima neurona de la capa oculta. La función de transferencia más empleada en las redes de retro propagación del error es la tangente hiperbólica (Reed y Marks, 1999). Luego, la entrada neta a la capa de neuronas de salida, representadas por el número de variables dependientes del sistema, en este caso la pérdida de agua y la ganancia de sólidos de las frutas osmóticamente deshidratadas, se representa mediante la ecuación 27
  • 28. Donde el índice 0 se refiere a magnitudes de la capa de salida, ypj: entrada procedente de la j-ésima neurona oculta, wkj0: peso de conexión entre la j-ésima unidad oculta y la k-ésima neurona de salida, k0: término de tendencia asociado a la k-ésima neurona de salida, y netpk: entrada neta a la k-ésima neurona de salida. Finalmente, la salida de las neuronas de salida se comparó con un vector objetivo constituido por los valores experimentales de pérdida de agua y ganancia de sólidos y se generó la siguiente función de error, constituida por la suma de errores cuadráticos (Reed y Marks, 1999): Donde ESSE: suma de cuadrados del error, p: vector de entrenamiento o conjunto de datos experimentales, i: salida emitida por las neuronas de salida de la red, y tpi y ypi representan el objetivo o conjunto de valores observados y la salida de la red, respectivamente. El proceso de entrenamiento y aprendizaje de la red se basó entonces en la reducción de la función de error anterior, a través de un proceso iterativo de actualización de pesos de conexión y términos de tendencia que se representa esquemáticamente en la Figura 1. 28
  • 29. La arquitectura neuronal, así como el proceso de entrenamiento, aprendizaje y posterior simulación de la red, se desarrollaron con el módulo de redes del programa Matlab 6.0. 29
  • 30. Conclusión. Los computadores digitales actuales superan al hombre en su capacidad de cálculo numérico y el manejo de símbolos relacionales. Sin embargo, el hombre puede solucionar problemas mucho más complejos de percepción (por ejemplo, reconocer a un amigo entre un tumulto desde un simple vistazo de su cara o al escuchar su voz, incluso por el modo de caminar; definir la habitabilidad de un aula a partir de sensaciones de temperatura, ruido, humedad, iluminación, etc.) a muy altas velocidades y sin necesidad de concebir un complejo modelo matemático o computacional. La respuesta está en la arquitectura del sistema neuronal biológico que es completamente diferente a la arquitectura del computador. En este momento se ha dado solución a problemas con altos niveles de incertidumbre que con métodos tradicionales jamás se habría obtenido. Soluciones tan novedosas e interesantes como la reconstrucción craneofacial para la identificación de hombres, música neurocomputacional, sistemas de detección de virus en computadores conocidos y desconocidos, identificación de usuarios en cajeros automáticos desde la imagen del iris de los ojos, reconocimiento de emisores en comunicaciones, diagnóstico de hepatitis, recuperación de telecomunicaciones ante fallas en el software, interpretación de palabras chinas, detección de minas submarinas, análisis de texturas, reconocimiento de objetos tridimensionales y reconocimiento de texto manuscrito. 30
  • 31. 9.- Bibliografías:  Flórez López Raquel. (2008). Las Redes Neuronales Artificiales. Prited in Spain.  Pino Diez Raúl (2001). Introducción a la inteligencia artificial. Servicio de publicaciones Universidad de Oviedo  Jesús de la Fuente María (1999). Aplicaciones de las redes neuronales en supervisión, diagnosis y control de procesos. Impreso en Venezuela.  Flórez López José María ( ). Las redes neuronales artificiales.  Hernández López Leonor. ( ). Predicción y optimización de emisores y consumo mediante redes neuronales  http://www.redes-neuronales.netfirms.com/tutorial-redes- neuronales/clasificacion-de-redes-neuronales-respecto-al-aprendizaje.htm  http://www.books.google.com/books?id=X0uLwi1Ap4QC&pg=PA16&dq=co ncepto+de+redes+neuronales+artificiales&hl=es&ei=dwW_TMuzIoL88Aaa- 826Bg&sa=X&oi=book_result&ct=book- thumbnail&resnum=1&ved=0CC8Q6wEwAA#v=onepage&q=concepto%20d e%20redes%20neuronales%20artificiales&f=false  http://members.tripod.com/jesus_alfonso_lopez/RnaIntro.html  http://listas.20minutos.es/lista/inventos-humanos-basados-en-aptitudes- animales-187409/  http://www.answermath.com/neural-networks/tutorial-esp-4- construccion.htm 31