SlideShare ist ein Scribd-Unternehmen logo
1 von 38
Downloaden Sie, um offline zu lesen
Reconocimiento de Patrones
Autores:
José Luis Alba - Universidad de Vigo
Jesús Cid - Universidad Carlos III de Madrid
Ultima revisión: mayo de 2006
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 2
Índice
Introducción
Esquema general del análisis de imágenes
Elementos del reconocimiento de patrones
Patrones
Patrones vectoriales
Patrones estructurados
Reconocimiento de patrones mediante funciones
discriminantes
Elementos
Mínima distancia y Adaptación (Pattern Matching)
Clasificadores estadísticamente óptimos
Redes Neuronales Artificiales
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 3
PREPROCESADO
(MEJORA-
RESTAURACIÓN)
ADQUISICIÓN
DE LA IMAGEN
SEGMENTACIÓN
EXTRACCIÓN DE
CARACTERÍSTICAS
RECONOCIMIENTO
CLASIFICACIÓN
INTERPRETACIÓN
BASE DE
CONOCIMIENTO
imagen
IntroducciónIntroducción
Esquema general del análisis de imágenes
Técnicas de bajo nivel Técnicas de alto nivel
Técnicas de nivel intermedio
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 4
Patrones
Tras los procesos de segmentación, extracción de características y descripción, cada objeto
queda representado por una colección (posiblemente ordenada y estructurada) de
descriptores, denominada patrón.
En los problemas de reconocimiento, cada patrón se supone perteneciente a una categoría o
clase, ci
El sistema de reconocimiento debe asignar cada objeto (de interés) a su categoría.
Reconocimiento o clasificación: proceso por el que se asigna una “etiqueta”, que representa
una clase, a un patrón concreto.
Clase: conjunto de entidades que comparten alguna característica que las diferencia de otras.
Clase de rechazo: conjunto de entidades que no se pueden etiquetar como ninguna de las
clases del problema
Extractor de características: subsistema que extrae información relevante para la clasificación
a partir de las entidades cuantificables
Clasificador: subsistema que utiliza un vector de características de la entidad cuantificable y lo
asigna a una de M clases
Evaluación del error de clasificación: “error de clasificación”, “tasa de error empírica”, “tasa
de rechazo empírica”, “conjunto de datos independientes”.
Falso rechazo (falso negativo) y falsa aceptación (faso positivo): para problemas de 2
clases estas definiciones reflejan la importancia de una decisión contra la opuesta. El sistema de
clasificación se puede “sintonizar” para que trabaje ponderando un tipo de error sobre el otro
Elementos del reconocimiento de patrones
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 5
PatronesPatrones
Segmentador
Extracción +
Descripción
Extracción +
Descripción
Extracción +
Descripción
Extracción +
Descripción
Patrón
Patrón
Patrón
Patrón
Reconocedor
Reconocedor
Reconocedor
Reconocedor
Clase 1
Clase 2
Clase 2
Clase 1
Para el reconocimiento automático, es importante que
Patrones que describen objetos de una misma clase, presenten
características similares.
Patrones que describen objetos de diferentes clases presenten
características diferenciadas.
Tipos de patrones:
Vectores: x = (x1, x2,…, xn)T
Cadenas
Árboles
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 6
Patrones vectoriales
Ejemplo: Clasificación de tipos de Iris
(flores).
Tres categorías
Patrones bidimensionales
Longitud del pétalo
Anchura del pétalo
Los descriptores utilizados sirven para
discriminar iris setosa de las otras dos,
pero no para discriminar entre iris
virginica e iris versicolor
http://www.et.ethz.ch/eTutorials/evim/dateien/u3/irisbilder.htm
Iris Setosa Iris Versicolor Iris Virginica
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 7
Patrones estructurados
Codifican relaciones (espaciales o de otro tipo)
entre componentes del objeto o descriptores.
Ejemplo:
Reconocimiento de huellas dactilares
Los algoritmos de reconocimiento suelen basarse
en la detección de las minucias (minutiae), las
cadenas (ridges) que forman, y su relación entre
ellas
Imágenes tomadas de http://perso.wanadoo.fr/fingerchip/index.htm
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 8
Ejemplo:
Imagen de satélite
Descripción en árbol
Cada rama codifica
una relación
“compuesto de”
Washington D.C.
(centro urbano y
zonas residenciales)
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 9
Reconocimiento medianteReconocimiento mediante
funciones discriminantesfunciones discriminantes
Elementos:
Función discriminante, di(x):
Mide la relevancia de la clase ci
para el patrón x.
Región de decisión, Ri:
El conjunto de todos los puntos
del espacio que el reconocedor
asigna a la clase ci
Frontera de decisión:
Separa regiones de decisión.
Decisor:
Típicamente (aunque no
siempre), seleccionan la clase
de mayor (o menor) valor de la
función discriminante di(x).
Análisis
discriminante
Patrón
Decisorx d
di(x)
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 10
Aprendizaje:
Conjunto de entrenamiento:
{x(k),c(k)
, k=1,…,K}
Conjunto de patrones
etiquetados (cuya clase es
conocida)
Algoritmo de entrenamiento:
Es un conjunto de reglas de
ajuste de los parámetros de las
funciones discriminantes
di(x,wi)
Conjunto de prueba (test)
Conjunto de patrones
etiquetados NO utilizados
durante el entrenamiento.
Sirven para evaluar el
rendimiento del clasificador.
Generalización: capacidad para
clasificar correctamente
patrones no utilizados durante
el entrenamiento.
Análisis
discriminante
Patrón
Decisorx d
di(x)
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 11
Métodos (lista no exahustiva):
Adaptación (Pattern Matching)
Representan cada clase mediante un patrón prototipo.
Clasificador de mínima distancia
Adaptación por correlación
Clasificadores estadísticamente óptimos
Se fundamentan en la Teoría de la Decisión Estadística
Clasificador bayesiano para clases gausianas
Redes neuronales
Se fundamentan en la teoría del aprendizaje estadístico
Perceptrón para dos clases
Perceptrón multicapa
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 12
Reconocimiento mediante funciones discriminantes
Clasificador de mínima distancia
Se caracteriza por las funciones discriminantes
siendo mi un patrón prototipo de la clase i.
Asignan la muestra a la clase “más próxima”
Dado que
se puede prescindir del primer término, que no depende de la clase, de
modo que las funciones discriminantes
son equivalentes a las anteriores.
Las fronteras de decisión del clasificador de mínima distancia son de la
forma
es decir,
que son hiperplanos
( ) 2
iid mxx −=
( ) i
T
i
T
iid mmxmx +−= 2
( ) ( )xx ji dd =
( ) 02 =−+−− j
T
ji
T
i
T
ij mmmmxmm
( ){ }xi
i
dd minarg=
( ) ( ) ( ) i
T
i
T
i
T
i
T
iid mmxmxxmxmxx +−=−−= 2
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 13
Prototipo
El prototipo mi que caracteriza a
cada clase puede obtenerse
mediante extracción de
características sobre una imagen
previamente etiquetada.
También puede obtenerse a partir
de una colección de patrones
etiquetados:
siendo {xi,j} los patrones de la
clase i del conjunto de
entrenamiento.
∑=
=
iN
j
ji
i
i
N 1
,
1
xm
http://www.et.ethz.ch/eTutorials/evim/dateien/u3/irisbilder.htm
Iris Setosa Iris Versicolor
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 14
Ejemplo: Reconocimiento de caracteres.
Clases: Ck:{A,B,…,a,b,…0,1,2,…a,b,…a,b,…a,b,..a,b,…a,b,…}
Clase de rechazo: Cr:{!,”,$,%,&,/,(,),=,?,¿,~,×…}
Extractor de características:
3)dimensiónde(vector
masasdecentro
cerrados)(contornoshuecosdenº
perímetro
)yejesaltosde(suma|:),1()(:,|
x)ejesaltosde(suma|:)1,-(n:),(|
columnas)lasdesumayejen(proyecció)(:,
filas)lasdesumaxejen(proyecció:),(
binariovectoroimagen)1360(ó)1820(
18
2
20
2
18
1
20
1
v
nznzS
znzS
nzP
nzP
z
ny
nx
ny
nx
≡
⎪
⎭
⎪
⎬
⎫
⎪
⎩
⎪
⎨
⎧
⎪
⎩
⎪
⎨
⎧
−−=
−=
⎪
⎩
⎪
⎨
⎧
→=
→=
××≡
∑
∑
∑
∑
=
=
=
=
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 15
El reconocedor de caracteres asigna el vector “v” a la clase
que más se “parece”.
Medidas de similitud:
distancia euclidea
distancia de Hamming,
distancia de Mahalanobis,
correlación cruzada, etc a
b
c
9
v
d(v, vc)
d(v, v9)
d(v, vb)
d(v, va)
Mínimo
Clase Ck=“h”
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 16
Ventajas del clasificador de mínima
distancia
Simplicidad
Facilidad de ajuste
Inconvenientes:
Sólo funciona cuando las clases forman
nubes poco dispersas y bien separadas
Ejemplo: fuente de caracteres E-13B
de la American Bankers Association,
especialmente diseñada para facilitar el
reconocimiento automático.
La signatura refleja la derivada de la
cantidad de negro en dirección vertical,
al mover un scanner de izquierda a
derecha
El muestreo en los puntos de la
cuadrícula proporciona información con
suficiente capacidad discriminante
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 17
Extensiones del clasificador de
mínima distancia:
Permiten obtener fronteras de
clasificación más complejas, y
modelar categorías que no quedan
adecuadamente representadas por su
media.
k-NN (Nearest Neighbour):
Cada clase, Ci, se caracteriza por una
colección de prototipos, mij
Cada patrón, x, se asigna a la clase
mayoritaria de los k prototipos más
próximos
Selección de prototipos:
Cada muestra de entrenamiento, un
prototipo.
Prototipos obtenidos mediante un
algoritmo de agrupamiento (como el
k-means –ver presentación de
Análisis de imágenes-). 1-NN, 2 prototipos por clase
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 18
Reconocimiento mediante funciones discriminantes
Adaptación por correlación
Los métodos de adaptación por correlación
también se basan en la comparación de la
imagen a clasificar con una o varias
imágenes patrón que caracterizan a cada
clase.
Es equivalente al de mínima distancia si los
patrones están normalizados:
Utilizan medidas de similitud basadas
en correlaciones:
Correlación:
( ) ( ) ( )∑∑ ++=
s t
tysxwtsfyxc ,,,
( ) ( ) xmxmmxmx T
iii
T
i
T
ii dd =′⇒+−= 2
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 19
Coeficiente de correlación:
Proporciona una medida invariante frente a cambios en la
amplitud.
donde los promedios de w se calculan sobre todo el patrón
(habitualmente más pequeño que la imagen), mientras que los
de f se calculan sobre la región en torno al píxel del tamaño del
patrón.
Otras normalizaciones (para obtener invarianzas respecto a
cambios de escala u orientación) son posibles, pero a
mayor complejidad
( )
( ) ( )( ) ( )( )
( ) ( )( ) ( )( )
2/1
2
2/1
2
,,,
,,,
,
⎥
⎦
⎤
⎢
⎣
⎡
−++⎥
⎦
⎤
⎢
⎣
⎡
−
−++−
=
∑∑∑∑
∑∑
s ts t
s t
wtysxwtsftsf
wtysxwtsftsf
yxc
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 20
Introducción:
El mecanismo de generación de patrones se puede representar de forma
probabilística:
Datos no disponibles: Prob. a priori Datos disponibles: Prob. a posteriori
Proceso
físico
Sistema
sensorial
Clasificador
de patrones
Extracción de
características
Clase generada:Ck
C={C1 , C2 , ...Cn}
(Ck)P
Objeto
o suceso
“medible”
vector de
medidas: z
vector de
características: x
clase asignada: C( )x
P C( )=( Ck | x)x x=
Experimento
Reconocimiento mediante funciones discriminantes
Clasificadores estadísticamente óptimos
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 21
Reconocimiento mediante funciones discriminantes
Clasificadores estadísticamente óptimos
Caracterización estadística
La teoría de la decisión parte del supuesto de que los
patrones son realizaciones independientes de un modelo
probabilístico p (c,x)=P (c |x) p (x)
En general, en los problemas de reconocimiento de patrones
tenemos clases mutuamente exclusivas y colectivamente
exhaustivas, es decir:
siendo C el número de clases.
Elementos:
Los costescostes, Lij : coste de asignar a cj un patrón de la clase ci .
El riesgo medio condicionalriesgo medio condicional de asignar un patrón a clase j :
( ) ( )∑=
=
C
k
kkjj cPLr
1
| xx
1)(
1
=∑=
C
k
kcP
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 22
Clasificador de mínimo riesgo
Será aquél basado en las reglas de decisión
aplicando la regla de Bayes
se obtiene la expresión alternativa
Clasificador de mínima probabilidad de error
Se obtiene dando idéntico valor a todos los errores: Lij = 1-δij
(que es la probabilidad de error)
(decisión MAP (máximo a posteriori), que selecciona la categoría más
probable, dada la observación)
( ) ( )∑=
==
C
k
kkj
j
j
j
cPLri
1
|minargminarg xx
( ) ( ) ( ) ( )xxxx |1||
11
j
C
k
kkj
C
k
kj cPcPcPr −=−= ∑∑ ==
δ
( ){ } ( ){ }xx |maxarg|1minarg j
j
j
j
cPcPi =−=
)(
)|()(
)|(
|
x
x
x
x
kcxk
k
p
cpcP
cP k
=
( ) ( )∑=
=
C
k
kkkj
j
cPcpLi
1
|minarg x
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 23
Ejemplo: Reconocimiento de caracteres
mediante un decisor MAP
h x
Máximo
Clase ck=“h”
p(x|ca) x
x
x
p(x|cb)
p(x|c9)
Pr(ca)
Pr(cb)
Pr(c9)
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 24
Diseño del clasificador Bayesiano
En la mayoría de las aplicaciones prácticas, no se
conocen P(ck), p(x|ck) ni P(ck|x).
En tal caso, deben estimarse a partir de un conjunto
de entrenamiento.
Se presentan dos alternativas:
Estimar P(ck|x), o bien
Estimar P(ck) y p(x|ck)
P(ck): puede suponerse constante (categorías equiprobables)
o estimarse como la proporción de observaciones
etiquetadas y no etiquetadas.
p(x|ck): hay muchos métodos. Los más sencillos suponen
que las distribuciones son gausianas. La estimación se
reduce a los parámetros de media y covarianzas.
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 25
mi
Clasificador bayesiano para clases gausianas
Se caracteriza por
siendo
x
p(x|c0)P(c0)L10 p(x|c1)P(c1)L01
Umbral de decisión
( ) ( )⎥⎦
⎤
⎢⎣
⎡
−−−= −
ii
T
i
i
cp mxVmx
V
x 1
2/1N/2i
2
1
exp
)(2
1
)|(
π
{ }
( )( ){ } ( )( )∑
∑
=
=
−−≈−−=
≈=
i
k
i
k
cd
T
i
k
i
k
i
T
iii
cd
k
i
i
N
cE
N
cE
)(
)(
)()(
i
)(
i
1
|
1
|
mxmxmxmxV
xxm
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 26
Función discriminante: suele utilizarse el logaritmo:
Es una forma cuadrática para cada clase, con lo que la frontera de
decisión será una cuadrática también.
Ej: P(c1)=0.6; P(c2)=0.4;
V1 =[0.77 0;0 0.77]; V2 =[0.77 0;0 1.26]
( ) ( ) ( )( ) ( ) ( ) ( ) ( )( )
( ) ( ) ( )( )iii
T
ii
iii
T
iiiii
cP
cP
N
cPcpd
ln
2
1
ln
2
1
ln
2
1
ln
2
1
2ln
2
|ln
12/1
12/1
+−−−−≡
+−−−−−==
−
−
mxVmxV
mxVmxVxx π
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 27
Cuando las matrices de covarianzas de todas las clases coinciden
(Vi=V) , el discriminante se reduce a:
y, por tanto, es una función discriminante lineal
Si, finalmente, las matrices son proporcionales a la identidad, resulta
que coincide con la función discriminante del clasificador de mínima distancia.
( ) ( )( )ii
T
i
T
ii cPd ln
2
1 11
+−≡ −−
mVmxVmx
( ) i
T
i
T
iid mmxmx
2
1
−≡
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 28
Las Imágenes
multiespectrales codifican
información en varias
bandas, sensibles a
diferentes longitudes de
onda del espectro
electromagnético.
Los clasificadores
bayesianos se han
mostrado efectivos para
clasificación de terrenos en
muchos tipos de imágenes
Ejemplo: clasificación de terrenos en imágenes multiespectrales.
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 29
Inconvenientes del modelo gausiano:
Con frecuencia, no es realista (los datos no tienen una
distribución gausiana)
Ejemplo: Diagrama de dispersión de las bandas 1 (azul) y 5
(infrarrojo cercano) de un conjunto de datos pertenecientes a
una imagen Landsat (7 bandas) de las Ría de Vigo.
* → Roca
o → Frondosas
+ → Eucalipto
● → Terreno Agrícola
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 30
Clasificador bayesiano para mezclas de gausianas
Modelo más general: x ∈Ck se asume con fdp compuesta
por una mezcla de gausianas de medias μkl , covarianza Vkl
y factores de mezcla wl es decir:
La estimación ML de los parámetros wl , μkl y Σkl para cada
clase se realiza de forma iterativa mediante un algoritmo
conocido como Esperanza-Maximización (EM).
El clasificador MAP responde a la expresión:
Las fronteras de decisión son superficies hipercuádricas a
tramos
[ ]∑∑ =
−
=
−−−==
L
l klkl
T
kl
kl
pklk
L
l klk wclpwcp 1
1
2
1
2/12/1
)()(exp
||)2(
1
),|()|( μxVμx
V
xx
π
{ })|()(maxarg)( kk
k
CxpCPxC =
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 31
Ejemplo:
Clasificación de piel/no piel en un espacio de color bi-dimensional (sin
información de luminancia), modelando cada clase como una mezcla de
gausianas y estimando parámetros con el algoritmo EM:
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 32
Reconocimiento mediante funciones discriminantes
Métodos basados en Teoría de la Decisión
Redes Neuronales Artificiales
Background
Perceptrón para dos clases
Algoritmos de entrenamiento
Clases separables linealmente
Clases no separables linealmente
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 33
Motivación:
El análisis previo pone de manifiesto que, para
diseñar un clasificador estadísticamente óptimo a
partir de un conjunto de datos de entrenamiento,
pueden adoptarse tres estrategias:
Estimar P(ck|x)
Estimar P(x|ck) y P(ck)
Determinar una función discriminante que proporcione la
frontera de decisión óptima.
El término “redes neuronales” engloba a un
conjunto de técnicas que proporcionan soluciones
flexibles (adaptables a cada problema) para cada
una de estas estrategias.
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 34
Perceptron para dos clases
Implementa la función discriminante lineal:
Para un conjunto finito de muestras podemos hallar un vector de pesos
apropiado buscando una solución de estas inecuaciones (para dos clases):
¿Cómo determinar los pesos?
Algoritmo de entrenamiento: procedimiento recursivo que modifica el vector de
pesos hasta que se cumplen las desigualdades:
Iniciar aleatoriamente los pesos
Presentar cada muestra al sistema de inecuaciones
Si bien clasificada no alterar pesos
Si mal clasificada alterar los pesos de forma conveniente
( ) e
T
e
n
i
ii xwwxdz xw=+== ∑=1
0
w0
1
x1
x2
xN
w1
w2
wN
z
...
o
22
11
1,0
1,0
Mj
Mj
j
t
e
j
t
e
≤≤>−
≤≤>+
xw
xw
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 35
Algoritmos de entrenamiento
Clases separables linealmente
Regla delRegla del PerceptrónPerceptrón:
Si no hay error, no hay cambio
Si hay error, w(k+1)T x(k) cambia
en el sentido de corregir el
error.
Teorema de entrenamiento del
perceptrón:
Si las clases son linealmente
separables, la regla del
perceptrón converge a una
solución de cero errores en un
número finito de pasos.
( )
[ ] ( ) }1;1{,;10
2
)()()()()()(1
−=<<−+=+ kkkkkkk
odconod α
α
xww
x
x
x
x
x
xx
x
x
x
x
xx
x
x
x
x
x
x x
t=0
t=1
t=2
t=4
t=10
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 36
Clases no separables linealmente
En este caso, la regla del perceptrón no se detiene.
Soluciones:
Discriminantes no lineales, pero lineales en los
parámetros:
permiten obtener fronteras no lineales que obtengan
soluciones de cero errores perceptrón multicapa
Variantes heurísticas, como el algoritmo dellgoritmo del
BolsilloBolsillo, que conserva en una memoria aparte
(bolsillo) los pesos que han dado lugar a la secuencia
de pasos de entrenamiento libre de errores más larga
Inconvenientes de la Regla del Perceptrón:
Mala generalización:
aunque el problema sea intrínsecamente separable
(para el clasificador usado), el algoritmo puede
colocar la frontera en una posición inadecuada
o
o
o
o
o
o
o
×
×
×
××
×
×
×
×
×
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
( ) ∑∑ ==
++==
n
i
ii
n
i
ii xwxwwxdz
1
2
1
0
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 37
El ADALINE (“ADAptive LInear NEuron”)
Tiene la misma arquitectura del Perceptrón, pero se entrena
mediante un algoritmo de gradiente:
siendo J(we) una función de coste. La más habitual es el
error cuadrático:
En la versión estocástica (el algoritmo de Widrow-Hoff) se
aplica el gradiente sobre una sola muestra, resultando
Puede demostrarse que, para α suficientemente pequeño, la
regla del ADALINE converge (aunque no necesariamente a
una solución de mínimo numero de errores).
[ ] ( )10)()()()()1(
<<−+=+
αα k
e
kkTk
e
k
e zd xww
( ))()()1( k
e
k
e
k
e J www w∇−=+
α
( ) ( ) ( ) ⎭
⎬
⎫
⎩
⎨
⎧ −≈−= ∑=
2
)()()(
1
2
)()()(
2
1
2
1 k
e
Tk
e
k
N
k
k
e
Tk
e
k
dEd
N
J xwxww
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 38
Perceptrón multicapa
Arquitectura básica
El perceptrón multicapa es un aproximador universal.

Weitere ähnliche Inhalte

Was ist angesagt?

metodologia de diseño de base de datos
metodologia de diseño de base de datosmetodologia de diseño de base de datos
metodologia de diseño de base de datosemnero
 
Modelo relacional y reglas de integridad
Modelo relacional y reglas de integridadModelo relacional y reglas de integridad
Modelo relacional y reglas de integridadkamui002
 
Tipos de usuarios de base de datos diapositivas
Tipos de usuarios de base de datos diapositivasTipos de usuarios de base de datos diapositivas
Tipos de usuarios de base de datos diapositivasgrupo niche ortega
 
Machine Learning Tutorial Part - 2 | Machine Learning Tutorial For Beginners ...
Machine Learning Tutorial Part - 2 | Machine Learning Tutorial For Beginners ...Machine Learning Tutorial Part - 2 | Machine Learning Tutorial For Beginners ...
Machine Learning Tutorial Part - 2 | Machine Learning Tutorial For Beginners ...Simplilearn
 
Tema N° 2 El Proceso de Negocio y sus Elementos
Tema N° 2  El Proceso de Negocio y sus ElementosTema N° 2  El Proceso de Negocio y sus Elementos
Tema N° 2 El Proceso de Negocio y sus ElementosSaraEAlcntaraR
 
Herramientas De Control, Monitoreo Y Acceso A Base De Datos
Herramientas De Control, Monitoreo Y Acceso A Base De DatosHerramientas De Control, Monitoreo Y Acceso A Base De Datos
Herramientas De Control, Monitoreo Y Acceso A Base De DatosYazmin Ibarra
 
Sql Consultas MáS Complejas
Sql Consultas MáS ComplejasSql Consultas MáS Complejas
Sql Consultas MáS Complejasalexmerono
 
Introduction to Data Visualization
Introduction to Data Visualization Introduction to Data Visualization
Introduction to Data Visualization Ana Jofre
 
Gestión de la Cartera de Servicios - López Villanueva.pptx
Gestión de la Cartera de Servicios - López Villanueva.pptxGestión de la Cartera de Servicios - López Villanueva.pptx
Gestión de la Cartera de Servicios - López Villanueva.pptxTimoteoALopez
 
Introduccion a Machine Learning
Introduccion a Machine LearningIntroduccion a Machine Learning
Introduccion a Machine LearningStratebi
 

Was ist angesagt? (20)

metodologia de diseño de base de datos
metodologia de diseño de base de datosmetodologia de diseño de base de datos
metodologia de diseño de base de datos
 
02 modelo delnegocio
02 modelo delnegocio02 modelo delnegocio
02 modelo delnegocio
 
Modelo relacional y reglas de integridad
Modelo relacional y reglas de integridadModelo relacional y reglas de integridad
Modelo relacional y reglas de integridad
 
VLSM y CIDR
VLSM y CIDRVLSM y CIDR
VLSM y CIDR
 
Tipos de usuarios de base de datos diapositivas
Tipos de usuarios de base de datos diapositivasTipos de usuarios de base de datos diapositivas
Tipos de usuarios de base de datos diapositivas
 
Diseño conceptual
Diseño conceptualDiseño conceptual
Diseño conceptual
 
Conjuntos Difusos
Conjuntos DifusosConjuntos Difusos
Conjuntos Difusos
 
Machine Learning Tutorial Part - 2 | Machine Learning Tutorial For Beginners ...
Machine Learning Tutorial Part - 2 | Machine Learning Tutorial For Beginners ...Machine Learning Tutorial Part - 2 | Machine Learning Tutorial For Beginners ...
Machine Learning Tutorial Part - 2 | Machine Learning Tutorial For Beginners ...
 
Tema N° 2 El Proceso de Negocio y sus Elementos
Tema N° 2  El Proceso de Negocio y sus ElementosTema N° 2  El Proceso de Negocio y sus Elementos
Tema N° 2 El Proceso de Negocio y sus Elementos
 
Vista lógica
Vista lógicaVista lógica
Vista lógica
 
Herramientas De Control, Monitoreo Y Acceso A Base De Datos
Herramientas De Control, Monitoreo Y Acceso A Base De DatosHerramientas De Control, Monitoreo Y Acceso A Base De Datos
Herramientas De Control, Monitoreo Y Acceso A Base De Datos
 
Odbc
OdbcOdbc
Odbc
 
Arboles decision id3
Arboles decision   id3Arboles decision   id3
Arboles decision id3
 
Sql Consultas MáS Complejas
Sql Consultas MáS ComplejasSql Consultas MáS Complejas
Sql Consultas MáS Complejas
 
Introduction to Data Visualization
Introduction to Data Visualization Introduction to Data Visualization
Introduction to Data Visualization
 
Metodologia para el proyecto
Metodologia para el proyectoMetodologia para el proyecto
Metodologia para el proyecto
 
Grafos
GrafosGrafos
Grafos
 
Gestión de la Cartera de Servicios - López Villanueva.pptx
Gestión de la Cartera de Servicios - López Villanueva.pptxGestión de la Cartera de Servicios - López Villanueva.pptx
Gestión de la Cartera de Servicios - López Villanueva.pptx
 
Clase 4 MER Extendido
Clase 4 MER  ExtendidoClase 4 MER  Extendido
Clase 4 MER Extendido
 
Introduccion a Machine Learning
Introduccion a Machine LearningIntroduccion a Machine Learning
Introduccion a Machine Learning
 

Ähnlich wie Reconocimiento de Patrones

Ähnlich wie Reconocimiento de Patrones (20)

Clasificadores Bayesianos: De datos a Conceptos
Clasificadores Bayesianos: De datos a ConceptosClasificadores Bayesianos: De datos a Conceptos
Clasificadores Bayesianos: De datos a Conceptos
 
Clasificador_minima_distancia_aplicada.ppt
Clasificador_minima_distancia_aplicada.pptClasificador_minima_distancia_aplicada.ppt
Clasificador_minima_distancia_aplicada.ppt
 
Clasificador_de_minima_distancia en imagenes.ppt
Clasificador_de_minima_distancia en  imagenes.pptClasificador_de_minima_distancia en  imagenes.ppt
Clasificador_de_minima_distancia en imagenes.ppt
 
Clustering K-Means
Clustering K-MeansClustering K-Means
Clustering K-Means
 
Pu3
Pu3Pu3
Pu3
 
Clustering.ppt
Clustering.pptClustering.ppt
Clustering.ppt
 
T1-AprendizajeAutomatico.pdf
T1-AprendizajeAutomatico.pdfT1-AprendizajeAutomatico.pdf
T1-AprendizajeAutomatico.pdf
 
Taller segmentacion
Taller segmentacionTaller segmentacion
Taller segmentacion
 
Machine learning
Machine learningMachine learning
Machine learning
 
Datamining y Machine Learning para Ciencias Biológicas
Datamining y Machine Learning para Ciencias BiológicasDatamining y Machine Learning para Ciencias Biológicas
Datamining y Machine Learning para Ciencias Biológicas
 
Practica ii
Practica iiPractica ii
Practica ii
 
Algunas consideraciones
Algunas consideracionesAlgunas consideraciones
Algunas consideraciones
 
Aprendizaje de Maquina y Aplicaciones
Aprendizaje de Maquina y AplicacionesAprendizaje de Maquina y Aplicaciones
Aprendizaje de Maquina y Aplicaciones
 
Examen Parcial 2
Examen Parcial 2Examen Parcial 2
Examen Parcial 2
 
Algoritmos - Jordi Gironés Roig
Algoritmos - Jordi Gironés RoigAlgoritmos - Jordi Gironés Roig
Algoritmos - Jordi Gironés Roig
 
Segmentacion mathlab
Segmentacion mathlabSegmentacion mathlab
Segmentacion mathlab
 
Pdi03
Pdi03Pdi03
Pdi03
 
Pdi03
Pdi03Pdi03
Pdi03
 
algoritmos en R Studio
algoritmos en R Studioalgoritmos en R Studio
algoritmos en R Studio
 
Pr clasificacion supervisada guzman mera
Pr clasificacion supervisada guzman meraPr clasificacion supervisada guzman mera
Pr clasificacion supervisada guzman mera
 

Mehr von menamigue

1.1 Fundamentos de TI
1.1 Fundamentos de TI1.1 Fundamentos de TI
1.1 Fundamentos de TImenamigue
 
SI para obtener ventaja estrategica
SI para obtener ventaja estrategicaSI para obtener ventaja estrategica
SI para obtener ventaja estrategicamenamigue
 
SI para apoyo a la toma de decisiones
SI para apoyo a la toma de decisionesSI para apoyo a la toma de decisiones
SI para apoyo a la toma de decisionesmenamigue
 
sistemas de informacion
sistemas de informacionsistemas de informacion
sistemas de informacionmenamigue
 
Planificación Estratégica de Sistemas de Información
Planificación Estratégica de Sistemas de InformaciónPlanificación Estratégica de Sistemas de Información
Planificación Estratégica de Sistemas de Informaciónmenamigue
 
Tecnicas UML
Tecnicas UMLTecnicas UML
Tecnicas UMLmenamigue
 
Emisor Receptor AM
Emisor Receptor AMEmisor Receptor AM
Emisor Receptor AMmenamigue
 
Grafos propuestos
Grafos propuestosGrafos propuestos
Grafos propuestosmenamigue
 
Analisis de Senales
Analisis de SenalesAnalisis de Senales
Analisis de Senalesmenamigue
 
Instructivo iupsm.gnomio.com
Instructivo iupsm.gnomio.comInstructivo iupsm.gnomio.com
Instructivo iupsm.gnomio.commenamigue
 
Notas electrotecnia
Notas electrotecniaNotas electrotecnia
Notas electrotecniamenamigue
 
Proyecto electrotecnia franyer velasquez
Proyecto electrotecnia franyer velasquezProyecto electrotecnia franyer velasquez
Proyecto electrotecnia franyer velasquezmenamigue
 
Proyecto electrotenia milay cala
Proyecto electrotenia milay calaProyecto electrotenia milay cala
Proyecto electrotenia milay calamenamigue
 
Organizacion y metodos
Organizacion y metodosOrganizacion y metodos
Organizacion y metodosmenamigue
 
Ejercicios C#
Ejercicios C#Ejercicios C#
Ejercicios C#menamigue
 
Enunciados de Sistemas de Información
Enunciados de Sistemas de InformaciónEnunciados de Sistemas de Información
Enunciados de Sistemas de Informaciónmenamigue
 
listado de profesores
listado de profesoreslistado de profesores
listado de profesoresmenamigue
 

Mehr von menamigue (20)

1.1 Fundamentos de TI
1.1 Fundamentos de TI1.1 Fundamentos de TI
1.1 Fundamentos de TI
 
SI para obtener ventaja estrategica
SI para obtener ventaja estrategicaSI para obtener ventaja estrategica
SI para obtener ventaja estrategica
 
SI para apoyo a la toma de decisiones
SI para apoyo a la toma de decisionesSI para apoyo a la toma de decisiones
SI para apoyo a la toma de decisiones
 
sistemas de informacion
sistemas de informacionsistemas de informacion
sistemas de informacion
 
Planificación Estratégica de Sistemas de Información
Planificación Estratégica de Sistemas de InformaciónPlanificación Estratégica de Sistemas de Información
Planificación Estratégica de Sistemas de Información
 
Tecnicas UML
Tecnicas UMLTecnicas UML
Tecnicas UML
 
Emisor Receptor AM
Emisor Receptor AMEmisor Receptor AM
Emisor Receptor AM
 
Grafos propuestos
Grafos propuestosGrafos propuestos
Grafos propuestos
 
Sql
SqlSql
Sql
 
Fourier
FourierFourier
Fourier
 
Analisis de Senales
Analisis de SenalesAnalisis de Senales
Analisis de Senales
 
Instructivo iupsm.gnomio.com
Instructivo iupsm.gnomio.comInstructivo iupsm.gnomio.com
Instructivo iupsm.gnomio.com
 
Notas electrotecnia
Notas electrotecniaNotas electrotecnia
Notas electrotecnia
 
Proyecto electrotecnia franyer velasquez
Proyecto electrotecnia franyer velasquezProyecto electrotecnia franyer velasquez
Proyecto electrotecnia franyer velasquez
 
Proyecto electrotenia milay cala
Proyecto electrotenia milay calaProyecto electrotenia milay cala
Proyecto electrotenia milay cala
 
Organizacion y metodos
Organizacion y metodosOrganizacion y metodos
Organizacion y metodos
 
Ejercicios C#
Ejercicios C#Ejercicios C#
Ejercicios C#
 
Satelites
SatelitesSatelites
Satelites
 
Enunciados de Sistemas de Información
Enunciados de Sistemas de InformaciónEnunciados de Sistemas de Información
Enunciados de Sistemas de Información
 
listado de profesores
listado de profesoreslistado de profesores
listado de profesores
 

Kürzlich hochgeladen

Prueba de evaluación Geografía e Historia Comunidad de Madrid 4ºESO
Prueba de evaluación Geografía e Historia Comunidad de Madrid 4ºESOPrueba de evaluación Geografía e Historia Comunidad de Madrid 4ºESO
Prueba de evaluación Geografía e Historia Comunidad de Madrid 4ºESOluismii249
 
Tema 10. Dinámica y funciones de la Atmosfera 2024
Tema 10. Dinámica y funciones de la Atmosfera 2024Tema 10. Dinámica y funciones de la Atmosfera 2024
Tema 10. Dinámica y funciones de la Atmosfera 2024IES Vicent Andres Estelles
 
1ro Programación Anual D.P.C.C planificación anual del área para el desarroll...
1ro Programación Anual D.P.C.C planificación anual del área para el desarroll...1ro Programación Anual D.P.C.C planificación anual del área para el desarroll...
1ro Programación Anual D.P.C.C planificación anual del área para el desarroll...JoseMartinMalpartida1
 
ACERTIJO LA RUTA DEL MARATÓN OLÍMPICO DEL NÚMERO PI EN PARÍS. Por JAVIER SOL...
ACERTIJO LA RUTA DEL MARATÓN OLÍMPICO DEL NÚMERO PI EN  PARÍS. Por JAVIER SOL...ACERTIJO LA RUTA DEL MARATÓN OLÍMPICO DEL NÚMERO PI EN  PARÍS. Por JAVIER SOL...
ACERTIJO LA RUTA DEL MARATÓN OLÍMPICO DEL NÚMERO PI EN PARÍS. Por JAVIER SOL...JAVIER SOLIS NOYOLA
 
Prueba de evaluación Geografía e Historia Comunidad de Madrid 2º de la ESO
Prueba de evaluación Geografía e Historia Comunidad de Madrid 2º de la ESOPrueba de evaluación Geografía e Historia Comunidad de Madrid 2º de la ESO
Prueba de evaluación Geografía e Historia Comunidad de Madrid 2º de la ESOluismii249
 
Factores que intervienen en la Administración por Valores.pdf
Factores que intervienen en la Administración por Valores.pdfFactores que intervienen en la Administración por Valores.pdf
Factores que intervienen en la Administración por Valores.pdfJonathanCovena1
 
Revista Apuntes de Historia. Mayo 2024.pdf
Revista Apuntes de Historia. Mayo 2024.pdfRevista Apuntes de Historia. Mayo 2024.pdf
Revista Apuntes de Historia. Mayo 2024.pdfapunteshistoriamarmo
 
prostitución en España: una mirada integral!
prostitución en España: una mirada integral!prostitución en España: una mirada integral!
prostitución en España: una mirada integral!CatalinaAlfaroChryso
 
Procedimientos para la planificación en los Centros Educativos tipo V ( multi...
Procedimientos para la planificación en los Centros Educativos tipo V ( multi...Procedimientos para la planificación en los Centros Educativos tipo V ( multi...
Procedimientos para la planificación en los Centros Educativos tipo V ( multi...Katherine Concepcion Gonzalez
 
Prueba libre de Geografía para obtención título Bachillerato - 2024
Prueba libre de Geografía para obtención título Bachillerato - 2024Prueba libre de Geografía para obtención título Bachillerato - 2024
Prueba libre de Geografía para obtención título Bachillerato - 2024Juan Martín Martín
 
Posición astronómica y geográfica de Europa.pptx
Posición astronómica y geográfica de Europa.pptxPosición astronómica y geográfica de Europa.pptx
Posición astronómica y geográfica de Europa.pptxBeatrizQuijano2
 
6°_GRADO_-_MAYO_06 para sexto grado de primaria
6°_GRADO_-_MAYO_06 para sexto grado de primaria6°_GRADO_-_MAYO_06 para sexto grado de primaria
6°_GRADO_-_MAYO_06 para sexto grado de primariaWilian24
 
PLAN LECTOR 2024 integrado nivel inicial-miercoles 10.pptx
PLAN LECTOR 2024  integrado nivel inicial-miercoles 10.pptxPLAN LECTOR 2024  integrado nivel inicial-miercoles 10.pptx
PLAN LECTOR 2024 integrado nivel inicial-miercoles 10.pptxCamuchaCrdovaAlonso
 
TRABAJO FINAL TOPOGRAFÍA COMPLETO DE LA UPC
TRABAJO FINAL TOPOGRAFÍA COMPLETO DE LA UPCTRABAJO FINAL TOPOGRAFÍA COMPLETO DE LA UPC
TRABAJO FINAL TOPOGRAFÍA COMPLETO DE LA UPCCarlosEduardoSosa2
 
PLAN DE REFUERZO ESCOLAR MERC 2024-2.docx
PLAN DE REFUERZO ESCOLAR MERC 2024-2.docxPLAN DE REFUERZO ESCOLAR MERC 2024-2.docx
PLAN DE REFUERZO ESCOLAR MERC 2024-2.docxiemerc2024
 
Concepto y definición de tipos de Datos Abstractos en c++.pptx
Concepto y definición de tipos de Datos Abstractos en c++.pptxConcepto y definición de tipos de Datos Abstractos en c++.pptx
Concepto y definición de tipos de Datos Abstractos en c++.pptxFernando Solis
 
PINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).ppt
PINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).pptPINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).ppt
PINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).pptAlberto Rubio
 

Kürzlich hochgeladen (20)

Prueba de evaluación Geografía e Historia Comunidad de Madrid 4ºESO
Prueba de evaluación Geografía e Historia Comunidad de Madrid 4ºESOPrueba de evaluación Geografía e Historia Comunidad de Madrid 4ºESO
Prueba de evaluación Geografía e Historia Comunidad de Madrid 4ºESO
 
Tema 10. Dinámica y funciones de la Atmosfera 2024
Tema 10. Dinámica y funciones de la Atmosfera 2024Tema 10. Dinámica y funciones de la Atmosfera 2024
Tema 10. Dinámica y funciones de la Atmosfera 2024
 
1ro Programación Anual D.P.C.C planificación anual del área para el desarroll...
1ro Programación Anual D.P.C.C planificación anual del área para el desarroll...1ro Programación Anual D.P.C.C planificación anual del área para el desarroll...
1ro Programación Anual D.P.C.C planificación anual del área para el desarroll...
 
ACERTIJO LA RUTA DEL MARATÓN OLÍMPICO DEL NÚMERO PI EN PARÍS. Por JAVIER SOL...
ACERTIJO LA RUTA DEL MARATÓN OLÍMPICO DEL NÚMERO PI EN  PARÍS. Por JAVIER SOL...ACERTIJO LA RUTA DEL MARATÓN OLÍMPICO DEL NÚMERO PI EN  PARÍS. Por JAVIER SOL...
ACERTIJO LA RUTA DEL MARATÓN OLÍMPICO DEL NÚMERO PI EN PARÍS. Por JAVIER SOL...
 
Prueba de evaluación Geografía e Historia Comunidad de Madrid 2º de la ESO
Prueba de evaluación Geografía e Historia Comunidad de Madrid 2º de la ESOPrueba de evaluación Geografía e Historia Comunidad de Madrid 2º de la ESO
Prueba de evaluación Geografía e Historia Comunidad de Madrid 2º de la ESO
 
Factores que intervienen en la Administración por Valores.pdf
Factores que intervienen en la Administración por Valores.pdfFactores que intervienen en la Administración por Valores.pdf
Factores que intervienen en la Administración por Valores.pdf
 
Revista Apuntes de Historia. Mayo 2024.pdf
Revista Apuntes de Historia. Mayo 2024.pdfRevista Apuntes de Historia. Mayo 2024.pdf
Revista Apuntes de Historia. Mayo 2024.pdf
 
prostitución en España: una mirada integral!
prostitución en España: una mirada integral!prostitución en España: una mirada integral!
prostitución en España: una mirada integral!
 
Tema 11. Dinámica de la hidrosfera 2024
Tema 11.  Dinámica de la hidrosfera 2024Tema 11.  Dinámica de la hidrosfera 2024
Tema 11. Dinámica de la hidrosfera 2024
 
Procedimientos para la planificación en los Centros Educativos tipo V ( multi...
Procedimientos para la planificación en los Centros Educativos tipo V ( multi...Procedimientos para la planificación en los Centros Educativos tipo V ( multi...
Procedimientos para la planificación en los Centros Educativos tipo V ( multi...
 
Prueba libre de Geografía para obtención título Bachillerato - 2024
Prueba libre de Geografía para obtención título Bachillerato - 2024Prueba libre de Geografía para obtención título Bachillerato - 2024
Prueba libre de Geografía para obtención título Bachillerato - 2024
 
PP_Comunicacion en Salud: Objetivación de signos y síntomas
PP_Comunicacion en Salud: Objetivación de signos y síntomasPP_Comunicacion en Salud: Objetivación de signos y síntomas
PP_Comunicacion en Salud: Objetivación de signos y síntomas
 
Posición astronómica y geográfica de Europa.pptx
Posición astronómica y geográfica de Europa.pptxPosición astronómica y geográfica de Europa.pptx
Posición astronómica y geográfica de Europa.pptx
 
6°_GRADO_-_MAYO_06 para sexto grado de primaria
6°_GRADO_-_MAYO_06 para sexto grado de primaria6°_GRADO_-_MAYO_06 para sexto grado de primaria
6°_GRADO_-_MAYO_06 para sexto grado de primaria
 
PLAN LECTOR 2024 integrado nivel inicial-miercoles 10.pptx
PLAN LECTOR 2024  integrado nivel inicial-miercoles 10.pptxPLAN LECTOR 2024  integrado nivel inicial-miercoles 10.pptx
PLAN LECTOR 2024 integrado nivel inicial-miercoles 10.pptx
 
TRABAJO FINAL TOPOGRAFÍA COMPLETO DE LA UPC
TRABAJO FINAL TOPOGRAFÍA COMPLETO DE LA UPCTRABAJO FINAL TOPOGRAFÍA COMPLETO DE LA UPC
TRABAJO FINAL TOPOGRAFÍA COMPLETO DE LA UPC
 
PLAN DE REFUERZO ESCOLAR MERC 2024-2.docx
PLAN DE REFUERZO ESCOLAR MERC 2024-2.docxPLAN DE REFUERZO ESCOLAR MERC 2024-2.docx
PLAN DE REFUERZO ESCOLAR MERC 2024-2.docx
 
Concepto y definición de tipos de Datos Abstractos en c++.pptx
Concepto y definición de tipos de Datos Abstractos en c++.pptxConcepto y definición de tipos de Datos Abstractos en c++.pptx
Concepto y definición de tipos de Datos Abstractos en c++.pptx
 
PINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).ppt
PINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).pptPINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).ppt
PINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).ppt
 
Los dos testigos. Testifican de la Verdad
Los dos testigos. Testifican de la VerdadLos dos testigos. Testifican de la Verdad
Los dos testigos. Testifican de la Verdad
 

Reconocimiento de Patrones

  • 1. Reconocimiento de Patrones Autores: José Luis Alba - Universidad de Vigo Jesús Cid - Universidad Carlos III de Madrid Ultima revisión: mayo de 2006
  • 2. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 2 Índice Introducción Esquema general del análisis de imágenes Elementos del reconocimiento de patrones Patrones Patrones vectoriales Patrones estructurados Reconocimiento de patrones mediante funciones discriminantes Elementos Mínima distancia y Adaptación (Pattern Matching) Clasificadores estadísticamente óptimos Redes Neuronales Artificiales
  • 3. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 3 PREPROCESADO (MEJORA- RESTAURACIÓN) ADQUISICIÓN DE LA IMAGEN SEGMENTACIÓN EXTRACCIÓN DE CARACTERÍSTICAS RECONOCIMIENTO CLASIFICACIÓN INTERPRETACIÓN BASE DE CONOCIMIENTO imagen IntroducciónIntroducción Esquema general del análisis de imágenes Técnicas de bajo nivel Técnicas de alto nivel Técnicas de nivel intermedio
  • 4. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 4 Patrones Tras los procesos de segmentación, extracción de características y descripción, cada objeto queda representado por una colección (posiblemente ordenada y estructurada) de descriptores, denominada patrón. En los problemas de reconocimiento, cada patrón se supone perteneciente a una categoría o clase, ci El sistema de reconocimiento debe asignar cada objeto (de interés) a su categoría. Reconocimiento o clasificación: proceso por el que se asigna una “etiqueta”, que representa una clase, a un patrón concreto. Clase: conjunto de entidades que comparten alguna característica que las diferencia de otras. Clase de rechazo: conjunto de entidades que no se pueden etiquetar como ninguna de las clases del problema Extractor de características: subsistema que extrae información relevante para la clasificación a partir de las entidades cuantificables Clasificador: subsistema que utiliza un vector de características de la entidad cuantificable y lo asigna a una de M clases Evaluación del error de clasificación: “error de clasificación”, “tasa de error empírica”, “tasa de rechazo empírica”, “conjunto de datos independientes”. Falso rechazo (falso negativo) y falsa aceptación (faso positivo): para problemas de 2 clases estas definiciones reflejan la importancia de una decisión contra la opuesta. El sistema de clasificación se puede “sintonizar” para que trabaje ponderando un tipo de error sobre el otro Elementos del reconocimiento de patrones
  • 5. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 5 PatronesPatrones Segmentador Extracción + Descripción Extracción + Descripción Extracción + Descripción Extracción + Descripción Patrón Patrón Patrón Patrón Reconocedor Reconocedor Reconocedor Reconocedor Clase 1 Clase 2 Clase 2 Clase 1 Para el reconocimiento automático, es importante que Patrones que describen objetos de una misma clase, presenten características similares. Patrones que describen objetos de diferentes clases presenten características diferenciadas. Tipos de patrones: Vectores: x = (x1, x2,…, xn)T Cadenas Árboles
  • 6. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 6 Patrones vectoriales Ejemplo: Clasificación de tipos de Iris (flores). Tres categorías Patrones bidimensionales Longitud del pétalo Anchura del pétalo Los descriptores utilizados sirven para discriminar iris setosa de las otras dos, pero no para discriminar entre iris virginica e iris versicolor http://www.et.ethz.ch/eTutorials/evim/dateien/u3/irisbilder.htm Iris Setosa Iris Versicolor Iris Virginica
  • 7. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 7 Patrones estructurados Codifican relaciones (espaciales o de otro tipo) entre componentes del objeto o descriptores. Ejemplo: Reconocimiento de huellas dactilares Los algoritmos de reconocimiento suelen basarse en la detección de las minucias (minutiae), las cadenas (ridges) que forman, y su relación entre ellas Imágenes tomadas de http://perso.wanadoo.fr/fingerchip/index.htm
  • 8. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 8 Ejemplo: Imagen de satélite Descripción en árbol Cada rama codifica una relación “compuesto de” Washington D.C. (centro urbano y zonas residenciales)
  • 9. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 9 Reconocimiento medianteReconocimiento mediante funciones discriminantesfunciones discriminantes Elementos: Función discriminante, di(x): Mide la relevancia de la clase ci para el patrón x. Región de decisión, Ri: El conjunto de todos los puntos del espacio que el reconocedor asigna a la clase ci Frontera de decisión: Separa regiones de decisión. Decisor: Típicamente (aunque no siempre), seleccionan la clase de mayor (o menor) valor de la función discriminante di(x). Análisis discriminante Patrón Decisorx d di(x)
  • 10. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 10 Aprendizaje: Conjunto de entrenamiento: {x(k),c(k) , k=1,…,K} Conjunto de patrones etiquetados (cuya clase es conocida) Algoritmo de entrenamiento: Es un conjunto de reglas de ajuste de los parámetros de las funciones discriminantes di(x,wi) Conjunto de prueba (test) Conjunto de patrones etiquetados NO utilizados durante el entrenamiento. Sirven para evaluar el rendimiento del clasificador. Generalización: capacidad para clasificar correctamente patrones no utilizados durante el entrenamiento. Análisis discriminante Patrón Decisorx d di(x)
  • 11. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 11 Métodos (lista no exahustiva): Adaptación (Pattern Matching) Representan cada clase mediante un patrón prototipo. Clasificador de mínima distancia Adaptación por correlación Clasificadores estadísticamente óptimos Se fundamentan en la Teoría de la Decisión Estadística Clasificador bayesiano para clases gausianas Redes neuronales Se fundamentan en la teoría del aprendizaje estadístico Perceptrón para dos clases Perceptrón multicapa
  • 12. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 12 Reconocimiento mediante funciones discriminantes Clasificador de mínima distancia Se caracteriza por las funciones discriminantes siendo mi un patrón prototipo de la clase i. Asignan la muestra a la clase “más próxima” Dado que se puede prescindir del primer término, que no depende de la clase, de modo que las funciones discriminantes son equivalentes a las anteriores. Las fronteras de decisión del clasificador de mínima distancia son de la forma es decir, que son hiperplanos ( ) 2 iid mxx −= ( ) i T i T iid mmxmx +−= 2 ( ) ( )xx ji dd = ( ) 02 =−+−− j T ji T i T ij mmmmxmm ( ){ }xi i dd minarg= ( ) ( ) ( ) i T i T i T i T iid mmxmxxmxmxx +−=−−= 2
  • 13. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 13 Prototipo El prototipo mi que caracteriza a cada clase puede obtenerse mediante extracción de características sobre una imagen previamente etiquetada. También puede obtenerse a partir de una colección de patrones etiquetados: siendo {xi,j} los patrones de la clase i del conjunto de entrenamiento. ∑= = iN j ji i i N 1 , 1 xm http://www.et.ethz.ch/eTutorials/evim/dateien/u3/irisbilder.htm Iris Setosa Iris Versicolor
  • 14. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 14 Ejemplo: Reconocimiento de caracteres. Clases: Ck:{A,B,…,a,b,…0,1,2,…a,b,…a,b,…a,b,..a,b,…a,b,…} Clase de rechazo: Cr:{!,”,$,%,&,/,(,),=,?,¿,~,×…} Extractor de características: 3)dimensiónde(vector masasdecentro cerrados)(contornoshuecosdenº perímetro )yejesaltosde(suma|:),1()(:,| x)ejesaltosde(suma|:)1,-(n:),(| columnas)lasdesumayejen(proyecció)(:, filas)lasdesumaxejen(proyecció:),( binariovectoroimagen)1360(ó)1820( 18 2 20 2 18 1 20 1 v nznzS znzS nzP nzP z ny nx ny nx ≡ ⎪ ⎭ ⎪ ⎬ ⎫ ⎪ ⎩ ⎪ ⎨ ⎧ ⎪ ⎩ ⎪ ⎨ ⎧ −−= −= ⎪ ⎩ ⎪ ⎨ ⎧ →= →= ××≡ ∑ ∑ ∑ ∑ = = = =
  • 15. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 15 El reconocedor de caracteres asigna el vector “v” a la clase que más se “parece”. Medidas de similitud: distancia euclidea distancia de Hamming, distancia de Mahalanobis, correlación cruzada, etc a b c 9 v d(v, vc) d(v, v9) d(v, vb) d(v, va) Mínimo Clase Ck=“h”
  • 16. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 16 Ventajas del clasificador de mínima distancia Simplicidad Facilidad de ajuste Inconvenientes: Sólo funciona cuando las clases forman nubes poco dispersas y bien separadas Ejemplo: fuente de caracteres E-13B de la American Bankers Association, especialmente diseñada para facilitar el reconocimiento automático. La signatura refleja la derivada de la cantidad de negro en dirección vertical, al mover un scanner de izquierda a derecha El muestreo en los puntos de la cuadrícula proporciona información con suficiente capacidad discriminante
  • 17. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 17 Extensiones del clasificador de mínima distancia: Permiten obtener fronteras de clasificación más complejas, y modelar categorías que no quedan adecuadamente representadas por su media. k-NN (Nearest Neighbour): Cada clase, Ci, se caracteriza por una colección de prototipos, mij Cada patrón, x, se asigna a la clase mayoritaria de los k prototipos más próximos Selección de prototipos: Cada muestra de entrenamiento, un prototipo. Prototipos obtenidos mediante un algoritmo de agrupamiento (como el k-means –ver presentación de Análisis de imágenes-). 1-NN, 2 prototipos por clase
  • 18. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 18 Reconocimiento mediante funciones discriminantes Adaptación por correlación Los métodos de adaptación por correlación también se basan en la comparación de la imagen a clasificar con una o varias imágenes patrón que caracterizan a cada clase. Es equivalente al de mínima distancia si los patrones están normalizados: Utilizan medidas de similitud basadas en correlaciones: Correlación: ( ) ( ) ( )∑∑ ++= s t tysxwtsfyxc ,,, ( ) ( ) xmxmmxmx T iii T i T ii dd =′⇒+−= 2
  • 19. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 19 Coeficiente de correlación: Proporciona una medida invariante frente a cambios en la amplitud. donde los promedios de w se calculan sobre todo el patrón (habitualmente más pequeño que la imagen), mientras que los de f se calculan sobre la región en torno al píxel del tamaño del patrón. Otras normalizaciones (para obtener invarianzas respecto a cambios de escala u orientación) son posibles, pero a mayor complejidad ( ) ( ) ( )( ) ( )( ) ( ) ( )( ) ( )( ) 2/1 2 2/1 2 ,,, ,,, , ⎥ ⎦ ⎤ ⎢ ⎣ ⎡ −++⎥ ⎦ ⎤ ⎢ ⎣ ⎡ − −++− = ∑∑∑∑ ∑∑ s ts t s t wtysxwtsftsf wtysxwtsftsf yxc
  • 20. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 20 Introducción: El mecanismo de generación de patrones se puede representar de forma probabilística: Datos no disponibles: Prob. a priori Datos disponibles: Prob. a posteriori Proceso físico Sistema sensorial Clasificador de patrones Extracción de características Clase generada:Ck C={C1 , C2 , ...Cn} (Ck)P Objeto o suceso “medible” vector de medidas: z vector de características: x clase asignada: C( )x P C( )=( Ck | x)x x= Experimento Reconocimiento mediante funciones discriminantes Clasificadores estadísticamente óptimos
  • 21. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 21 Reconocimiento mediante funciones discriminantes Clasificadores estadísticamente óptimos Caracterización estadística La teoría de la decisión parte del supuesto de que los patrones son realizaciones independientes de un modelo probabilístico p (c,x)=P (c |x) p (x) En general, en los problemas de reconocimiento de patrones tenemos clases mutuamente exclusivas y colectivamente exhaustivas, es decir: siendo C el número de clases. Elementos: Los costescostes, Lij : coste de asignar a cj un patrón de la clase ci . El riesgo medio condicionalriesgo medio condicional de asignar un patrón a clase j : ( ) ( )∑= = C k kkjj cPLr 1 | xx 1)( 1 =∑= C k kcP
  • 22. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 22 Clasificador de mínimo riesgo Será aquél basado en las reglas de decisión aplicando la regla de Bayes se obtiene la expresión alternativa Clasificador de mínima probabilidad de error Se obtiene dando idéntico valor a todos los errores: Lij = 1-δij (que es la probabilidad de error) (decisión MAP (máximo a posteriori), que selecciona la categoría más probable, dada la observación) ( ) ( )∑= == C k kkj j j j cPLri 1 |minargminarg xx ( ) ( ) ( ) ( )xxxx |1|| 11 j C k kkj C k kj cPcPcPr −=−= ∑∑ == δ ( ){ } ( ){ }xx |maxarg|1minarg j j j j cPcPi =−= )( )|()( )|( | x x x x kcxk k p cpcP cP k = ( ) ( )∑= = C k kkkj j cPcpLi 1 |minarg x
  • 23. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 23 Ejemplo: Reconocimiento de caracteres mediante un decisor MAP h x Máximo Clase ck=“h” p(x|ca) x x x p(x|cb) p(x|c9) Pr(ca) Pr(cb) Pr(c9)
  • 24. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 24 Diseño del clasificador Bayesiano En la mayoría de las aplicaciones prácticas, no se conocen P(ck), p(x|ck) ni P(ck|x). En tal caso, deben estimarse a partir de un conjunto de entrenamiento. Se presentan dos alternativas: Estimar P(ck|x), o bien Estimar P(ck) y p(x|ck) P(ck): puede suponerse constante (categorías equiprobables) o estimarse como la proporción de observaciones etiquetadas y no etiquetadas. p(x|ck): hay muchos métodos. Los más sencillos suponen que las distribuciones son gausianas. La estimación se reduce a los parámetros de media y covarianzas.
  • 25. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 25 mi Clasificador bayesiano para clases gausianas Se caracteriza por siendo x p(x|c0)P(c0)L10 p(x|c1)P(c1)L01 Umbral de decisión ( ) ( )⎥⎦ ⎤ ⎢⎣ ⎡ −−−= − ii T i i cp mxVmx V x 1 2/1N/2i 2 1 exp )(2 1 )|( π { } ( )( ){ } ( )( )∑ ∑ = = −−≈−−= ≈= i k i k cd T i k i k i T iii cd k i i N cE N cE )( )( )()( i )( i 1 | 1 | mxmxmxmxV xxm
  • 26. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 26 Función discriminante: suele utilizarse el logaritmo: Es una forma cuadrática para cada clase, con lo que la frontera de decisión será una cuadrática también. Ej: P(c1)=0.6; P(c2)=0.4; V1 =[0.77 0;0 0.77]; V2 =[0.77 0;0 1.26] ( ) ( ) ( )( ) ( ) ( ) ( ) ( )( ) ( ) ( ) ( )( )iii T ii iii T iiiii cP cP N cPcpd ln 2 1 ln 2 1 ln 2 1 ln 2 1 2ln 2 |ln 12/1 12/1 +−−−−≡ +−−−−−== − − mxVmxV mxVmxVxx π
  • 27. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 27 Cuando las matrices de covarianzas de todas las clases coinciden (Vi=V) , el discriminante se reduce a: y, por tanto, es una función discriminante lineal Si, finalmente, las matrices son proporcionales a la identidad, resulta que coincide con la función discriminante del clasificador de mínima distancia. ( ) ( )( )ii T i T ii cPd ln 2 1 11 +−≡ −− mVmxVmx ( ) i T i T iid mmxmx 2 1 −≡
  • 28. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 28 Las Imágenes multiespectrales codifican información en varias bandas, sensibles a diferentes longitudes de onda del espectro electromagnético. Los clasificadores bayesianos se han mostrado efectivos para clasificación de terrenos en muchos tipos de imágenes Ejemplo: clasificación de terrenos en imágenes multiespectrales.
  • 29. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 29 Inconvenientes del modelo gausiano: Con frecuencia, no es realista (los datos no tienen una distribución gausiana) Ejemplo: Diagrama de dispersión de las bandas 1 (azul) y 5 (infrarrojo cercano) de un conjunto de datos pertenecientes a una imagen Landsat (7 bandas) de las Ría de Vigo. * → Roca o → Frondosas + → Eucalipto ● → Terreno Agrícola
  • 30. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 30 Clasificador bayesiano para mezclas de gausianas Modelo más general: x ∈Ck se asume con fdp compuesta por una mezcla de gausianas de medias μkl , covarianza Vkl y factores de mezcla wl es decir: La estimación ML de los parámetros wl , μkl y Σkl para cada clase se realiza de forma iterativa mediante un algoritmo conocido como Esperanza-Maximización (EM). El clasificador MAP responde a la expresión: Las fronteras de decisión son superficies hipercuádricas a tramos [ ]∑∑ = − = −−−== L l klkl T kl kl pklk L l klk wclpwcp 1 1 2 1 2/12/1 )()(exp ||)2( 1 ),|()|( μxVμx V xx π { })|()(maxarg)( kk k CxpCPxC =
  • 31. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 31 Ejemplo: Clasificación de piel/no piel en un espacio de color bi-dimensional (sin información de luminancia), modelando cada clase como una mezcla de gausianas y estimando parámetros con el algoritmo EM:
  • 32. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 32 Reconocimiento mediante funciones discriminantes Métodos basados en Teoría de la Decisión Redes Neuronales Artificiales Background Perceptrón para dos clases Algoritmos de entrenamiento Clases separables linealmente Clases no separables linealmente
  • 33. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 33 Motivación: El análisis previo pone de manifiesto que, para diseñar un clasificador estadísticamente óptimo a partir de un conjunto de datos de entrenamiento, pueden adoptarse tres estrategias: Estimar P(ck|x) Estimar P(x|ck) y P(ck) Determinar una función discriminante que proporcione la frontera de decisión óptima. El término “redes neuronales” engloba a un conjunto de técnicas que proporcionan soluciones flexibles (adaptables a cada problema) para cada una de estas estrategias.
  • 34. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 34 Perceptron para dos clases Implementa la función discriminante lineal: Para un conjunto finito de muestras podemos hallar un vector de pesos apropiado buscando una solución de estas inecuaciones (para dos clases): ¿Cómo determinar los pesos? Algoritmo de entrenamiento: procedimiento recursivo que modifica el vector de pesos hasta que se cumplen las desigualdades: Iniciar aleatoriamente los pesos Presentar cada muestra al sistema de inecuaciones Si bien clasificada no alterar pesos Si mal clasificada alterar los pesos de forma conveniente ( ) e T e n i ii xwwxdz xw=+== ∑=1 0 w0 1 x1 x2 xN w1 w2 wN z ... o 22 11 1,0 1,0 Mj Mj j t e j t e ≤≤>− ≤≤>+ xw xw
  • 35. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 35 Algoritmos de entrenamiento Clases separables linealmente Regla delRegla del PerceptrónPerceptrón: Si no hay error, no hay cambio Si hay error, w(k+1)T x(k) cambia en el sentido de corregir el error. Teorema de entrenamiento del perceptrón: Si las clases son linealmente separables, la regla del perceptrón converge a una solución de cero errores en un número finito de pasos. ( ) [ ] ( ) }1;1{,;10 2 )()()()()()(1 −=<<−+=+ kkkkkkk odconod α α xww x x x x x xx x x x x xx x x x x x x x t=0 t=1 t=2 t=4 t=10
  • 36. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 36 Clases no separables linealmente En este caso, la regla del perceptrón no se detiene. Soluciones: Discriminantes no lineales, pero lineales en los parámetros: permiten obtener fronteras no lineales que obtengan soluciones de cero errores perceptrón multicapa Variantes heurísticas, como el algoritmo dellgoritmo del BolsilloBolsillo, que conserva en una memoria aparte (bolsillo) los pesos que han dado lugar a la secuencia de pasos de entrenamiento libre de errores más larga Inconvenientes de la Regla del Perceptrón: Mala generalización: aunque el problema sea intrínsecamente separable (para el clasificador usado), el algoritmo puede colocar la frontera en una posición inadecuada o o o o o o o × × × ×× × × × × × x x x x x x x x x x x x x x x x x x x x ( ) ∑∑ == ++== n i ii n i ii xwxwwxdz 1 2 1 0
  • 37. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 37 El ADALINE (“ADAptive LInear NEuron”) Tiene la misma arquitectura del Perceptrón, pero se entrena mediante un algoritmo de gradiente: siendo J(we) una función de coste. La más habitual es el error cuadrático: En la versión estocástica (el algoritmo de Widrow-Hoff) se aplica el gradiente sobre una sola muestra, resultando Puede demostrarse que, para α suficientemente pequeño, la regla del ADALINE converge (aunque no necesariamente a una solución de mínimo numero de errores). [ ] ( )10)()()()()1( <<−+=+ αα k e kkTk e k e zd xww ( ))()()1( k e k e k e J www w∇−=+ α ( ) ( ) ( ) ⎭ ⎬ ⎫ ⎩ ⎨ ⎧ −≈−= ∑= 2 )()()( 1 2 )()()( 2 1 2 1 k e Tk e k N k k e Tk e k dEd N J xwxww
  • 38. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 38 Perceptrón multicapa Arquitectura básica El perceptrón multicapa es un aproximador universal.