SlideShare ist ein Scribd-Unternehmen logo
1 von 38
Downloaden Sie, um offline zu lesen
Reconocimiento de Patrones
Autores:
José Luis Alba - Universidad de Vigo
Jesús Cid - Universidad Carlos III de Madrid
Ultima revisión: mayo de 2006
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 2
Índice
Introducción
Esquema general del análisis de imágenes
Elementos del reconocimiento de patrones
Patrones
Patrones vectoriales
Patrones estructurados
Reconocimiento de patrones mediante funciones
discriminantes
Elementos
Mínima distancia y Adaptación (Pattern Matching)
Clasificadores estadísticamente óptimos
Redes Neuronales Artificiales
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 3
PREPROCESADO
(MEJORA-
RESTAURACIÓN)
ADQUISICIÓN
DE LA IMAGEN
SEGMENTACIÓN
EXTRACCIÓN DE
CARACTERÍSTICAS
RECONOCIMIENTO
CLASIFICACIÓN
INTERPRETACIÓN
BASE DE
CONOCIMIENTO
imagen
IntroducciónIntroducción
Esquema general del análisis de imágenes
Técnicas de bajo nivel Técnicas de alto nivel
Técnicas de nivel intermedio
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 4
Patrones
Tras los procesos de segmentación, extracción de características y descripción, cada objeto
queda representado por una colección (posiblemente ordenada y estructurada) de
descriptores, denominada patrón.
En los problemas de reconocimiento, cada patrón se supone perteneciente a una categoría o
clase, ci
El sistema de reconocimiento debe asignar cada objeto (de interés) a su categoría.
Reconocimiento o clasificación: proceso por el que se asigna una “etiqueta”, que representa
una clase, a un patrón concreto.
Clase: conjunto de entidades que comparten alguna característica que las diferencia de otras.
Clase de rechazo: conjunto de entidades que no se pueden etiquetar como ninguna de las
clases del problema
Extractor de características: subsistema que extrae información relevante para la clasificación
a partir de las entidades cuantificables
Clasificador: subsistema que utiliza un vector de características de la entidad cuantificable y lo
asigna a una de M clases
Evaluación del error de clasificación: “error de clasificación”, “tasa de error empírica”, “tasa
de rechazo empírica”, “conjunto de datos independientes”.
Falso rechazo (falso negativo) y falsa aceptación (faso positivo): para problemas de 2
clases estas definiciones reflejan la importancia de una decisión contra la opuesta. El sistema de
clasificación se puede “sintonizar” para que trabaje ponderando un tipo de error sobre el otro
Elementos del reconocimiento de patrones
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 5
PatronesPatrones
Segmentador
Extracción +
Descripción
Extracción +
Descripción
Extracción +
Descripción
Extracción +
Descripción
Patrón
Patrón
Patrón
Patrón
Reconocedor
Reconocedor
Reconocedor
Reconocedor
Clase 1
Clase 2
Clase 2
Clase 1
Para el reconocimiento automático, es importante que
Patrones que describen objetos de una misma clase, presenten
características similares.
Patrones que describen objetos de diferentes clases presenten
características diferenciadas.
Tipos de patrones:
Vectores: x = (x1, x2,…, xn)T
Cadenas
Árboles
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 6
Patrones vectoriales
Ejemplo: Clasificación de tipos de Iris
(flores).
Tres categorías
Patrones bidimensionales
Longitud del pétalo
Anchura del pétalo
Los descriptores utilizados sirven para
discriminar iris setosa de las otras dos,
pero no para discriminar entre iris
virginica e iris versicolor
http://www.et.ethz.ch/eTutorials/evim/dateien/u3/irisbilder.htm
Iris Setosa Iris Versicolor Iris Virginica
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 7
Patrones estructurados
Codifican relaciones (espaciales o de otro tipo)
entre componentes del objeto o descriptores.
Ejemplo:
Reconocimiento de huellas dactilares
Los algoritmos de reconocimiento suelen basarse
en la detección de las minucias (minutiae), las
cadenas (ridges) que forman, y su relación entre
ellas
Imágenes tomadas de http://perso.wanadoo.fr/fingerchip/index.htm
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 8
Ejemplo:
Imagen de satélite
Descripción en árbol
Cada rama codifica
una relación
“compuesto de”
Washington D.C.
(centro urbano y
zonas residenciales)
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 9
Reconocimiento medianteReconocimiento mediante
funciones discriminantesfunciones discriminantes
Elementos:
Función discriminante, di(x):
Mide la relevancia de la clase ci
para el patrón x.
Región de decisión, Ri:
El conjunto de todos los puntos
del espacio que el reconocedor
asigna a la clase ci
Frontera de decisión:
Separa regiones de decisión.
Decisor:
Típicamente (aunque no
siempre), seleccionan la clase
de mayor (o menor) valor de la
función discriminante di(x).
Análisis
discriminante
Patrón
Decisorx d
di(x)
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 10
Aprendizaje:
Conjunto de entrenamiento:
{x(k),c(k)
, k=1,…,K}
Conjunto de patrones
etiquetados (cuya clase es
conocida)
Algoritmo de entrenamiento:
Es un conjunto de reglas de
ajuste de los parámetros de las
funciones discriminantes
di(x,wi)
Conjunto de prueba (test)
Conjunto de patrones
etiquetados NO utilizados
durante el entrenamiento.
Sirven para evaluar el
rendimiento del clasificador.
Generalización: capacidad para
clasificar correctamente
patrones no utilizados durante
el entrenamiento.
Análisis
discriminante
Patrón
Decisorx d
di(x)
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 11
Métodos (lista no exahustiva):
Adaptación (Pattern Matching)
Representan cada clase mediante un patrón prototipo.
Clasificador de mínima distancia
Adaptación por correlación
Clasificadores estadísticamente óptimos
Se fundamentan en la Teoría de la Decisión Estadística
Clasificador bayesiano para clases gausianas
Redes neuronales
Se fundamentan en la teoría del aprendizaje estadístico
Perceptrón para dos clases
Perceptrón multicapa
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 12
Reconocimiento mediante funciones discriminantes
Clasificador de mínima distancia
Se caracteriza por las funciones discriminantes
siendo mi un patrón prototipo de la clase i.
Asignan la muestra a la clase “más próxima”
Dado que
se puede prescindir del primer término, que no depende de la clase, de
modo que las funciones discriminantes
son equivalentes a las anteriores.
Las fronteras de decisión del clasificador de mínima distancia son de la
forma
es decir,
que son hiperplanos
( ) 2
iid mxx −=
( ) i
T
i
T
iid mmxmx +−= 2
( ) ( )xx ji dd =
( ) 02 =−+−− j
T
ji
T
i
T
ij mmmmxmm
( ){ }xi
i
dd minarg=
( ) ( ) ( ) i
T
i
T
i
T
i
T
iid mmxmxxmxmxx +−=−−= 2
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 13
Prototipo
El prototipo mi que caracteriza a
cada clase puede obtenerse
mediante extracción de
características sobre una imagen
previamente etiquetada.
También puede obtenerse a partir
de una colección de patrones
etiquetados:
siendo {xi,j} los patrones de la
clase i del conjunto de
entrenamiento.
∑=
=
iN
j
ji
i
i
N 1
,
1
xm
http://www.et.ethz.ch/eTutorials/evim/dateien/u3/irisbilder.htm
Iris Setosa Iris Versicolor
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 14
Ejemplo: Reconocimiento de caracteres.
Clases: Ck:{A,B,…,a,b,…0,1,2,…a,b,…a,b,…a,b,..a,b,…a,b,…}
Clase de rechazo: Cr:{!,”,$,%,&,/,(,),=,?,¿,~,×…}
Extractor de características:
3)dimensiónde(vector
masasdecentro
cerrados)(contornoshuecosdenº
perímetro
)yejesaltosde(suma|:),1()(:,|
x)ejesaltosde(suma|:)1,-(n:),(|
columnas)lasdesumayejen(proyecció)(:,
filas)lasdesumaxejen(proyecció:),(
binariovectoroimagen)1360(ó)1820(
18
2
20
2
18
1
20
1
v
nznzS
znzS
nzP
nzP
z
ny
nx
ny
nx
≡
⎪
⎭
⎪
⎬
⎫
⎪
⎩
⎪
⎨
⎧
⎪
⎩
⎪
⎨
⎧
−−=
−=
⎪
⎩
⎪
⎨
⎧
→=
→=
××≡
∑
∑
∑
∑
=
=
=
=
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 15
El reconocedor de caracteres asigna el vector “v” a la clase
que más se “parece”.
Medidas de similitud:
distancia euclidea
distancia de Hamming,
distancia de Mahalanobis,
correlación cruzada, etc a
b
c
9
v
d(v, vc)
d(v, v9)
d(v, vb)
d(v, va)
Mínimo
Clase Ck=“h”
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 16
Ventajas del clasificador de mínima
distancia
Simplicidad
Facilidad de ajuste
Inconvenientes:
Sólo funciona cuando las clases forman
nubes poco dispersas y bien separadas
Ejemplo: fuente de caracteres E-13B
de la American Bankers Association,
especialmente diseñada para facilitar el
reconocimiento automático.
La signatura refleja la derivada de la
cantidad de negro en dirección vertical,
al mover un scanner de izquierda a
derecha
El muestreo en los puntos de la
cuadrícula proporciona información con
suficiente capacidad discriminante
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 17
Extensiones del clasificador de
mínima distancia:
Permiten obtener fronteras de
clasificación más complejas, y
modelar categorías que no quedan
adecuadamente representadas por su
media.
k-NN (Nearest Neighbour):
Cada clase, Ci, se caracteriza por una
colección de prototipos, mij
Cada patrón, x, se asigna a la clase
mayoritaria de los k prototipos más
próximos
Selección de prototipos:
Cada muestra de entrenamiento, un
prototipo.
Prototipos obtenidos mediante un
algoritmo de agrupamiento (como el
k-means –ver presentación de
Análisis de imágenes-). 1-NN, 2 prototipos por clase
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 18
Reconocimiento mediante funciones discriminantes
Adaptación por correlación
Los métodos de adaptación por correlación
también se basan en la comparación de la
imagen a clasificar con una o varias
imágenes patrón que caracterizan a cada
clase.
Es equivalente al de mínima distancia si los
patrones están normalizados:
Utilizan medidas de similitud basadas
en correlaciones:
Correlación:
( ) ( ) ( )∑∑ ++=
s t
tysxwtsfyxc ,,,
( ) ( ) xmxmmxmx T
iii
T
i
T
ii dd =′⇒+−= 2
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 19
Coeficiente de correlación:
Proporciona una medida invariante frente a cambios en la
amplitud.
donde los promedios de w se calculan sobre todo el patrón
(habitualmente más pequeño que la imagen), mientras que los
de f se calculan sobre la región en torno al píxel del tamaño del
patrón.
Otras normalizaciones (para obtener invarianzas respecto a
cambios de escala u orientación) son posibles, pero a
mayor complejidad
( )
( ) ( )( ) ( )( )
( ) ( )( ) ( )( )
2/1
2
2/1
2
,,,
,,,
,
⎥
⎦
⎤
⎢
⎣
⎡
−++⎥
⎦
⎤
⎢
⎣
⎡
−
−++−
=
∑∑∑∑
∑∑
s ts t
s t
wtysxwtsftsf
wtysxwtsftsf
yxc
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 20
Introducción:
El mecanismo de generación de patrones se puede representar de forma
probabilística:
Datos no disponibles: Prob. a priori Datos disponibles: Prob. a posteriori
Proceso
físico
Sistema
sensorial
Clasificador
de patrones
Extracción de
características
Clase generada:Ck
C={C1 , C2 , ...Cn}
(Ck)P
Objeto
o suceso
“medible”
vector de
medidas: z
vector de
características: x
clase asignada: C( )x
P C( )=( Ck | x)x x=
Experimento
Reconocimiento mediante funciones discriminantes
Clasificadores estadísticamente óptimos
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 21
Reconocimiento mediante funciones discriminantes
Clasificadores estadísticamente óptimos
Caracterización estadística
La teoría de la decisión parte del supuesto de que los
patrones son realizaciones independientes de un modelo
probabilístico p (c,x)=P (c |x) p (x)
En general, en los problemas de reconocimiento de patrones
tenemos clases mutuamente exclusivas y colectivamente
exhaustivas, es decir:
siendo C el número de clases.
Elementos:
Los costescostes, Lij : coste de asignar a cj un patrón de la clase ci .
El riesgo medio condicionalriesgo medio condicional de asignar un patrón a clase j :
( ) ( )∑=
=
C
k
kkjj cPLr
1
| xx
1)(
1
=∑=
C
k
kcP
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 22
Clasificador de mínimo riesgo
Será aquél basado en las reglas de decisión
aplicando la regla de Bayes
se obtiene la expresión alternativa
Clasificador de mínima probabilidad de error
Se obtiene dando idéntico valor a todos los errores: Lij = 1-δij
(que es la probabilidad de error)
(decisión MAP (máximo a posteriori), que selecciona la categoría más
probable, dada la observación)
( ) ( )∑=
==
C
k
kkj
j
j
j
cPLri
1
|minargminarg xx
( ) ( ) ( ) ( )xxxx |1||
11
j
C
k
kkj
C
k
kj cPcPcPr −=−= ∑∑ ==
δ
( ){ } ( ){ }xx |maxarg|1minarg j
j
j
j
cPcPi =−=
)(
)|()(
)|(
|
x
x
x
x
kcxk
k
p
cpcP
cP k
=
( ) ( )∑=
=
C
k
kkkj
j
cPcpLi
1
|minarg x
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 23
Ejemplo: Reconocimiento de caracteres
mediante un decisor MAP
h x
Máximo
Clase ck=“h”
p(x|ca) x
x
x
p(x|cb)
p(x|c9)
Pr(ca)
Pr(cb)
Pr(c9)
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 24
Diseño del clasificador Bayesiano
En la mayoría de las aplicaciones prácticas, no se
conocen P(ck), p(x|ck) ni P(ck|x).
En tal caso, deben estimarse a partir de un conjunto
de entrenamiento.
Se presentan dos alternativas:
Estimar P(ck|x), o bien
Estimar P(ck) y p(x|ck)
P(ck): puede suponerse constante (categorías equiprobables)
o estimarse como la proporción de observaciones
etiquetadas y no etiquetadas.
p(x|ck): hay muchos métodos. Los más sencillos suponen
que las distribuciones son gausianas. La estimación se
reduce a los parámetros de media y covarianzas.
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 25
mi
Clasificador bayesiano para clases gausianas
Se caracteriza por
siendo
x
p(x|c0)P(c0)L10 p(x|c1)P(c1)L01
Umbral de decisión
( ) ( )⎥⎦
⎤
⎢⎣
⎡
−−−= −
ii
T
i
i
cp mxVmx
V
x 1
2/1N/2i
2
1
exp
)(2
1
)|(
π
{ }
( )( ){ } ( )( )∑
∑
=
=
−−≈−−=
≈=
i
k
i
k
cd
T
i
k
i
k
i
T
iii
cd
k
i
i
N
cE
N
cE
)(
)(
)()(
i
)(
i
1
|
1
|
mxmxmxmxV
xxm
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 26
Función discriminante: suele utilizarse el logaritmo:
Es una forma cuadrática para cada clase, con lo que la frontera de
decisión será una cuadrática también.
Ej: P(c1)=0.6; P(c2)=0.4;
V1 =[0.77 0;0 0.77]; V2 =[0.77 0;0 1.26]
( ) ( ) ( )( ) ( ) ( ) ( ) ( )( )
( ) ( ) ( )( )iii
T
ii
iii
T
iiiii
cP
cP
N
cPcpd
ln
2
1
ln
2
1
ln
2
1
ln
2
1
2ln
2
|ln
12/1
12/1
+−−−−≡
+−−−−−==
−
−
mxVmxV
mxVmxVxx π
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 27
Cuando las matrices de covarianzas de todas las clases coinciden
(Vi=V) , el discriminante se reduce a:
y, por tanto, es una función discriminante lineal
Si, finalmente, las matrices son proporcionales a la identidad, resulta
que coincide con la función discriminante del clasificador de mínima distancia.
( ) ( )( )ii
T
i
T
ii cPd ln
2
1 11
+−≡ −−
mVmxVmx
( ) i
T
i
T
iid mmxmx
2
1
−≡
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 28
Las Imágenes
multiespectrales codifican
información en varias
bandas, sensibles a
diferentes longitudes de
onda del espectro
electromagnético.
Los clasificadores
bayesianos se han
mostrado efectivos para
clasificación de terrenos en
muchos tipos de imágenes
Ejemplo: clasificación de terrenos en imágenes multiespectrales.
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 29
Inconvenientes del modelo gausiano:
Con frecuencia, no es realista (los datos no tienen una
distribución gausiana)
Ejemplo: Diagrama de dispersión de las bandas 1 (azul) y 5
(infrarrojo cercano) de un conjunto de datos pertenecientes a
una imagen Landsat (7 bandas) de las Ría de Vigo.
* → Roca
o → Frondosas
+ → Eucalipto
● → Terreno Agrícola
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 30
Clasificador bayesiano para mezclas de gausianas
Modelo más general: x ∈Ck se asume con fdp compuesta
por una mezcla de gausianas de medias μkl , covarianza Vkl
y factores de mezcla wl es decir:
La estimación ML de los parámetros wl , μkl y Σkl para cada
clase se realiza de forma iterativa mediante un algoritmo
conocido como Esperanza-Maximización (EM).
El clasificador MAP responde a la expresión:
Las fronteras de decisión son superficies hipercuádricas a
tramos
[ ]∑∑ =
−
=
−−−==
L
l klkl
T
kl
kl
pklk
L
l klk wclpwcp 1
1
2
1
2/12/1
)()(exp
||)2(
1
),|()|( μxVμx
V
xx
π
{ })|()(maxarg)( kk
k
CxpCPxC =
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 31
Ejemplo:
Clasificación de piel/no piel en un espacio de color bi-dimensional (sin
información de luminancia), modelando cada clase como una mezcla de
gausianas y estimando parámetros con el algoritmo EM:
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 32
Reconocimiento mediante funciones discriminantes
Métodos basados en Teoría de la Decisión
Redes Neuronales Artificiales
Background
Perceptrón para dos clases
Algoritmos de entrenamiento
Clases separables linealmente
Clases no separables linealmente
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 33
Motivación:
El análisis previo pone de manifiesto que, para
diseñar un clasificador estadísticamente óptimo a
partir de un conjunto de datos de entrenamiento,
pueden adoptarse tres estrategias:
Estimar P(ck|x)
Estimar P(x|ck) y P(ck)
Determinar una función discriminante que proporcione la
frontera de decisión óptima.
El término “redes neuronales” engloba a un
conjunto de técnicas que proporcionan soluciones
flexibles (adaptables a cada problema) para cada
una de estas estrategias.
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 34
Perceptron para dos clases
Implementa la función discriminante lineal:
Para un conjunto finito de muestras podemos hallar un vector de pesos
apropiado buscando una solución de estas inecuaciones (para dos clases):
¿Cómo determinar los pesos?
Algoritmo de entrenamiento: procedimiento recursivo que modifica el vector de
pesos hasta que se cumplen las desigualdades:
Iniciar aleatoriamente los pesos
Presentar cada muestra al sistema de inecuaciones
Si bien clasificada no alterar pesos
Si mal clasificada alterar los pesos de forma conveniente
( ) e
T
e
n
i
ii xwwxdz xw=+== ∑=1
0
w0
1
x1
x2
xN
w1
w2
wN
z
...
o
22
11
1,0
1,0
Mj
Mj
j
t
e
j
t
e
≤≤>−
≤≤>+
xw
xw
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 35
Algoritmos de entrenamiento
Clases separables linealmente
Regla delRegla del PerceptrónPerceptrón:
Si no hay error, no hay cambio
Si hay error, w(k+1)T x(k) cambia
en el sentido de corregir el
error.
Teorema de entrenamiento del
perceptrón:
Si las clases son linealmente
separables, la regla del
perceptrón converge a una
solución de cero errores en un
número finito de pasos.
( )
[ ] ( ) }1;1{,;10
2
)()()()()()(1
−=<<−+=+ kkkkkkk
odconod α
α
xww
x
x
x
x
x
xx
x
x
x
x
xx
x
x
x
x
x
x x
t=0
t=1
t=2
t=4
t=10
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 36
Clases no separables linealmente
En este caso, la regla del perceptrón no se detiene.
Soluciones:
Discriminantes no lineales, pero lineales en los
parámetros:
permiten obtener fronteras no lineales que obtengan
soluciones de cero errores perceptrón multicapa
Variantes heurísticas, como el algoritmo dellgoritmo del
BolsilloBolsillo, que conserva en una memoria aparte
(bolsillo) los pesos que han dado lugar a la secuencia
de pasos de entrenamiento libre de errores más larga
Inconvenientes de la Regla del Perceptrón:
Mala generalización:
aunque el problema sea intrínsecamente separable
(para el clasificador usado), el algoritmo puede
colocar la frontera en una posición inadecuada
o
o
o
o
o
o
o
×
×
×
××
×
×
×
×
×
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
( ) ∑∑ ==
++==
n
i
ii
n
i
ii xwxwwxdz
1
2
1
0
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 37
El ADALINE (“ADAptive LInear NEuron”)
Tiene la misma arquitectura del Perceptrón, pero se entrena
mediante un algoritmo de gradiente:
siendo J(we) una función de coste. La más habitual es el
error cuadrático:
En la versión estocástica (el algoritmo de Widrow-Hoff) se
aplica el gradiente sobre una sola muestra, resultando
Puede demostrarse que, para α suficientemente pequeño, la
regla del ADALINE converge (aunque no necesariamente a
una solución de mínimo numero de errores).
[ ] ( )10)()()()()1(
<<−+=+
αα k
e
kkTk
e
k
e zd xww
( ))()()1( k
e
k
e
k
e J www w∇−=+
α
( ) ( ) ( ) ⎭
⎬
⎫
⎩
⎨
⎧ −≈−= ∑=
2
)()()(
1
2
)()()(
2
1
2
1 k
e
Tk
e
k
N
k
k
e
Tk
e
k
dEd
N
J xwxww
José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 38
Perceptrón multicapa
Arquitectura básica
El perceptrón multicapa es un aproximador universal.

Weitere ähnliche Inhalte

Was ist angesagt?

Fundamentos de inteligencia de negocios
Fundamentos de inteligencia de negociosFundamentos de inteligencia de negocios
Fundamentos de inteligencia de negociosEliel Sanchez
 
Polimorfismo en Java
Polimorfismo en JavaPolimorfismo en Java
Polimorfismo en Javaricardomore94
 
MOD Unidad 3: Modelado y verificación formal
MOD Unidad 3: Modelado y verificación formalMOD Unidad 3: Modelado y verificación formal
MOD Unidad 3: Modelado y verificación formalFranklin Parrales Bravo
 
Formas de representacion del conocimiento
Formas de representacion del conocimientoFormas de representacion del conocimiento
Formas de representacion del conocimientoequipoUFTsis2
 
Clasificador naive bayes
Clasificador naive bayesClasificador naive bayes
Clasificador naive bayesNetworkTIC
 
CLUSTER ANALYSIS ALGORITHMS.pptx
CLUSTER ANALYSIS ALGORITHMS.pptxCLUSTER ANALYSIS ALGORITHMS.pptx
CLUSTER ANALYSIS ALGORITHMS.pptxShwetapadmaBabu1
 
Arquitectura 3 Capas
Arquitectura 3 CapasArquitectura 3 Capas
Arquitectura 3 CapasFani Calle
 
Ciclo de vida de un sistema de información
Ciclo de vida de un sistema de informaciónCiclo de vida de un sistema de información
Ciclo de vida de un sistema de informaciónJuan Pablo Bustos Thames
 
Inteligencia artificial y sistemas expertos.pps
Inteligencia artificial y sistemas expertos.ppsInteligencia artificial y sistemas expertos.pps
Inteligencia artificial y sistemas expertos.ppsNestor Villasmil Jr
 
Definiciones de conceptos basicos de analisis de sistemas
Definiciones de conceptos basicos de analisis de sistemasDefiniciones de conceptos basicos de analisis de sistemas
Definiciones de conceptos basicos de analisis de sistemasPollo XD
 
Implementación de clases
Implementación de clasesImplementación de clases
Implementación de clasesFernando Solis
 
Sistemas expertos
Sistemas expertosSistemas expertos
Sistemas expertosAngel Reyes
 

Was ist angesagt? (20)

Fundamentos de inteligencia de negocios
Fundamentos de inteligencia de negociosFundamentos de inteligencia de negocios
Fundamentos de inteligencia de negocios
 
Polimorfismo en Java
Polimorfismo en JavaPolimorfismo en Java
Polimorfismo en Java
 
MOD Unidad 3: Modelado y verificación formal
MOD Unidad 3: Modelado y verificación formalMOD Unidad 3: Modelado y verificación formal
MOD Unidad 3: Modelado y verificación formal
 
Formas de representacion del conocimiento
Formas de representacion del conocimientoFormas de representacion del conocimiento
Formas de representacion del conocimiento
 
Unidad 2 modelado de negocios
Unidad 2 modelado de negociosUnidad 2 modelado de negocios
Unidad 2 modelado de negocios
 
Clasificador naive bayes
Clasificador naive bayesClasificador naive bayes
Clasificador naive bayes
 
CLUSTER ANALYSIS ALGORITHMS.pptx
CLUSTER ANALYSIS ALGORITHMS.pptxCLUSTER ANALYSIS ALGORITHMS.pptx
CLUSTER ANALYSIS ALGORITHMS.pptx
 
Como crear un diagrama de clases
Como crear un diagrama de clasesComo crear un diagrama de clases
Como crear un diagrama de clases
 
Arquitectura 3 Capas
Arquitectura 3 CapasArquitectura 3 Capas
Arquitectura 3 Capas
 
Recursividad en POO - Java
Recursividad en POO - JavaRecursividad en POO - Java
Recursividad en POO - Java
 
REDES NEURONALES.pptx
REDES NEURONALES.pptxREDES NEURONALES.pptx
REDES NEURONALES.pptx
 
Ciclo de vida de un sistema de información
Ciclo de vida de un sistema de informaciónCiclo de vida de un sistema de información
Ciclo de vida de un sistema de información
 
Machine Learning.pptx
Machine Learning.pptxMachine Learning.pptx
Machine Learning.pptx
 
Inteligencia artificial y sistemas expertos.pps
Inteligencia artificial y sistemas expertos.ppsInteligencia artificial y sistemas expertos.pps
Inteligencia artificial y sistemas expertos.pps
 
Definiciones de conceptos basicos de analisis de sistemas
Definiciones de conceptos basicos de analisis de sistemasDefiniciones de conceptos basicos de analisis de sistemas
Definiciones de conceptos basicos de analisis de sistemas
 
Estilos arquitectónicos
Estilos arquitectónicosEstilos arquitectónicos
Estilos arquitectónicos
 
Implementación de clases
Implementación de clasesImplementación de clases
Implementación de clases
 
Modelo red
Modelo redModelo red
Modelo red
 
Arreglos, Procedimientos y Funciones
Arreglos, Procedimientos y FuncionesArreglos, Procedimientos y Funciones
Arreglos, Procedimientos y Funciones
 
Sistemas expertos
Sistemas expertosSistemas expertos
Sistemas expertos
 

Ähnlich wie Reconocimiento de Patrones

Ähnlich wie Reconocimiento de Patrones (20)

Clasificadores Bayesianos: De datos a Conceptos
Clasificadores Bayesianos: De datos a ConceptosClasificadores Bayesianos: De datos a Conceptos
Clasificadores Bayesianos: De datos a Conceptos
 
Clasificador_minima_distancia_aplicada.ppt
Clasificador_minima_distancia_aplicada.pptClasificador_minima_distancia_aplicada.ppt
Clasificador_minima_distancia_aplicada.ppt
 
Clasificador_de_minima_distancia en imagenes.ppt
Clasificador_de_minima_distancia en  imagenes.pptClasificador_de_minima_distancia en  imagenes.ppt
Clasificador_de_minima_distancia en imagenes.ppt
 
Pu3
Pu3Pu3
Pu3
 
Clustering.ppt
Clustering.pptClustering.ppt
Clustering.ppt
 
T1-AprendizajeAutomatico.pdf
T1-AprendizajeAutomatico.pdfT1-AprendizajeAutomatico.pdf
T1-AprendizajeAutomatico.pdf
 
Taller segmentacion
Taller segmentacionTaller segmentacion
Taller segmentacion
 
Machine learning
Machine learningMachine learning
Machine learning
 
Datamining y Machine Learning para Ciencias Biológicas
Datamining y Machine Learning para Ciencias BiológicasDatamining y Machine Learning para Ciencias Biológicas
Datamining y Machine Learning para Ciencias Biológicas
 
Practica ii
Practica iiPractica ii
Practica ii
 
Algunas consideraciones
Algunas consideracionesAlgunas consideraciones
Algunas consideraciones
 
Aprendizaje de Maquina y Aplicaciones
Aprendizaje de Maquina y AplicacionesAprendizaje de Maquina y Aplicaciones
Aprendizaje de Maquina y Aplicaciones
 
Examen Parcial 2
Examen Parcial 2Examen Parcial 2
Examen Parcial 2
 
Algoritmos - Jordi Gironés Roig
Algoritmos - Jordi Gironés RoigAlgoritmos - Jordi Gironés Roig
Algoritmos - Jordi Gironés Roig
 
Segmentacion mathlab
Segmentacion mathlabSegmentacion mathlab
Segmentacion mathlab
 
Pdi03
Pdi03Pdi03
Pdi03
 
Pdi03
Pdi03Pdi03
Pdi03
 
algoritmos en R Studio
algoritmos en R Studioalgoritmos en R Studio
algoritmos en R Studio
 
Pr clasificacion supervisada guzman mera
Pr clasificacion supervisada guzman meraPr clasificacion supervisada guzman mera
Pr clasificacion supervisada guzman mera
 
Examen parcial 2
Examen parcial 2Examen parcial 2
Examen parcial 2
 

Mehr von menamigue

1.1 Fundamentos de TI
1.1 Fundamentos de TI1.1 Fundamentos de TI
1.1 Fundamentos de TImenamigue
 
SI para obtener ventaja estrategica
SI para obtener ventaja estrategicaSI para obtener ventaja estrategica
SI para obtener ventaja estrategicamenamigue
 
SI para apoyo a la toma de decisiones
SI para apoyo a la toma de decisionesSI para apoyo a la toma de decisiones
SI para apoyo a la toma de decisionesmenamigue
 
sistemas de informacion
sistemas de informacionsistemas de informacion
sistemas de informacionmenamigue
 
Planificación Estratégica de Sistemas de Información
Planificación Estratégica de Sistemas de InformaciónPlanificación Estratégica de Sistemas de Información
Planificación Estratégica de Sistemas de Informaciónmenamigue
 
Tecnicas UML
Tecnicas UMLTecnicas UML
Tecnicas UMLmenamigue
 
Emisor Receptor AM
Emisor Receptor AMEmisor Receptor AM
Emisor Receptor AMmenamigue
 
Grafos propuestos
Grafos propuestosGrafos propuestos
Grafos propuestosmenamigue
 
Grafos resueltos
Grafos resueltosGrafos resueltos
Grafos resueltosmenamigue
 
Analisis de Senales
Analisis de SenalesAnalisis de Senales
Analisis de Senalesmenamigue
 
Instructivo iupsm.gnomio.com
Instructivo iupsm.gnomio.comInstructivo iupsm.gnomio.com
Instructivo iupsm.gnomio.commenamigue
 
Notas electrotecnia
Notas electrotecniaNotas electrotecnia
Notas electrotecniamenamigue
 
Proyecto electrotecnia franyer velasquez
Proyecto electrotecnia franyer velasquezProyecto electrotecnia franyer velasquez
Proyecto electrotecnia franyer velasquezmenamigue
 
Proyecto electrotenia milay cala
Proyecto electrotenia milay calaProyecto electrotenia milay cala
Proyecto electrotenia milay calamenamigue
 
Organizacion y metodos
Organizacion y metodosOrganizacion y metodos
Organizacion y metodosmenamigue
 
Ejercicios C#
Ejercicios C#Ejercicios C#
Ejercicios C#menamigue
 
Enunciados de Sistemas de Información
Enunciados de Sistemas de InformaciónEnunciados de Sistemas de Información
Enunciados de Sistemas de Informaciónmenamigue
 

Mehr von menamigue (20)

1.1 Fundamentos de TI
1.1 Fundamentos de TI1.1 Fundamentos de TI
1.1 Fundamentos de TI
 
SI para obtener ventaja estrategica
SI para obtener ventaja estrategicaSI para obtener ventaja estrategica
SI para obtener ventaja estrategica
 
SI para apoyo a la toma de decisiones
SI para apoyo a la toma de decisionesSI para apoyo a la toma de decisiones
SI para apoyo a la toma de decisiones
 
sistemas de informacion
sistemas de informacionsistemas de informacion
sistemas de informacion
 
Planificación Estratégica de Sistemas de Información
Planificación Estratégica de Sistemas de InformaciónPlanificación Estratégica de Sistemas de Información
Planificación Estratégica de Sistemas de Información
 
Tecnicas UML
Tecnicas UMLTecnicas UML
Tecnicas UML
 
Emisor Receptor AM
Emisor Receptor AMEmisor Receptor AM
Emisor Receptor AM
 
Grafos propuestos
Grafos propuestosGrafos propuestos
Grafos propuestos
 
Grafos resueltos
Grafos resueltosGrafos resueltos
Grafos resueltos
 
Sql
SqlSql
Sql
 
Fourier
FourierFourier
Fourier
 
Analisis de Senales
Analisis de SenalesAnalisis de Senales
Analisis de Senales
 
Instructivo iupsm.gnomio.com
Instructivo iupsm.gnomio.comInstructivo iupsm.gnomio.com
Instructivo iupsm.gnomio.com
 
Notas electrotecnia
Notas electrotecniaNotas electrotecnia
Notas electrotecnia
 
Proyecto electrotecnia franyer velasquez
Proyecto electrotecnia franyer velasquezProyecto electrotecnia franyer velasquez
Proyecto electrotecnia franyer velasquez
 
Proyecto electrotenia milay cala
Proyecto electrotenia milay calaProyecto electrotenia milay cala
Proyecto electrotenia milay cala
 
Organizacion y metodos
Organizacion y metodosOrganizacion y metodos
Organizacion y metodos
 
Ejercicios C#
Ejercicios C#Ejercicios C#
Ejercicios C#
 
Satelites
SatelitesSatelites
Satelites
 
Enunciados de Sistemas de Información
Enunciados de Sistemas de InformaciónEnunciados de Sistemas de Información
Enunciados de Sistemas de Información
 

Kürzlich hochgeladen

Estrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcciónEstrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcciónLourdes Feria
 
SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptx
SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptxSEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptx
SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptxYadi Campos
 
Cuaderno de trabajo Matemática 3 tercer grado.pdf
Cuaderno de trabajo Matemática 3 tercer grado.pdfCuaderno de trabajo Matemática 3 tercer grado.pdf
Cuaderno de trabajo Matemática 3 tercer grado.pdfNancyLoaa
 
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURAFORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURAEl Fortí
 
GUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdf
GUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdfGUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdf
GUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdfPaolaRopero2
 
Feliz Día de la Madre - 5 de Mayo, 2024.pdf
Feliz Día de la Madre - 5 de Mayo, 2024.pdfFeliz Día de la Madre - 5 de Mayo, 2024.pdf
Feliz Día de la Madre - 5 de Mayo, 2024.pdfMercedes Gonzalez
 
CALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDADCALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDADauxsoporte
 
Registro Auxiliar - Primaria 2024 (1).pptx
Registro Auxiliar - Primaria  2024 (1).pptxRegistro Auxiliar - Primaria  2024 (1).pptx
Registro Auxiliar - Primaria 2024 (1).pptxFelicitasAsuncionDia
 
Dinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes dDinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes dstEphaniiie
 
PINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).ppt
PINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).pptPINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).ppt
PINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).pptAlberto Rubio
 
Criterios ESG: fundamentos, aplicaciones y beneficios
Criterios ESG: fundamentos, aplicaciones y beneficiosCriterios ESG: fundamentos, aplicaciones y beneficios
Criterios ESG: fundamentos, aplicaciones y beneficiosJonathanCovena1
 
5.- Doerr-Mide-lo-que-importa-DESARROLLO PERSONAL
5.- Doerr-Mide-lo-que-importa-DESARROLLO PERSONAL5.- Doerr-Mide-lo-que-importa-DESARROLLO PERSONAL
5.- Doerr-Mide-lo-que-importa-DESARROLLO PERSONALMiNeyi1
 
2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx
2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx
2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptxRigoTito
 
OCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VS
OCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VSOCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VS
OCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VSYadi Campos
 
Abril 2024 - Maestra Jardinera Ediba.pdf
Abril 2024 -  Maestra Jardinera Ediba.pdfAbril 2024 -  Maestra Jardinera Ediba.pdf
Abril 2024 - Maestra Jardinera Ediba.pdfValeriaCorrea29
 
Infografía EE con pie del 2023 (3)-1.pdf
Infografía EE con pie del 2023 (3)-1.pdfInfografía EE con pie del 2023 (3)-1.pdf
Infografía EE con pie del 2023 (3)-1.pdfAlfaresbilingual
 
Programacion Anual Matemática5 MPG 2024 Ccesa007.pdf
Programacion Anual Matemática5    MPG 2024  Ccesa007.pdfProgramacion Anual Matemática5    MPG 2024  Ccesa007.pdf
Programacion Anual Matemática5 MPG 2024 Ccesa007.pdfDemetrio Ccesa Rayme
 

Kürzlich hochgeladen (20)

Estrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcciónEstrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcción
 
SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptx
SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptxSEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptx
SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptx
 
Cuaderno de trabajo Matemática 3 tercer grado.pdf
Cuaderno de trabajo Matemática 3 tercer grado.pdfCuaderno de trabajo Matemática 3 tercer grado.pdf
Cuaderno de trabajo Matemática 3 tercer grado.pdf
 
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURAFORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
 
GUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdf
GUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdfGUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdf
GUIA DE CIRCUNFERENCIA Y ELIPSE UNDÉCIMO 2024.pdf
 
Feliz Día de la Madre - 5 de Mayo, 2024.pdf
Feliz Día de la Madre - 5 de Mayo, 2024.pdfFeliz Día de la Madre - 5 de Mayo, 2024.pdf
Feliz Día de la Madre - 5 de Mayo, 2024.pdf
 
CALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDADCALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDAD
 
Registro Auxiliar - Primaria 2024 (1).pptx
Registro Auxiliar - Primaria  2024 (1).pptxRegistro Auxiliar - Primaria  2024 (1).pptx
Registro Auxiliar - Primaria 2024 (1).pptx
 
Dinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes dDinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes d
 
Sesión de clase: Fe contra todo pronóstico
Sesión de clase: Fe contra todo pronósticoSesión de clase: Fe contra todo pronóstico
Sesión de clase: Fe contra todo pronóstico
 
PINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).ppt
PINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).pptPINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).ppt
PINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).ppt
 
Tema 8.- PROTECCION DE LOS SISTEMAS DE INFORMACIÓN.pdf
Tema 8.- PROTECCION DE LOS SISTEMAS DE INFORMACIÓN.pdfTema 8.- PROTECCION DE LOS SISTEMAS DE INFORMACIÓN.pdf
Tema 8.- PROTECCION DE LOS SISTEMAS DE INFORMACIÓN.pdf
 
Criterios ESG: fundamentos, aplicaciones y beneficios
Criterios ESG: fundamentos, aplicaciones y beneficiosCriterios ESG: fundamentos, aplicaciones y beneficios
Criterios ESG: fundamentos, aplicaciones y beneficios
 
5.- Doerr-Mide-lo-que-importa-DESARROLLO PERSONAL
5.- Doerr-Mide-lo-que-importa-DESARROLLO PERSONAL5.- Doerr-Mide-lo-que-importa-DESARROLLO PERSONAL
5.- Doerr-Mide-lo-que-importa-DESARROLLO PERSONAL
 
2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx
2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx
2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx
 
OCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VS
OCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VSOCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VS
OCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VS
 
Abril 2024 - Maestra Jardinera Ediba.pdf
Abril 2024 -  Maestra Jardinera Ediba.pdfAbril 2024 -  Maestra Jardinera Ediba.pdf
Abril 2024 - Maestra Jardinera Ediba.pdf
 
Infografía EE con pie del 2023 (3)-1.pdf
Infografía EE con pie del 2023 (3)-1.pdfInfografía EE con pie del 2023 (3)-1.pdf
Infografía EE con pie del 2023 (3)-1.pdf
 
Programacion Anual Matemática5 MPG 2024 Ccesa007.pdf
Programacion Anual Matemática5    MPG 2024  Ccesa007.pdfProgramacion Anual Matemática5    MPG 2024  Ccesa007.pdf
Programacion Anual Matemática5 MPG 2024 Ccesa007.pdf
 
Presentacion Metodología de Enseñanza Multigrado
Presentacion Metodología de Enseñanza MultigradoPresentacion Metodología de Enseñanza Multigrado
Presentacion Metodología de Enseñanza Multigrado
 

Reconocimiento de Patrones

  • 1. Reconocimiento de Patrones Autores: José Luis Alba - Universidad de Vigo Jesús Cid - Universidad Carlos III de Madrid Ultima revisión: mayo de 2006
  • 2. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 2 Índice Introducción Esquema general del análisis de imágenes Elementos del reconocimiento de patrones Patrones Patrones vectoriales Patrones estructurados Reconocimiento de patrones mediante funciones discriminantes Elementos Mínima distancia y Adaptación (Pattern Matching) Clasificadores estadísticamente óptimos Redes Neuronales Artificiales
  • 3. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 3 PREPROCESADO (MEJORA- RESTAURACIÓN) ADQUISICIÓN DE LA IMAGEN SEGMENTACIÓN EXTRACCIÓN DE CARACTERÍSTICAS RECONOCIMIENTO CLASIFICACIÓN INTERPRETACIÓN BASE DE CONOCIMIENTO imagen IntroducciónIntroducción Esquema general del análisis de imágenes Técnicas de bajo nivel Técnicas de alto nivel Técnicas de nivel intermedio
  • 4. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 4 Patrones Tras los procesos de segmentación, extracción de características y descripción, cada objeto queda representado por una colección (posiblemente ordenada y estructurada) de descriptores, denominada patrón. En los problemas de reconocimiento, cada patrón se supone perteneciente a una categoría o clase, ci El sistema de reconocimiento debe asignar cada objeto (de interés) a su categoría. Reconocimiento o clasificación: proceso por el que se asigna una “etiqueta”, que representa una clase, a un patrón concreto. Clase: conjunto de entidades que comparten alguna característica que las diferencia de otras. Clase de rechazo: conjunto de entidades que no se pueden etiquetar como ninguna de las clases del problema Extractor de características: subsistema que extrae información relevante para la clasificación a partir de las entidades cuantificables Clasificador: subsistema que utiliza un vector de características de la entidad cuantificable y lo asigna a una de M clases Evaluación del error de clasificación: “error de clasificación”, “tasa de error empírica”, “tasa de rechazo empírica”, “conjunto de datos independientes”. Falso rechazo (falso negativo) y falsa aceptación (faso positivo): para problemas de 2 clases estas definiciones reflejan la importancia de una decisión contra la opuesta. El sistema de clasificación se puede “sintonizar” para que trabaje ponderando un tipo de error sobre el otro Elementos del reconocimiento de patrones
  • 5. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 5 PatronesPatrones Segmentador Extracción + Descripción Extracción + Descripción Extracción + Descripción Extracción + Descripción Patrón Patrón Patrón Patrón Reconocedor Reconocedor Reconocedor Reconocedor Clase 1 Clase 2 Clase 2 Clase 1 Para el reconocimiento automático, es importante que Patrones que describen objetos de una misma clase, presenten características similares. Patrones que describen objetos de diferentes clases presenten características diferenciadas. Tipos de patrones: Vectores: x = (x1, x2,…, xn)T Cadenas Árboles
  • 6. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 6 Patrones vectoriales Ejemplo: Clasificación de tipos de Iris (flores). Tres categorías Patrones bidimensionales Longitud del pétalo Anchura del pétalo Los descriptores utilizados sirven para discriminar iris setosa de las otras dos, pero no para discriminar entre iris virginica e iris versicolor http://www.et.ethz.ch/eTutorials/evim/dateien/u3/irisbilder.htm Iris Setosa Iris Versicolor Iris Virginica
  • 7. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 7 Patrones estructurados Codifican relaciones (espaciales o de otro tipo) entre componentes del objeto o descriptores. Ejemplo: Reconocimiento de huellas dactilares Los algoritmos de reconocimiento suelen basarse en la detección de las minucias (minutiae), las cadenas (ridges) que forman, y su relación entre ellas Imágenes tomadas de http://perso.wanadoo.fr/fingerchip/index.htm
  • 8. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 8 Ejemplo: Imagen de satélite Descripción en árbol Cada rama codifica una relación “compuesto de” Washington D.C. (centro urbano y zonas residenciales)
  • 9. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 9 Reconocimiento medianteReconocimiento mediante funciones discriminantesfunciones discriminantes Elementos: Función discriminante, di(x): Mide la relevancia de la clase ci para el patrón x. Región de decisión, Ri: El conjunto de todos los puntos del espacio que el reconocedor asigna a la clase ci Frontera de decisión: Separa regiones de decisión. Decisor: Típicamente (aunque no siempre), seleccionan la clase de mayor (o menor) valor de la función discriminante di(x). Análisis discriminante Patrón Decisorx d di(x)
  • 10. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 10 Aprendizaje: Conjunto de entrenamiento: {x(k),c(k) , k=1,…,K} Conjunto de patrones etiquetados (cuya clase es conocida) Algoritmo de entrenamiento: Es un conjunto de reglas de ajuste de los parámetros de las funciones discriminantes di(x,wi) Conjunto de prueba (test) Conjunto de patrones etiquetados NO utilizados durante el entrenamiento. Sirven para evaluar el rendimiento del clasificador. Generalización: capacidad para clasificar correctamente patrones no utilizados durante el entrenamiento. Análisis discriminante Patrón Decisorx d di(x)
  • 11. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 11 Métodos (lista no exahustiva): Adaptación (Pattern Matching) Representan cada clase mediante un patrón prototipo. Clasificador de mínima distancia Adaptación por correlación Clasificadores estadísticamente óptimos Se fundamentan en la Teoría de la Decisión Estadística Clasificador bayesiano para clases gausianas Redes neuronales Se fundamentan en la teoría del aprendizaje estadístico Perceptrón para dos clases Perceptrón multicapa
  • 12. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 12 Reconocimiento mediante funciones discriminantes Clasificador de mínima distancia Se caracteriza por las funciones discriminantes siendo mi un patrón prototipo de la clase i. Asignan la muestra a la clase “más próxima” Dado que se puede prescindir del primer término, que no depende de la clase, de modo que las funciones discriminantes son equivalentes a las anteriores. Las fronteras de decisión del clasificador de mínima distancia son de la forma es decir, que son hiperplanos ( ) 2 iid mxx −= ( ) i T i T iid mmxmx +−= 2 ( ) ( )xx ji dd = ( ) 02 =−+−− j T ji T i T ij mmmmxmm ( ){ }xi i dd minarg= ( ) ( ) ( ) i T i T i T i T iid mmxmxxmxmxx +−=−−= 2
  • 13. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 13 Prototipo El prototipo mi que caracteriza a cada clase puede obtenerse mediante extracción de características sobre una imagen previamente etiquetada. También puede obtenerse a partir de una colección de patrones etiquetados: siendo {xi,j} los patrones de la clase i del conjunto de entrenamiento. ∑= = iN j ji i i N 1 , 1 xm http://www.et.ethz.ch/eTutorials/evim/dateien/u3/irisbilder.htm Iris Setosa Iris Versicolor
  • 14. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 14 Ejemplo: Reconocimiento de caracteres. Clases: Ck:{A,B,…,a,b,…0,1,2,…a,b,…a,b,…a,b,..a,b,…a,b,…} Clase de rechazo: Cr:{!,”,$,%,&,/,(,),=,?,¿,~,×…} Extractor de características: 3)dimensiónde(vector masasdecentro cerrados)(contornoshuecosdenº perímetro )yejesaltosde(suma|:),1()(:,| x)ejesaltosde(suma|:)1,-(n:),(| columnas)lasdesumayejen(proyecció)(:, filas)lasdesumaxejen(proyecció:),( binariovectoroimagen)1360(ó)1820( 18 2 20 2 18 1 20 1 v nznzS znzS nzP nzP z ny nx ny nx ≡ ⎪ ⎭ ⎪ ⎬ ⎫ ⎪ ⎩ ⎪ ⎨ ⎧ ⎪ ⎩ ⎪ ⎨ ⎧ −−= −= ⎪ ⎩ ⎪ ⎨ ⎧ →= →= ××≡ ∑ ∑ ∑ ∑ = = = =
  • 15. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 15 El reconocedor de caracteres asigna el vector “v” a la clase que más se “parece”. Medidas de similitud: distancia euclidea distancia de Hamming, distancia de Mahalanobis, correlación cruzada, etc a b c 9 v d(v, vc) d(v, v9) d(v, vb) d(v, va) Mínimo Clase Ck=“h”
  • 16. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 16 Ventajas del clasificador de mínima distancia Simplicidad Facilidad de ajuste Inconvenientes: Sólo funciona cuando las clases forman nubes poco dispersas y bien separadas Ejemplo: fuente de caracteres E-13B de la American Bankers Association, especialmente diseñada para facilitar el reconocimiento automático. La signatura refleja la derivada de la cantidad de negro en dirección vertical, al mover un scanner de izquierda a derecha El muestreo en los puntos de la cuadrícula proporciona información con suficiente capacidad discriminante
  • 17. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 17 Extensiones del clasificador de mínima distancia: Permiten obtener fronteras de clasificación más complejas, y modelar categorías que no quedan adecuadamente representadas por su media. k-NN (Nearest Neighbour): Cada clase, Ci, se caracteriza por una colección de prototipos, mij Cada patrón, x, se asigna a la clase mayoritaria de los k prototipos más próximos Selección de prototipos: Cada muestra de entrenamiento, un prototipo. Prototipos obtenidos mediante un algoritmo de agrupamiento (como el k-means –ver presentación de Análisis de imágenes-). 1-NN, 2 prototipos por clase
  • 18. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 18 Reconocimiento mediante funciones discriminantes Adaptación por correlación Los métodos de adaptación por correlación también se basan en la comparación de la imagen a clasificar con una o varias imágenes patrón que caracterizan a cada clase. Es equivalente al de mínima distancia si los patrones están normalizados: Utilizan medidas de similitud basadas en correlaciones: Correlación: ( ) ( ) ( )∑∑ ++= s t tysxwtsfyxc ,,, ( ) ( ) xmxmmxmx T iii T i T ii dd =′⇒+−= 2
  • 19. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 19 Coeficiente de correlación: Proporciona una medida invariante frente a cambios en la amplitud. donde los promedios de w se calculan sobre todo el patrón (habitualmente más pequeño que la imagen), mientras que los de f se calculan sobre la región en torno al píxel del tamaño del patrón. Otras normalizaciones (para obtener invarianzas respecto a cambios de escala u orientación) son posibles, pero a mayor complejidad ( ) ( ) ( )( ) ( )( ) ( ) ( )( ) ( )( ) 2/1 2 2/1 2 ,,, ,,, , ⎥ ⎦ ⎤ ⎢ ⎣ ⎡ −++⎥ ⎦ ⎤ ⎢ ⎣ ⎡ − −++− = ∑∑∑∑ ∑∑ s ts t s t wtysxwtsftsf wtysxwtsftsf yxc
  • 20. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 20 Introducción: El mecanismo de generación de patrones se puede representar de forma probabilística: Datos no disponibles: Prob. a priori Datos disponibles: Prob. a posteriori Proceso físico Sistema sensorial Clasificador de patrones Extracción de características Clase generada:Ck C={C1 , C2 , ...Cn} (Ck)P Objeto o suceso “medible” vector de medidas: z vector de características: x clase asignada: C( )x P C( )=( Ck | x)x x= Experimento Reconocimiento mediante funciones discriminantes Clasificadores estadísticamente óptimos
  • 21. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 21 Reconocimiento mediante funciones discriminantes Clasificadores estadísticamente óptimos Caracterización estadística La teoría de la decisión parte del supuesto de que los patrones son realizaciones independientes de un modelo probabilístico p (c,x)=P (c |x) p (x) En general, en los problemas de reconocimiento de patrones tenemos clases mutuamente exclusivas y colectivamente exhaustivas, es decir: siendo C el número de clases. Elementos: Los costescostes, Lij : coste de asignar a cj un patrón de la clase ci . El riesgo medio condicionalriesgo medio condicional de asignar un patrón a clase j : ( ) ( )∑= = C k kkjj cPLr 1 | xx 1)( 1 =∑= C k kcP
  • 22. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 22 Clasificador de mínimo riesgo Será aquél basado en las reglas de decisión aplicando la regla de Bayes se obtiene la expresión alternativa Clasificador de mínima probabilidad de error Se obtiene dando idéntico valor a todos los errores: Lij = 1-δij (que es la probabilidad de error) (decisión MAP (máximo a posteriori), que selecciona la categoría más probable, dada la observación) ( ) ( )∑= == C k kkj j j j cPLri 1 |minargminarg xx ( ) ( ) ( ) ( )xxxx |1|| 11 j C k kkj C k kj cPcPcPr −=−= ∑∑ == δ ( ){ } ( ){ }xx |maxarg|1minarg j j j j cPcPi =−= )( )|()( )|( | x x x x kcxk k p cpcP cP k = ( ) ( )∑= = C k kkkj j cPcpLi 1 |minarg x
  • 23. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 23 Ejemplo: Reconocimiento de caracteres mediante un decisor MAP h x Máximo Clase ck=“h” p(x|ca) x x x p(x|cb) p(x|c9) Pr(ca) Pr(cb) Pr(c9)
  • 24. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 24 Diseño del clasificador Bayesiano En la mayoría de las aplicaciones prácticas, no se conocen P(ck), p(x|ck) ni P(ck|x). En tal caso, deben estimarse a partir de un conjunto de entrenamiento. Se presentan dos alternativas: Estimar P(ck|x), o bien Estimar P(ck) y p(x|ck) P(ck): puede suponerse constante (categorías equiprobables) o estimarse como la proporción de observaciones etiquetadas y no etiquetadas. p(x|ck): hay muchos métodos. Los más sencillos suponen que las distribuciones son gausianas. La estimación se reduce a los parámetros de media y covarianzas.
  • 25. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 25 mi Clasificador bayesiano para clases gausianas Se caracteriza por siendo x p(x|c0)P(c0)L10 p(x|c1)P(c1)L01 Umbral de decisión ( ) ( )⎥⎦ ⎤ ⎢⎣ ⎡ −−−= − ii T i i cp mxVmx V x 1 2/1N/2i 2 1 exp )(2 1 )|( π { } ( )( ){ } ( )( )∑ ∑ = = −−≈−−= ≈= i k i k cd T i k i k i T iii cd k i i N cE N cE )( )( )()( i )( i 1 | 1 | mxmxmxmxV xxm
  • 26. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 26 Función discriminante: suele utilizarse el logaritmo: Es una forma cuadrática para cada clase, con lo que la frontera de decisión será una cuadrática también. Ej: P(c1)=0.6; P(c2)=0.4; V1 =[0.77 0;0 0.77]; V2 =[0.77 0;0 1.26] ( ) ( ) ( )( ) ( ) ( ) ( ) ( )( ) ( ) ( ) ( )( )iii T ii iii T iiiii cP cP N cPcpd ln 2 1 ln 2 1 ln 2 1 ln 2 1 2ln 2 |ln 12/1 12/1 +−−−−≡ +−−−−−== − − mxVmxV mxVmxVxx π
  • 27. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 27 Cuando las matrices de covarianzas de todas las clases coinciden (Vi=V) , el discriminante se reduce a: y, por tanto, es una función discriminante lineal Si, finalmente, las matrices son proporcionales a la identidad, resulta que coincide con la función discriminante del clasificador de mínima distancia. ( ) ( )( )ii T i T ii cPd ln 2 1 11 +−≡ −− mVmxVmx ( ) i T i T iid mmxmx 2 1 −≡
  • 28. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 28 Las Imágenes multiespectrales codifican información en varias bandas, sensibles a diferentes longitudes de onda del espectro electromagnético. Los clasificadores bayesianos se han mostrado efectivos para clasificación de terrenos en muchos tipos de imágenes Ejemplo: clasificación de terrenos en imágenes multiespectrales.
  • 29. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 29 Inconvenientes del modelo gausiano: Con frecuencia, no es realista (los datos no tienen una distribución gausiana) Ejemplo: Diagrama de dispersión de las bandas 1 (azul) y 5 (infrarrojo cercano) de un conjunto de datos pertenecientes a una imagen Landsat (7 bandas) de las Ría de Vigo. * → Roca o → Frondosas + → Eucalipto ● → Terreno Agrícola
  • 30. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 30 Clasificador bayesiano para mezclas de gausianas Modelo más general: x ∈Ck se asume con fdp compuesta por una mezcla de gausianas de medias μkl , covarianza Vkl y factores de mezcla wl es decir: La estimación ML de los parámetros wl , μkl y Σkl para cada clase se realiza de forma iterativa mediante un algoritmo conocido como Esperanza-Maximización (EM). El clasificador MAP responde a la expresión: Las fronteras de decisión son superficies hipercuádricas a tramos [ ]∑∑ = − = −−−== L l klkl T kl kl pklk L l klk wclpwcp 1 1 2 1 2/12/1 )()(exp ||)2( 1 ),|()|( μxVμx V xx π { })|()(maxarg)( kk k CxpCPxC =
  • 31. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 31 Ejemplo: Clasificación de piel/no piel en un espacio de color bi-dimensional (sin información de luminancia), modelando cada clase como una mezcla de gausianas y estimando parámetros con el algoritmo EM:
  • 32. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 32 Reconocimiento mediante funciones discriminantes Métodos basados en Teoría de la Decisión Redes Neuronales Artificiales Background Perceptrón para dos clases Algoritmos de entrenamiento Clases separables linealmente Clases no separables linealmente
  • 33. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 33 Motivación: El análisis previo pone de manifiesto que, para diseñar un clasificador estadísticamente óptimo a partir de un conjunto de datos de entrenamiento, pueden adoptarse tres estrategias: Estimar P(ck|x) Estimar P(x|ck) y P(ck) Determinar una función discriminante que proporcione la frontera de decisión óptima. El término “redes neuronales” engloba a un conjunto de técnicas que proporcionan soluciones flexibles (adaptables a cada problema) para cada una de estas estrategias.
  • 34. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 34 Perceptron para dos clases Implementa la función discriminante lineal: Para un conjunto finito de muestras podemos hallar un vector de pesos apropiado buscando una solución de estas inecuaciones (para dos clases): ¿Cómo determinar los pesos? Algoritmo de entrenamiento: procedimiento recursivo que modifica el vector de pesos hasta que se cumplen las desigualdades: Iniciar aleatoriamente los pesos Presentar cada muestra al sistema de inecuaciones Si bien clasificada no alterar pesos Si mal clasificada alterar los pesos de forma conveniente ( ) e T e n i ii xwwxdz xw=+== ∑=1 0 w0 1 x1 x2 xN w1 w2 wN z ... o 22 11 1,0 1,0 Mj Mj j t e j t e ≤≤>− ≤≤>+ xw xw
  • 35. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 35 Algoritmos de entrenamiento Clases separables linealmente Regla delRegla del PerceptrónPerceptrón: Si no hay error, no hay cambio Si hay error, w(k+1)T x(k) cambia en el sentido de corregir el error. Teorema de entrenamiento del perceptrón: Si las clases son linealmente separables, la regla del perceptrón converge a una solución de cero errores en un número finito de pasos. ( ) [ ] ( ) }1;1{,;10 2 )()()()()()(1 −=<<−+=+ kkkkkkk odconod α α xww x x x x x xx x x x x xx x x x x x x x t=0 t=1 t=2 t=4 t=10
  • 36. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 36 Clases no separables linealmente En este caso, la regla del perceptrón no se detiene. Soluciones: Discriminantes no lineales, pero lineales en los parámetros: permiten obtener fronteras no lineales que obtengan soluciones de cero errores perceptrón multicapa Variantes heurísticas, como el algoritmo dellgoritmo del BolsilloBolsillo, que conserva en una memoria aparte (bolsillo) los pesos que han dado lugar a la secuencia de pasos de entrenamiento libre de errores más larga Inconvenientes de la Regla del Perceptrón: Mala generalización: aunque el problema sea intrínsecamente separable (para el clasificador usado), el algoritmo puede colocar la frontera en una posición inadecuada o o o o o o o × × × ×× × × × × × x x x x x x x x x x x x x x x x x x x x ( ) ∑∑ == ++== n i ii n i ii xwxwwxdz 1 2 1 0
  • 37. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 37 El ADALINE (“ADAptive LInear NEuron”) Tiene la misma arquitectura del Perceptrón, pero se entrena mediante un algoritmo de gradiente: siendo J(we) una función de coste. La más habitual es el error cuadrático: En la versión estocástica (el algoritmo de Widrow-Hoff) se aplica el gradiente sobre una sola muestra, resultando Puede demostrarse que, para α suficientemente pequeño, la regla del ADALINE converge (aunque no necesariamente a una solución de mínimo numero de errores). [ ] ( )10)()()()()1( <<−+=+ αα k e kkTk e k e zd xww ( ))()()1( k e k e k e J www w∇−=+ α ( ) ( ) ( ) ⎭ ⎬ ⎫ ⎩ ⎨ ⎧ −≈−= ∑= 2 )()()( 1 2 )()()( 2 1 2 1 k e Tk e k N k k e Tk e k dEd N J xwxww
  • 38. José Luis Alba - Universidad de Vigo; Jesús Cid - Universidad Carlos III 38 Perceptrón multicapa Arquitectura básica El perceptrón multicapa es un aproximador universal.