Las redes de creencia profunda (DBN) son una conglomeración de máquinas de Boltzmann restringidas donde cada capa oculta de una subred es la capa visible de la siguiente. El entrenamiento se realiza de forma greedy layer-wise entrenando cada MBR individualmente usando divergencia contrastiva para superar problemas de sobreentrenamiento y desaparición de gradientes. Primero se entrena la primera MBR, luego la segunda usando la capa oculta de la primera como entrada, repitiendo esto hasta el final de la red y luego conectando capas completamente conectadas para
2. Definición
Ahora si podemos definir las redes de creencia profunda o deep belief
networks(DBN), las cuales son simplemente la conglomeración de varias Máquinas
de Boltzmann Restringidas, siendo así que cada capa oculta de una subred es la
capa visible de la siguiente. El entrenamiento puede ser realizado individualmente
para cada MBR que compone la red utilizando el algoritmo de divergencia
contrastiva, conocido como greedy layer-wise, lo cual ayuda a superar el problema
de sobre-entrenamiento y la desaparición de gradiente.
Representación grafica de una DBN
EducRNA
3. Entrenamiento
Como ya fue mencionado se entrenará una MRB a la vez hasta llegar al final de la
red.
En este caso, la capa oculta de la MBR t actúa como una capa visible de MBR t + 1.
La capa de entrada de la primera MBR es la capa de entrada para toda la red, y la
greedy layer-wise de pre-entrenamiento funciona así:
1. Capacita la primera MBR t=1, utilizando divergencia contrastiva con todas
las muestras de entrenamiento.
2. Capacita la segunda MBR t=2. Puesto que la capa visible para t=2 es la
capa oculta de t=1, la formación comienza por sujetar la muestra de
entrada a la capa visible de t=1, la cual se propaga hacia adelante a la
capa oculta de t=1. Estos datos sirven, posteriormente, para iniciar el
entrenamiento de divergencia contrastiva para t=2.
EducRNA
4. Entrenamiento
3. Repite el procedimiento anterior para todas las capas.
4. Después de pre-entrenar, la red se puede ampliar mediante la conexión de una o
más capas completamente conectadas a la capa oculta final MBR. Esto forma un
perceptrón de múltiples capas que puede ser afinado mediante propagación
hacia atrás.
Representación grafica del entrenamiento de una DBN
EducRNA