La Red de Conocimientos Pedagógicos - Currículum vitae - ¿Cuáles son las diferencias entre las estructuras de red interna de CNN (red neuronal convolucional), RNN (red neuronal recurrente) y DNN (red neuronal profunda)?

¿Cuáles son las diferencias entre las estructuras de red interna de CNN (red neuronal convolucional), RNN (red neuronal recurrente) y DNN (red neuronal profunda)?

Como se muestra a continuación:

1. DNN: Hay un problema: es imposible modelar cambios en series de tiempo. Sin embargo, la serie temporal de muestras es muy importante para aplicaciones como el procesamiento del lenguaje natural, el reconocimiento de voz, el reconocimiento de escritura a mano, etc. Para satisfacer esta demanda, surgió otra estructura de red neuronal: la red neuronal recurrente RNN.

2.CNN: La señal de cada capa de neuronas solo se puede propagar a la siguiente capa, y el procesamiento de muestras en cada momento es independiente, por lo que también se le llama red neuronal feedforward.

3.RNN: La salida de una neurona puede afectarse directamente a sí misma en la siguiente marca de tiempo, es decir, la entrada de la neurona de la capa I en el momento m. En ese momento, también incluye otros ¡Su propia producción en el tiempo (m-1)!

Introducción

La tecnología de redes neuronales se originó en las décadas de 1950 y 1960, cuando se llamaba perceptrón. Tiene una capa de entrada, una capa de salida y una capa oculta. El vector de características de entrada llega a la capa de salida mediante una transformación de capa oculta y el resultado de la clasificación se obtiene en la capa de salida. El creador de los primeros perceptrones fue Rosenblatt.

En aplicaciones prácticas, las llamadas redes neuronales profundas (DNN) a menudo combinan muchas estructuras conocidas, incluidas capas convolucionales o unidades LSTM.