La Red de Conocimientos Pedagógicos - Currículum vitae - Reconstrucción de súper resolución

Reconstrucción de súper resolución

SRGAN es un documento de superresolución en CVPR 2065 438 07, que lleva el efecto de superresolución a un nuevo nivel. La llamada reconstrucción de superresolución consiste en restaurar una imagen de baja resolución a una imagen correspondiente de alta resolución. Debido a la gran cantidad de información que falta en las imágenes de resolución terrestre, encontrar la solución inversa es un problema mal planteado, especialmente cuando se recuperan imágenes de alta resolución. Los métodos tradicionales restauran imágenes de alta resolución agregando información previa, como interpolación, aprendizaje escaso, bosque aleatorio basado en métodos de regresión, etc. CNN ha logrado muy buenos resultados en el problema de la superresolución.

SRGAN se basa en CNN y se entrena utilizando el método GAN para lograr una reconstrucción de imágenes de súper resolución. Contiene un generador y un discriminador. El cuerpo discriminador es VGG19 y el cuerpo generador es una serie de bloques residuales. Al mismo tiempo, se agrega un módulo de subpíxeles detrás del modelo, basándose en la idea de red de subpíxeles de Shi et al., para mejorar la resolución de la imagen en la última capa de red. mejorando la tasa de separación y reduciendo la cantidad de cálculo. La estructura de red proporcionada en este artículo se muestra en la figura:

El artículo también proporciona la forma de función de pérdida del generador y el discriminador:

1. es:

Entre ellos, se encuentra la función de pérdida de percepción propuesta en este artículo.

Pérdida de contenido: al entrenar la red, se puede obtener una relación señal-ruido máxima más alta utilizando la pérdida de error cuadrático medio. En los métodos generales de reconstrucción de superresolución, MSELoss se utiliza para la pérdida de contenido, pero las imágenes restauradas mediante pérdida MSE perderán muchos detalles de alta frecuencia. Por lo tanto, este artículo ingresará la imagen generada y la imagen de destino en la red VGG respectivamente, y luego calculará la distancia euclidiana de los mapas de características obtenidos después de pasar por VGG como la pérdida de VGG.

Antipérdida: para evitar la desaparición del gradiente del generador cuando el discriminador de frecuencia está bien entrenado, ¿este artículo reducirá la función de pérdida del generador? ? Ha sido modificado.

2. La función de pérdida del discriminador de frecuencia es:

Similar a la función de pérdida del discriminador de frecuencia de la red de contramedidas de generación ordinaria.