Las redes neuronales profundas son fáciles de engañar: ¿Alguien tiene una traducción de este artículo en inglés?
Las redes neuronales profundas se engañan fácilmente: el reconocimiento preciso de imágenes indistinguibles
Recientemente se han utilizado redes neuronales profundas (DNN) Se ha logrado un rendimiento de última generación en diversas tareas de reconocimiento de patrones, en particular problemas de clasificación visual.
Recientemente, los sistemas de redes neuronales profundas (DNN) han logrado un rendimiento avanzado en el reconocimiento de imágenes en diversas modalidades, especialmente en la clasificación visual.
Dado que DNA NSA ahora es capaz de clasificar objetos en imágenes con un rendimiento cercano al nivel humano, surge naturalmente la pregunta: ¿qué otras diferencias existen entre la visión humana y la computadora?
Hoy en día, los DDN pueden clasificar imágenes al nivel de la visión humana, por lo que, naturalmente, las personas todavía tienen diferencias en las diferencias visuales entre computadoras y humanos.
Un estudio reciente demostró que cambiar una imagen (por ejemplo, un león) de una manera que sea imperceptible para los humanos puede hacer que los humanos DNN etiqueten la imagen como algo completamente distinto (por ejemplo, etiquetar erróneamente un león como una biblioteca). ).
Un estudio reciente demostró que cambiar una imagen (como un león) de una manera que los humanos no pueden detectar, pero los DDN pueden reconocer el cambio en la imagen y etiquetarla como una imagen completamente diferente (es decir, una león). Como un león mal etiquetado en una biblioteca).
Aquí mostramos un resultado relacionado: es fácil producir imágenes que son completamente irreconocibles para los humanos, sin embargo, los DNN de última generación creen que los objetos se pueden identificar con un 99,99% de confianza (por ejemplo, etiquetando objetos blancos con certeza) La estática ruidosa es un león).
Algunos resultados de investigaciones relacionadas muestran que obviamente es difícil para los humanos distinguir imágenes, pero los DDN de última generación pueden distinguir objetos con una precisión del 99,99% (por ejemplo, pueden distinguir leones de blancos estáticos). ruido).
Específicamente, tomamos redes neuronales convolucionales que están entrenadas para funcionar bien en conjuntos de datos ImageNet o MNIST, y luego encontramos imágenes con algoritmos evolutivos o ascenso de gradiente, y los DNN clasifican estas imágenes con alta confianza. a cada clase de conjunto de datos.
Específicamente, nuestra red neuronal convolucional funciona bien en redes de imágenes o datos MNIST. Sin embargo, como veremos a continuación, los DDN pueden utilizar todas las clases de conjuntos de datos para identificar con gran precisión imágenes que han sido sometidas a algoritmos evolutivos y ascenso de gradiente.
Es posible producir imágenes que son completamente irreconocibles para el ojo humano, que los DNN casi con certeza creen que son objetos familiares, lo que llamamos "imágenes engañosas" (más generalmente, ejemplos engañosos).
Es muy posible que podamos generar imágenes que los humanos no puedan reconocer en absoluto, pero estas imágenes son de hecho objetos familiares y reconocibles para los DDN, que llamamos "imágenes engañosas" (imágenes más comunes y más fáciles de confundir). ).
Nuestros resultados revelan diferencias interesantes entre la visión humana y las DNN actuales y plantean preguntas sobre la generalización de las DNN para la visión por computadora.
Nuestros resultados revelan diferencias interesantes entre la visión humana y los DDN actuales y plantean preocupaciones sobre la generalización de la visión por computadora.