La Red de Conocimientos Pedagógicos - Conocimientos universitarios - ¿El lado oscuro de la inteligencia artificial que tendremos que soportar en 2018?

¿El lado oscuro de la inteligencia artificial que tendremos que soportar en 2018?

Celebramos otro Año Nuevo en medio de todos los elogios por las fotos de los 18 años.

Normalmente se supone que el Año Nuevo es una época feliz, pero la Nochevieja acaba de terminar y cuando levanté la vista vi que me iba a trabajar ¡no pude evitar sentirme triste! ... Así que hoy vamos a hablar de algo no tan feliz.

En los últimos días han ido surgiendo una tras otra diversas predicciones tecnológicas para 2018, entre las que la imaginación de la IA es mayoritaria, y el contenido es casi festivo y pacífico.

Pero suceden dos cosas cuando comenzamos a aprovechar el valor de la IA, los riesgos potenciales causados ​​por las actualizaciones tecnológicas también aumentan. Es como si los coches fueran ciertamente mejores que los carros de bueyes, pero los coches también pueden causar varios accidentes de tráfico. Por supuesto, no podemos prohibir la circulación de coches, pero tampoco podemos hacer la vista gorda ante los problemas de tráfico.

Hoy predecimos algunas "energías negativas de la inteligencia artificial" que probablemente entrarán en nuestros ojos en 2018.

Después de todo, estar preparado es un requisito previo para resolver problemas.

1. Han comenzado a aparecer casos de cuestiones éticas de la inteligencia artificial

En enero de 2017, en la conferencia Beneficial Al celebrada en Asilomar, California, asistieron casi mil personas relacionadas con la inteligencia artificial. Los expertos en los campos asistieron firmaron conjuntamente los famosos "23 Principios de Inteligencia Artificial de Asilomar".

Posteriormente, comenzaron a aparecer en el ojo público diversos debates, conferencias y asociaciones y organizaciones tecnológicas relacionadas sobre la ética de la inteligencia artificial.

El contenido principal de los "23 Principios" es pedir que la inteligencia artificial no dañe los intereses y la seguridad humanos. Al mismo tiempo, la inteligencia artificial debe ser controlada por los humanos. Intenta respetar la seguridad de la inteligencia artificial y los robots.

Suena un poco a ciencia ficción, pero cuando varias industrias comienzan a implementar IA, especialmente cuando comienzan a utilizarla para la toma de decisiones automatizada, las cuestiones éticas y morales de la inteligencia artificial realmente pueden surgir.

Por ejemplo, cuando un vehículo autónomo está a punto de provocar un accidente, ¿debe dar prioridad a la protección de transeúntes o pasajeros? Si el sistema de diagnóstico por IA recomienda la eutanasia, ¿se considera homicidio? Para evitar mayores pérdidas, ¿puede el sistema de IA romper las reglas y hacer lo suyo?

El más famoso fue probablemente el año pasado cuando Google criticó la investigación realizada por un equipo de la Universidad Jiao Tong de Shanghai sobre "definir a los delincuentes mirándolos a la cara". Desencadenó mucha discusión en los medios sobre el valor de la IA.

Cuando la tecnología de IA comience a usarse en diversos escenarios industriales, es probable que se desencadenen los conflictos resultantes, como cuestiones de límites, responsabilidades y derechos, y cuestiones de elección moral que no surgirán en el laboratorio.

La humanidad nunca ha discutido realmente esto. Si la implementación de la inteligencia artificial en 2018 es lo suficientemente rápida, es posible que se acerque el comienzo de las cuestiones éticas.

2. Discriminación algorítmica difícil de erradicar

Recuerdo que en 2016 Microsoft lanzó el robot de chat Tay, pero al día siguiente lo suspendieron temporalmente porque los usuarios le enseñaban mucho. de discriminación racial y malas palabras fuera de línea. Esto plantea un tema muy controvertido: el aprendizaje automático absorberá el conocimiento y la información humanos para moldearse a sí mismo, entonces, ¿qué pasa si la información que absorbe contiene muchas cosas "no tan puras"?

En 2017, No sólo no se ha resuelto el problema de la discriminación algorítmica, sino que han surgido una variedad de problemas nuevos. Por ejemplo, Google Brain etiquetará imágenes de mujeres con muchas etiquetas relacionadas con la familia y la vulnerabilidad, lo que obviamente es contrario al espíritu del feminismo e identificar a los negros como gorilas ha encendido el tema de la discriminación racial por parte de la IA;

Para los consumidores comunes, la llamada discriminación algorítmica es más probable que se sienta en dos lugares: la recomendación de contenido y la recomendación de comercio electrónico.

Por ejemplo, si un consumidor acaba de ver ropa holgada y una empresa de comercio electrónico recomienda pastillas para bajar de peso, puede recordarle que el algoritmo lo está discriminando por estar gordo, otro ejemplo es cuando; abren software como Toutiao. Esto puede haberte sucedido: accidentalmente hiciste clic en un contenido curioso o pseudopornográfico recomendado y luego lo actualizaste nuevamente.

Bueno, con la afluencia de contenido similar, el contenido de interés y el contenido profesional que originalmente querías ver desaparecieron en un instante.

Incluso si no me importa si te gusta o no, la plataforma te lo recomendará. Esto se debe a la forma en que el algoritmo te categoriza. Esta sensación de discriminación también es bastante grave, como si hubiera alguien detrás de ti con una sonrisa maliciosa y dijera: "Admítelo, eres tan vulgar..."

La raíz de este tipo de problema es La tecnología de aprendizaje automático para recomendaciones personalizadas, hoy debe basarse en dos lógicas: el pasado se utiliza para calcular el futuro y el grupo se utiliza para calcular el individuo. El algoritmo absorberá la experiencia previa para brindarle algo específico, pero es muy probable que la información de discriminación esté contenida en la experiencia absorbida por la máquina.

A medida que los sistemas de recomendación personalizados se aplican en cada vez más escenarios, es posible que no podamos erradicar la discriminación algorítmica en el corto plazo.

3. La contradicción entre datos privados y aprendizaje automático se ha vuelto cada vez más prominente.

La inteligencia artificial y la privacidad personal parecen haber sido siempre enemigos naturales.

Porque si la tecnología de inteligencia artificial quiere proporcionar servicios personalizados y totalmente acordes con los hábitos personales, entonces debe aprender y comprender a los propios usuarios. Entre ellos, implica el aprendizaje de los datos privados de los usuarios.

Sin embargo, debido a consideraciones de privacidad y desconfianza en la seguridad de la red, la mayoría de los usuarios obviamente no quieren revelar sus datos a las máquinas.

Surge así la contradicción del “huevo y la gallina”.

En los últimos dos años, el uso de IA para leer datos personales de los usuarios se ha suprimido y no se puede mencionar. Anteriormente, grandes empresas como Apple y Google habían lanzado productos que permitían a la IA comprender a los usuarios, pero las críticas públicas los cerraron rápidamente. Aun así, la cámara doméstica con IA lanzada por Google el año pasado ha sido criticada.

En la segunda mitad de 2017, vimos cómo comenzaba la competencia por los chips de IA. Sin embargo, el hardware equipado con chips de IA debe estar orientado y tener tareas que puedan completarse. Por lo tanto, permitir que el hardware comprenda a los usuarios y permitir que el sistema proporcione servicios a miles de personas basándose en los datos de los usuarios inevitablemente volverá a la atención del público.

De hecho, a juzgar por la tendencia general, entregar datos personales a las máquinas parece ser el destino inevitable de los seres humanos. Ya sea que se trate de salud médica, servicios financieros o seguridad social, las máquinas son definitivamente más confiables que los humanos. Lo que pasa es que las molestias y los riesgos de seguridad que se experimentan son enormes.

En 2018, ya sean teléfonos móviles, parlantes, dispositivos portátiles o realidad virtual, después de habilitar las capacidades de aprendizaje automático, parece que volverán a tocar la línea roja de los datos de privacidad.

Cómo abordar esta contradicción también es bastante problemático.

4. Cada vez es más difícil distinguir entre lo verdadero y lo falso.

Desde el punto de vista actual, obviamente todavía es demasiado pronto para esperar que la IA pueda hablar y comprender como los humanos. . Pero dejar que la IA haga falsificaciones ya no parece ser un gran problema.

Hemos discutido la posibilidad de cambiar la cara en videos y transmisiones en vivo antes. De hecho, a juzgar por el progreso técnico general, la tecnología de reemplazo y simulación basada en GAN está madurando en su conjunto. Ya sea que se trate de simular y reemplazar archivos de audio o video, la IA ya puede manejarlo con facilidad.

Pero esto ciertamente no es algo bueno. Cuando se lanzó el famoso software Face2Face, los internautas extranjeros exclamaron: ¿Qué pasa si reemplazan a la persona que chatea por video conmigo?

A medida que los marcos de desarrollo y los recursos de datos se vuelven cada vez más abundantes, y los algoritmos se vuelven cada vez más sofisticados, Cuanto más fuertes sean hoy, probablemente podamos decir con certeza que el uso de IA para forjar video y audio en 2018 será más fluido.

Esta es la exploración de la tecnología futura por parte de la IA, pero es probable que cause confusión en las redes sociales y la comunicación en línea: cuando los vídeos que vemos pueden ser completamente falsos, ¿qué más podemos creer en el mundo?

p>

Las cosas falsas pueden volverse reales incluso cuando son reales. Solo podemos esperar que el sistema de inteligencia artificial para contrarrestar el fraude de inteligencia artificial aparezca lo antes posible.

5. Los ataques de hackers tienen más trucos

A finales de 2017, Google TensorFlow quedó sorprendentemente expuesto a una vulnerabilidad en el framework, aunque fue encontrada por un sombrero blanco y no causó ninguna. Peligro, todavía nos despierta: la IA no es segura.

Hasta ahora, hemos visto la posibilidad de combinar varios ataques de piratas informáticos con tecnología de IA: usar IA para falsificar información de documentos para llevar a cabo ataques y fraudes usando tecnología de IA para mejorar la eficiencia de los ataques de piratería mediante IA; sistemas como objetivo de ataque. Con la combinación de sistemas de IA e IoT, es probable que la IA se incluya en futuros ataques de IoT.

La madurez de la tecnología de IA ha permitido a los ciberpiratas encontrar más objetivos, más herramientas y más técnicas. Aunque la IA también nos proporciona diversas formas de proteger la seguridad en Internet. Pero en cualquier caso, no hay duda de que la IA aporta más posibilidades a los piratas informáticos.

El mundo de la seguridad de las redes en 2017 no es estable y varios virus y piratas informáticos están causando estragos. Al comenzar 2018, es probable que veamos combates más intensos en este campo de batalla.

Conclusión

Al igual que cualquier innovación tecnológica, la IA también crea peligros y aporta valor. Y con las características de reconocimiento y capacidades de aprendizaje, el impacto negativo de la IA puede ser mayor que en el pasado.

Pero pase lo que pase, así es como la tecnología avanza paso a paso. Un mejor paisaje siempre viene acompañado de un camino más difícil. Reconocer los riesgos y explorar soluciones puede ser una forma más cómoda para que los humanos se lleven bien con la IA.