Big data, inteligencia artificial, filosofía
¿Cuándo empezaste a prestar atención a la filosofía de la inteligencia artificial?
Xu: Probablemente a partir de 2004. Al traducir las obras completas de Wang Hao, leí "La filosofía de la inteligencia artificial" de Margaret Borden. En ese momento, la inteligencia artificial era mucho menos popular que ahora, pero creo que este es un tema que la filosofía deberá abordar en el futuro. El libro de Boden es sólo una obra introductoria. Desde el comienzo de este libro, he estado buscando mucha información relevante para leer.
En cuanto a la investigación filosófica sobre inteligencia artificial, coopero principalmente con el Sr. Wang Pei, un experto en informática de la Universidad de Temple en Estados Unidos. Estudió sistemas de inteligencia artificial y pensó que era para razonamientos de emergencia en el caso de datos pequeños. En ese momento, no sabía nada de big data. Por supuesto, los predecesores del big data, como las redes bayesianas y neuronales, están ahí. El aprendizaje profundo actual es una versión muy mejorada de la red neuronal de ese momento, y sus raíces se remontan a Geoffrey Hinton. Más tarde, los big data se hicieron cada vez más populares y presté atención a las discusiones relacionadas. Sin embargo, esta preocupación en realidad interfirió con mi investigación porque sabía que estaba mal.
Hablando de big data, usted ha publicado muchos artículos en esta área. Por ejemplo, hay un artículo titulado "¿Los grandes datos son iguales a la gran sabiduría?" Últimamente se habla mucho del big data. ¿Cuál es tu opinión al respecto?
Xu: En resumen, mi propósito al hablar de big data es oponerme a los big data. Ahora hay una tendencia muy mala, es decir, la "PI" está muy extendida y los "grandes datos" también se consideran propiedad intelectual. Lo peor es que incluso mis críticas al big data se han convertido en parte de esta propiedad intelectual. De hecho, detrás de mi crítica está mi preocupación teórica, que es la teoría del filósofo japonés Zhou Zao. Jiugui Zhou Zao escribió un libro llamado "El problema de la contingencia", diciendo que a toda la filosofía occidental le gusta resolver problemas desde la perspectiva de la necesidad. Si no se puede resolver la necesidad, utilice la teoría de la probabilidad, pero el azar nunca podrá ser dominado. Los macrodatos son un intento de dominar el azar, pero nunca lo serán.
Hay muchos ejemplos de este tipo en la historia china, especialmente en la historia militar. Mire a los comandantes de las grandes batallas, Xiang Yu en la Batalla de Pengcheng, Zhou Yu y Lu Su en la Batalla de Chibi. ¿Qué decidieron finalmente? ¿Son grandes datos? En realidad, es sólo una evaluación basada en el sentido común, la inteligencia y el razonamiento básicos y un poco de suerte. Porque la guerra está llena de velos de ignorancia. En esas batallas donde lo pequeño gana a lo grande, si solo se mira el big data, todo apuntará al bando que gane con más, y el bando que gane con menos sin duda morirá. Pero ¿cuál es el hecho?
Así que la nueva generación de inteligencia artificial que imagino es un robot que pueda "aceptar el destino". Decir "resignarse al destino" no significa obedecer a las contingencias, pero aprovechar las contingencias no significa no hacer nada, sino aprovechar la situación;
El personal técnico y de ingeniería puede quejarse de sus puntos de vista: hay tantas escuelas filosóficas y puntos de vista, ¿cómo puede explicarlos claramente?
Xu: Simpatizo con las quejas de ingenieros y técnicos: en los últimos dos mil años, de hecho, no ha habido ningún progreso sustancial en cuestiones filosóficas. Entonces, ¿qué estrategia debemos adoptar ante esta situación? Hay una película en la India llamada Dios mío: ¡Dios mío! El protagonista es un extraterrestre. Después de correr a la tierra, no sabía qué dios era útil, por lo que adoraba a todos los dioses.
Hay muchas escuelas y puntos de vista filosóficos, y no hay garantía de que alguno de ellos funcione. Todos deben probarlo. No podemos involucrarnos en big data, redes neuronales o aprendizaje profundo. Esto es muy peligroso. Ahora que el capital está fluyendo hacia estos campos, hay una falta de pensamiento filosófico y, en cierto sentido, una falta de pensamiento sobre gestión de riesgos. ¿Cómo es posible que algo tan poco confiable solo intente una dirección y un género?
Y, para colmo, los investigadores en este ámbito suelen estar llenos de utopías tecnológicas, y resulta absurdo pensar en términos de experiencia de vida. Por ejemplo, la "singularidad" que se está promocionando en este momento significa que una vez que llegue la revolución de la singularidad, la sociedad humana será trastornada.
¿En realidad? Mi generación experimentó pobreza material en los primeros días de la reforma y la apertura, y hoy es extremadamente rica materialmente. Cuando teníamos siete u ocho años, ¿cuántas imaginaciones utópicas sobre el siglo XXI se han hecho realidad hoy? Las estructuras sociales profundamente arraigadas no han cambiado mucho. Por ejemplo, en el campo médico, la aparición de diversas tecnologías nuevas en realidad ha fortalecido la estructura social existente y ha exacerbado la brecha entre ricos y pobres.
¿Qué pasa con la disrupción? La gente se jacta de lo poderosa que es la inteligencia artificial. De hecho, no es nada poderoso y todavía hay muchos problemas que no se han resuelto. ¿Por qué preocuparse por destruir a la humanidad? Es como Don Quijote, que considera el molino de viento como un monstruo y se asusta.
En su opinión, ¿qué resultados se podrían conseguir si se sigue desarrollando este tipo de inteligencia artificial basada en big data?
Xu: Creo que si seguimos especulando así, será una burbuja tecnológica y al final no se conseguirá nada. Con respecto al desarrollo de la inteligencia artificial, las personas con un ligero conocimiento de la historia de la industria a menudo tienen un gráfico en su mente, con el tiempo en la parte inferior y el nivel de desarrollo en la parte superior. De hecho, la inteligencia artificial está aumentando en esta mesa, pero pronto encontrará un cuello de botella. Como se mencionó anteriormente, no es filosóficamente factible y muchos problemas teóricos no se han resuelto. Personalmente prefiero los datos pequeños.
¿Sus opiniones sobre los datos pequeños son representativas en el mundo académico? ¿Puede contarnos en detalle un ejemplo de un aspecto determinado y qué cuestiones teóricas en inteligencia artificial quedan sin resolver?
Xu: En el campo de la inteligencia artificial, los datos pequeños no son comunes, pero son diferentes en otros campos. Los psicólogos piensan profundamente en los datos pequeños. El alemán Gerd Gigerenzer ha trabajado mucho, pero la comunidad de inteligencia artificial no le ha prestado atención. Es una pena.
Hablando de problemas teóricos a resolver, puedo tomar como ejemplo la investigación del cerebro. Actualmente existe una tendencia a intentar crear inteligencia artificial a partir del cerebro. Hay mucho en juego y muchas personas no comprenden lo complejo que es el cerebro.
Hay 10 11 neuronas en el cerebro. Hay conexiones extremadamente complejas entre ellas y las posibilidades son astronómicas. En gran medida, todavía no está claro académicamente que las regiones del cerebro donde emitimos juicios emocionales y razonamientos complejos puedan ser diferentes. Hay muchos artículos en esta área, pero no hay una opinión unificada. Esto se debe a que todavía existen diferencias individuales y diferencias culturales nacionales entre los cerebros, y los sujetos sólo pueden deshacerse de estas diferencias después de cierto procesamiento estadístico.
Esta operación es muy complicada y costosa. La investigación actual sobre el cerebro se basa principalmente en imágenes por resonancia magnética, que es un método costoso e insuficiente para respaldar estudios de muestras grandes. Por lo tanto, los resultados de la investigación actual no lo exigen en el ámbito científico, sino que sólo lo permiten en términos de financiación. Pero la conclusión final excedió seriamente la posición y exageró la representatividad.
La neurobiología nos dice que las neuronas humanas tienen plasticidad cultural, y la influencia cultural de las capas superiores se reflejará en la distribución de los nervios inferiores. Por tanto, en la investigación científica no se puede descartar la influencia de factores culturales sobre los nervios cerebrales. Una vez que una persona está expuesta a una determinada cultura en sus primeros años, sus nervios se calman y resulta más difícil cambiar en el futuro. Esto es evidente en el aprendizaje de idiomas. Los japoneses hablan inglés más lentamente, porque el japonés tiene verbos posverbales, pero el inglés no, por lo que cuando se habla inglés, se debe cambiar el orden de las palabras, lo que resulta en una velocidad de habla más lenta. Esta es su forma única de codificar el lenguaje.
Entonces, si realmente queremos construir un cerebro ahora, no puede ser biológico, debe estar basado en silicio. Incluso si sus componentes son similares a las neuronas, sigue estando basado en silicio; de lo contrario, estaría clonando a un ser humano. Si quieres abstraer el cerebro, sólo puedes abstraer sus componentes matemáticos. He aquí el problema: las matemáticas puras no pueden constituir una descripción del mundo. Cada unidad de matemáticas puras necesita agregar dimensiones. El programa de estudios cuantitativo que elijas depende de tu perspectiva y dirección de mirar el mundo. Ésta es una cuestión filosófica y teórica. En realidad, el cerebro está formado por capas, con la biología y la química en la parte inferior, y la conciencia y las sensaciones en la superior.
Entonces, ¿la simulación matemática de cualquier organización biológica es una ocurrencia tardía y similar a un cuestionamiento, o puede captar su esencia? Este es un terrible agujero negro teórico, no sólo un agujero negro de ingeniería, sino también un agujero negro filosófico. ¿Crees que un agujero negro tan grande se podrá descubrir en diez o veinte años? ¿Crees que el riesgo es alto? Es más seguro encontrar un camino confiable.
¿Cuál crees que es el camino confiable para la inteligencia artificial?
Xu: En primer lugar, deberíamos centrarnos en el procesamiento del lenguaje natural. Sin embargo, incluso la investigación en esta área todavía se centra en big data, como el software de traducción. Su método de procesamiento es ver cómo se traducen las traducciones existentes y luego ver cómo se traducen. Esto está completamente mal.
La forma correcta de hacerlo es fijarse un objetivo muy alto: traducir un haiku escrito en japonés al chino o al inglés, y debe ser un haiku improvisado escrito por un escritor contemporáneo, no un haiku con capacidad de búsqueda escrito por un poeta famoso como Matsuo. Basho. Después de la traducción, realiza el test de Turing con el mejor experto en haiku de Estados Unidos.
Aunque este estándar es alto, no es inalcanzable y es la dirección correcta. Sin embargo, si ponemos toda nuestra energía y recursos en big data, nunca lograremos este objetivo. Porque el big data se basa en la experiencia existente y no puede hacer frente a nuevos campos. ¿Cómo traducen los haiku los expertos en literatura japonesa estadounidense? Por supuesto, primero hay que entender el texto, entrar en el contexto y dejarse conmover por la estética japonesa, para luego pensar en cuál es el contexto similar en la cultura americana. Se trata de una comprensión global del gusto estético. ¿Qué es el gusto estético? ¿Está separado del mundo material o apegado al mundo material? Aquí hay un montón de preguntas. Sin comprender estas cuestiones, es poco probable que tenga éxito confiar únicamente en big data.
Has dicho muchas cosas antes. Creo que se pueden resumir en una frase: el desarrollo actual de la inteligencia artificial tiene muchos más problemas que métodos.
Xu: No hay manera. Por ejemplo, el objetivo actual de la inteligencia artificial es construir un robot como "Baymax" en "Big Hero 6". Dado que el desarrollo de la inteligencia artificial se ha fijado un objetivo de ciencia ficción, se deben considerar estas cuestiones que mencioné antes. De hecho, creo que el desempeño de la inteligencia artificial en películas como "Chappy" es razonable y estoy de acuerdo con ello.
Te dice claramente que los robots también tienen un proceso de aprendizaje, que es en gran medida el mismo que entrenar a los niños. La futura inteligencia artificial que imagino deberías enseñarla cuando la compres y la tengas en casa, en lugar de saberlo todo desde cero. Como se mencionó anteriormente en la película OMG, el modo de pensar de los extraterrestres es como la inteligencia artificial, y su razonamiento es riguroso y científico. Pero debido a que el sistema politeísta en la Tierra es muy confuso, a menudo lo golpean por cometer errores de razonamiento y violar ciertos tabúes religiosos. Después de la paliza, rápidamente llegó a una conclusión más cercana a la verdad.
Este proceso de establecer hipótesis, probarlas, ser derrotado y luego establecer nuevas hipótesis es en realidad una forma para que los científicos mejoren su comprensión de la Tierra a expensas de ser derrotados. Sin embargo, lo importante es que su forma de pensar se basa únicamente en pequeños datos: si lo derrotan una vez, inmediatamente revisará su explicación, si es big data, pensará que ser derrotado una vez no es suficiente, y eso es todo. Tomará varias veces llegar a la conclusión correcta. Si los seres vivos siguieran la forma de pensar del big data, se habrían extinguido de la Tierra hace mucho tiempo.
En su opinión, ¿cómo debería ser la inteligencia artificial del futuro, o la inteligencia artificial real?
Xu: El mayor problema en muchas investigaciones actuales sobre inteligencia artificial es que no está limitada por la perspectiva. Sin embargo, la verdadera inteligencia artificial está limitada por la perspectiva y la ubicación. Para las máquinas, sujeto al sistema preinstalado y su experiencia de aprendizaje continuo, el sistema preinstalado equivale al trasfondo cultural humano. La inteligencia artificial que imagino requiere investigación y cultivo. Por supuesto, AlphaGo tiene que aprender y puede jugar 1 millón de juegos en una noche, pero aprender consume mucha energía. La inteligencia artificial debería basarse en el aprendizaje por analogía. Aunque AlphaGo es poderoso, sólo puede hacer una cosa, como jugar al ajedrez, y nada más.
Por supuesto, no estoy diciendo que la tecnología de aprendizaje profundo de AlphaGo no pueda usarse para otras cosas además de jugar al ajedrez. La tecnología en sí se puede utilizar para hacer muchas cosas. Lo que quiero decir es que una vez que esta tecnología se convierte en un producto específico, la función de este producto queda fija. Por ejemplo, si eres un experto en este campo, puedes construir un portaaviones o un edificio de gran altura, pero una vez que construyes un portaaviones, siempre será un portaaviones a menos que lo desmanteles, y ya no Ser un edificio de gran altura.
Del mismo modo, una vez que se utiliza la tecnología de aprendizaje profundo para crear un robot que juega al ajedrez como AlphaGo, si se quiere que haga otras cosas, se debe comenzar desde cero con una gran cantidad de capacitación e infraestructura básica, lo que equivale Los ladrillos Lego ensamblados en el portaaviones se desmontan pieza por pieza y luego se ensamblan en el portaaviones. Puedes imaginar cuánto trabajo se requiere.
Entonces, aquí surge la pregunta: ¿Necesita un robot que pueda hacer todo, aunque no sea el mejor, o necesita un robot que sólo pueda hacer mejor una cosa y no entienda nada más? ¿Cuál de estos dos robots tiene un mayor impacto en la sociedad humana?
Tomemos la guerra como ejemplo. El campo de batalla del futuro requerirá una gran cantidad de robots de combate. Los encuentros de un soldado en el campo de batalla cambian constantemente. ¿Solo el personal médico sabe rescatar? Otros soldados lo saben, pero es posible que no lo hagan tan bien. Asimismo, el personal médico podrá utilizar armas de fuego.
Tomemos como ejemplo los servicios de limpieza del hogar. Los robots utilizados por las familias de clase media definitivamente serán diferentes de los utilizados por las familias ricas. ¿Cómo se adaptan rápidamente robots como AlphaGo? Existen reglas claras para ganar y perder en Go, pero ¿existen reglas para la limpieza? Si un robot limpia el estudio de un gran intelectual y está demasiado limpio, éste se sentirá insatisfecho y puede dar una palmada en la mesa: "¡Huele sucio! ¿Cómo puede estar tan limpio el estudio si no lo limpias tú?" , no lo hará. Feliz. "Los libros siempre deben estar ordenados y las telarañas deben ser barridas".
Por lo tanto, cómo comprender la idoneidad del comportamiento requiere inteligencia artificial para aprender y juzgar. ¿Cómo aprende y juzga la inteligencia artificial? Esto requiere que los humanos lo configuren.