La Red de Conocimientos Pedagógicos - Conocimientos históricos - ¿Cuáles son las principales etapas del desarrollo de la inteligencia artificial?

¿Cuáles son las principales etapas del desarrollo de la inteligencia artificial?

1Etapa de incubación

Esta etapa se refiere principalmente a antes de 1956. Desde la antigüedad, la gente ha intentado utilizar diversas máquinas para reemplazar parte del trabajo mental de las personas con el fin de mejorar su capacidad de conquistar la naturaleza. Entre ellos, los principales resultados de investigación que han tenido un impacto significativo en el surgimiento y desarrollo de la inteligencia artificial incluyen:

Ya en 384-322 a.C., el gran filósofo Aristóteles escribió en su obra representativa "Instrumentalismo". "" propuso algunas leyes básicas de la lógica formal, y su silogismo sigue siendo la base básica del razonamiento deductivo.

F. El filósofo británico Bacon propuso sistemáticamente la inducción y el aforismo "el conocimiento es poder". Esto ha tenido un impacto importante en el estudio de los procesos de pensamiento humano desde la década de 1970 y el paso de la inteligencia artificial a la investigación centrada en el conocimiento.

El matemático y filósofo alemán G. W. Leibniz propuso la idea de los símbolos universales y los cálculos inferenciales. Creía que se podría establecer un lenguaje simbólico universal y se podrían realizar cálculos de razonamiento sobre este lenguaje simbólico. Esta idea no solo sentó las bases para el surgimiento y desarrollo de la lógica matemática, sino también la germinación de las ideas modernas de diseño del pensamiento automático.

El lógico británico C. Boole apostó por la formalización y mecanización de las leyes del pensamiento y creó el álgebra de Boole. En su libro "Las leyes del pensamiento", utilizó por primera vez el lenguaje simbólico para describir las reglas básicas de razonamiento de las actividades de pensamiento.

A. El matemático británico M. Turing propuso un modelo matemático de una computadora ideal en 1936, sentando las bases teóricas para la aparición de las computadoras digitales electrónicas.

Los neurofisiólogos estadounidenses W. McCulloch y W. Pitts establecieron el primer modelo de red neuronal (modelo M-P) en 1943, creando el campo de investigación de la inteligencia artificial microscópica y sentando las bases para la investigación posterior de la inteligencia artificial. la fundación.

El profesor Atanasov de la Universidad Estatal de Iowa en Estados Unidos y su estudiante de posgrado Berry desarrollaron la primera computadora electrónica del mundo, "Atanasoff-Berry Computer", entre 1937 y 1941. (ABC)" sentó las bases materiales para la investigación de inteligencia artificial. Cabe señalar que la primera computadora del mundo no fue inventada por Mowgli y Eckert en los Estados Unidos en 1946, como dicen muchos libros. Este es un caso famoso en la historia de Estados Unidos.

Se puede ver en el proceso de desarrollo anterior que el surgimiento y desarrollo de la inteligencia artificial no es de ninguna manera accidental, es un producto inevitable del desarrollo de la ciencia y la tecnología.

2 Etapa Formativa

Esta etapa se refiere principalmente al período 1956-1969. En el verano de 1956, J. Mercy, entonces un joven asistente de matemáticas en la Universidad de Dartmouth y ahora profesor en Stanford. University, (J. MeCarthy) se unió al joven matemático, neurocientífico, profesor del MIT de la Universidad de Harvard, M. L. Minsky (M. L. Minsky) y al director del Centro de Investigación de Información de IBM, N. Rochester (N. Rochester). Copatrocinado por C.E. Shannon, investigador de matemáticas en la División de Información de Bell Labs. Invita a T. Moore de la Universidad de Princeton y A. L. Samuel de IBM, O. Selfridge y R. Romof del MIT, Newell (A. Newell) y Simon (H. A. Simon) de RAND Corporation y la Universidad Carnegie Mellon de Estados Unidos. En la reunión, McCarthy propuso adoptar formalmente el término "inteligencia artificial". Por tanto, McCarthy es conocido como el padre de la inteligencia artificial. Esta es una conferencia importante con significado histórico, que marca el nacimiento oficial de la inteligencia artificial como una nueva disciplina. Desde entonces, se han formado varias organizaciones de investigación de inteligencia artificial en los Estados Unidos, como el Grupo de Colaboración Carnegie-Rand de Newell y Simon, el Grupo de Investigación MIT de Minsky y McCarthy, el Grupo de Investigación de Ingeniería IBM de Samuel, etc.

En los 10 años transcurridos desde esta conferencia, la investigación en inteligencia artificial ha logrado muchos logros notables en el aprendizaje automático, la demostración de teoremas, el reconocimiento de patrones, la resolución de problemas, los sistemas expertos y los lenguajes de inteligencia artificial, por ejemplo:

En aprendizaje automático, Rosenblatt desarrolló con éxito el perceptrón en 1957. Este es un sistema que utiliza neuronas para el reconocimiento. Sus capacidades de aprendizaje despertaron un gran interés y promovieron la investigación sobre los mecanismos de conexión, pero rápidamente se descubrieron las limitaciones del perceptrón.

En términos de prueba de teoremas, el lógico matemático chino-estadounidense Wang Hao demostró todos los teoremas (220) sobre el cálculo proposicional en "Principios de Matemáticas" en la máquina IBM-704 en 1958, y también demostró Obtenido 85% de los 150 teoremas en cálculo de predicados, 1965 Robinson (J.A

En términos de reconocimiento de patrones, Ritchie, Cerf introdujeron el programa de reconocimiento de patrones en 1959 y Roberts escribió un programa para distinguir bloques de construcción en 1965.

En términos de resolución de problemas, en la década de 1960, Newell y otros resumieron las reglas de pensamiento de las personas para resolver problemas a través de experimentos psicológicos y compilaron un solucionador de problemas general (GPS) que se puede utilizar para resolver 11 tipos diferentes de problemas.

En términos de sistemas expertos, el equipo de investigación dirigido por Feigenbaum de la Universidad de Stanford en los Estados Unidos comenzó a estudiar el sistema experto DENDRAL en 1965, y se completó y puso en uso en 1968. El sistema experto puede analizar y razonar basándose en experimentos con espectrómetros de masas. Su capacidad analítica para determinar la estructura molecular de compuestos se ha acercado o incluso superado el nivel de los expertos químicos relevantes y se ha aplicado en los Estados Unidos, el Reino Unido y otros países. El desarrollo exitoso de este sistema experto no solo proporciona a las personas un sistema experto práctico, sino que también proporciona un La representación, almacenamiento, adquisición, razonamiento y utilización del conocimiento también es una exploración muy útil. Es un ejemplo para la construcción de futuros expertos.

En términos de lenguaje de inteligencia artificial, McCarthy desarrolló el lenguaje de inteligencia artificial (LISP). 1960 y se convirtió en una herramienta importante para la construcción de sistemas expertos.

La Conferencia Conjunta Internacional sobre Inteligencia Artificial (IJCAI (Inteligencia Artificial) fue fundada en 1969, lo que es un hito importante en la historia del desarrollo de la inteligencia artificial. Marcando que la disciplina emergente de la inteligencia artificial ha sido reconocida y reconocida por el mundo. "Artificial Intelligence" es una revista internacional de inteligencia artificial fundada en 1970, que jugó un papel importante en la promoción del desarrollo de la inteligencia artificial y la comunicación entre los investigadores. p>

3 Etapa de desarrollo

Esta etapa se refiere principalmente al período posterior a la década de 1970. Desde entonces, muchos países han llevado a cabo investigaciones sobre inteligencia artificial y han surgido una gran cantidad de resultados de investigación. Por ejemplo, en 1972, A. Comerauer de la Universidad de Marsella en Francia propuso e implementó el lenguaje de programación lógica PROLOG; a partir de 1972, E. H. Shorliffe y otros de la Universidad de Stanford comenzaron a desarrollar MYCIN, un sistema experto para el diagnóstico y tratamiento de enfermedades infecciosas.

Sin embargo, al igual que el desarrollo de otras disciplinas emergentes, el camino de desarrollo de la inteligencia artificial, como el aprendizaje de la traducción automática, no fue tan fácil como la gente pensaba inicialmente. En ese momento, siempre se creyó que sólo un diccionario bidireccional y algo de conocimiento de vocabulario podían lograr la traducción entre dos idiomas. Más tarde descubrí que la traducción automática no es tan sencilla. De hecho, a veces las palabras traducidas automáticamente son ridículamente incorrectas. Por ejemplo, cuando se dice la frase en inglés "fuera de la vista, fuera de la mente". Traducido al ruso, se vuelve "ciego, loco" cuando la frase en inglés "hay corazón más que suficiente pero fuerza insuficiente" se traduce al ruso, luego se convierte en "el vino es bueno pero la carne es mala", es decir, "vino"; es bueno pero la carne es mala"; cuando la frase en inglés "el tiempo vuela como una flecha" se traduce al japonés y luego regresa, resulta ser "el tiempo vuela como una flecha". Debido a estos problemas en la traducción automática, un comité asesor del gobierno de Estados Unidos dictaminó en un informe de 1960 que "no existe una traducción automática universal de textos científicos y no hay perspectivas a corto plazo, por lo que Gran Bretaña y Estados Unidos dejaron de financiar la mayoría de los proyectos de traducción automática". esa vez. En otros aspectos, como resolución de problemas, redes neuronales, aprendizaje automático, etc. , también encontraron dificultades que pusieron temporalmente en un dilema la investigación sobre la inteligencia artificial.

Los pioneros de la investigación en inteligencia artificial han reflexionado y resumido cuidadosamente las experiencias y lecciones de investigaciones anteriores. En 1977, Feigenbaum propuso el concepto de "ingeniería del conocimiento" en la Quinta Conferencia Conjunta Internacional sobre Inteligencia Artificial, que jugó un papel importante en la investigación y construcción de sistemas inteligentes basados ​​en el conocimiento. La mayoría de la gente ha aceptado la visión de Feigenbaum de la investigación en IA centrada en el conocimiento. Desde entonces, la investigación en inteligencia artificial ha marcado el comienzo de una nueva era de vigoroso desarrollo centrado en el conocimiento.

Durante este período, la investigación sobre sistemas expertos ha logrado importantes avances en muchos campos. Los sistemas expertos con diferentes funciones y tipos han surgido como hongos después de la lluvia, produciendo enormes beneficios económicos y sociales. Por ejemplo, el sistema experto en exploración geológica y mineral PROSPECTOR tiene 15 tipos de conocimiento de recursos minerales. Puede estimar y predecir recursos minerales basándose en muestras de rocas y datos de exploración geológica, inferir la distribución, las reservas, la ley y el valor minero de los depósitos minerales, y. formular planes mineros razonables. Utilizando este sistema, descubrimos con éxito una mina de molibdeno valorada en más de 100 millones de dólares. El sistema experto MYCIN puede identificar 51 tipos de bacterias y tratar correctamente 23 tipos de antibióticos. Puede ayudar a los médicos a diagnosticar y tratar enfermedades sanguíneas infecciosas bacterianas y proporcionar a los pacientes las mejores recetas. El sistema ha manejado con éxito cientos de casos y ha pasado pruebas rigurosas, lo que demuestra un alto nivel de atención médica. El sistema experto XCON de la empresa estadounidense DEC puede determinar la configuración del ordenador según los requisitos del usuario. Los expertos suelen tardar 3 horas en realizar este trabajo, pero el sistema sólo tarda 0,5 minutos, lo que es 360 veces más rápido. DEC también construye otros sistemas expertos, generando ingresos netos superiores a 40 millones de dólares al año. El sistema experto en autenticación y toma de decisiones de tarjetas de crédito American Express puede evitar pérdidas indebidas y se dice que ahorra aproximadamente 27 millones de dólares al año.

El éxito de los sistemas expertos ha hecho que la gente se dé cuenta cada vez más claramente de que el conocimiento es la base de la inteligencia y que la investigación sobre inteligencia artificial debe centrarse en el conocimiento. La investigación sobre la representación, utilización y adquisición del conocimiento ha logrado grandes avances, especialmente se han establecido la representación y el razonamiento del conocimiento incierto, la teoría bayesiana subjetiva, la teoría determinista y la teoría de la evidencia, que proporcionan la base para el reconocimiento de patrones y la comprensión del lenguaje natural en la inteligencia artificial. Se apoyó el desarrollo y se resolvieron muchos problemas teóricos y técnicos.

La exitosa aplicación de la inteligencia artificial en los juegos también ha atraído la atención mundial. La gente siempre ha estado interesada en el estudio de los juegos. En 1956, cuando la inteligencia artificial como disciplina recién estaba surgiendo, Samuel desarrolló un programa de damas. Este programa puede aprender de los registros de ajedrez y mejorar sus habilidades de ajedrez mediante la práctica del ajedrez. Una victoria sobre el propio Samuel en 1959 y otro campeonato estatal en 1962. En la XII Conferencia Internacional Conjunta sobre Inteligencia Artificial celebrada en Sydney en agosto de 1991, el sistema informático "Deep Thinking" desarrollado por IBM tuvo una partida entre humanos y computadoras con el campeón australiano de ajedrez D. Johansen, que terminó en un empate 1:1. En 1957, Simon predijo que una computadora podría derrotar al campeón mundial humano en 10 años. Aunque no se hizo realidad en 10 años, 40 años después, la computadora Deep Blue derrotó al campeón de ajedrez Kasparov, sólo 30 años más tarde de lo previsto.

Desde febrero de 2010 hasta febrero de 2017, para conmemorar el 50 aniversario del nacimiento de la primera computadora electrónica del mundo, la empresa estadounidense IBM gastó mucho para invitar al campeón de ajedrez Kasparov y a la computadora Deep Blue de IBM. una "guerra hombre-máquina" de 6 juegos. El juego se llama "La batalla mundial entre el cerebro humano y las computadoras". Ambos partidos representan el nivel más alto de cerebros humanos y computadoras del mundo. En ese momento, Deep Blue era una supercomputadora capaz de realizar 100 millones de operaciones por segundo. En el primer set, Deep Blue desafió a Kasparov a duelo y ganó el campeonato mundial, lo que conmocionó al mundo del ajedrez. Pero Kasparov resumió su experiencia, jugó de manera constante, ganó tres de las cinco partidas restantes, empató dos sets y finalmente ganó con un marcador total de 4:2. Un año después, del 3 de mayo de 1997 al 3 de mayo de 2011, Deep Blue volvió a desafiar a Kasparov. En ese momento, Deep Blue era una supercomputadora RS/6000SP/2 con 32 procesadores y potentes capacidades de computación paralela, con una velocidad de computación de 200 millones de operaciones por segundo. Las computadoras han almacenado los registros de los mejores ajedrecistas del mundo durante más de cien años. El 3 de mayo, el campeón de ajedrez Garry Kasparov derrotó a Deep Blue en el primer set, y el 4 de mayo, Deep Blue recuperó un set. Después de eso, los dos equipos empataron tres juegos. El partido decisivo entre ambas partes comenzó el 11 de mayo. Kasparov sólo realizó 19 movimientos en esta partida antes de ceder la resistencia, y la partida duró poco más de una hora. De esta manera, Deep Blue finalmente ganó la mundialmente famosa "Guerra Hombre-Máquina" con una puntuación total de 3,5: 2,5. La victoria de Deep Blue muestra lo que puede lograr la inteligencia artificial. Aunque su juego de ajedrez está lejos de simular verdaderamente los patrones de pensamiento humano, ha demostrado al mundo que las computadoras pueden completar una gran cantidad de tareas pertenecientes al pensamiento humano a una velocidad y precisión que supera con creces la de los humanos. La exquisita estrategia final de Deep Blue sorprendió a los jugadores que presenciaron el juego. Kasparov también dijo: "Hay muchos descubrimientos nuevos sobre este juego, uno de los cuales es que las computadoras a veces pueden realizar movimientos similares a los humanos.

En parte, no puedo evitar elogiar esta máquina por su profundo conocimiento de los factores subyacentes, lo que creo que es un logro científico excepcional. "Gracias a esta victoria, las acciones de IBM se apreciaron a 654,38+0,8 mil millones de dólares.

4 Academia de Inteligencia Artificial

Según la discusión anterior, sabemos que para entender la inteligencia artificial, debemos estudiar Cómo definir el conocimiento en un sentido general Desafortunadamente, definir el conocimiento con precisión también es una cuestión muy complicada. Estrictamente hablando, la primera definición de conocimiento que la gente usa es la dada por Platón en Theaades (conocida como. Condición JTB)

Sin embargo, esta definición, que duró más de dos mil años, fue rechazada por el filósofo Gettier en 1963. Paradoja (conocida como "Paradoja de Gettier"). Hay graves defectos en el conocimiento escrito de Platón. Aunque posteriormente se dieron muchas definiciones alternativas de conocimiento, todavía no hay ninguna conclusión.

Pero al menos una cosa está clara sobre el conocimiento: la unidad básica del conocimiento es. un concepto. Para dominar cualquier conocimiento, se debe partir del concepto básico de este conocimiento. Entonces, definir un concepto es de gran importancia para la inteligencia artificial. Dar una definición parece simple, pero en realidad es difícil porque a menudo implica. naturaleza de la autorreferencia (autorreferencia: la conversión de una parte del discurso, de predicado a aspecto, y semántica (sin cambios) Una vez involucrada la autorreferencia, surgirán muchos problemas semánticos debido al yo conceptual. -referencia

Los conceptos de autorreferencia y empatía se originaron por primera vez en "Autorreferencia" "Referencia y empatía" de Zhu (Dialect 1983, Número 1, "Zhu Wenji" Volumen 3), dijo el Sr. Lu Jianming. en "Investigación sobre la gramática china en la década de 1980" (página 98): "Autorreferencia y desreferencia. La diferencia es que la autorreferencia no es más que un cambio en una parte del discurso, de predicado a aspecto, mientras que la semántica permanece sin cambios; la empatía no es sólo un cambio en una parte del discurso, sino también un cambio en la semántica, especialmente la transformación del comportamiento o de la esencia misma en comportamiento o algo intrínsecamente relacionado. ”

Por ejemplo:

(1) El maestro está aquí (“maestro” se refiere a la persona que enseña, tenga cuidado al enseñar (el significado de “enseñar” no ha cambiado); , se refiere a uno mismo) ).

②El significado original de la palabra "desenchufado" es "no usar la toma (de corriente)", que se refiere a sí mismo y se usa a menudo para referirse a cantar sin él; el uso de instrumentos electrónicos.

( 3)③Cuando significa color, color se refiere a sí mismo. Cuando color se refiere a personas de color, significa darse la vuelta. Se refiere a uno mismo. Todas las personas hacen afirmaciones falsas.

El conocimiento en sí es un concepto. En consecuencia, el problema de la inteligencia artificial se convierte en las siguientes tres preguntas: primero, cómo definir (o expresar) un concepto. para aprender un concepto, cómo aplicar un concepto, por lo tanto, es muy necesario estudiar este concepto en profundidad.

Entonces, ¿cómo definir un concepto en aras de la simplicidad? Aquí se analiza el concepto clásico que consta de tres partes: la primera parte es la representación simbólica del concepto, es decir, el nombre del concepto, que explica cómo se llama el concepto, o simplemente el nombre del concepto; la connotación expresión del concepto, expresada por una proposición, que es una proposición que puede determinar la verdad de las oraciones declarativas falsas. La tercera parte es la extensión del concepto, representada por el conjunto clásico, que explica cuál es el objeto real. concepto es.

Tome un concepto clásico común como ejemplo: número primo, cuya connotación es una proposición, es decir, un número natural que solo es divisible por 1 y por sí mismo. >¿Qué hace este concepto? ¿O cuáles son las funciones de cada componente de la definición del concepto clásico? Las funciones no se pueden sustituir entre sí. Específicamente, un concepto tiene tres funciones. /p>

La primera función es la función de referencia del concepto, que es señalar el mundo objetivo. El objeto representa la observabilidad del objeto en el mundo objetivo. La observabilidad del objeto se refiere a las características perceptivas de. el objeto a personas o instrumentos, y no depende de los sentimientos subjetivos de las personas. Tome un ejemplo de "La verdadera historia de Ah Q": ¿Por qué el perro de Zhao me mira? El "perro de Zhao" en la oración debería referirse a una persona real. perro en el mundo real Sin embargo, la función referente del concepto puede no realizarse a veces, y algunos conceptos suponen que el objeto no existe en el mundo real, como "fantasma".

La segunda función se refiere a la función del corazón, es decir, señalar objetos en el mundo psicológico humano y representar la representación de objetos en el mundo psicológico. Lu Xun tiene un artículo famoso "Sobre el lacayo perdido de los capitalistas". Obviamente, este "perro" no es un perro en el mundo real, sino un perro en su mundo espiritual, es decir, el perro en su corazón (en el mundo objetivo, el Sr. Liang Shiqiu obviamente no es un perro de todos modos). Debe existir una funcionalidad que apunte al núcleo del concepto. Si la función de referencia mental de un concepto no se realiza para alguien, la palabra es invisible para esa persona. En definitiva, esa persona no entiende el concepto.

La última función es la función de denominación, que se refiere a los nombres simbólicos que apuntan al mundo cognitivo o al mundo simbólico para representar objetos. Estos nombres simbólicos forman varios lenguajes. El ejemplo más famoso es "Los pensamientos verdes incoloros descansan furiosamente" de Chomsky, que se traduce como "Los pensamientos verdes incoloros descansan furiosamente". Esta oración no tiene significado, pero es completamente gramatical y puramente en el mundo de los símbolos semánticos, es decir, solo apunta al mundo de los símbolos. Por supuesto, hay otras cosas. "Cómo escribir un libro usando los dos caracteres Yuanyang" se refiere a un nombre compuesto por los dos caracteres Yuanyang. En general, la función de denominación de los conceptos se basa en diferentes sistemas lingüísticos o sistemas de símbolos, que son creados por el hombre y pertenecen al mundo cognitivo. Es posible que el mismo concepto no tenga el mismo nombre en diferentes sistemas de símbolos, como "lluvia" en chino y "lluvia" en inglés.

Según la teoría de los tres mundos de Popper, el mundo cognitivo, el mundo físico y el mundo psicológico están relacionados pero son diferentes. Así, si bien las tres funciones de un concepto están relacionadas, también son distintas. Más importante aún, desde el desarrollo de la civilización humana, estas tres funciones se han ido desarrollando y volviéndose cada vez más complejas, pero los conceptos de las tres funciones no han cambiado.

En la vida real, si quieres entender un concepto, necesitas conocer las tres funciones del concepto: saber el nombre del concepto y saber el objeto al que se refiere el concepto (que puede ser el mundo físico). Debes tener la imagen (o imagen) del concepto en tu propio mundo mental. Si solo hay uno, eso no funcionará.

Después de comprender las tres funciones principales del concepto, podemos comprender las tres escuelas principales de inteligencia artificial y la relación entre ellas.

La inteligencia artificial también es un concepto, y para que un concepto se convierta en realidad, es natural realizar las tres funciones principales del concepto. Las tres principales escuelas de inteligencia artificial se centran en cómo equipar las máquinas con inteligencia artificial y ofrecen diferentes rutas de investigación basadas en las diferentes funciones de los conceptos. La escuela de inteligencia artificial que se centra en la función de denominación de la IA se ha convertido en simbolismo, la escuela de inteligencia artificial que se centra en la función de referencia de la mente de la IA es conexionismo, y la escuela de inteligencia artificial que se centra en la función de referencia de objetos de la IA se ha convertido en behaviorismo.

1. Simbolismo

Los representantes del simbolismo son Simon y Newell. Propusieron la hipótesis del sistema de símbolos físicos, es decir, siempre que la función correspondiente se realice en el cálculo simbólico. Las funciones correspondientes también se implementan en el mundo real, lo cual es una condición necesaria y suficiente para la inteligencia. Por lo tanto, el simbolismo cree que mientras sea correcto en la máquina, será correcto en el mundo real. Para decirlo de manera más simple, si el nombre es correcto, entonces la referencia será correcta.

En filosofía, también existe un famoso experimento mental sobre la hipótesis de los sistemas de símbolos físicos: la prueba de Turing mencionada en la Sección 1.1.3 de este capítulo. El problema que debe resolver el test de Turing es cómo determinar si una máquina es inteligente.

El test de Turing limita por completo el desempeño de la inteligencia a nombrar funciones. Sin embargo, la historia del profesor Ma ha demostrado que sólo realizar la función del concepto en la función de denominación no significa que deba realizarse la función de referencia del concepto. De hecho, el filósofo John Thaler diseñó un experimento mental para criticar el Test de Turing basándose en la diferencia entre denominación y referencia, que es también el famoso Experimento de la Habitación China.

Los experimentos en "China House" muestran claramente que incluso si la simbolización tiene éxito, los cálculos son todos simbólicos y no están necesariamente conectados con el mundo real, incluso si la función de denominación se realiza plenamente. Esta es una crítica formal al simbolismo en filosofía, afirmando claramente que la inteligencia artificial implementada según el simbolismo no es equivalente a la inteligencia humana.

A pesar de esto, el simbolismo todavía juega un papel importante en la investigación de la inteligencia artificial, y los principales resultados de sus primeros trabajos se reflejan en la prueba de las máquinas y la representación del conocimiento. En términos de prueba de máquinas, Simon y Newell hicieron importantes contribuciones tempranas, y chinos como Wang Hao y Wu Wenjun también obtuvieron resultados muy importantes.

Probados por máquinas, los logros más importantes del simbolismo son los sistemas expertos y la ingeniería del conocimiento, y el estudioso más famoso es Feigenbaum. Si crees que toda la inteligencia se puede lograr siguiendo este camino, es evidente que algo anda mal. Los teléfonos inteligentes japoneses de quinta generación siguieron el camino de la ingeniería del conocimiento y sus fracasos posteriores son completamente lógicos a partir de ahora.

Hay tres ideas principales para realizar el simbolismo. El primero es el problema de la explosión de combinaciones de conceptos. Todo el mundo tiene alrededor de 50.000 conceptos básicos, pero los conceptos combinados que forman son infinitos. Como el sentido común es infinito, los pasos del razonamiento también pueden serlo. La segunda es la paradoja de la combinación de proposiciones. Ambas son proposiciones razonables y, cuando se combinan, se convierten en oraciones que no pueden juzgarse como verdaderas o falsas, como la famosa Paradoja de Curry (1942+0942). El tercer problema, y ​​el más difícil, es que los conceptos clásicos son difíciles de obtener en la vida real y el conocimiento es difícil de extraer. Los tres problemas anteriores se han convertido en obstáculos en el desarrollo del simbolismo.

2. Conexionismo

El conexionismo cree que el cerebro es la base de toda inteligencia. Se centra principalmente en las neuronas del cerebro y sus mecanismos de conexión, intentando descubrir la estructura del cerebro y cómo. procesa información, revelando el mecanismo esencial de la inteligencia humana y luego realizando la simulación correspondiente en la máquina. Algunas personas señalan que el conocimiento es la base de la inteligencia y los conceptos son las unidades básicas del conocimiento, por lo que el conexionismo en realidad se centra en la representación mental de los conceptos y cómo implementarlos en las computadoras, lo que corresponde a las funciones psicológicas de los conceptos. Un artículo académico publicado en Nature en 2016 reveló la existencia de un mapa semántico del cerebro. El artículo señala que los conceptos pueden encontrar áreas de representación correspondientes en cada área del cerebro, y la representación mental de los conceptos sí existe. Por tanto, el conexionismo también tiene su sólida base física.

Los primeros representantes del conexionismo incluyen a McCulloch, Pitts, Hopfield, etc. Siguiendo este camino, el conexionismo cree que se puede lograr una inteligencia artificial completa. En este sentido, el filósofo Putnam diseñó el famoso "Experimento del cerebro en el tanque", que puede considerarse como una crítica filosófica al conexionismo.

El experimento del cerebro en un frasco se describe de la siguiente manera: una persona (puedes fingir que eres tú mismo) es operada por un científico malvado, y su cerebro es cortado y colocado en un tanque lleno de solución nutritiva en el frasco. Las terminaciones nerviosas del cerebro están conectadas a la computadora y la computadora transmite información al cerebro según el programa. Para esta persona, las personas, las cosas y el cielo existen y pueden contribuir a los sentimientos neuronales. Este cerebro también puede recibir e interceptar, como el recuerdo de una cirugía cerebral, y luego ingresar varios entornos y la vida diaria que pueda experimentar, e incluso puede ingresar códigos para "sentir" que está leyendo este texto interesante y absurdo.

El experimento del cerebro en la tina muestra que incluso si se logra el conexionismo, no hay problemas con el centro de los dedos, pero sí problemas graves con los dedos. Por tanto, la inteligencia artificial realizada mediante el conexionismo no es igual a la inteligencia humana.

A pesar de esto, el conexionismo sigue siendo la ruta de implementación de la IA más conocida. En Go, AlphaGo, que utiliza tecnología de aprendizaje profundo, derrotó a Li Shishi y luego a Ke Jie. En la traducción automática, la tecnología de aprendizaje profundo ha superado el nivel de la traducción humana. En el reconocimiento de voz y de imágenes, el aprendizaje profundo también ha alcanzado un nivel práctico. Hablando objetivamente, los resultados de la investigación del aprendizaje profundo han hecho avances en la industrialización.

Sin embargo, esto no significa que el conexionismo pueda alcanzar la inteligencia humana. Es más, incluso si quisiéramos lograr un conexionismo completo, enfrentaríamos enormes desafíos. Hasta ahora, la gente no comprende el mecanismo por el cual el cerebro humano expresa conceptos, ni conoce la forma, expresión y combinación específicas de los conceptos en el cerebro humano. En realidad, las redes neuronales y el aprendizaje profundo actuales todavía están lejos del mecanismo real del cerebro humano.

3. El conductismo

El conductismo supone que la inteligencia se basa en la percepción y la acción y no requiere conocimiento, representación y razonamiento. Sólo necesita mostrar un comportamiento inteligente, es decir, siempre y cuando. puede lograr la función referida de las cosas, puede considerarse inteligente. Uno de los primeros trabajos representativos de esta escuela fue el robot rastrero de seis patas de Brooks.

En este sentido, el filósofo Putnam también diseñó un experimento mental, que puede considerarse como una crítica filosófica al conductismo, es decir, al "perfecto pretendiente y espartano". Un pretendiente perfecto puede montar un espectáculo perfecto según las necesidades del mundo exterior. Cuando necesita llorar, puede hacer llorar a la gente, y cuando necesita reír, puede hacer feliz a la gente, pero es posible que su corazón siempre permanezca en calma.

Los espartanos, ya fueran extremadamente emocionados o despiadados, siempre parecían estar a punto de colapsar frente a ellos. La apariencia exterior de Perfect Pretenders y Spartans no tiene nada que ver con su yo interior. ¿Cómo se puede comprobar esa inteligencia a partir del comportamiento externo? Por tanto, la inteligencia artificial realizada a través del conductismo no es igual a la inteligencia humana.

Para la línea conductista, la mayor dificultad a la que se enfrenta puede explicarse por la paradoja de Moravec. La llamada paradoja de Moravec es que los problemas informáticos difíciles son muy simples y los problemas simples son difíciles. Las más difíciles de replicar son las habilidades inconscientes entre los seres humanos. Actualmente, los simuladores enfrentan enormes desafíos en sus habilidades de movimiento. Por ejemplo, vi en Internet que el robot humanoide de Boston Dynamics puede realizar volteretas hacia atrás difíciles, y el robot Big Dog puede transportar peso en cualquier terreno y parece tener capacidades de movimiento muy fuertes. Pero estos robots tienen un gran inconveniente: consumen demasiada energía y hacen demasiado ruido. El robot Big Dog fue ordenado originalmente por el ejército de los EE. UU., pero debido a que la voz del robot Big Dog se podía escuchar a diez millas de distancia, lo que aumentó en gran medida la posibilidad de convertirse en un objetivo vivo, haciéndolo casi inútil en el campo de batalla, el ejército de los EE. UU. finalmente entregó subir la compra.