Los orígenes de las fracciones y los decimales
La notación musical más antigua del mundo aparece en los rollos de papiro de Amers en Egipto. En 1858 d.C., un inglés llamado Henry Lint descubrió un papiro antiguo en las ruinas del Tíber, Egipto. Inmediatamente restauró este tesoro de valor incalculable y pasó 19 años traduciendo el texto antiguo en papiro. El libro de matemáticas más antiguo del mundo se encuentra ahora en el Museo Británico de Londres.
En los pergaminos de Amers, vemos la notación universal de fracciones hace cuatro mil años. En ese momento, los egipcios dominaban la notación universal de fracciones individuales: fracciones con un numerador de 1. Los egipcios consideraban que una fracción era el recíproco de un número entero. Esta comprensión y notación unificada de fracciones individuales es notable. Le dice a la gente que un número no sólo tiene números enteros, sino también su recíproco: una sola fracción.
Pero una fracción no es sólo una fracción después de todo. En el siglo V a.C., China comenzó a darse cuenta de que el cociente de dividir dos números enteros es una fracción, lo cual es la base del concepto actual de fracciones. En este sentido, divisor también significa fracción. En la antigua China, el divisor se colocaba encima del divisor y el cociente se dejaba encima. Por ejemplo, es una fracción errónea, diferente al símbolo actual. La parte entera de una fracción mixta se coloca encima de la fracción, no a la izquierda. En los escritos árabes de finales del siglo XII, el numerador y el denominador estaban separados por primera vez por una corta línea horizontal, que se puede decir que es la línea de fracción más antigua del mundo. A principios del siglo XIII, el matemático italiano Fibonacci introdujo en sus obras las matemáticas árabes e introdujo la notación de fracciones en Europa.
Decimal, es decir, un decimal sin denominador. Hay dos requisitos previos para la generación de decimales: uno es el uso de la notación decimal; el otro es la mejora del concepto de fracciones. La aparición de los decimales marca la expansión de la notación decimal de números enteros a fracciones, unificando las formas de fracciones y números enteros. Nuestra comprensión de los decimales es también la más antigua del mundo. En el siglo III d. C., el matemático chino Liu Hui propuso decimales al abordar el problema de la raíz cuadrada en "Nueve capítulos sobre notas aritméticas".
Aunque la comprensión de los decimales en China era mucho anterior a la de Europa, la representación decimal utilizada en las matemáticas modernas fue introducida en China desde Europa.
12
Compartir 1
No me gusta
¿Por qué los hijos de mis compañeros tienen buenas notas? Resulta que matricularon a sus hijos en matemáticas.
Te lo recomendamos en base a los decimales mencionados en el artículo.
Las notas de los hijos de mis compañeros han mejorado a pasos agigantados. Resultó que informaron que los niños de Wandou Siwei aprenden matemáticas, con enseñanza en clases pequeñas y orientación de tres maestros, mejorando integralmente el sentido numérico y la lógica espacial de los niños, haciendo que a los niños les guste aprender y pensar, ¡y los padres pueden estar tranquilos!
Qjo1.nbkdz.cn Publicidad
Los niños aprenden los números del 1 al 10: método simplificado_respuestas profesionales_orientación en línea del maestro
Según los decimales mencionados en el artículo, se recomienda tú.
La clase de capacitación especial Spring Language and Mathematics Space de la escuela en línea Xueersi, graduada de la Universidad de Harvard, adopta la enseñanza heurística, refina los métodos de resolución de problemas y cultiva el pensamiento de aprendizaje y el interés de los niños en aprender. de lengua y matemáticas ¡Los materiales didácticos de Space se entregan en tu domicilio por correo urgente!
Anuncio de Xueersi.com
El origen de las fracciones y decimales
El experto 1 responde preguntas en línea al 1.
Respuesta en 5 minutos | 10.000 encuestados profesionales
Pregunta rápida
188 * * * 8493 hacen una pregunta sobre educación.
Después de leer esto, lo siguiente es más interesante:
Examen de matemáticas de Qingdao, no es necesario recoger a los niños los fines de semana y dar clases particulares en casa.
El director tiene preguntas de prueba de matemáticas individuales, con tabletas/computadoras/teléfonos móviles, puedes dar clases particulares en casa. En el quinto piso, seleccionamos maestros destacados de todo el país y brindamos en línea. Tutoría para escuelas primarias y secundarias. Brindamos tutorías personalizadas y cursos de evaluación gratuitos para 1, que determinan el nivel de aprendizaje del niño.
Anuncio 2021-02-25
El origen de los decimales
¿Conoces el origen de los decimales? Después de leerlo, adquirí conocimientos.
15 Zan 1 Play
La diferencia entre fracciones y decimales
5/6 8/4 Profesor: Hemos aprendido algunos conocimientos sobre fracciones y decimales respectivamente. En esta lección aprenderemos sobre la reciprocidad de fracciones y decimales. (Pregunta de pizarra) 2. ¿Haciendo una nueva lección 1? Ejemplo de enseñanza 1 El material didáctico multimedia proporciona el Ejemplo 1: 3/4, 11/25 y 23/8 se convierten a decimales. Profesor: ¿Cómo convertir estas fracciones a decimales? En comparación con la revisión anterior, ¿qué conocimientos crees que se pueden utilizar para convertir fracciones a decimales? Guíe a los estudiantes a analizar y calcular fracciones escribiendo fórmulas de división. Maestro: Podemos intentar pensar en la relación entre fracciones y división. ¿Cómo se debe calcular? Después de la discusión, los estudiantes respondieron: Puedes reescribir la fracción como una división y luego encontrar su cociente fraccionario. Después de que los estudiantes completen el formulario, pregúnteles cómo completarlo y guíelos diciendo: ¿Qué información aprendieron de las preguntas? Los estudiantes que puedan pueden completar las preguntas de pensamiento.
2 me gusta 220 vistas 2020-09-12
El origen del sistema decimal.
En el siglo III d.C., hace más de 1.600 años, Liu Hui, un gran matemático chino, propuso los decimales. Al principio, la gente sólo usaba palabras para representar decimales. No fue hasta el siglo XIII que la gente utilizó cuadrículas inferiores, como la notación 8,23, donde el lado izquierdo representa la parte entera y el lado inferior derecho representa la parte decimal. En la antigüedad, algunas personas memorizaban los decimales encerrando en un círculo cada número en la parte decimal. Por ejemplo, 1,5 se registra como 1⑤. Este círculo separa la parte entera y la parte decimal. Este símbolo se extendió posteriormente a Asia Central y Europa. En 1427 d.C., el matemático de Asia Central Al Qasi creó una nueva notación decimal. Registró decimales separando la parte entera y la parte decimal, como 3,14 como 3,14. En el siglo XVI, los europeos valoraban el papel de los decimales. En Europa, algunas personas registraron decimales como este en ese momento. Por ejemplo, 3,1415 es 3 ⊙ 114115⑤. ⊙ puede considerarse como el símbolo límite de la parte entera, y los números en el círculo representan el orden de los dígitos. Esta notación es interesante, pero problemática. Hasta 1592 d.C., el matemático suizo Bhurki realizó grandes mejoras en la representación de decimales. Utiliza un círculo pequeño para separar la parte del número entero de la parte decimal, como 5. 24... El círculo pequeño en el número en realidad actúa como un punto decimal. Algún tiempo después, el matemático alemán Kravis sustituyó los pequeños círculos por pequeños puntos negros. Entonces la escritura de decimales se ha convertido en nuestra representación actual. Sin embargo, la forma en que se expresan los decimales es diferente en los distintos países. Ahora, hay dos formas de escribir el punto decimal: una es usar ","; la otra es usar un pequeño punto negro. En países como Alemania y Francia se suele utilizar "," para escribir decimales, como 3, 42, 7, 565, 438 0..., mientras que algunos países del Reino Unido y del norte de Europa, como China, utilizan "." para expresar puntos decimales, como 65, 438 0,3, 4,5... El punto decimal se refiere al origen de los decimales, es decir, decimales sin denominadores. Hay dos requisitos previos para la generación de decimales: uno es el uso de la notación decimal; el otro es la mejora del concepto de fracciones. La aparición de los decimales marca la expansión de la notación decimal de números enteros a fracciones, unificando las formas de fracciones y números enteros. Nuestra comprensión de los decimales es también la más antigua del mundo. En el siglo III d. C., el matemático chino Liu Hui propuso decimales al abordar el problema de la raíz cuadrada en "Nueve capítulos sobre notas aritméticas". Aunque la comprensión de los decimales en China fue mucho anterior a la de Europa, la representación decimal utilizada en las matemáticas modernas se introdujo en China desde Europa. El mayor aporte a los decimales en Europa fue el ingeniero holandés Simon Stevens (1548? 1620). Se dio cuenta de la superioridad de los decimales al hacer tablas de intereses, por lo que abogó firmemente por la introducción de decimales en toda la operación aritmética para que los decimales puedan participar efectivamente en el conteo. Pero la notación decimal de Steven no es brillante, como 139,654. Lo que escribió fue 135 ⊙ 615243. Los números en los círculos después de cada número se usan para indicar la posición de los números anteriores. Este método de representación complica la forma de los decimales y causa grandes problemas a las operaciones decimales. En 1592, el matemático suizo Bhurki realizó grandes mejoras. Usó un pequeño círculo hueco para separar la parte entera y la parte decimal. Por ejemplo, 36,548 se expresó como 36,548, que está muy cerca de la interpretación moderna.
Aproximadamente un año después, en Kravis, Alemania, se utilizaron por primera vez puntos negros en lugar de pequeños círculos. Dio a conocer esta práctica al mundo en su "Álgebra" publicada en 1608, y se estableció la notación decimal moderna. Espero que sea adoptado. . . .
7 me gusta 3588 visitas
El origen de los números naturales, negativos, fraccionarios y decimales.
El ser humano es producto de la evolución animal, y al principio no existía el concepto de cantidad. Sin embargo, la comprensión del mundo objetivo por parte del cerebro humano desarrollado ha alcanzado un nivel más racional y abstracto. De esta manera, en la práctica de larga vida, a partir de la necesidad de registrar y distribuir las necesidades diarias, surgió gradualmente el concepto de número. Por ejemplo, si se captura un animal salvaje, se representa con 1 piedra. Si atrapas tres cabezas, coloca tres piedras. "Hacer nudos" también es algo que hacían juntos muchos humanos antiguos que estaban muy cerca unos de otros. Hay un registro de "gobernar el país haciendo nudos" en el antiguo libro chino "El Libro de los Cambios". Cuenta la leyenda que los antiguos reyes persas utilizaban cuerdas para hacer nudos y contar los días de la guerra. El uso de herramientas afiladas para marcar la corteza de los árboles o las pieles de animales, o el uso de pequeños palos para contar en el suelo, también eran métodos comunes utilizados por los antiguos. Cuando estos métodos se utilizan con más frecuencia, se forma gradualmente el concepto de números y símbolos de conteo. Al principio, el concepto de números partía de números naturales como 1, 2, 3, 4... dondequiera que estuvieran ubicados, pero los símbolos utilizados para contar eran del mismo tamaño. Los números romanos antiguos eran bastante avanzados y hoy en día se utilizan a menudo en muchos relojes de pared antiguos. De hecho, solo hay siete números romanos: I (representa 1), V (representa 5), X (representa 10), L (representa 50), C (representa 100), D (representa 500), M (representa 1 ), lo que sea No importa cómo cambien las posiciones de estos siete símbolos, los números que representan son los mismos. Pueden representar cualquier número cuando se combinan de acuerdo con las siguientes reglas: 1. Número de repeticiones: Cuántas veces se repite un símbolo de número romano para indicar cuántas veces es ese número. Por ejemplo, "三" significa "3"; "XXX" significa "30". 2. Sumar a la derecha y restar a la izquierda: adjunte un símbolo que represente un número grande a la derecha del símbolo que representa un número pequeño, lo que indica un número grande más un número pequeño, como "VI" que representa "6" y "DC" que representa " 600". Un símbolo que representa un número pequeño está adjunto a la izquierda del símbolo que representa el número grande, que representa el número grande menos el número pequeño. Por ejemplo, "IV" representa "4", "XL" representa "40" y ". "VD" representa "495". 3. Agrega una línea horizontal: Agrega una línea horizontal al número romano para indicar que es 1000 veces ese número. Por ejemplo, "" significa "15000" y "" significa "165000". En la antigua China, la notación también era muy importante. La notación más antigua se encuentra en huesos de oráculo, campanas y trípodes, pero es difícil de escribir y leer, por lo que. no es utilizado por las generaciones futuras. En el período de primavera y otoño y en el período de los Reinos Combatientes, la producción se desarrolló rápidamente. Para satisfacer esta necesidad, nuestros antepasados crearon un método de cálculo muy importante: fichas de cálculo hechas de palos y huesos de bambú. Se pueden utilizar longitudes específicas para contar y calcular. A medida que los cálculos se hicieron populares, los cálculos y las disposiciones se convirtieron en las características distintivas de los cálculos. Hay dos tipos de cálculos y disposiciones, horizontales y verticales, y ambos pueden representar el mismo número. La ausencia de "10" en el código deja claro que el cálculo sigue estrictamente el sistema decimal desde el principio. Los números con más de 9 dígitos se ingresarán como un solo dígito. En ese momento, el sistema decimal no estaba. Realmente utilizado en otras partes del mundo hasta finales del siglo VI, no había "cero" en los cálculos numéricos. Por ejemplo, "6708" se puede expresar como "┴ ╥". el número, por lo que es fácil cometer errores. Entonces alguien puso monedas de cobre en el espacio en blanco para evitar errores, que pueden estar relacionados con la aparición del "cero". Sin embargo, la mayoría de la gente cree que la invención del símbolo matemático "0" debería atribuirse a los indios en el siglo VI. Primero usaron un punto negro () para representar cero y luego lo cambiaron gradualmente a "0". Hablando de la aparición del "cero", cabe señalar que la palabra "cero" apareció muy temprano en los caracteres chinos antiguos. Pero en ese momento no significaba "nada", solo significaba "pedazos y pedazos" y "no mucho". Como "impar", "esporádico" y "impar". "105" significa: Hay una puntuación de 100. Con la introducción de los números arábigos.
"105" se pronuncia como "105" y la palabra "cero" corresponde a "0", por lo que "cero" significa "0". Si miras con atención, notarás que no existe el "0" en los números romanos. De hecho, el "0" se introdujo en Roma en el siglo V d.C. Pero el Papa fue cruel y anticuado. No permite que nadie use "0". Un erudito romano registró algunos beneficios y explicaciones sobre el uso de "0" en sus notas, por lo que fue convocado por el Papa y ejecutó el castigo de "zɣn" para que ya no pudiera sostener una pluma y escribir. Pero nadie puede evitar que aparezca "0". Ahora, el "0" se ha convertido en el símbolo numérico más significativo. "0" puede significar "no" o "sí". Por ejemplo, una temperatura de 0 ℃ no significa que no haya temperatura; "0" es el único número neutro entre los números positivos y negativos; la potencia de 0 de cualquier número (excepto 0) es igual a 1; (el factorial de cero es igual a 1). Además del sistema decimal, en los primeros tiempos de las matemáticas también aparecieron muchos sistemas decimales numéricos, como cinco, binario, ternario, siete, ocho, decimal, hexadecimal, veinte, hexadecimal, etc. En aplicaciones prácticas a largo plazo, finalmente prevaleció el sistema decimal. Los números 1, 2, 3, 4, 5, 6, 7, 8, 9 y 0 actualmente aceptados internacionalmente se denominan números arábigos. De hecho, fueron utilizados por primera vez por los antiguos indios. Más tarde, los árabes incorporaron las matemáticas griegas antiguas a sus propias matemáticas y difundieron esta notación decimal simple y fácil de recordar por toda Europa, evolucionando gradualmente hasta los números arábigos actuales. El concepto de números, la escritura de números y la formación del sistema decimal son todos resultados de actividades prácticas humanas a largo plazo. Con las necesidades de producción y vida, la gente ha descubierto que no basta con utilizar números naturales para representarlas. Si cinco personas comparten cuatro elementos en una división de juego, ¿cuánto debería recibir cada persona? Entonces se generó la puntuación. ¡China aprendió fracciones más de 1.400 años antes que Europa! Los números naturales, las fracciones y el cero suelen denominarse números aritméticos. Los números naturales también se llaman números enteros positivos. Con el desarrollo de la sociedad, la gente ha descubierto que muchas cantidades tienen significados opuestos, como aumentar y disminuir, avanzar y retroceder, subir y bajar, este y oeste. Para representar tal cantidad, se genera un número negativo. Los enteros positivos, los enteros negativos y el cero se denominan colectivamente números enteros. Si sumas una fracción positiva y una fracción negativa, se les llama colectivamente números racionales. Con estas representaciones numéricas, a las personas les resulta mucho más cómodo realizar cálculos. Sin embargo, en el proceso de desarrollo digital sucedió algo desagradable. Retrocedamos 2.500 años a Grecia, donde estaban los pitagóricos, un grupo que estudiaba matemáticas, ciencias y filosofía. Creen que el "número" es el origen de todas las cosas y domina toda la naturaleza y la sociedad humana. Por lo tanto, todo en el mundo puede reducirse a un número o una proporción de números, que es la fuente de la belleza y la armonía en el mundo. Cuando dicen números, se refieren a números enteros. La apariencia de las fracciones hace que los "números" sean diferentes.