Cambios históricos en la definición de "metro"
En 1688, el filósofo y pastor británico John Wilkins propuso la necesidad de un sistema de unidades de longitud estándar decimal.
En 1675, el científico italiano Tito Livio Brattini utilizó por primera vez en su artículo la palabra metrocattolico, que proviene del griego μ? τρονκαθολικ?ν (métronkhotholikón), que significa "unidad de medida universal".
Desde 1983, la longitud del metro se define como “la distancia que recorre la luz en el vacío en 1/299792458 segundos”.
En la década de 1970, la velocidad de la luz se medía con mucha precisión. En 1983, la Conferencia Internacional de Pesas y Medidas (CGPM) redefinió la definición de metro. "La distancia que recorre la luz en el vacío es 1/299792458 segundos" como metro estándar.
Datos ampliados:
Teorías relacionadas
1. Prototipo de medidor
De 1792 a 1799, bajo el liderazgo de los astrónomos franceses, Sky Encuesta desde Dunkerque, Francia hasta Barcelona, España.
En 1799, se fabricó una varilla corta de platino de 3,5 mm × 25 mm basándose en los resultados de las mediciones. La distancia entre los dos extremos de la varilla se estableció en 1 m. Fue conservada en los Archivos franceses. , por lo que también se le llama "medidor de archivos". Ésta fue la definición más antigua del metro y este recipiente de arroz original se conserva en los archivos de París.
2. Definición del espectro
A finales del año 19, los científicos descubrieron en experimentos la línea espectral roja del cadmio natural (Cd), que tiene muy buena claridad y reproducibilidad. En aire seco a 15 grados Celsius, su longitud de onda es igual a y=6438,4696×10-10 metros. Según el acuerdo internacional de 1927, se decidió utilizar esta línea espectral como estándar de longitud de espectroscopia, determinando que 1 metro = 155164438+03 YCD. Por primera vez, la gente encontró un estándar invisible que podría usarse para definir un metro. .
Enciclopedia Baidu-Mi