¿Qué es la teoría de matrices?
Adelante
-Fuzzy Translation Works-
——Autor: Steven Weinberg Traductor: Lu Changhai—— p >
En 2003, los físicos se reunieron en el CERN para conmemorar el 30.º aniversario del descubrimiento del flujo neutro y el 20.º aniversario del descubrimiento de las partículas W y Z. El famoso físico teórico Stephen Weinberg pronunció un discurso titulado "La creación del modelo estándar" en la conferencia conmemorativa. Este discurso fue pronunciado en euros. Phys. J. C34 5-13, 2004, y este artículo ha sido traducido en consecuencia. Weinberg fue uno de los proponentes de la teoría unificada de la electricidad débil y participó personalmente en una serie de interesantes desarrollos que condujeron al nacimiento del modelo estándar, por lo que su artículo tiene un gran valor de referencia. En el proceso de traducción de este artículo, el Premio Nobel de Física de este año fue otorgado a los físicos estadounidenses D. J. Gross, H. D. Politzer y F. Wilczek en reconocimiento a su contribución al "descubrimiento de la libertad asintótica en la teoría de las interacciones fuertes". Esta es otra recompensa al trabajo de los físicos en el modelo estándar. Aunque el modelo estándar ya no es llamativo, sigue siendo frondoso y tranquilo. Finalmente, me gustaría recordar a los lectores que hay demasiadas referencias adjuntas al texto original. Para ahorrar tiempo, y considerando que los lectores de la traducción generalmente no leerán el texto original, se han omitido la mayoría de ellos, y sólo un pequeño número de los que se mencionan directamente en el texto se han conservado en forma de notas del traductor. Pero el gran número de citas también muestra que el artículo de Weinberg es muy riguroso al describir la historia.
Me pidieron que revisara la creación del Modelo Estándar. Un enfoque natural para esta revisión es describir toda la historia como una serie de ideas y experimentos brillantes, pero aquí también quiero hablar sobre algunos malentendidos y puntos de partida erróneos en este proceso, y por qué no se han logrado algunos posibles avances para un mucho tiempo. En mi opinión, estudiar lo que los científicos no entienden o malinterpretan suele ser la parte más interesante de la historia de la ciencia. De todos modos, este es un aspecto del modelo estándar con el que estoy muy familiarizado porque, como verás, también tiene algunos errores.
Te llevaré a la década de 1950, antes del modelo estándar, y comenzaré allí. Fue una época de frustración y confusión. El éxito de la electrodinámica cuántica a finales de la década de 1940 provocó un auge en la teoría de partículas elementales, pero pronto todo el campo colapsó. Encontramos que los infinitos en la teoría de los cuatro fermiones que interactúan débilmente no pueden eliminarse mediante métodos de renormalización que ya están bien establecidos en la electrodinámica cuántica. La teoría de los cuatro fermiones no tiene problemas en la aproximación más baja, pero una vez llevada a la siguiente aproximación, encuentra infinitos que no pueden eliminarse. Las interacciones fuertes enfrentan un problema diferente. No es un problema construir una teoría de interacción fuerte reconfigurable como la teoría de Yukawa original, pero debido a la interacción fuerte, las teorías de perturbación se vuelven inútiles, por lo que no se pueden hacer cálculos realistas con estas teorías. Un problema más profundo con nuestra comprensión de las teorías de interacción fuerte y débil es que ninguna de ellas tiene una base racional. La teoría de la interacción débil simplemente se reconstruyó para ajustarse a los datos experimentales conocidos en ese momento, mientras que la teoría de la interacción fuerte no tenía evidencia alguna.
Después de eso, mucha gente perdió la confianza en la teoría cuántica de campos. En aquella época, los físicos teóricos se dividían en dos grupos, llamados físicos radiales y físicos azimutales utilizando la analogía de las funciones de onda atómicas. Los físicos radiales se ocupan de la dinámica, especialmente de la dinámica de interacciones fuertes. Rara vez implican interacciones débiles. Algunos de ellos intentan construir teorías utilizando sólo principios generales, como las relaciones de dispersión y la expansión de los polos de Regge. Esperan construir eventualmente una teoría pura de la matriz S para la interacción fuerte que esté completamente divorciada de la teoría cuántica de campos. En cuanto a la interacción débil, eso queda para el futuro. Los físicos angulares son humildes. La forma en que funcionan es que no tienen que intentar comprender la dinámica de las interacciones fuertes. Estudian algo que se puede predecir sin esta comprensión: el principio de simetría.
Sin embargo, existen grandes dificultades para comprender el principio de simetría. En aquella época se conocían muchos principios de simetría, la mayoría de los cuales eran aproximados. La simetría isospin que data de 1936 es un ejemplo obvio.
La violación de la conservación singular bajo interacciones débiles se conoce desde el principio. En 1956, se descubrió que incluso las sagradas simetrías espacio-temporales P y PT estaban rotas por interacciones débiles, y en 1964 se descubrió que la conservación de CP era sólo aproximada. La simetría de "óctuple trayectoria" del SU(3) descubierta a principios de la década de 1960, incluso bajo fuertes interacciones, es, en el mejor de los casos, una aproximación aproximada. Esto nos plantea una pregunta muy básica. Muchos físicos angulares creen que el principio de simetría es la descripción más simple de la naturaleza. Entonces, ¿cuál es el principio de simetría aproximada? ¿Es la simplicidad aproximada de la naturaleza?
Tres ideas destacadas surgieron de la frustración y confusión de los años cincuenta y sesenta. Estas ideas tardaron mucho en madurar, pero formaron la base de la física de partículas actual. Hago hincapié aquí en que nos llevó mucho tiempo darnos cuenta de a qué se aplicaban realmente estas ideas, en parte para animar a los teóricos de las supercuerdas de hoy, quienes creo que también tienen algunas ideas excelentes que necesitan tiempo para madurar.
La primera idea excelente que quiero mencionar es el modelo de quarks, propuesto de forma independiente por Gell-Mann y Zweig en 1964. La simple aplicación de la idea de que los hadrones están compuestos de quarks y antiquarks puede permitir a las personas ver algunas pistas en el espectro expandido de hadrones. Al mismo tiempo, este ingenuo modelo de quarks parecía estar respaldado por experimentos dirigidos por Friedman, Kendall y Taylor en SLAC en 1968, que eran similares a los realizados por Geiger y Marsden en el Laboratorio Rutherford en 1919. En ese experimento, Geiger y Marsden descubrieron que las partículas alfa a veces eran dispersadas en grandes ángulos por los núcleos de oro. De esto, Rutherford dedujo que la masa del átomo se concentraba en algo similar a una partícula puntual, que más tarde recibió el nombre de núcleo. De manera similar, en el experimento SLAC, se descubrió que los núcleos atómicos a veces dispersaban electrones en ángulos grandes, lo que Feynman y Bjorken interpretaron como neutrones y protones compuestos de partículas puntuales. Estos, llamados "partones", están naturalmente relacionados con los quarks de Gell-Mann y Zweig. Pero obviamente hay un misterio en torno a todo esto, razón por la cual nunca hemos visto quarks. Por ejemplo, ¿por qué nunca se encuentra 1/3 de carga en los experimentos de caída de aceite? Recuerdo que Dalitz y Lipkin presentaron varias predicciones exitosas de modelos ingenuos de quarks en física de hadrones, pero yo permanecí obstinadamente impasible, porque todos sabían que habíamos buscado quarks, pero nunca los encontramos.
La segunda idea destacada que surgió en las décadas de 1950 y 1960 fue la simetría de calibre (local). (Por supuesto, la electrodinámica es mucho más antigua que esto y también se puede considerar que se basa en la simetría de calibre U(1), pero ésta no fue la visión adoptada cuando se desarrolló la electrodinámica cuántica en la década de 1930. Yang y Mills en 1954 construyeron una teoría de calibre. basado no en el simple grupo calibre U(1) en electrodinámica, sino en el grupo SU(2) en conservación de isospin, que esperaban que se convirtiera en una teoría fuertemente interactiva. Es una teoría hermosa porque las simetrías determinan la forma de las interacciones. especialmente porque el grupo de calibre no es abeliano (las "cargas" no son recíprocas) y hay autoacciones entre los bosones de calibre, como lo mismo ocurre con la autoacción de los gravitones en la relatividad general. Esto es lo que hace a los teóricos de las partículas. visceralmente feliz.
Otros físicos han estudiado la cuantificación de teorías de calibre no abelianas, pero generalmente no saben cómo aplicarlas a cualquier interacción conocida. Algunos de ellos utilizaron el estudio de la cuantificación de Yang-. La teoría de Mills como ejercicio de preparación para el problema real que querían resolver: la cuantización de la relatividad general, los físicos recién comenzaron a aplicar las ideas de Yang-Mills a las interacciones débiles, en parte porque, como recordarán, en 1954, beta. Las interacciones de desintegración se consideraban escalares, tensores y quizás pseudoescalares. Una mezcla de interacciones de fermiones. Este fue el resultado de una serie de experimentos erróneos, cada uno de los cuales fue inmediatamente reemplazado por otro tan pronto como se descubrió que era erróneo. No fue hasta 1957-58 que se reconoció generalmente que realmente existían interacciones débiles. Arriba se muestra una mezcla de interacciones vectoriales y eje-vector que pueden pasar a través de bosones vectoriales intermedios.
Muchas personas propusieron posteriormente teorías de bosones vectoriales intermedios, pero estas teorías generalmente no mencionaban la simetría local no abeliana, a excepción de los artículos de Bludman, Salam y Ward en 1958 y 1964. (Por ejemplo, con la excepción que acabamos de mencionar, ninguno de esos artículos contiene el término cuártico para las interacciones entre bosones vectoriales que es característico de las teorías de simetría locales no abelianas). Diré más sobre esto más adelante en algunos artículos.
Desde el principio, el principal obstáculo para aplicar el método Yang-Mills a interacciones débiles o fuertes fue la cuestión de la calidad. La simetría de calibre impide que los bosones de calibre tengan masa, y cualquier bosón de calibre sin masa claramente hace mucho que debería haber sido descubierto. Todos los artículos enumerados en las referencias 12 [Nota del traductor: estos artículos son J. Schwinger, Ann. Phys. 2407 (1957); T. D. Lee y C. N. Yang, Phys. rev. 108 (1957); Educación Física 8. 234 (1958); Nuck, SL Glashow. Phys. 22, 519 (1961); en A. Salam y J. C. Ward, Phys. 13, 168 (1964). ], todos los artículos de calidad se añaden artificialmente. Sin embargo, esto socava la base lógica de las teorías de calibre, ya que los principios de simetría local que contribuyen a estas teorías se destruyen una vez que se agrega masa. Además, la adición artificial de términos de masa destruye claramente el poder predictivo de la teoría. Finalmente, a través del trabajo de varios autores en la década de 1960, se comprendió que las teorías de calibre no abelianas más un término de masa artificial eran irreducibles y, por lo tanto, no eran mejores que la interacción débil original de cuatro fermiones.
La tercera idea excelente que me gustaría mencionar es la ruptura espontánea de la simetría: es decir, la cantidad de Laplace puede tener algún tipo de simetría que el vacío no tiene. Los físicos obtuvieron esta idea de dos maneras.
La primera forma surge de un malentendido fundamental. Recordamos que uno de los problemas que se enfrentaban en aquella época era cómo comprender las diversas simetrías aproximadas conocidas. Muchas personas, incluido yo mismo, inicialmente tuvimos la ilusión de que si una simetría estricta en una ecuación de campo que describe la naturaleza se rompe espontáneamente, aparecerá como una simetría aproximada en los experimentos. Eso estuvo muy mal, pero eso es exactamente lo que estábamos pensando en ese momento. (Heisenberg creía esto todavía en 1975. Al principio, esto parecía ofrecer una gran promesa para nuestra comprensión de las simetrías aproximadas: isospins, trayectorias octogonales, etc., por lo que Goldstone explicó cada una de ellas en 1961: La ruptura de las simetrías espontáneas). propuesto, y demostrado al año siguiente por Goldstone, Salam y yo, iba necesariamente acompañado de una partícula sin masa y sin espín, lo que se consideró un terrible revés porque, alentados por esta decepción, parecía que se rompía la esperanza de una simetría espontánea. En la existencia de una partícula de Goldstone sin masa, que por otra parte había sido descubierta muchos años antes, Higgs intentó encontrar una manera de romper el teorema de Goldstone. Descubrió que si la simetría original no era una simetría global como el isospin, pero una simetría de isospin localizada como en la teoría de Yang-Mills. La simetría de calibre, el teorema de Goldstone, no se cumple. En ese caso, la partícula de Goldstone todavía existe, pero se convierte en un componente de la partícula de calibre con helicidad cero, de modo que esta última adquiere una. masa de casi . Al mismo tiempo, Englert y Brault también descubrieron el mismo fenómeno, pero sus motivaciones eran diferentes: intentaron volver a la idea de utilizar la teoría de Yang-Mills para construir una teoría de interacción fuerte transmitida por bosones con masa. vectores Este fenómeno fue notado por Anderson en el caso no relativista anterior.
La segunda forma de obtener una ruptura espontánea de la simetría es estudiar el vector de flujo y el vector axial en la interacción débil del semileptón.
En 1958, Goldberger y Treiman derivaron una relación entre la constante de desintegración del mesón π, la constante de acoplamiento del vector del eje de desintegración β y la constante de acoplamiento de interacción fuerte [Nota del traductor: la relación Goldberger-Treiman es GπN=2mNgA/Fπ, donde Fπ es el pi constante de desintegración del mesón, gA es la constante de acoplamiento del vector del eje de desintegración β y GπN es la constante de acoplamiento de interacción fuerte, que es diferente del error experimental. La precisión de esta fórmula es mucho mayor de lo que podría esperarse de la aproximación extremadamente distorsionada utilizada en su derivación. Para explicar el éxito de la fórmula Goldberger-Treiman, en los años siguientes, algunos físicos teóricos propusieron la idea de la conservación parcial del flujo vectorial, es decir, la divergencia del flujo vectorial, aunque no igual a cero, es proporcional al campo de piones. Estrictamente hablando, esto no tiene sentido, ya que cualquier operador de campo con los números cuánticos correctos, como la divergencia del propio flujo axonal, puede denominarse campo piónico. La naturaleza no proporciona ningún operador de campo específico como campo para tal o cual partícula. 1960 Nambu aclaró enormemente esta idea. Señaló que en un mundo ideal donde el vector axial se conserva estricta pero no parcialmente, la existencia de una masa de nucleón distinta de cero y una constante de acoplamiento del vector axial requeriría que la masa del pión fuera cero. En transferencias de impulso suficientemente pequeñas, este pión sin masa dominará la parte pseudoescalar del elemento de matriz mononucleon del flujo vectorial axial, lo que puede conducir a la formulación de Goldberger-Treiman que anteriormente condujo a la conservación parcial del flujo. Nambu y Jona-Lasinio propusieron un modelo dinámico de conservación estricta del flujo vectorial axial y demostraron que el espectro de energía del estado ligado contiene piones sin masa.
La ruptura espontánea de la simetría apenas se menciona en este libro. En particular, dado que el trabajo de Nambu y sus colaboradores sobre las interacciones de piones blandos solo involucraba piones blandos individuales, no había necesidad de especificar un grupo especial que rompiera la simetría. La mayor parte de su trabajo toma U(1) simple como grupo de simetría. Nambu et al., al igual que Gell-Mann et al., enfatizan la naturaleza del flujo en la desintegración beta en lugar de la ruptura de la simetría. Nambu, particularmente en su artículo con Jona-Lasinio, describió su trabajo como similar a las exitosas teorías de la superconductividad de Bardeen, Cooper y Schriever. Los superconductores son el producto de la ruptura espontánea de la simetría del calibre electromagnético, pero nadie puede esperar encontrar una mención de la ruptura espontánea de la simetría en el artículo clásico de BCS. Anderson era consciente de la importancia de la ruptura espontánea de la simetría en la teoría de la superconductividad, pero fue casi el único físico de la materia condensada que se dio cuenta de ello.
Los flujos en la interacción débil del semilepton siguen atrayendo la atención de Gell-Mann y sus colaboradores. Propusieron el mismo método para calcular los elementos de la matriz de transición dipolar atómica que en el famoso artículo de Heisenberg de 1925 sobre mecánica cuántica, es decir, derivar primero la relación de reciprocidad de las corrientes y luego insertar la suma apropiada de estados intermedios. Esto se llama método de álgebra de corrientes. Entre otros resultados, Adler y Weisberger utilizaron este método para derivar su famosa fórmula para la constante de acoplamiento vectorial del eje de desintegración beta.
Alrededor de 1965 comenzamos a tener una comprensión más moderna de todos estos desarrollos y sus interrelaciones. Se reconoció que la interacción fuerte debe tener una simetría SU(2)×SU(2) rota, incluidas las transformaciones de isospin ordinarias y las transformaciones de isospin quirales que tienen efectos opuestos en las partes de espín izquierda y derecha del núcleo. Al contrario de lo que alguna vez pensamos yo y otros, esta simetría rota no se manifiesta experimentalmente como una simetría aproximada ordinaria. Si la simetría estricta se rompe espontáneamente, su efecto aparecerá en la predicción de la interacción de baja energía entre el bosón de Goldstone sin masa y el pión en SU(2)×SU(2). La fórmula de Goldberger-Treiman es una de las fórmulas sobre "piones blandos" y debe entenderse como una fórmula sobre el acoplamiento pión-nucleón con impulso cero. Por supuesto, partícula SU (2).
Desde esta perspectiva, las personas pueden calcular cosas que no tienen nada que ver con la interacción electrodébil, los vectores semileptónicos y el flujo del vector axial, sino que solo están relacionados con la interacción fuerte. A partir de 1965, Tomozawa y yo calculamos de forma independiente la longitud de dispersión del nucleón π, y yo también calculé la longitud de dispersión π-π. Dado que estos procesos contienen más de un pión blando, la simetría de SU(2)×SU(2) es crucial para los resultados del cálculo. El impacto de estos esfuerzos es doble. Un efecto es que tiende a poner fin a la vida de la teoría de la matriz S que interactúa fuertemente, porque si bien no hay nada malo en la filosofía de la matriz S, su aplicación práctica se basa en la premisa de que las interacciones π-π son fuertes a bajas energías, y Estos nuevos cálculos muestran que esa interacción es realmente débil a bajas energías. Este tipo de trabajo también tiende a disminuir el interés en el trabajo que Higgs, Brault y Englert han estado haciendo durante algún tiempo. Ya no queremos deshacernos de esos desagradables bosones de Goldstone (Higgs alguna vez quiso deshacerse de ellos), porque ahora el pión se reconoce como un bosón de Goldstone, o algo muy parecido.
Una breve historia del Modelo Estándar
-Hacia Abajo-
-Traducción difusa funciona-
——Autor: Steven Weinberg Traductor : Lu Changhai——
gt gtContinuación del artículo anterior
Esto me recuerda la teoría electrodébil que Salam y yo desarrollamos de forma independiente. Desafortunadamente, Salam no puede presentarnos esta teoría aquí. Sólo puedo describir mi propio trabajo. Mi punto de partida en 1967 fue un viejo objetivo: volver a Yang-Mills y desarrollar una teoría de calibre de la interacción fuerte. Es solo que el grupo de calibre que elegí es el grupo de simetría SU(2)×SU(2) detrás de la predicción exitosa de piones blandos. Seguí una vieja idea, suponiendo que el bosón vectorial de calibre en esta teoría es un mesón ρ, y el bosón de calibre vectorial axial es un estado mejorado que propuse anteriormente ese mismo año al insertar el canal π-ρ para derivar la regla de suma. de la función espectral. Bajo el supuesto estricto pero espontáneamente roto de SU (2) × SU (2), obtuve los resultados obtenidos anteriormente por Higgs, Brout y Englert, es decir, el bosón de Goldstone desapareció y el mesón a1 se convirtió en una partícula de masa. Sin embargo, dado que el grupo isospin no está roto, el mesón rho aún no tiene masa (consistente con el resultado general de Kibble). Por supuesto, para a1 y ρ, puedo introducir artificialmente una masa idéntica. A primera vista, esto puede dar resultados interesantes: el pión reaparece en forma de bosón de Goldstone, y la ruptura espontánea de la simetría hace que la masa de a1 sea mayor que ρ en un factor √2, que es la suma de las funciones espectrales. se obtienen. Esto me inspiró por un tiempo, pero esa teoría era realmente fea. Sigue siendo el mismo viejo problema: la introducción artificial de la masa de los mesones rho o de cualquier otra partícula calibre destruye la base lógica y la capacidad predictiva de la teoría, y también la hace irreemplazable. Así que estoy profundamente decepcionado.
Entonces me di cuenta de que en realidad esta era una teoría completamente correcta, pero la estaba usando en la interacción incorrecta. El uso real de estas ideas no es la interacción fuerte, sino las interacciones débiles y electromagnéticas. Habrá una ruptura espontánea de la simetría de calibre (probablemente no SU(2)×SU(2)), produciendo un bosón de calibre con masa, pero esa partícula no tiene nada que ver con el mesón a1, sino con un bosón vectorial intermedio que interactúa débilmente. . Es posible que algunos generadores de simetría de calibre no se rompan espontáneamente y sus correspondientes partículas sin masa son fotones en lugar de mesones rho. La simetría del calibre será más estricta y no será necesario introducir masa artificialmente.
Necesitaba un modelo concreto para implementar estas ideas comunes. En aquel momento no tenía confianza en los quarks, así que decidí estudiar los leptones. De manera algo arbitraria, decidí considerar sólo las simetrías que actúan sobre una generación de leptones, a saber, el electrón zurdo, el electrón neutrino y el electrón diestro (excluyendo las antipartículas). Para estas partículas, el grupo de calibre más grande posible es SU(2)×U(1)×U(1). Un U(1) puede considerarse como el grupo de calibre correspondiente a la conservación del número leptónico. Como sé que la precisión de la conservación del número leptónico es muy alta, este U(1) no debería romperse espontáneamente.
También sé que no existe un bosón calibre sin masa con un número leptónico, porque según el argumento de Li y Yang, tal partícula tendría interacciones comparables a la gravedad. Entonces decidí eliminar esta parte del grupo de calibres y solo conservar la simetría del calibre SU(2)×U(1). Las partículas calibre obtenidas de esta manera son partículas cargadas con masa (y sus antipartículas) comúnmente llamadas partículas W, partículas vectoriales neutras con masa que llamo partículas Z y fotones. Las interacciones entre estos bosones de calibre y con los leptones están determinadas por simetrías de calibre. Más tarde, cuando volví a consultar la literatura sobre la teoría de los bosones vectoriales intermedios a finales de los años cincuenta y principios de los sesenta, descubrí que Glashow había propuesto la estructura global del grupo SU(2)×U(1) ya en 1961. Sólo me enteré del trabajo independiente de Salam y Ward de 1964. Creo que la razón por la que los cuatro obtuvimos de forma independiente la misma estructura de grupo SU(2)×U(1) es porque es difícil obtener otros grupos para este miembro del fermión que solo contiene una generación de leptones. A diferencia de antes, la teoría actual se basa en una simetría estricta, aunque esta simetría se rompe espontáneamente.
Esta ruptura espontánea de simetría da no sólo la masa del bosón vector intermedio, sino también la masa del electrón (y el muón en el otro doblete leptónico). La única partícula escalar que puede producir masas de electrones y muones a través del valor esperado del vacío debe formar un estado doble SU(2)×U(1) con cargas e y 0 respectivamente. Para simplificar, asumo que esta es la única partícula escalar en la teoría, lo que hace que la teoría sea muy predictiva. Nos permite calcular las masas de las partículas W y Z y sus constantes de acoplamiento utilizando un ángulo desconocido θ. Independientemente del valor de θ, las partículas W y Z son lo suficientemente masivas como para escapar a la detección. Este tipo de resultado también es válido para muchos grupos de dipolos escalares. (Por cierto, estas predicciones también pueden obtenerse mediante teorías "tecnicolor", en las que la simetría del calibre electrodébil se rompe espontáneamente por la interacción fuerte, como lo logramos Susskind y yo 12 años después. Esto sigue siendo cierto hoy en día. Es una posibilidad , pero esta teoría technicolor tiene sus propios problemas. Creí en la dualidad escalar desde el principio)
Además de predecir la masa y la interacción de las partículas W y Z desde una única perspectiva, la teoría electrodébil. Además de su papel, hay también una predicción sorprendente que no sólo se demostró en su momento, sino que sigue sin resolverse hasta ahora. Un campo escalar complejo se puede escribir como cuatro campos reales. Tres simetrías rotas espontáneamente en la simetría calibre SU (2) × U (1) eliminan las tres partículas de Goldstone asociadas con estos campos escalares. La única masa restante, la partícula escalar neutra, puede observarse experimentalmente como una verdadera partícula escalar. Esta partícula apareció por primera vez en la literatura de física en 1967 y no ha sido observada experimentalmente hasta hoy. Su constante de acoplamiento se había predicho en un artículo de ese año, pero nunca se conoció su masa. Para distinguir esta partícula de la partícula de Goldstone, se la llama bosón de Higgs. Ahora es un objetivo experimental importante. Si hay múltiples conjuntos de estados binarios (como en la teoría supersimétrica), entonces habrá más de una de esas partículas y algunas de ellas pueden estar cargadas.
Tanto Salam como yo especulamos que la teoría electrodébil era reconfigurable porque partíamos de una teoría aparentemente reconfigurable. Y la teoría de la ruptura espontánea de la simetría tiene una nueva expansión de perturbaciones, por lo que la pregunta es si la renormalización se mantiene en la nueva expansión de perturbaciones. Todos pensamos que la respuesta es sí, pero no hay forma de demostrarlo. No puedo responder por Salam, pero puedo decirles por qué no puedo probarlo. Eso es porque no me gusta la única forma de demostrarlo: el método de integral de ruta. Hay dos métodos de cuantificación: el antiguo método del operador, que se remonta a la década de 1920, y el método de integral de trayectoria de Feynman. En mi opinión, el método de integral de ruta que aprendí cuando estaba en la escuela de posgrado y más tarde en la escuela no es más poderoso que el método del operador, pero tiene muchos misterios. Intenté demostrar la renormalización de la teoría electrodébil utilizando la norma positiva, que es el indicador más conveniente en los métodos de operador, pero no pude hacerlo. Le sugerí esto a uno de mis alumnos, pero él tampoco pudo hacerlo. Hasta el día de hoy, nadie puede hacerlo con esa especificación.
Lo que no me di cuenta es que el método de integral de ruta puede permitirnos usar algunas normas que no pueden introducirse como restricciones a los operadores de campos cuánticos, por lo que nos brinda muchas normas posibles para construir teorías de invariantes de calibre.
Aunque yo no me di cuenta del potencial de las integrales de trayectoria, Veltman y su alumno T. Hooft sí lo hicieron. En 1971, Hooft definió una norma usando integrales de trayectoria, en la que se puede ver claramente que las teorías de norma no abelianas en las que sólo las simetrías de las interacciones más simples se rompen espontáneamente tienen una propiedad crucial para la renormalización. Es decir, sólo hay interacciones finitas. infinitos en todos los órdenes de la teoría de la perturbación. Esto no puede tomarse como prueba de una renormalización de la teoría, ya que la cantidad de Laplace está limitada por simetrías estrictas pero espontáneas. Es obvio que sólo hay un número finito de infinitos en este calibre 't Hooft', pero ¿cómo podemos estar seguros de que coinciden exactamente con los parámetros de la teoría original definidos por la invariancia del calibre y, por lo tanto, ser absorbidos por la redefinición de los parametros? Esto fue demostrado por primera vez en 1972 por Lee y Zinn-Justin y T. Hooft y Veltmann en 1972, y más tarde fue plasmado en un hermoso marco por Bache, Ruet, Stolla y Tyutin. Sin embargo, diría que después del artículo de 't Hooft de 1971 (y, para mí, el artículo relacionado de B. W. Lee más tarde), la mayoría de los físicos teóricos se han convencido de la renormalización de la teoría, al menos aquellos que están interesados en tales teorías.
Desde la perspectiva actual, ese enfoque en la reconfigurabilidad puede parecer extraño. Al igual que la relatividad general, la antigua teoría de la interacción débil de los cuatro fermiones puede considerarse una teoría cuántica de campos válida, totalmente aplicable a energías suficientemente bajas, e incluso se pueden calcular correcciones cuánticas después de agregar algunos parámetros libres adicionales. El parámetro de expansión en esta teoría es la energía dividida por alguna masa característica. Siempre que esté limitado a un cierto nivel de energía, solo se necesita un número finito de tipos de acoplamiento para absorber todo el infinito. Sin embargo, cuando la energía es superior a la masa característica, esta teoría inevitablemente pierde todo poder predictivo. Para la teoría de los cuatro fermiones que interactúan débilmente, la masa característica obviamente no supera los 300 GeV. Ahora sabemos que su masa es en realidad del orden de W. La importancia de la renormalización de la teoría electrodébil no es que el infinito pueda eliminarse mediante la renormalización, sino que la teoría tiene el potencial de describir interacciones electromagnéticas débiles con energías muy por encima de 300 GeV, incluso hasta la escala de Planck. Buscar una teoría reconfigurable de las interacciones débiles fue la estrategia correcta, pero (como supimos más tarde) no por las razones que pensábamos.
Estas características fascinantes de la teoría electrodébil no significan que la teoría sea correcta; esto último debe juzgarse mediante experimentos. Después de demostrar que la teoría electrodébil podía reorganizarse, la gente empezó a tomar en serio sus predicciones experimentales. La teoría predice la existencia de corrientes neutras, pero no es más que una perogrullada. Las sugerencias para un flujo neutro débil se remontan a los artículos de Gamov y Teller, Kemmer y Wentzel 1937. El flujo neutro apareció más tarde en el artículo de Bludman en 1958 y en todos los artículos posteriores enumerados en el Documento 12, incluidos, por supuesto, los artículos de Glashow, Salam y Wald. Pero ahora tenemos una pequeña idea de la fuerza del flujo neutral. En 1972, estudié la dificultad de observar corrientes neutras semileptónicas y descubrí que, aunque eran más débiles que las corrientes cargadas ordinarias en la teoría electrodébil, no eran tan débiles como para que no pudieran observarse. En particular, señalé que la relación entre la dispersión elástica de neutrinos y protones y la respuesta de corriente de la banda inelástica correspondiente está relacionada con el ángulo desconocido θ, y su valor es de aproximadamente 0,15 ~ 0,25. Un experimento realizado en 1970 arrojó esta relación de 0,12 ± 0,06. resultado. Sin embargo, los experimentadores en ese momento no creían que realmente hubieran observado un flujo neutro, por lo que no afirmaron haber observado un flujo neutro con una intensidad de corriente cargada de aproximadamente 12, sino que simplemente citaron este resultado como un límite superior para la intensidad. El valor teórico mínimo de 0,15 para esta relación corresponde a sen2θ = 0,25, que no dista mucho del valor correcto que conocemos hoy. Sospecho que el experimento de 1970 en realidad observó un flujo neutro, pero sólo se le atribuye el mérito del descubrimiento si afirma que lo hizo.
El flujo neutro fue descubierto en el CERN en 1973.
Creo que alguien mencionará esto más tarde hoy, así que no entraré en detalles. Al principio, los datos de la reacción de flujo neutro parecían ser totalmente consistentes con la teoría electrodébil, pero una serie posterior de experimentos arrojaron resultados opuestos. Los desafíos más serios provinieron de dos fuentes en 1976.