By: Charlie Wood

La renormalización se ha convertido quizás en el avance más importante de la física teórica en 50 años.

No es necesario analizar moléculas de agua individuales para comprender el comportamiento de las gotas, ni las gotas para estudiar una onda. Esta capacidad de cambiar el enfoque en varias escalas es la esencia de la renormalización.

n la década de 1940, los físicos pioneros tropezaron con la siguiente capa de realidad. Las partículas estaban afuera y los campos (entidades expansivas y onduladas que llenan el espacio como un océano) estaban adentro. Una onda en un campo sería un electrón, otra un fotón, y las interacciones entre ellas parecían explicar todos los eventos electromagnéticos.

Solo había un problema: la teoría estaba unida con esperanzas y oraciones. Sólo mediante el uso de una técnica denominada “renormalización”, que implicaba ocultar cuidadosamente cantidades infinitas, los investigadores pudieron eludir las predicciones falsas. El proceso funcionó, pero incluso los que desarrollaron la teoría sospecharon que podría ser un castillo de naipes apoyado en un truco matemático torturado.

“Es lo que yo llamaría un proceso dippy”, escribió más tarde Richard Feynman . “Tener que recurrir a semejante engaño nos ha impedido demostrar que la teoría de la electrodinámica cuántica es matemáticamente autoconsistente”.

La justificación llegó décadas más tarde de una rama de la física aparentemente no relacionada. Los investigadores que estudian la magnetización descubrieron que la renormalización no se trataba de infinitos en absoluto. En cambio, habló de la separación del universo en reinos de tamaños independientes, una perspectiva que guía muchos rincones de la física actual.

La renormalización, escribe David Tong , teórico de la Universidad de Cambridge, es “posiblemente el avance más importante en la física teórica en los últimos 50 años”.

Historia de dos cargas

Según algunas medidas, las teorías de campo son las más exitosas de toda la ciencia. La teoría de la electrodinámica cuántica (QED), que forma un pilar del modelo estándar de física de partículas, ha realizado predicciones teóricas que coinciden con los resultados experimentales con una precisión de una parte en mil millones .

Pero en las décadas de 1930 y 1940, el futuro de la teoría estaba lejos de estar asegurado. Aproximar el comportamiento complejo de los campos a menudo dio respuestas infinitas y sin sentido que hicieron que algunos teóricos pensaran que las teorías de campos podrían ser un callejón sin salida.

Feynman y otros buscaron perspectivas completamente nuevas, tal vez incluso una que devolviera las partículas al centro del escenario, pero regresaron con un truco. Descubrieron que las ecuaciones de QED hacían predicciones respetables si se remendaban con el procedimiento inescrutable de la renormalización.

El ejercicio es algo como esto. Cuando un cálculo de QED conduce a una suma infinita, ciérrelo. Rellena la parte que quiere volverse infinita en un coeficiente (un número fijo) delante de la suma. Reemplace ese coeficiente con una medida finita del laboratorio. Finalmente, deje que la suma recién domesticada vuelva al infinito.

Para algunos, la prescripción se sintió como un juego de caparazón. “Esto simplemente no es una matemática sensata”, escribió Paul Dirac , un innovador teórico cuántico.

El núcleo del problema, y ​​la semilla de su eventual solución, se puede ver en cómo los físicos trataron la carga del electrón.

En el esquema anterior, la carga eléctrica proviene del coeficiente, el valor que se traga el infinito durante la mezcla matemática. Para los teóricos desconcertados sobre el significado físico de la renormalización, QED insinuó que el electrón tenía dos cargas: una carga teórica, que era infinita, y la carga medida, que no lo era. Quizás el núcleo del electrón tenía una carga infinita. Pero en la práctica, los efectos de campo cuántico (que podría visualizar como una nube virtual de partículas positivas) encubrieron el electrón de modo que los experimentadores midieron solo una carga neta modesta.

La renormalización captura la tendencia de la naturaleza a clasificarse en mundos esencialmente independientes.

Su trabajo fue el primero en vincular la renormalización con la idea de escala. Insinuó que los físicos cuánticos habían dado con la respuesta correcta a la pregunta incorrecta. En lugar de preocuparse por los infinitos, deberían haberse centrado en conectar lo pequeño con lo enorme.

La renormalización es “la versión matemática de un microscopio”, dijo Astrid Eichhorn , física de la Universidad del Sur de Dinamarca que usa la renormalización para buscar teorías de la gravedad cuántica . “Y, a la inversa, puede comenzar con el sistema microscópico y alejar la imagen. Es una combinación de microscopio y telescopio “.

Los imanes salvan el día

Una segunda pista surgió del mundo de la materia condensada, donde los físicos estaban desconcertados sobre cómo un modelo de imán tosco lograba clavar los detalles finos de ciertas transformaciones. El modelo de Ising consistía en poco más que una cuadrícula de flechas atómicas que podían apuntar solo hacia arriba o hacia abajo, sin embargo, predijo los comportamientos de los imanes de la vida real con una perfección improbable.

A bajas temperaturas, la mayoría de los átomos se alinean, magnetizando el material. A altas temperaturas se vuelven desordenadas y la celosía se desmagnetiza. Pero en un punto de transición crítico, coexisten islas de átomos alineados de todos los tamaños. Fundamentalmente, las formas en las que ciertas cantidades varían alrededor de este “punto crítico” parecían idénticas en el modelo de Ising, en imanes reales de diferentes materiales e incluso en sistemas no relacionados como una transición de alta presión donde el agua se vuelve indistinguible del vapor. El descubrimiento de este fenómeno, que los teóricos llamaron universalidad , fue tan extraño como encontrar que los elefantes y las garcetas se mueven precisamente a la misma velocidad máxima.

Los físicos no suelen tratar con objetos de diferentes tamaños al mismo tiempo. Pero el comportamiento universal en torno a los puntos críticos los obligó a tener en cuenta todas las escalas de longitud a la vez.

Leo Kadanoff, un investigador de materia condensada, descubrió cómo hacerlo en 1966. Desarrolló una técnica de “giro en bloque”, rompiendo una cuadrícula de Ising demasiado compleja para abordar de frente en bloques modestos con unas pocas flechas por lado. Calculó la orientación promedio de un grupo de flechas y reemplazó todo el bloque con ese valor. Repitiendo el proceso, suavizó los detalles finos de la celosía, alejándose para asimilar el comportamiento general del sistema.

En la renormalización de bloque-espín, una fina cuadrícula de espines individuales se promedia en bloques progresivamente más grandes.

Finalmente, Ken Wilson, un ex estudiante de posgrado de Gell-Mann con pies en los mundos de la física de partículas y la materia condensada, unió las ideas de Gell-Mann y Low con las de Kadanoff. Su “grupo de renormalización”, que describió por primera vez en 1971 , justificó los tortuosos cálculos de QED y proporcionó una escalera para escalar las escalas de los sistemas universales. El trabajo le valió a Wilson un premio Nobel y cambió la física para siempre.

La mejor manera de conceptualizar el grupo de renormalización de Wilson, dijo Paul Fendley , un teórico de la materia condensada en la Universidad de Oxford, es como una “teoría de teorías” que conecta lo microscópico con lo macroscópico.

Considere la rejilla magnética. A nivel microscópico, es fácil escribir una ecuación que vincule dos flechas vecinas. Pero tomar esa fórmula simple y extrapolarla a billones de partículas es efectivamente imposible. Estás pensando en la escala incorrecta.

El grupo de renormalización de Wilson describe una transformación de una teoría de bloques de construcción a una teoría de estructuras. Empiezas con una teoría de piezas pequeñas, digamos los átomos en una bola de billar. Gire la manivela matemática de Wilson y obtendrá una teoría relacionada que describe grupos de esas piezas, tal vez moléculas de bolas de billar. A medida que sigue girando, se aleja a grupos cada vez más grandes: grupos de moléculas de bolas de billar, sectores de bolas de billar, etc. Con el tiempo, podrás calcular algo interesante, como la trayectoria de una bola de billar completa.

Esta es la magia del grupo de renormalización: ayuda a identificar qué cantidades de imagen grande son útiles para medir y qué detalles microscópicos intrincados se pueden ignorar. Un surfista se preocupa por la altura de las olas, no por los empujones de las moléculas de agua. De manera similar, en la física subatómica, la renormalización les dice a los físicos cuándo pueden lidiar con un protón relativamente simple en contraposición a su maraña de quarks interiores .

El grupo de renormalización de Wilson también sugirió que los problemas de Feynman y sus contemporáneos provenían de tratar de comprender el electrón desde una perspectiva infinita. “No esperamos que [las teorías] sean válidas hasta escalas de [distancia] arbitrariamente pequeñas”, dijo James Fraser , filósofo de la física de la Universidad de Durham en el Reino Unido. , es la forma correcta de hacer un cálculo cuando su teoría tiene un tamaño de cuadrícula mínimo incorporado. “El corte está absorbiendo nuestra ignorancia de lo que está pasando” en niveles más bajos, dijo Fraser.

En otras palabras, QED y el modelo estándar simplemente no pueden decir cuál es la carga desnuda del electrón a cero nanómetros de distancia. Son lo que los físicos llaman teorías “efectivas”. Funcionan mejor en rangos de distancia bien definidos. Descubrir exactamente qué sucede cuando las partículas se vuelven aún más acogedoras es un objetivo importante de la física de altas energías.

De grande a pequeño

Hoy en día, el “proceso dippy” de Feynman se ha vuelto tan omnipresente en la física como el cálculo, y su mecánica revela las razones de algunos de los mayores éxitos de la disciplina y sus desafíos actuales . Durante la renormalización, las alcaparras submicroscópicas complicadas tienden a desaparecer. Pueden ser reales, pero no afectan el panorama general. “La simplicidad es una virtud”, dijo Fendley. “Hay un dios en esto”.

Ese hecho matemático captura la tendencia de la naturaleza a clasificarse en mundos esencialmente independientes. Cuando los ingenieros diseñan un rascacielos, ignoran las moléculas individuales del acero. Los químicos analizan los enlaces moleculares pero permanecen felizmente ignorantes de los quarks y gluones. La separación de los fenómenos por longitud, cuantificada por el grupo de renormalización, ha permitido a los científicos pasar gradualmente de grandes a pequeños a lo largo de los siglos, en lugar de romper todas las escalas a la vez.

Sin embargo, al mismo tiempo, la hostilidad de la renormalización hacia los detalles microscópicos va en contra de los esfuerzos de los físicos modernos que están hambrientos de señales del próximo reino hacia abajo. La separación de escamas sugiere que necesitarán profundizar para superar la afición de la naturaleza por ocultar sus puntos más finos a gigantes curiosos como nosotros.

“La renormalización nos ayuda a simplificar el problema”, dijo Nathan Seiberg , físico teórico del Instituto de Estudios Avanzados de Princeton, Nueva Jersey. Pero “también esconde lo que ocurre a distancias cortas. No puedes tener las dos cosas “.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí