Probablemente el lector esté al tanto de que un grupo de científicos coordinados por Dario Autiero han comprobado, experimento Opera, que unas partículas subatómicas llamadas "neutrinos" pueden viajar más rápidamente que la luz. Aunque ya ha sido cuestionado, si se confirmase el experimento por otros grupos de expertos, y bajo protocolos absolutamente impecables, se abriría una nueva era en la Física.

Fotones y neutrinos

Se simboliza con "c" (del latín "celeritas") –sea cual sea la velocidad concreta de los fotones– la máxima velocidad física posible. La teoría de la relatividad restringida (RR) "prohíbe" transportar energía o información a una velocidad –se entiende siempre en el vacío– superior a c.

Los neutrinos, que, a la par que los fotones, carecen de carga eléctrica, proceden de reacciones nucleares y existen bajo tres formas o "sabores leptónicos" (del griego "leptos", ligero).

El neutrino no pudo ser detectado como entidad hasta 1956. Sin embargo, en 2010, una colaboración internacional de físicos comprobó en Japón la transformación de una forma particular de neutrinos (previsión de Pontecorvo) en otra, fenómeno conocido como "oscilaciones". Las oscilaciones de neutrinos consisten en la transformación de un neutrino de sabor leptónico específico en otro de distinto sabor. Hasta 2010 no se habían observado jamás oscilaciones de neutrinos. Se constataba la desaparición de neutrinos y por procedimientos calculatorios –pero sin soporte empírico– se deducía, desde 1999, que oscilaban hacia otro sabor. Lo que se ha probado en Japón es que los neutrinos poseen masa, desconocida, contrariamente a lo que propugna el modelo estándar de la física de partículas. Es destacable que, teóricamente, los neutrinos solo podrían alcanzar la velocidad de la luz en el vacío si fueran de masa nula como los fotones.

Fuera del vacío, en el agua, la velocidad de la luz se ralentiza y es inferior a la constante c. En ese medio, el agua de los reactores coloreada de azul (efecto Vavilov-Cherenkov), se sabía desde hace tiempo que los neutrinos eran más rápidos que los fotones.

No todo son ventajas en la Teoría de la Relatividad

Sucede que si los neutrinos son más rápidos que los fotones en el vacío la relatividad restringida quiebra por la base. Aun así, leí el otro día en un periódico de Madrid (El País, 6-10-2011) que a pesar del experimento de los neutrinos la RR no puede caer debido a la "teoría cuántica de campos" (QFT, del inglés Quantum Field Theory) al sustentarse en una base empírica muy sólida.

Es cierto que no hay desacuerdo entre la física cuántica y la RR toda vez que la QFT armoniza los dos paradigmas. Sin embargo, en esta teoría la reducción de la función de onda de Schrödinger no se puede tratar con coherencia de forma relativista (a no confundir con la ecuación de Klein-Gordon de la mecánica cuántica relativista). Además, la QFT es incompleta como lo es asimismo el modelo estándar de la física de partículas. Por ejemplo, la QFT fue incapaz de explicar el fenómeno de oscilación de los neutrinos ni de predecir que tienen masa.

Eso no es todo. La QFT está escrita en el marco de un espacio-tiempo fijado, un escenario indeformable en el que se desenvuelven los fenómenos físicos. Este espacio-tiempo carece de curvatura y es por tanto incompatible con la relatividad general (RG) que propone un espacio en cierta medida "elástico". De hecho, la mecánica cuántica es incompatible con la RG. Por ello, siendo imposible desembarazarse de la mecánica cuántica urge deslastrarse de la teoría de la relatividad (TR) en su versión actual a menos que sobre dinero para financiar quiméricas investigaciones de la Teoría del Todo, inalcanzable Grial.

Entrelazamiento cuántico

Para mi sorpresa, pues generalmente se silencia, el articulista del periódico madrileño arriba señalado, apunta muy atinadamente al "entrelazamiento cuántico" –que él llama "dúo enlazado"– como enigma mayor de la TR.

En efecto, en un artículo publicado en 1935, que dio lugar a lo que se conoce como "la paradoja EPR", Einstein, Podolsky y Rosen pretendieron resaltar ciertas incoherencias predictivas de la mecánica cuántica. La capacidad predictiva de la mecánica cuántica llevaba a la correlación de partículas procedentes de un mismo foco. Entrelazamiento cuántico (entangled/intriqué) que, según EPR, mostraba la incompletitud de la mecánica cuántica puesto que el entrelazamiento era incompatible con el "realismo local". El realismo local propone que cada partícula debe tener un estado bien definido sin necesidad de recibir ningún tipo de información o influencia de otros sistemas.

Años después, John S. Bell se interesó a la cuestión. Las desigualdades de Bell, cristalización de su trabajo (1964), dejaron la puerta abierta a una comprobación empírica que permitiera probar quien tenía razón. Pero los medios técnicos de la época no amparaban un experimento de ese nivel. Hasta que un modesto cooperante francés en África, Alain Aspect, dio con el trabajo de Bell y años después –1982, Orsay– probó el entrelazamiento cuántico de dos fotones separados espacialmente. Es decir, lo que le ocurría a uno de los fotones le ocurría instantáneamente al otro. Dejando de lado ahora la decoherencia de los sistemas macroscópicos, es como si el lector y yo, separados por cientos de kilómetros, tiráramos al azar en el mismo momento un dado cada uno, fabricados del mismo hueso, y ambos coincidiéramos en sacar el mismo número, esto es el 1 en ambos dados, o el 6, o el 4, etc. Al cabo de múltiples coincidencias, repetidas además con más de dos dados con un origen común, llegaríamos a la conclusión –si no creyéramos en la magia– que entre los dados habría una transmisión de información instantánea, superior a la velocidad de la luz.

Bajo la presión de la ortodoxia relativista los físicos impusieron una especie de restricción axiomática, por una parte, negando que se tratase de transmisión de información so pretexto de paradojas lógico-causales. Por otra, la ortodoxia dominante ha intentado desbaratar la no-localidad que se deriva del experimento de Aspect.

Intentando substituir la no-localidad por el realismo local de EPR, dos partículas creadas conjuntamente, vienen a decir –como los dados de un mismo hueso– incluso separadas decenas de kilómetros se comportan como si fueran el mismo sistema desde el momento que se encuentran en un estado de entrelazamiento cuántico. Empero, lo cierto es que no han conseguido nada definitivo: la no-localidad que refleja el experimento de Aspect entra en grave conflicto con la teoría de la relatividad.

En definitiva, en aras de evitar la no-localidad, se impone al entrelazamiento de partículas una especie de vínculo que lo convierte en un mismo sistema –dos corazones enamorados que laten al unísono son el "mismo" corazón– aunque los fotones se encuentren a 144 kilómetros de distancia. 144 kilómetros es, precisamente, la distancia que separaba a los fotones en el experimento de entrelazamiento cuántico del equipo de Anton Zeilinger (2007).

¿Pueden los neutrinos tomar atajos?

En ciencia ficción, "La puerta de las estrellas" –que es la denominación novelesca de lo que en cosmología se denomina "Agujeros de gusanos" (Wormhole/ Trou de ver)– permite atajos entre dos puntos muy alejados del espacio-tiempo en un universo de materia exótica. Saltando en un hipotético agujero de gusano se saldría casi instantáneamente al otro extremo de la galaxia. Aunque ínsito en la relatividad general, este enfoque, sin mínima base empírica, sugiere que dos puntos del espacio pueden estar conectados por itinerarios alternativos, uno más corto que el otro. Es esto, al parecer, lo que justifica que algunos digan que los neutrinos del experimento Opera no han viajado más rápido que c sino que han trampeado tomando un túnel/atajo.

Thorne y su equipo, que teorizan estas conjeturas –inspiradas de "Contact", novela de ciencia ficción de Carl Sagan– sugieren que un agujero de gusano estable podría utilizarse como máquina de remontar el tiempo hacia adelante o hacia atrás. Así se dilapida el dinero de los contribuyentes.

Más razonablemente, el Universo de Kurt Gödel es una solución exacta, publicada en 1949, de las ecuaciones de campo de la RG (con constante cosmológica). La solución describe un universo en rotación. En este universo un observador podría viajar en el espacio para alcanzar su pasado. Aunque ninguna observación prueba que el universo en su conjunto esté en rotación, la solución de Gödel demuestra que la vuelta al pasado no está conceptualmente prohibida por la TR, y ello sin necesidad de sobrepasar c.

La solución de Gödel tiene, al menos, el mérito de ilustrarnos respecto a la concepción del tiempo en la RG. Además, el universo de Gödel está compuesto de materia pulverulenta, no exótica, en contraste con el Universo de "los agujeros de gusano".

Expansión del Universo a velocidad superior a "c"

En relación con el Nobel de física de este año y la velocidad superlumínica cabe decir que, por lo que respecta a la expansión del Universo, en la métrica surgida de la cosmología derivada de la RG el espacio que contiene los objetos astrofísicos, la distancia entre ellos, se amplía por expansión. Es como si los objetos permaneciesen inmóviles y el espacio que los separa se dilatase. Por tanto, como no son los objetos los que se desplazan sino el espacio entre ellos, la velocidad de expansión de este espacio –o de la distancia entre los objetos astrofísicos– no tiene porque estar sometida a la restricción respecto a la velocidad de la luz que impone la RR. Es decir, el espacio entre los objetos astrofísicos puede expandirse a una velocidad superior a la de la luz en el vacío. La única restricción es que los objetos astrofísicos no aumenten de talla con la expansión y que se trate de objetos "suficientemente" alejados.

Si en un globo pintáramos dos estrellas, al hinchar el globo la distancia entre las estrellas aumentaría pero el tamaño de las estrellas también. Ahora bien, si pegamos dos estrellas de papel en el globo, al hincharlo la distancia entre las estrellas aumenta pero el tamaño de las mismas no. El primer caso sería problemático; el segundo, no.

Modelos cosmológicos con "c" variable

En breve acotación, no debe silenciarse que, en 1992, John Moffat propuso que la velocidad de la luz en el origen del universo –tiempo de Planck– había sido mucho más elevada, del orden 10 potencia 33 veces superior, que su valor corriente. El enfoque cosmológico de Moffat contempla una velocidad de la luz variable que no afecta a la RG al imponer que el cociente entre G, constante de gravitación universal, y c sea constante en el tiempo. Los trabajos de Moffat pasaron prácticamente desapercibidos al publicarse en revistas sin gran relieve. El pionero en el campo VSL (del inglés "Variable Speed of Light"), incluso más desconocido que Moffat, fue en realidad el astrofísico francés Jean-Pierre Petit que en 1988 publicó un artículo con c variable.

A partir de 1998 hay que asociar a los trabajos de la VSL los nombres, entre otros, de los teóricos João Magueijo –el más radical y arrojado intelectualmente– Andrew Albrecht, John D. Barrow, Lee Smolin, etc. y del astrónomo John Webb.

En veinte años, la Teoría de la Relatividad, si subsiste, tendrá poco que ver con la que se explica hoy día.