VICHADA... Sí Aprende
La Mejor Tierra del Mundo

EL GRAN DISEÑO - Stephen Hawking -.



Stephen Hawking
Leonard Mlodinow
El Gran Diseño
 
 
            Traducción castellana de David Jou i Mirabent,
            Catedrático de Física de la Materia Condensada de la Universidad Autónoma de Barcelona
 
 
1 EL MISTERIO DEL SER
 
 
             CADA UNO DE NOSOTROS EXISTE DURANTE UN TIEMPO muy breve, y en dicho intervalo tan sólo explora una parte diminuta del conjunto del universo. Pero los humanos somos una especie marcada por la curiosidad. Nos preguntamos, buscamos respuestas. Viviendo en este vasto mundo, que a veces es amable y a veces cruel, y contemplando la inmensidad del firmamento encima de nosotros, nos hemos hecho siempre una multitud de preguntas. ¿Cómo podemos comprender el mundo en que nos hallamos? ¿Cómo se comporta el universo? ¿Cuál es la naturaleza de la realidad? ¿De dónde viene todo lo que nos rodea? ¿Necesitó el universo un Creador? La mayoría de nosotros no pasa la mayor parte de su tiempo preocupándose por esas cuestiones, pero casi todos nos preocupamos por ellas en algún instante.
 
             Tradicionalmente, ésas son cuestiones para la filosofía, pero la filosofía ha muerto. La filosofía no se ha mantenido al corriente de los desarrollos modernos de la ciencia, en particular de la física. Los científicos se han convertido en los portadores de la antorcha del descubrimiento en nuestra búsqueda de conocimiento. El objetivo de este libro es proporcionar las respuestas sugeridas por los descubrimientos y los progresos teóricos recientes, que nos conducen a una nueva imagen del universo y de nuestro lugar en él, muy diferente de la tradicional, e incluso de la imagen que nos habíamos formado hace tan sólo una o dos décadas. Aun así, los primeros bosquejos de esos nuevos conceptos se remontan a hace casi un siglo.
 
             Según la concepción tradicional del universo, los objetos se mueven a lo largo de caminos bien definidos y tienen historias bien definidas. Podemos especificar sus posiciones precisas en cada instante. Aunque esa descripción es suficientemente satisfactoria para los propósitos cotidianos, se descubrió en la década de 1920 que esta imagen «clásica» no podía describir el comportamiento aparentemente extraño observado a escalas atómica y subatómica de la existencia. Fue necesario adoptar, en su lugar, un marco diferente, denominado física cuántica. Las teorías cuánticas han resultado ser notablemente precisas en la predicción de acontecimientos a dichas escalas, y también reproducen las predicciones de las viejas teorías clásicas cuando son aplicadas al mundo macroscópico de la vida corriente. Pero la física clásica y la cuántica están basadas en concepciones de la realidad física muy diferentes. Las teorías cuánticas pueden ser formuladas de muchas maneras diferentes, pero la descripción probablemente más intuitiva fue elaborada por Richard (Dick) Feynman (1918-1988), todo un personaje, que trabajó en el Instituto Tecnológico de California y que tocaba los bongos en una sala de fiestas de carretera. Según Feynman, un sistema no tiene una sola historia, sino todas las historias posibles. Cuando profundicemos en las respuestas, explicaremos la formulación de Feynman con detalle y la utilizaremos para explorar la idea de que el propio universo no tiene una sola historia, ni tan siquiera una existencia independiente. Eso parece una idea radical, incluso a muchos físicos. En efecto, como muchas otras nociones de la ciencia actual, parece violar el sentido común. Pero el sentido común está basado en la experiencia cotidiana y no en el universo tal como nos lo revelan las maravillas tecnológicas que nos permiten observar la profundidad de los átomos o el universo primitivo.
 
             Hasta la llegada de la física moderna se acostumbraba a pensar que todo el conocimiento sobre el mundo podría ser obtenido mediante observación directa, y que las cosas son lo que parecen, tal como las percibimos a través de los sentidos. Pero los éxitos espectaculares de la física moderna, que está basada en conceptos, como por ejemplo los de feynman, que chocan con la experiencia cotidiana, han demostrado que no es así. Por lo tanto, la visión ingenua de la realidad no es compatible con la física moderna. Para tratar con esas paradojas, adoptaremos una posición que denominamos «realismo dependiente del modelo», basada en la idea de que nuestros cerebros interpretan los datos de los órganos sensoriales elaborando un modelo del mundo. Cuando el modelo explica satisfactoriamente los acontecimientos tendemos a atribuirle, a él y a los elementos y conceptos que lo integran, la calidad de realidad o verdad absoluta. Pero podría haber otras maneras de construir un modelo de la misma situación física, empleando en cada una de ellas conceptos y elementos fundamentales diferentes. Si dos de esas teorías o modelos predicen con exactitud los mismos acontecimientos, no podemos decir que uno sea más real que el otro, y somos libres para utilizar el modelo que nos resulte más conveniente.
 
             En la historia de la ciencia hemos ido descubriendo una serie de teorías o modelos cada vez mejores, desde Platón a la teoría clásica de Newton y a las modernas teorías cuánticas. Resulta natural preguntarse si esta serie llegará finalmente a un punto definitivo, una teoría última del universo que incluya todas las fuerzas y prediga cada una de las observaciones que podamos hacer o si, por el contrario, continuaremos descubriendo teorías cada vez mejores, pero nunca una teoría definitiva que ya no pueda ser mejorada. Por el momento, carecemos de respuesta a esta pregunta, pero conocemos una candidata a teoría última de todo, si realmente existe tal teoría, denominada teoría M. La teoría M es el único modelo que posee todas las propiedades que creemos debería poseer la teoría final, y es la teoría sobre la cual basaremos la mayor parte de las reflexiones ulteriores.
 
             La teoría M no es una teoría en el sentido habitual del término, sino toda una familia de teorías distintas, cada una de las cuales proporciona una buena descripción de las observaciones pero sólo en un cierto dominio de situaciones físicas. Viene a ser como un mapamundi: como es bien sabido, no podemos representar la superficie de toda la Tierra en un solo mapa. La proyección Mercator utilizada habitualmente en los mapamundis hace que las regiones del mundo parezcan tener áreas cada vez mayores a medida que se aproximan al norte y al sur, y no cubre los polos Norte o Sur. Para representar fielmente toda la Tierra se debe utilizar una colección de mapas, cada uno de los cuales cubre una región limitada. Los mapas se solapan entre sí y, donde lo hacen, muestran el mismo paisaje. La teoría M es parecida a eso.
 
             Las diferentes teorías que constituyen la familia de la teoría M pueden parecer muy diferentes, pero todas ellas pueden ser consideradas como aspectos de la misma teoría subyacente. Son versiones de la teoría aplicables tan sólo en dominios limitados, por ejemplo cuantío ciertas magnitudes como la energía son pequeñas. Tal como ocurre con los mapas que se solapan en una proyección Mercator, allí donde los dominios de validez de las diferentes teorías se solapan, éstas predicen los mismos fenómenos. Pero así como no hay ningún mapa plano que represente bien el conjunto de la superficie terrestre, tampoco hay una teoría que proporcione por sí sola una buena representación de las observaciones físicas en todas las situaciones.
 
             Describiremos cómo la teoría M puede ofrecer respuestas a la pregunta de la creación. Según las predicciones de la teoría M, nuestro universo no es el único, sino que muchísimos otros universos fueron creados de la nada. Su creación, sin embargo, no requiere la intervención de ningún Dios o Ser Sobrenatural, sino que dicha multitud de universos surge naturalmente de la ley física: son una predicción científica. Cada universo tiene muchas historias posibles y muchos estados posibles en instantes posteriores, es decir, en instantes como el actual, transcurrido mucho tiempo desde su creación. La mayoría de tales estados será muy diferente del universo que observamos y resultará inadecuada para la existencia de cualquier forma de vida. Sólo unos pocos de ellos permitirían la existencia de criaturas como nosotros. Así pues, nuestra presencia selecciona de este vasto conjunto sólo aquellos universos que son compatibles con nuestra existencia. Aunque somos pequeños e insignificantes a escala cósmica, ello nos hace en un cierto sentido señores de la creación.
 
             Para comprender el universo al nivel más profundo, necesitamos saber no tan sólo cómo se comporta el universo, sino también por qué.
 
             ¿ Por qué hay algo en lugar de no haber nada ?
 
             ¿ Por qué existimos?
 
             ¿ Por qué este conjunto particular de leyes y no otro?
 
             Esta es la cuestión última de la vida, el universo y el Todo. Intentaremos responderla en este libro. A diferencia de la respuesta ofrecida en la Guía de la galaxia, de Hitchhiker, nuestra respuesta no será, simplemente, «42».
 
2 LAS REGLAS DE LA LEY
 
             Skoll el lobo asustará a la Luna hasta que vuele al bosque de la Aflicción; Hati el lobo, del linaje de Hridvitnir, perseguirá al Sol.
 
             «Grimnismal», Edda mayor
 
             En la MITOLOGÍA VIKINGA, Skoll y Hati cazaron el Sol y la Luna. (Alando los lobos atrapan a uno de ellos, hay un eclipse. Cuando eso ocurre, los habitantes de la Tierra se apresuran a rescatar el Sol o la Luna haciendo tanto ruido como pueden, esperando asustar a los lobos. Hay mitos semejantes en otras culturas. Pero al cabo de un tiempo, la gente se fue dando cuenta de que el Sol y la Luna volvían a emerger poco después del eclipse, tanto si ellos corrían, chillaban y hacían ruido como si no lo hacían. Al cabo de un tiempo, se tuvieron que dar cuenta de que los eclipses no se producen al azar, sino en patrones regulares que se repiten. Esos patrones resultaban más obvios para los eclipses de Luna, y permitieron a los antiguos babilonios predecir con considerable exactitud eclipses lunares, aunque no se dieron cuenta de que los produjera la Tierra al interceptar la luz del Sol. Los eclipses de Sol fueron más difíciles de predecir, porque sólo son visibles en un corredor de unos sesenta kilómetros de ancho sobre la Tierra. Aun así, una vez nos damos cuenta de dichos patrones, resulta claro que los eclipses no dependen de las veleidades de seres sobrenaturales, sino que están gobernados por leyes.
 
             A pesar de algunos éxitos tempranos en la predicción de los movimientos de los cuerpos celestes, la mayoría de los fenómenos de la naturaleza pareció imposible de predecir para nuestros antepasados. Volcanes, terremotos, tempestades, epidemias y uñas de los pies creciendo hacia dentro parecían producirse sin causas obvias ni regularidades manifiestas. En la Antigüedad, resultaba natural adscribir los actos violentos de la naturaleza a un panteón de deidades traviesas o malévolas. Las calamidades eran consideradas a menudo como una señal de que se había ofendido a los dioses. Por ejemplo, hacia 4800 a. C, un volcán en el monte Mazama en Oregón explotó, haciendo que durante largo tiempo lloviera roca y ceniza ardientes y provocando años de lluvia, que al final llenaron el cráter volcánico, llamado hoy lago Cráter. Los indios klamath de Oregón tienen una leyenda que se ajusta perfectamente a cada uno de los detalles geológicos de aquel acontecimiento, pero le añade un poco de dramatismo atribuyendo a un humano la causa de la catástrofe. La capacidad humana para sentirse culpable es tal que siempre podemos hallar maneras de acusarnos a nosotros mismos. Según la leyenda, Llao, el jefe del Mundo Inferior, se enamora de la hermosa hija del jefe de los klamath. Ella lo rechaza y, en revancha, Llao intenta destruir a los klamath con fuego. Afortunadamente, según la leyenda, Skell, el jefe del Mundo Superior, se apiada de los humanos y lucha contra su homónimo del Mundo Inferior. Al final Llao, malherido, cae dentro del monte Mazama, dejando un agujero enorme, el cráter que al final fue llenado por el agua.
 
             La ignorancia de las formas de actuar de la naturaleza condujo a los antiguos a inventar dioses que dominaban cada uno de los aspectos de la vida humana. Había dioses del amor y de la guerra, del sol, la tierra y el cielo, de los ríos y los océanos, de la lluvia y los truenos, e incluso de los terremotos y los volcanes. Cuando los dioses estaban satisfechos, la humanidad era obsequiada con buen tiempo, paz y ausencia de desastres naturales y de enfermedades. Cuando estaban enfadados, en cambio, venían las sequías, guerras, pestes y epidemias. Como la relación entre causas y efectos en la naturaleza resultaba invisible a ojos de los antiguos, esos dioses les parecían inescrutables y se sentían a su merced. Pero con Tales (r. 624-546 a. C.,), unos 2.600 a. C, eso empezó a cambiar. Surgió la idea de que la naturaleza sigue unos principios consistentes que podrían ser descifrados, y así empezó el largo proceso de reemplazar la noción del reinado de los dioses por la de un universo regido por leyes de la naturaleza y creado conforme a un plan que algún día aprenderemos a leer.
 
             Vista a escala de la historia humana, la indagación científica es una empresa muy reciente. Nuestra especie, el Homo sapiens, surgió en el África subsahariana hace unos doscientos mil años. El lenguaje escrito empezó apenas unos siete mil años a. C, como producto de sociedades centradas en el cultivo de gramíneas. (Algunas de las inscripciones más antiguas se refieren a la ración diaria de cerveza consentida a cada ciudadano.) Los documentos escritos más antiguos de la gran civilización de Grecia datan del siglo ix a. C, pero la cumbre de dicha civilización, llamada el «período clásico», llegó varios siglos después, un poco antes del año 500 a. C. Según Aristóteles (384-322 a. C.) fue en aquella época cuando Tales de Mileto — una ciudad que hoy forma parte de la Turquía occidental— formuló por primera vez la idea de que el mundo puede ser comprendido, y de que los complejos acontecimientos que nos rodean podrían ser reducidos a principios simples y ser explicados sin necesidad de recurrir a interpretaciones teológicas o míticas.
 
             Se atribuye a Tales la primera predicción de un eclipse solar en 585 a. C, aunque la exactitud de su predicción fue seguramente una mera conjetura afortunada. Fue una figura algo desvaída, que no dejó escritos. Su casa era uno de los centros intelectuales de una región llamada Jonia, que fue colonizada por los griegos y ejerció una influencia que llegó a extenderse desde Turquía hasta Italia. La ciencia jónica fue una empresa marcada por un intenso interés por descubrir las leyes fundamentales que explicasen los fenómenos naturales, un hito formidable en la historia del pensamiento humano. Su formulación era racional y en muchos casos condujo a conclusiones sorprendentemente parecidas a las de nuestros métodos más sofisticados. Aunque representó un gran comienzo, con el paso de los siglos una gran parte de la ciencia jónica fue olvidada, para ser redescubierta o reinventada mucho más tarde, en algunos casos más de una vez.
 
             Según la leyenda, la primera formulación matemática de lo que hoy llamaríamos una ley de la naturaleza data de un jonio llamado Pitágoras (e. 580-490 a.C), famoso por un teorema que lleva su nombre, a saber, que el cuadrado de la hipotenusa (el lado más largo) de un triángulo rectángulo es igual a la suma de los cuadrados de los catetos (los otros dos lados). Se dice que Pitágoras descubrió las relaciones numéricas entre las longitudes de las cuerdas utilizadas en los instrumentos musicales y las combinaciones armónicas de los sonidos. En lenguaje actual, describiríamos dicha relación diciendo que la frecuencia —el número de vibraciones por segundo— de una cuerda que vibra bajo una determinada tensión es inversamente proporcional a su longitud. Desde el punto de vista práctico, ello explica por qué en una guitarra las cuerdas más cortas producen un tono más elevado, un sonido más agudo, que las cuerdas más largas. En realidad, es probable que Pitágoras no lo descubriera —tampoco descubrió el teorema que lleva su nombre— pero hay evidencias de que en su época se conocía alguna relación entre la longitud de la cuerda y el tono del sonido producido. Si realmente es así, se podría decir que dicha fórmula matemática sencilla constituye el primer ejemplo de lo que conocemos hoy como física teórica.
 
             Aparte de la ley pitagórica de las cuerdas, las únicas leyes físicas que fueron conocidas correctamente por los antiguos fueron tres leyes formuladas por Arquímedes (Y. 287-212 a. C), que es, sin lugar a dudas, el físico más eminente de la Antigüedad. En la terminología actual, la ley de la palanca explica que pequeñas fuerzas pueden elevar grandes pesos porque la palanca amplifica una fuerza según la razón de las distancias al fulcro o punto de apoyo de la palanca. La ley de la flotación establece que cualquier objeto inmerso en un fluido experimenta una fuerza hacia arriba, o empuje, igual al peso del Huido desalojado. Y la ley de la reflexión afirma que el ángulo de un haz, de luz reflejado en un espejo es igual al ángulo del haz de luz incidente en el espejo. Pero Arquímedes no las denominó leyes ni las explicó a partir de observaciones y medidas, sino que las trató como si fueran teoremas puramente matemáticos, de una manera axiomática muy parecida a la que Euclides creó para la geometría.
 
             A medida que se difundió la influencia jónica, otros pueblos fueron viendo que el universo posee un orden interno, que podría llegar a ser comprendido mediante la observación y la razón. Anaximandro (610-546 a. C), amigo y probablemente discípulo de Tales, argüyó que como los niños están indefensos al nacer, si el primer humano hubiera aparecido sobre la tierra como un niño no habría podido sobrevivir. En lo que puede haber sido la primera intuición de la evolución, Anaximandro razonó que, por lo tanto, los humanos deberían haber evolucionado a partir de otros animales cuyos retoños fueran más resistentes. En Sicilia, Empédocles (490-430 a. C.) analizó cómo se comportaba un instrumento denominado clepsidra. Utilizado a veces como cucharón, consistía en una esfera con un cuello abierto y pequeños orificios en su fondo. Al ser sumergida en agua se llenaba y, si su cuello se tapaba, se podía elevar la esleía sin que el agua cayera por los agujeros. Empedocles descubrió que si primero se tapa su cuello y después se sumerge, la clepsidra no se llena. Razonó, pues, que algo invisible debe estar impidiendo que el agua entre a la esfera por los agujeros —había descubierto la sustancia material que llamamos aire.
 
             I lacia la misma época, Demócrito (460-370 a. C), de una colonia jónica del norte de Grecia, se preguntó qué ocurre cuando rompemos o cortamos un objeto en pedazos. Argumentó que no deberíamos poder seguir indefinidamente ese proceso y postuló que todo, incluidos los seres vivos, está constituido por partículas elementales que no pueden ser cortadas ni descompuestas en partes menores. Llamó a esas partículas átomos, del adjetivo griego «indivisible». Demócrito creía que todo proceso material es el resultado de colisiones atómicas. En su interpretación, denominada «atomismo», todos los átomos se mueven en el espacio y, a no ser que sean perturbados, se mueven adelante indefinidamente. En la actualidad, esta idea es llamada ley de la inercia.
 
             La revolucionaria idea de que no somos más que habitantes ordinarios del universo y no seres especiales que se distingan por vivir en su centro, fue sostenida por primera vez por Aristarco (c. 310-230 a. C), uno de los últimos científicos jonios. Sólo nos ha llegado uno de sus cálculos, un complicado análisis geométrico de las detalladas observaciones que realizó sobre el tamaño de la sombra de la Tierra sobre la Luna durante un eclipse lunar. A partir de sus datos concluyó que el Sol debe ser mucho mayor que la Tierra. Inspirado quizá por la idea de que los objetos pequeños deben girar alrededor de los grandes, y no al revés, fue la primera persona que sostuvo que la Tierra no es el centro de nuestro sistema planetario, sino que ella, como los demás planetas, gira alrededor del Sol, que es mucho mayor. Hay tan sólo un pequeño paso desde la constatación de que la Tierra es un simple planeta como los demás a la idea de que tampoco nuestro Sol tiene nada de especial. Aristarco supuso que éste era el caso y pensó que las estrellas que vemos en el cielo nocturno no son, en realidad, más que soles distantes.
 
             Los jonios constituyeron una de las muchas escuelas de la filosofía griega antigua, cada una de ellas con tradiciones diferentes y a menudo contradictorias. Desgraciadamente, la visión jónica de la naturaleza —a saber, que puede ser explicada mediante leyes generales y reducida a un conjunto sencillo de principios— ejerció una influencia poderosa, pero sólo durante unos pocos siglos. Una razón es que las teorías jónicas parecían no dejar lugar a la noción de libre albedrío ni de finalidad, ni a la idea de que los dioses intervienen en los avatares del mundo. Se trataba de omisiones inquietantes, tan profundamente incómodas para muchos pensadores griegos como lo siguen siendo aún para mucha gente en la actualidad. El filósofo Epicuro (c. 341-270 a. C), por ejemplo, se opuso al atomismo basándose en que «es mejor seguir los mitos sobre los dioses que convertirse en un "esclavo" del destino según los filósofos de la naturaleza». También Aristóteles rechazó el concepto de átomo porque no podía aceptar que los humanos estuviéramos hechos de objetos inanimados y sin alma. La idea jónica de que el universo no está centrado en los humanos constituyó un hito en nuestra comprensión del cosmos, aunque esa idea fue olvidada y no fue recuperada o aceptada comúnmente hasta Galileo, casi veinte siglos más tarde.
 
             Por penetrantes que fueran algunas de las especulaciones jónicas sobre la naturaleza, la mayoría de sus ideas no pasarían como ciencia válida en un examen moderno. Una razón es que, como los griegos todavía no habían inventado el método científico, sus teorías no fueron desarrolladas para ser verificadas experimentalmente. Así pues, si un estudioso afirmaba que un átomo se movía en línea recta hasta que chocaba con un segundo átomo, y otro afirmaba que se movía en línea recta hasta que chocaba con un cíclope, no había manera objetiva de zanjar la discusión. Tampoco había una diferencia clara entre las leyes humanas y las leyes físicas. En el siglo v a. C, por ejemplo, Anaximandro escribió que todas las cosas surgieron de una sustancia primordial y a ella retornarán, «a menos que paguen pena y castigo por su iniquidad». Y según el filósofo jonio Heráclito (535-475 a. C), el Sol se comporta como lo hace porque de otro modo la diosa de la justicia lo expulsaría del cielo. Varios siglos después, los estoicos, una escuela de filósofos griegos surgida hacia el siglo III a. C, establecieron una distinción entre los estatutos humanos y las leyes naturales, pero incluyeron reglas de conducta humana que consideraron universales —tales como la veneración a los dioses y la obediencia a los padres— en la categoría de leyes naturales. Recíprocamente, a menudo describieron los procesos físicos en términos legales y creyeron necesario reforzar dichas leyes, aunque los objetos que debían «obedecerlas» fueran inanimados. Si ya nos parece difícil conseguir que los humanos respeten las leyes de tráfico, imaginemos lo que sería convencer a un asteroide a moverse a lo largo de una elipse.
 
             Esa tradición continuó influyendo a los pensadores que, muchos siglos después, sucedieron a los griegos. En el siglo XIII, el filósofo cristiano Tomás de Aquino (1225-1274) adoptó esa perspectiva y la usó para argumentar a favor de la existencia de Dios, escribiendo que «es claro que los (objetos inanimados) alcanzan su fin no por azar sino por intención... Por lo tanto, existe un ser personal inteligente por quien todo en la naturaleza está ordenado a su fin». Incluso tan tarde como el siglo xvi, el gran astrónomo alemán Johannes Kepler (1571-1630) creyó que los planetas tenían percepción sensorial y seguían conscientemente leyes de movimiento captadas por su «mente».
 
             La noción de que las leyes de la naturaleza habían de ser obedecidas intencionalmente refleja la prioridad de los antiguos en averiguar porqué la naturaleza se comporta como lo hace en lugar de cómo lo hace. Aristóteles fue uno de los proponentes más influyentes de esta formulación, rechazando la idea de una ciencia basada principalmente en la observación. Las medidas precisas y los cálculos matemáticos eran, de todas formas, difíciles en la Antigüedad. La notación numérica en base decimal que nos resulta tan conveniente para los cálculos aritméticos data tan sólo de hacia el siglo VII de nuestra era, cuando los hindúes realizaron los primeros grandes pasos para convertir este recurso en un instrumento poderoso. Los signos más y menos para la suma y la resta tuvieron que esperar al siglo xv, y el signo igual y los relojes capaces de medir el tiempo en segundos no existieron antes del siglo xvi.
 
             Aristóteles, sin embargo, no consideró los problemas de medida y de cálculo como un impedimento para desarrollar una física capaz de llegar a predicciones cuantitativas. Más bien, no vio necesidad de hacer tales predicciones y construye) su física sobre principios que le parecían intelectualmente atractivos, descartando los hechos, que consideraba poco atractivos. Así, enfocó sus esfuerzos hacia las razones por las cuales las cosas ocurren c invirtió relativamente poca energía en detallar con exactitud lo que estaba ocurriendo. Aristóteles modificaba adecuadamente sus conclusiones cuando el desacuerdo de éstas con las observaciones era tan flagrante que no podía ser ignorado, pero sus ajustes eran a menudo simples explicaciones ad hoc que hacían poco más que tapar las contradicciones. Así, por muy claramente que una teoría se desviara de lo que ocurre en realidad, siempre podía alterarla lo suficiente para que pareciera que el conflicto había sido eliminado. Por ejemplo, su teoría del movimiento especificaba que los cuerpos pesados caen con velocidad constante, proporcional a su peso. Para explicar que los objetos manifiestamente adquieren velocidad a medida que van cayendo, inventó un nuevo principio, a saber, que los cuerpos están más contentos y, por lo tanto, se aceleran a medida que se acercan a su posición natural de reposo, un principio que hoy parece describir más adecuadamente a algunas personas que a objetos inanimados. Aunque a menudo las teorías de Aristóteles tenían escaso poder predictivo, su forma de considerar la ciencia domine) el pensamiento occidental durante unos dos mil años.
 
             Los sucesores cristianos de los griegos se opusieron a la noción de que el universo está regido por una ley natural indiferente y también rechazaron la idea de que los humanos no tienen un lugar privilegiado en el universo. Y aunque en el período medieval no hubo un sistema filosófico coherente único, un tema común fue que el universo es la casa de muñecas de Dios y que la religión era un tema mucho más digno de estudio que los fenómenos de la naturaleza. En efecto, en 1277 el obispo Tempier de París, siguiendo las instrucciones del papa Juan XXI, publicó una lista de 219 errores o herejías que debían ser condenados. Entre dichas herejías estaba la idea de que la naturaleza sigue leyes, porque ello entra en conflicto con la omnipotencia de Dios. Resulta interesante saber que el papa Juan XXI falleció por los efectos de la ley de la gravedad unos meses más tarde, al caerle encima el techo de su palacio.
 
             El concepto moderno de leyes de la naturaleza emergió en el siglo XVII. Parece que Kepler fue el primer científico que interprete') este término en el sentido de la ciencia moderna aunque, como hemos dicho, retuvo una versión animista de los objetos físicos. Galileo (1564-1642) no utilizó el término «ley» en la mayoría de sus trabajos científicos (aunque aparece en algunas de las traducciones de ellos). Utilizara o no el término, sin embargo, Galileo descubrió muchas leyes importantes y abogó por los principios básicos de que la observación es la base de la ciencia y de que el objetivo de la ciencia es investigar las relaciones cuantitativas que existen entre los fenómenos físicos. Pero quien formuló por primera vez de una manera explícita y rigurosa el concepto de leyes de la naturaleza tal como lo entendemos hoy fue Rene Descartes (1596-1650).
 
             Descartes creía que todos los fenómenos físicos deben ser explicados en términos de colisiones de masas en movimiento, regidas por tres leyes —precursoras de las tres célebres leyes de Newton. Afirmó que dichas leyes de la naturaleza eran válidas en todo lugar y en todo momento y estableció explícitamente que la obediencia a dichas leyes no implica que los cuerpos en movimiento tengan mente. Descartes comprendió también la importancia de lo que hoy llamamos «condiciones iniciales», que describen el estado de un sistema al inicio del intervalo temporal —sea cual sea— a lo largo del cual intentamos efectuar predicciones. Con un conjunto dado de condiciones iniciales, las leyes de la naturaleza establecen cómo el sistema evolucionara a lo largo del tiempo; pero sin un conjunto concreto de condiciones iniciales, su evolución no puede ser especificada. Si, por ejemplo, en el instante cero una paloma deja caer algo verticalmente, la trayectoria del objeto que cae queda determinada por las leyes de Newton. Pero el resultado será muy diferente según que la paloma, en el instante cero, esté quieta sobre un poste telegráfico o volando a treinta kilómetros por hora. Para aplicar las leyes de la física, necesitamos saber cómo empezó el sistema, o al menos su estado en un instante definido. (También podemos utilizar las leyes para reconstruir la trayectoria de un objeto hacia atrás en el tiempo.)
 
             Cuando esa creencia renovada en la existencia de leyes de la naturaleza fue ganando autoridad, surgieron nuevos intentos de reconciliarla con el concepto de Dios. Según Descartes, Dios podría alterar a voluntad la verdad o la falsedad de las proposiciones éticas o de los teoremas matemáticos, pero no la naturaleza. Creía que Dios promulgaba las leyes de la naturaleza pero que no podía elegir dichas leyes, sino que las adoptaba porque las leyes que experimentamos eran las únicas posibles. Ello parecería limitar la autoridad de Dios, pero Descartes sorteó este problema afirmando que las leyes son inalterables porque constituyen un reflejo de la propia naturaleza intrínseca de Dios. Aunque ello fuera verdad, se podría pensar que Dios tenía la opción de crear una diversidad de mundos diferentes, cada uno de los cuales correspondería a un conjunto diferente de condiciones iniciales, pero Descartes también negó esa posibilidad. Sea cual sea la disposición de la materia en el inicio del universo, argumentó, a lo largo del tiempo evolucionaría hacia un mundo idéntico al nuestro. Ademas, Descartes afirmó que una vez Dios ha puesto en marcha el mundo lo deja funcionar por sí solo.
 
             Una posición semejante fue adoptada por Isaac Newton (1643-1727). Newton consiguió una aceptación amplia del concepto moderno de ley científica con sus tres leyes del movimiento y su ley de la gravedad, que dan razón de las órbitas de la Tierra, la Luna y los planetas y explican fenómenos como las marcas. El puñado de ecuaciones que creó y el elaborado marco matemático que hemos desarrollado a partir de ellas, son enseñados todavía y utilizados por los arquitectos para construir edificios, los ingenieros para diseñar coches, o los físicos para calcular cómo lanzar un cohete para que se pose en Marte. Como escribió el poeta Alexander Pope:
 
             Nature and Nature's laws lay hid in night: Godsaid, Let Newton be! and all was light.
 
             (La Naturaleza y sus leyes yacían en la oscuridad; Dios dijo: ¡Sea Newton!, y todo fue claridad.)
 
             Actualmente, la mayoría de los científicos dirían que una ley de la naturaleza es una regla basada en una regularidad observada y que proporciona predicciones que van más allá de las situaciones inmediatas en que se ha basado su formulación. Por ejemplo, podríamos advertir que el Sol ha salido por el este cada mañana de nuestras vidas, y postular la ley de que «el Sol siempre sale por el este». Esta es una generalización que va más allá de nuestras observaciones limitadas sobre la salida del Sol, y hace predicciones comprobables sobre el futuro. En cambio, una afirmación como «los ordenadores de esta oficina son negros» no es una ley de la naturaleza, porque tan sólo describe los ordenadores de la oficina, pero no hace predicciones como «si en mi oficina compran otro ordenador, será negro».
 
             Nuestra interpretación moderna del término «ley de la naturaleza» es un tema que los filósofos debaten prolijamente, y es bastante más sutil de lo que podríamos imaginar a primera vista. Por ejemplo, el filósofo John W. Carroll comparó la afirmación «todas las esferas de oro tienen menos de un kilómetro de radio» con la afirmación «todas las esferas de uranio 235 tienen menos de un kilómetro de radio». Nuestras observaciones del mundo nos dicen que no hay esferas de oro de radio mayor que un kilómetro, y podemos estar bastante seguros de que nunca las habrá. Sin embargo, no tenemos razón para pensar que nunca las pueda haber, de manera que la afirmación no es considerada como una ley. En cambio, la afirmación «todas las esferas de uranio 235 tienen menos de un kilómetro de radio» podría ser interpretada como una ley de la naturaleza porque, según lo que conocemos sobre física nuclear, si una esfera de uranio 235 sobrepasa un radio de unos siete centímetros y medio se destruiría a sí misma en una explosión nuclear. Por lo tanto, podemos estar seguros de que tales esferas no existen. (¡Ni sería una buena idea intentar hacer una!). Esta distinción importa porque ilustra que no todas las generalizaciones que observamos pueden ser consideradas como leyes de la naturaleza, y que la mayoría de las leyes de la naturaleza existen como parte de un sistema mayor y mutuamente interconectado de leyes.
 
             En la ciencia moderna, las leyes de la naturaleza son formuladas en términos matemáticos. Pueden ser exactas o aproximadas, pero se debe haber constatado que se cumplen sin excepción, si no umversalmente al menos bajo un conjunto estipulado de condiciones. Por ejemplo, sabemos actualmente que las leyes de Newton deben ser modificadas si los objetos se desplazan a velocidades próximas a la de la luz. Aun así, consideramos que las leyes de Newton siguen siendo leyes, porque se cumplen, al menos con un buen grado de aproximación, en las condiciones del mundo cotidiano, en el cual las velocidades que encontramos son mucho menores que la velocidad de la luz.
 
             Si la naturaleza se rige por leyes, surgen tres cuestiones:
 
             1) ¿Cuál es el origen de dichas leyes?
 
             2) ¿Hay algunas excepciones a estas leyes, por ejemplo, los milagros?
 
             3) ¿Hay un solo conjunto posible de leyes?
 
             Estas importantes cuestiones han sido abordadas de maneras muy diversas por científicos, filósofos y teólogos. La respuesta dada tradicionalmente a la primera cuestión —la respuesta de Kepler, Galileo, Descartes y Newton— fue que las leyes eran la obra de Dios. Sin embargo, ello no es más que una definición de Dios como la encarnación de las leyes de la naturaleza. Salvo que se dote a Dios con otros atributos, como por ejemplo ser el Dios del Antiguo Testamento, utilizar a Dios como respuesta a la primera pregunta meramente sustituye un misterio por otro. Así pues, si hacemos intervenir a Dios en la respuesta a la primera cuestión, el embate real llega con la segunda pregunta: ¿hay milagros, excepciones a las leyes?
 
             Las opiniones sobre la respuesta a esa segunda pregunta han estado drásticamente divididas. Platón y Aristóteles, los escritores griegos antiguos más influyentes, mantuvieron que no podía haber excepciones a las leyes. Pero si se adopta el punto de vista bíblico, Dios creó las leyes, pero se le puede rogar, mediante la plegaria, que haga excepciones a ellas —para curar a un enfermo terminal, poner fin inmediatamente a las sequías, o hacer que el croquet vuelva a ser un deporte olímpico—. En oposición al punto de vista de Descartes, casi todos los pensadores cristianos mantuvieron que Dios debe ser capaz de suspender las leyes para hacer milagros. Incluso Newton creyó en milagros de ese tipo: creyó que las órbitas de los planetas seguramente eran inestables, a causa de que la atracción gravitatoria entre los planetas produciría en sus órbitas perturbaciones que crecerían con el tiempo, con el resultado de que los planetas o bien caerían al Sol o bien serían expulsados del sistema solar. Dios debía, pues, estar reiniciando las órbitas, creía él, o «dando cuerda al reloj celeste», sin lo cual éste se pararía. Sin embargo, Pierre-Simon, marqués de Laplace (1749— 1827), conocido habitualmente como Laplace, argüyó que las perturbaciones deberían ser periódicas, es decir, marcadas por ciclos repetidos, en lugar de ser acumulativas. El sistema solar por lo tanto se estabilizaría a sí mismo, y no habría necesidad de la intervención divina para explicar por qué ha sobrevivido hasta el día de hoy.
 
             Es a Laplace a quien se acostumbra a atribuir la primera formulación precisa del determinismo científico: dado el estado del universo en un instante dado, un conjunto completo de leyes determina completamente tanto el futuro como el pasado. Esto excluiría la posibilidad de milagros, o un papel activo de Dios. El determinismo científico que Laplace formuló es la respuesta de los científicos modernos a la segunda pregunta. Es, de hecho, la base de toda la ciencia moderna, y un principio que desempeña un papel importante a lo largo de este libro. Una ley científica no es tal si sólo se cumple cuando algún ser sobrenatural decide no intervenir. Con referencia a esa cuestión, se dice que Napoleón preguntó a Laplace qué papel desempeñaba Dios y que Laplace respondió: «Señor, no he necesitado esta hipótesis».
 
             Como vivimos e interaccionamos con los otros objetos del universo, el deterninismo científico debe cumplirse también para las personas. Muchos, sin embargo, aunque acepten que el determinismo científico rige los procesos físicos, harían una excepción para el comportamiento humano, ya que creen que tienen libre albedrío. Descartes, por ejemplo, para preservar la idea de libre Alberto, afirme) que la mente humana era una cosa diferente del mundo físico y que no seguía sus leyes. En su interpretación, las personas consisten en dos ingredientes: cuerpo y alma. Los cuerpos no son más que máquinas ordinarias, pero el alma no está sujeta a las leyes científicas. Descartes estaba muy interesado en la anatomía y la fisiología y consideró que un órgano diminuto en el centro del cerebro, llamado glándula pineal, era la sede principal del alma. Dicha glándula, creía él, era el lugar donde se forman todos nuestros pensamientos, la fuente de nuestra libre voluntad.
 
             ¿Tenemos libre albedrío? Si lo tenemos, ¿en qué punto del árbol de la evolución se desarrolló? ¿Tienen libre albedrío las algas verdes o las bacterias, o su comportamiento es automático, dentro del reino de las leyes científicas? ‹"Son tan sólo los seres multicelulares los que tienen libre albedrío, o está reservado a los mamíferos? Podemos pensar que un chimpancé está ejerciendo su libre albedrío cuando decide pelar una banana o un gato cuando araña el sola con sus uñas, pero ¿qué ocurre con el gusano denominado Caenorbabdytis elegans, una criatura muy sencilla que consta de tan sólo 959 células? Probablemente nunca piensa para sí: «¡Otra vez, esa insípida bacteria para cenar!» pero, aun así, quizá también tiene preferencias definidas por la comida y, o bien se resignará a una comida poco atractiva o irá a forrajear para buscar algo mejor, según su experiencia reciente. ¿Es eso el ejercicio del libre albedrío?
 
             Aunque sentimos que podemos escoger lo que hacemos, nuestra comprensión de las bases moleculares de la biología demuestra que los procesos biológicos están regidos por las leyes de la física y la química y que, por lo tanto, están tan determinados como las órbitas planetarias. Experimentos recientes en neurociencia corroboran el punto de vista de que es nuestro cerebro físico, siguiendo las leyes conocidas de la ciencia, el que determina nuestras acciones, y no algún agente que exista fuera de esas leyes. Por ejemplo, pacientes sometidos a una operación quirúrgica con anestesia local constataron que al serles estimuladas eléctricamente regiones adecuadas de su cerebro sentían el deseo de mover la mano, el brazo, el pie, o los labios y hablar. Es difícil imaginar cómo podría operar el libre albedrío si nuestro comportamiento está determinado por las leyes físicas, de manera que parece que no somos más que máquinas biológicas y que el libre albedrío es sólo una ilusión.
 
             Aunque concedamos que el comportamiento humano está efectivamente determinado por las leyes de la naturaleza, también parece razonable concluir que el resultado final está determinado de una manera tan complicada y con tantas variables que resulta imposible, en la práctica, predecirlo. Para ello se necesitaría conocer el estado inicial de miles de billones de billones de partículas del cuerpo humano y resolver un número parecido de ecuaciones. Ello llevaría miles de millones de años, y sería un poco tarde para apartarse si la persona opuesta decidiiera propinarnos un golpe.
 
             Como resulta tan impracticable utilizar las leyes físicas subyacentes para predecir el comportamiento humano, adoptamos lo que se llama una teoría efectiva. En física, una teoría efectiva es un marco creado para modelizar algunos fenómenos observados, sin necesidad de describir con todo detalle sus procesos subyacentes. Por ejemplo, no podemos resolver exactamente las ecuaciones que rigen la interacción gravitatoria de cada uno de los átomos del cuerpo de una persona con cada uno de los átomos de la Tierra. Pero a todos los efectos prácticos, la fuerza gravitatoria entre una persona y la Tierra puede ser descrita en términos de unas pocas magnitudes, como la masa total de la persona y de la Tierra y el radio de la Tierra. Análogamente, no podemos resolver las ecuaciones que rigen el comportamiento de los átomos y moléculas complejos, pero hemos desarrollado una teoría efectiva denominada química que proporciona una explicación adecuada de cómo los átomos y las moléculas se comportan en las reacciones químicas, sin entrar en cada uno de los detalles de sus interacciones. En el caso de las personas, como no podemos resolver las ecuaciones que determinan nuestro comportamiento, podemos utilizar la teoría efectiva de que los individuos tienen libre albedrío. El estudio de nuestra voluntad y del comportamiento que se sigue de ella es la ciencia de la psicología. La economía también es una teoría efectiva, basada en la noción de libre albedrío, más el supuesto de que la gente evalúa sus posibles formas de acción alternativas y escoge la mejor. Dicha teoría efectiva sólo es moderadamente satisfactoria en la predicción del comportamiento ya que, como todos sabemos, a menudo las decisiones o no son racionales o están basadas en análisis deficientes de las consecuencias de la elección. Por eso el mundo es un lío.
 
             La tercera pregunta aborda la cuestión de si las leyes que determinan el comportamiento del universo y de los humanos son únicas. Si la respuesta a la primera pregunta es que Dios creó las leyes, entonces esta tercera cuestión se formula como: ¿tuvo Dios una diversidad de opciones para escogerlas? Tanto Aristóteles como Platón creyeron, como Descartes y posteriormente Einstein, que los principios de la naturaleza existen por «necesidad», es decir, porque son las únicas leyes que tienen consistencia lógica. Debido a su creencia en el origen lógico de las leyes de la naturaleza, Aristóteles y sus seguidores sostuvieron que era posible «deducir» dichas leyes sin prestar demasiada atención a cómo la naturaleza se comporta realmente. Eso, y el énfasis en el «por qué» los objetos siguen leyes más que en las leyes específicas que siguen, le condujo a leyes básicamente cualitativas que a menudo eran erróneas y que, en cualquier caso, no resultaron ser demasiado útiles, aunque dominaron el pensamiento científico durante muchos siglos. Sólo mucho más tarde, gente como Galileo se atrevió a desafiar la autoridad de Aristóteles y a observar lo que la naturaleza hacía en realidad, más que lo que la pura «razón» decía que debería hacer.
 
             Este libro está enraizado en el concepto del determinismo científico, que implica que la respuesta a la segunda pregunta es que no hay milagros, o excepciones a las leyes de la naturaleza. Sin embargo, volveremos a tratar de nuevo en profundidad las preguntas uno y tres, las cuestiones de cómo surgieron las leyes y por qué son las únicas posibles. Pero antes, en el capítulo siguiente, nos dedicaremos a la cuestión de qué es lo que describen las leyes de la naturaleza. La mayoría de los científicos dirían que son reflejos matemáticos de una realidad exterior que existe independientemente del observador que la contempla. Pero a medida que vamos examinando nuestra manera de observar nuestro alrededor y de formarnos conceptos sobre él, surge la pregunta de ¿tenemos realmente razones para creer que existe una realidad objetiva?
 
3 ¿QUÉ ES LA REALIDAD?
 
             HACE algunos años el ayuntamiento de Monza, en Italia, prohibió a los propietarios de animales domésticos tener pececitos de colores en peceras redondeadas. El promotor de esta medida la justificó diciendo que es cruel tener a un pez en una pecera con las paredes curvas porque, al mirar hacia fuera, tendría una imagen distorsionada de la realidad. Pero ¿cómo sabemos que nosotros tenemos la visión verdadera, no distorsionada, de la realidad? ¿No podría ser que nosotros mismos estuviéramos en el interior de una especie de pecera curvada y nuestra visión de la realidad estuviera distorsionada por una lente enorme? La visión de la realidad de los pececillos es diferente de la nuestra, pero ¿podemos asegurar que es menos real?
 
             La visión de los pececillos no es como la nuestra pero, aun así, podrían formular leyes científicas que describieran el movimiento de los objetos que observan en el exterior de su pecera. Por ejemplo, a causa de la distorsión, los objetos que se movieran libremente, y que nosotros observaríamos en una trayectoria rectilínea, serían observados por los pececillos como si se movieran en una trayectoria curvada. Sin embargo, los pececillos podrían formular leyes científicas que siempre se cumplirían en su sistema de referencia distorsionado y que les permitirían hacer predicciones sobre el movimiento futuro de los objetos de fuera de la pecera. Sus leyes serían más complicadas que las formuladas en nuestro sistema de referencia, pero la simplicidad es una cuestión de gustos. Si los pececillos formularan tal teoría, deberíamos admitir que tienen una imagen válida de la realidad.
 
             Un ejemplo famoso de diferentes imágenes de la realidad es el modelo introducido hacia el año 150 de nuestra era por Ptolomeo (c. 85-165) para describir el movimiento de los cuerpos celestes. Ptolomeo publicó sus trabajos en un tratado de trece volúmenes, habitualmente conocido en su conjunto con su título en árabe, Almagesto. El Almaqesto empieza explicando los motivos para pensar que la Tierra es esférica, está en reposo en el centro del universo y es despreciablemente pequeña en comparación con la distancia al firmamento. A pesar del modelo heliocéntrico de Aristarco, esas creencias habían sido sostenidas por la mayoría de griegos cultos al menos desde el tiempo de Aristóteles, quien creía, por razones místicas, que la Tierra debería estar en el centro del universo. En el modelo de Ptolomeo, la Tierra estaba inmóvil en el centro y los planetas y las estrellas giraban a su alrededor en órbitas complicadas en que había epiciclos, o círculos cuyos centros giraban a lo largo de otros círculos.
 
             Ese modelo parecía natural, porque no notamos que la Tierra se mueva bajo nuestros pies (salvo en los terremotos o en momentos de pasión). La enseñanza europea posterior estaba basada en las fuentes griegas que nos habían llegado, de manera que las ideas de Aristóteles y Ptolomeo se convirtieron en la principal base del pensamiento occidental. El modelo de cosmos de Ptolomeo fue adoptado por la Iglesia Católica y mantenido como doctrina oficial durante 1.400 años. No fue hasta 1543 cuando un modelo alternativo fue propuesto por Copérnico en su obra De revolutionibus orbium coelestium («Sobre las revoluciones de las esferas celestes»), publicada en el año de su muerte (aunque había estado trabajando en su teoría durante varias décadas).
 
             Copérnico, como Aristarco unos diecisiete siglos antes, describió un universo en que el Sol estaba en reposo y los planetas giraban a su alrededor en órbitas circulares. Aunque la idea no era nueva, su restauración topó con una resistencia apasionada. Se consideró que el modelo copernicano contradecía la Biblia, la cual era interpretada como si dijera que los planetas se movían alrededor de la Tierra, aunque en realidad la Biblia nunca lo afirmaba con claridad. De hecho, en la época en que la Biblia fue escrita la gente creía que la Tierra era plana. El modelo copernicano condujo a un virulento debate sobre si la Tierra estaba o no en reposo, que culminó con el juicio a Galileo por herejía en 1633 por postular el modelo copernicano y por pensar que «se puede defender y sostener como probable una opinión tras haber sido declarada y definida contraria a las Sagradas Escrituras». Fue declarado culpable, confinado a arresto domiciliario para el resto de su vida, y forzado a retractarse. Se dice que en voz baja murmuró Eppur si muove («Aun así, se mueve»). En 1992, la Iglesia Católica romana reconoció finalmente que la condena a Galileo había sido una equivocación.
 
             Así pues, ¿qué sistema se ajusta más a la realidad, el ptolemaico o el copernicano? Aunque es bastante habitual que se diga que Copémico demostró que Ptolomeo estaba equivocado, eso no es verdad. Tal como en el caso de nuestra visión y la de los pececitos en la pecera redondeada, podemos utilizar ambas visiones como modelo de universo, ya que nuestras observaciones del firmamento pueden ser explicadas tanto si suponemos que la Tierra o el Sol están en reposo. A pesar de su papel en los debates filosóficos sobre la naturaleza de nuestro universo, la ventaja real del sistema copernicano es simplemente que las ecuaciones de movimiento son mucho más simples en el sistema de referencia en que el Sol se halla en reposo.
 
             Un tipo diferente de realidad alternativa se presenta en la película de ciencia ficción Matrix, en la que la especie humana vive sin saberlo en una realidad virtual creada por ordenadores inteligentes para mantenerlos satisfechos y en paz mientras los ordenadores sorben su energía bioeléctrica (sea lo que sea eso). Pero quizá no sea tan descabellado, porque mucha gente prefiere pasar su tiempo en la realidad simulada de páginas web como Second Life. ¿Cómo sabemos que no somos tan sólo personajes de una opereta generada por ordenador, como Jim Carrey en la película El Show de Truman? Si viviéramos en un mundo imaginario sintético, los acontecimientos no tendrían por qué tener lógica ni consistencia algunas ni obedecer ninguna ley. Los alienígenas que lo controlaran podrían considerar más interesante o divertido observar nuestras reacciones, por ejemplo, si la luna llena se partiera en dos o si cada persona que se sometiera a dieta desarrollara un antojo incontrolable por los pasteles de crema de banana. Pero si los alienígenas impusieran leyes consistentes, no tendríamos manera de decir si hay otra realidad tras la realidad simulada. Sería fácil decir que el mundo en que viven los alienígenas es el mundo «real» y que el mundo generado por ordenador es un mundo falso. Pero si — como nosotros— los seres en el mundo simulado no pudieran observar su universo desde fuera, no tendrían razón para dudar de sus propias imágenes de la realidad. Eso es una versión moderna de la idea de que todos nosotros somos personajes del sueño de alguien.
 
             Esos ejemplos nos llevan a una conclusión importante en este libro: No hay imagen —ni teoría— independiente del concepto de realidad. Así, adoptaremos una perspectiva que denominaremos realismo dependiente del modelo: la idea de que una teoría física o una imagen del mundo es un modelo (generalmente de naturaleza matemática) v un conjunto de reglas que relacionan los elementos del modelo con las observaciones. Ello proporciona un marco en el cual interpretar la ciencia moderna.
 
             Los filósofos, desde Platón hasta ahora, han discutido a lo largo de los siglos sobre la naturaleza de la realidad. La ciencia clásica está basada en la creencia de que existe un mundo real externo cuyas propiedades son definidas e independientes del observador que las percibe. Según la ciencia clásica, ciertos objetos existen y tienen propiedades físicas, tales como velocidad y masa, con valores bien definidos. En esa visión, nuestras teorías son intentos de describir dichos objetos y sus propiedades, y nuestras medidas y percepciones se corresponden con ellos. Tanto el observador como lo observado son parles de un mundo que tiene una existencia objetiva, y cualquier distinción entre ambos no tiene importancia significativa. En otras palabras, si vemos una manada de cebras compitiendo por una plaza en un garaje es porque realmente hay una manada de cebras compitiendo por una plaza en un garaje. Todos los otros observadores que miraran medirían las mismas propiedades y la manada tendría aquellas propiedades, hubiera o no alguien que las observara. En filosofía, esta creencia es denominada realismo.
 
             Aunque el realismo puede resultar una posición tentadora, lo que sabemos de la física moderna hace difícil defenderlo, como veremos posteriormente. Por ejemplo, según los principios de la física cuántica, que es una descripción muy precisa de la naturaleza, una partícula no tiene ni una posición definida ni una velocidad definida, a no ser que —y hasta el momento en que— dichas magnitudes sean medidas por un observador. Por lo tanto, no es correcto decir que una medición da un cierto resultado porque la magnitud que está siendo medida tiene aquel valor en el instante de efectuar la medición. De hecho, en algunos casos los objetos individuales ni siquiera tienen una existencia independiente, sino tan sólo existen como una parte de un conjunto. Y si una teoría denominada principio holográfico demuestra ser correcta, nosotros y nuestro mundo cuatridimensional podríamos ser sombras de la frontera de un espacio-tiempo mayor, de cinco dimensiones. En dicho caso, nuestro estatus en el universo sería literalmente análogo al de los pececillos del ejemplo inicial.
 
             Los realistas estrictos a menudo argumentan que la demostración de que las teorías científicas representan la realidad radica en sus éxitos. Pero diferentes teorías pueden describir satisfactoriamente el mismo fenómeno a través de marcos conceptuales diferentes. De hecho, muchas teorías que habían demostrado ser satisfactorias fueron sustituidas posteriormente por otras teorías igualmente satisfactorias basadas en conceptos completamente nuevos de la realidad.
 
             Tradicionalmente, los que no aceptan el realismo han sido llamados «antirrealistas». Los antirrealistas distinguen entre el conocimiento empírico y el conocimiento teórico. Típicamente sostienen que observaciones y experimentos tienen sentido pero que las teorías no son más que instrumentos útiles, que no encarnan verdades más profundas que transciendan los fenómenos observados. Algunos antirrealistas han querido incluso restringir la ciencia a las cosas que pueden ser observadas. Por esa razón, muchos en el siglo xix rechazaron la idea de átomo a partir del argumento de que nunca podríamos ver ninguno. George Berkeley (1685-1753) fue incluso tan allá que afirmó que no existe nada más que la mente y sus ideas. Cuando un amigo hizo notar al escritor y lexicógrafo inglés Samuel Johnson (1709-1784) que posiblemente la afirmación de Berkeley no podía ser refutada, se dice que Johnson respondió subiendo a una gran piedra para, después de darle a ésta una patada, proclamar: «Lo refuto así». Naturalmente, el dolor que Johnson experimentó en su pie también era una idea de su mente, de manera que en realidad no estaba refutando las ideas de Berkeley. Pero esa reacción ilustra el punto de vista del filósofo David Hume (1711-1776), que escribió que a pesar de que no tenemos garantías racionales para creer en una realidad objetiva, no nos queda otra opción sino actuar como si dicha realidad fuera verdadera.
 
             El realismo dependiente del modelo zanja todos esos debates y polémicas entre las escuelas realistas y antirrealistas. Según el realismo dependiente del modelo carece de sentido preguntar si un modelo es real o no; sólo tiene sentido preguntar si concuerda o no con las observaciones. Si hay dos modelos que concuerden con las observaciones, como la imagen del pececillo y la nuestra, no se puede decir que uno sea más real que el otro. Podemos usar el modelo que nos resulte más conveniente en la situación que estamos considerando. Por ejemplo, si estuviéramos en el interior de la pecera, la imagen del pececillo resultaría útil, pero para los observadores del exterior resultaría muy incómodo describir los acontecimientos de una galaxia lejana en el marco de una pecera situada en la Tierra, especialmente porque la pecera se desplazaría a medida que la Tierra órbita alrededor del Sol y gira sobre su eje.
 
             Hacemos modelos en ciencia, pero también en la vida corriente. El realismo dependiente del modelo se aplica no sólo a los modelos científicos, sino también a los modelos mentales conscientes o subconscientes que todos creamos para interpretar y comprender el mundo cotidiano. No hay manera de eliminar el observador —nosotros— de nuestra percepción del mundo, creada por nuestro procesamiento sensorial y por la manera en que pensamos y razonamos. Nuestra percepción —y por lo tanto las observaciones sobre las cuales se basan nuestras teorías— no es directa, sino más bien está conformada por una especie de lente, a saber, la estructura interpretativa de nuestros cerebros humanos.
 
             El realismo dependiente del modelo corresponde a la manera como percibimos los objetos. En la visión, el cerebro recibe una serie de señales a lo largo del nervio óptico, señales que no forman el tipo de imagen que aceptaríamos en nuestro televisor. Hay una mancha ciega en el punto en que el nervio óptico se conecta a la retina, y la única zona de nuestro campo de visión que goza de buena resolución es un área estrecha de aproximadamente un grado de ángulo visual alrededor del centro de la retina, un área del orden del ancho de la imagen del pulgar cuando tenemos el brazo alargado. Así pues, los datos brutos enviados al cerebro constituyen una imagen mal pixelada con un agujero en su centro. Afortunadamente, el cerebro humano procesa dichos datos, combinando los de cada ojo y colmando los vacíos mediante la hipótesis de que las propiedades visuales de los lugares contiguos son semejantes e interpolándolas. Además, lee una disposición bidimensional de datos de la retina y crea la impresión de un espacio tridimensional. En otras palabras, el cerebro construye una imagen o modelo mental.
 
             El cerebro es tan bueno en construir modelos que si nos pusiéramos unas gafas que invirtieran las imágenes que recibimos en los ojos, nuestro cerebro, al cabo de un rato, cambiaría el modelo y veríamos de nuevo las cosas derechas. Si entonces nos sacáramos las gafas, veríamos el mundo al revés durante un rato pero de nuevo el cerebro se adaptaría. Eso ilustra que lo que queremos decir cuando afirmamos «Veo una silla» es meramente que hemos utilizado la luz que la silla ha esparcido por el espacio para construir una imagen mental o modelo de la silla. Si el modelo está cabeza abajo, es de esperar que el cerebro corrija la imagen antes de que intentemos sentarnos en la silla.
 
             Otro problema que el realismo dependiente del modelo resuelve, o al menos evita, es el debate sobre qué significa existencia. ¿Cómo sé que una mesa existe si salgo de la habitación y no puedo verla? ¿Qué significa decir que cosas que no podemos ver, como electrones o quarks —partículas de las que están formados, según creemos, los protones y neutrones— existen? Podríamos tener un modelo en que la mesa desapareciera cada vez que salimos de la habitación y reapareciera en la misma posición cuando volvemos a entrar, pero ello sería embarazoso ya que ¿qué pasaría si ocurriera algo cuando estamos fuera, por ejemplo si cayera el techo? El modelo en que la mesa desaparece cuando salimos de la habitación, ¿cómo podría explicar que cuando volvamos a entrar la mesa reaparecerá rota bajo los cascotes? El modelo en que la mesa sigue existiendo da una explicación mucho más simple y concuerda con la observación. Es todo lo que le pedimos.
 
             En el caso de las partículas subatómicas que no podemos ver, los electrones son un modelo útil que explica muchas observaciones, como por ejemplo las trazas en una cámara de burbujas y las manchas luminosas en un tubo de televisor, entre otros muchos fenómenos. Se dice que el electrón fue descubierto por el físico británico J. J. Thomson en los laboratorios Cavendish de la Universidad de Cambridge, cuando estaba haciendo experimentos con corrientes eléctricas en el interior de tubos de gas prácticamente vacíos, un fenómeno conocido como «rayos catódicos». Sus experimentos le condujeron a la conclusión audaz de que los misteriosos rayos estaban compuestos por minúsculos «corpúsculos» que eran constituyentes materiales de los átomos, que basta aquel momento habían sido considerados la unidad fundamental e indivisible de la materia. Thomson no «vio» ningún electrón, ni su especulación sobre ellos fue demostrada directamente y sin ambigüedad por sus experimentos. Pero el modelo ha demostrado ser crucial en aplicaciones que van desde la ciencia básica a la ingeniería y en la actualidad todos los físicos creen en los electrones, aunque no los puedan ver.
 
             Los quarks, que tampoco podemos ver, son un modelo para explicar las propiedades de los protones y los neutrones en el núcleo atómico. Aunque decimos que los protones y los neutrones están constituidos por quarks, nunca observaremos un quark, porque la fuerza que liga los quarks entre sí aumenta con la separación entre ellos y, por lo tanto, en la naturaleza no pueden existir quarks libres aislados. En cambio, se presentan siempre en grupos de tres (como por ejemplo protones y neutrones), o como quark más antiquark (como por ejemplo mesones pi), y se comportan como si estuvieran unidos por cintas de goma.
 
             La cuestión de si tiene sentido afirmar que los quarks existen realmente si nunca podemos aislar uno de ellos fue un tema de controversia en los años posteriores a cuando los quarks fueran propuestos por primera vez. La idea de que algunas partículas estaban compuestas por diferentes combinaciones de unas pocas partículas «subsubnucleares» proporcionó un principio explicativo simple y atractivo de sus propiedades. Pero aunque los físicos estaban acostumbrados a aceptar partículas que sólo podían ser inferidas a partir de picos estadísticos en datos referentes a la colisión y dispersión de otras partículas, la idea de atribuir realidad a una partícula que, por principio, podía ser inobservable fue demasiado para muchos físicos. Con los años, sin embargo, a medida que el modelo de quarks iba conduciendo a más y más predicciones correctas, esa oposición se fue atenuando. Ciertamente, es posible que algunos alienígenas con diecisiete brazos, ojos de infrarrojos y la costumbre de soplar crema por las orejas llevaran a cabo las mismas observaciones experimentales que nosotros, pero las describirían sin quarks. Sin embargo, según el realismo dependiente del modelo, los quarks existen en un modelo que concuerda con nuestras observaciones del comportamiento de las partículas subnucleares.
 
             El realismo dependiente del modelo proporciona un marco para discutir cuestiones como: si el mundo fue creado hace un tiempo finito, ¿qué ocurrió antes? Un filósofo cristiano antiguo, san Agustín (354-430), dijo que la respuesta no era que Dios estuviera preparando el infierno para las personas que hicieran preguntas corno ésta, sino que el tiempo era una propiedad del mundo creado por Dios y que no existía antes de la creación, que él creía que había sucedido hacía no mucho tiempo. Este es un posible modelo, favorecido por los que sostienen que la narración contenida en el libro del Génesis es verdad literalmente, aunque el mundo contenga fósiles y otras evidencias que lo hacen parecer mucho más antiguo. (¿Fueron puestos en el mundo para engañarnos?) Pero podemos adoptar otro modelo diferente, en el que el tiempo empezó hace unos trece mil setecientos millones de años, en el Big Bang. El modelo que explica la mayoría de nuestras observaciones presentes, incluyendo las evidencias históricas y geológicas, es la mejor representación que tenemos del pasado. El segundo modelo puede explicar los fósiles y los registros radiactivos y el hecho de que recibimos luz de galaxias que están a millones de años luz de nosotros, y por ello este modelo —la teoría del Big Bang— resulta más útil que el primero. Pese a ello, no podemos afirmar que ninguno de los modelos sea más real que el otro.
 
             Algunas personas sostienen un modelo en el que el tiempo empezó incluso mucho antes del Big Bang. No resulta claro todavía si un modelo en el que el tiempo empezara antes del Big Bang explicaría mejor las observaciones actuales, porque parece que las leyes de la evolución del universo podrían dejar de ser válidas en el Big Bang. Si es así, no tendría sentido crear un modelo que comprenda tiempos anteriores al Big Bang, porque lo que existió entonces no tendría consecuencias observables en el presente, y pollo tanto nos podemos ceñir a la idea de que el Big Bang fue la creación del mundo.
 
             Un modelo es satisfactorio si:
 
             1) Es elegante.
 
             2) Contiene pocos elementos arbitrarios o ajustables.
 
             3) Concuerda con las observaciones existentes y proporciona una explicación de ellas.
 
             4) Realiza predicciones detalladas sobre observaciones futuras que permitirán refutar o falsar el modelo si no son confirmadas.
 
             Por ejemplo, la teoría de Aristóteles según la cual el mundo estaba formado por cuatro elementos, tierra, aire, fuego y agua, y que los objetos actuaban para cumplir su finalidad, era elegante y no contenía elementos ajustables. Pero en la mayoría de casos no efectuaba predicciones definidas y cuando lo hacía no concordaban con las observaciones. Una de esas predicciones era que los objetos más pesados deberían caer más rápidamente, porque su finalidad es caer. Nadie parecía haber pensado que fuera importante comprobarlo hasta Galileo. Se dice que lo puso a prueba dejando caer pesos desde la torre inclinada de Pisa, pero eso es probablemente apócrifo. En todo caso, sabemos que dejó rodar diferentes pesos a lo largo de un plano inclinado y observó que todos adquirían velocidad al mismo ritmo, contrariamente a la predicción de Aristóteles.
 
             Pos criterios anteriores son obviamente subjetivos. La elegancia, por ejemplo, no es algo que se mida fácilmente, pero es muy apreciada entre los científicos porque las leyes de la naturaleza significan comprimir un número de casos particulares en una fórmula sencilla. La elegancia se refiere a la forma de una teoría, pero está muy relacionada con la falta de elementos ajustables, ya que una teoría atiborrada de factores manipulables no es muy elegante. Parafraseando a Einstein, una teoría debe ser tan sencilla como sea posible, pero no más sencilla, Ptolomeo añadió epiciclos a las órbitas circulares de los cuerpos celestes para que su modelo pudiera describir con precisión su movimiento. El modelo podría haber sido hecho todavía más preciso añadiendo epiciclos a los epiciclos, e incluso más epiciclos adicionales. Aunque esa complejidad adicional podría dar más precisión al sistema, los científicos consideran insatisfactorio un modelo que sea forzado a ajustar un conjunto específico de observaciones, más próximo a un catálogo de datos que a una teoría que parezca contener algún principio útil.
 
             Veremos en el capítulo 5 que mucha gente considera el «modelo estándar», que describe las interacciones entre las partículas elementales de la naturaleza, como poco elegante. El modelo es mucho más útil que los epiciclos de Ptolomeo: predijo la existencia de nuevas partículas antes de que fueran observadas y describió con gran precisión los resultados de numerosos experimentos durante varias décadas. Pero contiene algunas docenas de parámetros ajustables cuyos valores deben ser lijados para concordar con las observaciones, ya que no son determinados por la teoría misma.
 
             En lo que respecta al cuarto punto, los científicos siempre quedan impresionados cuando se demuestra que predicciones nuevas y asombrosas del modelo son correctas. Por otro lado, cuando se ve que un modelo falla, una reacción común es decir que el experimento estaba equivocado. Si se comprueba que no es este el caso, no se abandona el modelo, sino se intenta salvarlo mediante algunas modificaciones. Aunque los físicos son realmente tenaces en sus intentos por rescatar teorías que admiran, la tendencia a modificar una teoría va desvaneciéndose según el grado en que las alteraciones van resultando artificiosas o pesadas y, por lo tanto, «inelegantes».
 
             Si las modificaciones necesarias para acomodar nuevas observaciones resultan demasiado abarracadas, ello indica la necesidad de un nuevo modelo. Un ejemplo de un modelo que cedió bajo el peso de nuevas observaciones es el de un universo estático. En la década de 1920, la mayoría de físicos creían que el universo era estático, es decir, que no cambiaba de tamaño. Pero en 1929 Edwin Hubble publicó sus observaciones que demostraban que el universo está en expansión. Pero Hubble no observó directamente que el universo se expandiera, sino la luz emitida por las galaxias. Esa luz contiene una señal característica, o espectro, basada en la composición de cada galaxia, y que cambia en una forma cuantitativamente conocida si la galaxia se mueve. Por lo tanto, analizando los espectros de las galaxias lejanas, Hubble consiguió determinar sus velocidades. Había esperado encontrar tantas galaxias alejándose de nosotros como acercándose a nosotros, pero halló que prácticamente todas ellas se estaban alejando y que cuanto más lejos estaban, con mayor velocidad se movían. Hubble concluye) que el universo se está expandiendo pero otros, intentando mantener el modelo anterior, intentaron explicar esas observaciones en el contexto del universo estático. Por ejemplo, el físico del Instituto Tecnológico de California, Caltech, Fritz Zwicky, sugirió que por alguna razón todavía desconocida la luz podría ir perdiendo lentamente energía a medida que recorre grandes distancias. Esa disminución de energía correspondería a un cambio en el espectro de la luz, que Zwicky sugirió podría reproducir las observaciones de Hubble. Durante décadas después de Hubble, muchos científicos continuaron manteniendo la teoría de un estado estacionario. Pero el modelo más natural era el de Hubble, el de un universo en expansión, y al final ha sido el modelo comúnmente aceptado.
 
             En nuestra búsqueda de las leyes que rigen el universo hemos formulado un cierto número de teorías o modelos, como la teoría de los cuatro elementos, el modelo ptolemaico, la teoría del flogisto, la teoría del Big Bang, y muchas otras. Nuestros conceptos de la realidad y de los constituyentes fundamentales del universo han cambiado con cada teoría o modelo. Por ejemplo, consideremos la teoría de la luz. Newton creyó que la luz estaba hecha de pequeñas partículas o corpúsculos. Eso explicaría por qué la luz viaja en línea recta, y Newton lo utilizó también para explicar porqué la luz se curva o refracta cuando pasa de un medio a otro, como por ejemplo del aire al vidrio o del aire al agua.
 
             La teoría corpuscular, sin embargo, no consiguió explicar un fenómeno que el mismo Newton observe), conocido como los «anillos de Newton»: coloquemos una lente sobre una superficie plana reflectante e iluminémosla con luz de un solo color, como por ejemplo la luz de una lámpara de sodio. Mirando verticalmente hacia abajo veremos una serie de anillos alternativamente claros y oscuros centrados en el punto de contacto entre la lente y la superficie. Sería difícil explicar este fenómeno mediante la teoría corpuscular de la luz, pero puede ser explicado mediante la teoría ondulatoria.
 
             Según la teoría ondulatoria de la luz, los anillos claros y oscuros son causados por un fenómeno llamado interferencia. Una onda, como por ejemplo una onda de agua, consiste en una serie de crestas y valles. Cuando las ondas se encuentran, si las crestas corresponden con las crestas y los valles con los valles, se refuerzan entre sí, dando una onda de mayor amplitud. Esto se llama interferencia constructiva. En dicho caso se dice que están «en fase». En el extremo opuesto, cuando las ondas se encuentran, las crestas de una pueden coincidir con los valles de la otra. En ese caso, las ondas se anulan entre sí, y se dice que están «en oposición de fase». Dicha situación se denomina interferencia destructiva.
 
             En los anillos de Newton, los anillos brillantes están situados a distancias del centro donde la separación entre la lente y la superficie reflectante es un número entero (1, 2, 3...) de longitudes de onda. Eso significa que la onda reflejada por la lente coincide con la onda redejada por el plano, cosa que produce una interferencia constructiva. En cambio, los anillos oscuros están situados a distancias del centro donde la separación entre las dos ondas reflejadas es un número semientero (1/2, 3/2, 5/2,...) de longitudes de onda, produciendo interferencia destructiva —la onda reflejada por la lente se anulan con la onda reflejada por el plano—.
 
             En el siglo xix, esa observación se consideró como una confirmación de la teoría ondulatoria de la luz, que demostraba que la teoría corpuscular era errónea. Sin embargo, a comienzos del siglo xx Einstein demostró que el efecto fotoeléctrico utilizado actualmente en los televisores y las cámaras digitales podía ser explicado por el choque de un corpúsculo o cuanto de luz contra un átomo arrancando uno de sus electrones. Así pues, la luz se comporta como partícula y como onda.
 
             El concepto de onda probablemente entró en el pensamiento humano como consecuencia de contemplar el mar o estanques agitados por la caída de algún guijarro. De hecho, si lanzamos a la vez dos guijarros en un estanque podemos advertir cómo funciona la interferencia, tal como se ilustra en la figura siguiente. Se observó que otros líquidos se comportaban de una manera semejante, salvo tal vez el vino, si hemos bebido demasiado. La idea de corpúsculo resultaba familiar a causa de las rocas, los guijarros o la arena, pero la dualidad onda/partícula —la idea de que un objeto puede ser descrito como una onda o como una partícula— era algo completamente ajeno a la experiencia cotidiana, tal como lo es la idea de que podamos bebemos un fragmento de roca arenisca.
 
             Dualidades como ésta —situaciones en que dos teorías muy diferentes describen con precisión el mismo fenómeno— son consistentes con el realismo dependiente del modelo. Cada teoría describe y explica algunas propiedades, pero no se puede decir que ninguna de las dos teorías sea mejor ni resulte más real que la otra. Parece que con las leyes que rigen el universo ocurra lo mismo y que no haya una sola teoría o modelo matemático que describa todos los aspectos del universo sino que, tal como hemos dicho en el primer capítulo, se necesite una red de teorías, la de la denominada teoría M. Cada teoría de dicha red describe adecuadamente los fenómenos dentro de un cierto intervalo y, cuando sus intervalos se solapan, las diversas teorías de la red concuerdan entre sí, por lo cual decimos que son partes de la misma teoría. Pero no hay una sola teoría de dicha red que pueda describir todos y cada uno de los aspectos del universo —todas las fuerzas de la naturaleza, las partículas que experimentan dichas fuerzas, y el marco espacial y temporal en que tiene lugar todo eso—. Aunque esa situación no satisface el sueño tradicional de los físicos de obtener una sola teoría unificada, resulta aceptable en el marco del realismo dependiente del modelo.
 
             Analizaremos con mayor detalle la dualidad y la teoría M en el capítulo 5, pero antes dirigimos nuestra atención a un principio fundamental sobre el cual reposa nuestra visión moderna de la naturaleza, la teoría cuántica y, en particular, su formulación mediante historias alternativas. En esta visión, el universo no tiene una existencia única o una historia única, sino que cada posible versión del universo existe simultáneamente en lo que denominamos una superposición cuántica. Eso puede sonar tan escandaloso como la teoría según la cual la mesa desaparece cuando salimos de la habitación, pero en este caso la teoría ha superado satisfactoriamente cada una de las pruebas experimentales a que ha sido sometida.
 
4 HISTORIAS ALTERNATIVAS
 
             En 1999, un equipo DE FÍSICOS austríacos lanzó una serie de moléculas que tienen forma de balón de fútbol contra una barrera. Dichas moléculas, constituidas por sesenta átomos de carbono, se denominan habitualmente fullerenos, en homenaje al arquitecto Buckminster Fuller, que construyó cúpulas con esa forma. Las cúpulas geodésicas de Fuller eran probablemente las mayores estructuras existentes con forma de pelota de fútbol. Los fullerenos, en cambio, son las más pequeñas. La barrera hacia la cual los científicos lanzaron sus moléculas tenía dos rendijas a través de las cuales podían pasar los fullerenos. Más allá de la barrera, los físicos situaron una especie de pantalla que detectaba y contaba las moléculas emergentes.
 
             Si tuviéramos que diseñar un experimento análogo con balones de fútbol reales, necesitaríamos un jugador con una puntería algo incierta pero capaz de lanzar la pelota con la velocidad escogida. Situaríamos al jugador frente a la pared en la que hay las dos rendijas. Más allá de la pared, y paralela a ella, pondríamos una larga red. La mayoría de los lanzamientos del jugador chocarían con la pared y rebotarían, pero algunos pasarían por una u otra de las rendijas y llegarían a la red. Si las rendijas fueran ligeramente más anchas que el balón, emergerían de ellas dos haces altamente colimados de balones hacia el lado opuesto. Si las rendijas fueran todavía un poco más anchas, cada haz se ensancharía un poco, tal como se observa en la figura.
 
             Observemos que si obturáramos una de las rendijas, el haz de balones correspondiente ya no pasaría, pero ello no tendría ningún efecto sobre el otro haz. Si volviéramos a abrir dicha rendija, tan sólo aumentaría el número total de balones que llegarían a cada punto de la red, ya que llegarían todos los balones que pasan por la rendija que había quedado abierta más los balones que hubieran pasado por la rendija que acabamos de abrir. Lo que observamos con las dos rendijas simultáneamente abiertas es, en otras palabras, la suma de lo que observamos con cada una de las rendijas abiertas por separado. Esta es la realidad a que estamos acostumbrados en la vida corriente, pero no es eso lo que los investigadores austríacos hallaron al lanzar sus moléculas.
 
             En su experimento, al abrir la segunda rendija observaron, en electo, un aumento del número de moléculas que llegaban a algunos puntos de La pantalla, pero una disminución del número de moléculas que llegaban a otros puntos, tal como se ve en la figura. De hecho, había puntos a los que no llegaba ningún fullereno cuando ambas rendijas estaban abiertas pero a los cuales llegaban cuando una cualquiera de las dos rendijas estaba abierta y la otra cerrada. Eso debería parecemos muy extraño: ¿cómo puede ser que abrir una segunda rendija haga que lleguen menos moléculas a algunos puntos?
 
             Podemos conseguir una pista para la respuesta examinando los detalles. En el experimento, muchos de los balones van a parar al punto que está en medio de los puntos donde esperaríamos que fueran a parar los balones si pasaran por una rendija o por la otra. Un poco más al lado de dicha posición central llegan muy pocas moléculas, pero un poco más allá, se vuelve a observar la llegada de muchas moléculas. Este patrón no es la suma de los patrones formados cuando una de las rendijas estaba abierta y la otra cerrada, sino que se puede reconocer en él el patrón característico de la interferencia de las ondas, que hemos visto en el capítulo 3, Las zonas donde no llegan moléculas corresponden a regiones en que las ondas emitidas por las dos rendijas llegan en oposición de fase y producen por lo tanto interferencia destructiva; las zonas donde llegan muchas moléculas corresponden a regiones en que las ondas llegan en fase, y producen interferencia constructiva.
 
             En los primeros dos mil años de pensamiento científico, aproximadamente, la experiencia ordinaria y la intuición constituyeron la base de la explicación teórica. A medida que mejoramos la tecnología y expandimos el dominio de fenómenos observables, empezamos a hallar que la naturaleza se comportaba de maneras cada vez menos parecidas a las de la experiencia cotidiana, y por lo tanto menos acordes con nuestra intuición, como lo pone en evidencia el experimento con los fullerenos. Ese experimento es típico de la clase de fenómenos que no pueden ser explicados mediante la ciencia clásica, pero sí están descritos por lo que se denomina la física cuántica. De hecho, Richard Feynman escribió que el experimento de la doble rendija como el que hemos descrito «contiene todo el misterio de la mecánica cuántica».
 
             Los principios de la física cuántica fueron desarrollados en las primeras décadas del siglo XX, después de haber advertido que la teoría newtoniana resulta inadecuada para la descripción de la naturaleza a niveles atómico y subatómico. Las teorías fundamentales de la física describen las fuerzas de la naturaleza y cómo los objetos reaccionan frente a ellas. Las teorías clásicas, como la de Newton, están construidas sobre un marco que refleja la experiencia cotidiana, en que los objetos materiales tienen una existencia individual, pueden ser localizados en posiciones concretas y siguen trayectorias bien definidas. La física cuántica proporciona un marco para comprender cómo la naturaleza actúa a escalas atómicas y subatómicas, pero, como veremos después con mayor detalle, implica un esquema conceptual completamente diferente, en el cual la posición, la trayectoria e incluso el pasado y el futuro dé los objetos no están determinados con precisión. Las teorías cuánticas de las fuerzas, como la gravedad o la fuerza electromagnética, son teorías construidas en ese marco.
 
             ¿Pueden las teorías construidas sobre un marco tan ajeno a la experiencia cotidiana explicar también los acontecimientos que forman parte de dicha experiencia, y que fueron tan bien modelizados por la física clásica? Sí pueden, ya que nosotros y nuestro entorno somos estructuras compuestas, constituidas por un número inimaginablemente grande de átomos, mayor que el número de estrellas que hay en el universo. Y aunque los átomos componentes obedecen los principios de la física cuántica, es posible demostrar que los grandes conjuntos de átomos que forman los balones de fútbol, los nabos, los aviones jumbo, y nosotros mismos, consiguen no difractarse a través de rendijas. Así pues, aunque los componentes de los objetos cotidianos obedecen la física cuántica, las leyes de Newton constituyen una teoría efectiva que describe con gran precisión cómo se comportan las estructuras compuestas que constituyen nuestro mundo cotidiano.
 
             Eso puede resultar extraño, pero en la ciencia hay muchos ejemplos en que un conjunto grande parece comportarse característicamente de una manera muy diferente al de sus componentes individuales. Así, por ejemplo, las respuestas de una sola neurona están muy lejos de revelar las complejidades del cerebro humano, del mismo modo que conocer una molécula de agua no nos dice mucho sobre el comportamiento de un lago. En el caso de la física cuántica, los físicos todavía están trabajando para aclarar los detalles de cómo las leyes de Newton emergen del dominio cuántico. Lo que sabemos es que los componentes de todos los objetos obedecen las leyes de la física cuántica, y que las leyes newtonianas conforman una buena aproximación para describir el comportamiento de los objetos macroscópicos constituidos por dichos componentes cuánticos.
 
             Las predicciones de la teoría cuántica, por lo tanto, se ajustan muy bien a la visión de la realidad que vamos desarrollando a partir de nuestra experiencia del mundo que nos rodea. Pero los átomos y moléculas individuales funcionan de una manera profundamente diferente de la de nuestra experiencia cotidiana. La física cuántica es un nuevo modelo de la realidad que nos proporciona una imagen del universo en que muchos conceptos fundamentales para nuestra comprensión intuitiva de la realidad carecen de significado.
 
             El experimento de las dos rendijas fue llevado a cabo por primera vez en 1927 por Clinton Davisson y Lester Germer, físicos experimentales de los laboratorios Bell que estaban investigando cómo un haz de objetos muchos más simples que los fullerenos —los electrones— interaccionaba con un cristal de níquel. El hecho de que partículas materiales como los electrones se comportaran como ondas de agua fue el tipo de observaciones experimentales sorprendentes que inspiraron la física cuántica. Como ese comportamiento no es observado a escala macroscópica, los científicos se han preguntado cuan grande y complejo puede llegar a ser un sistema sin que deje de exhibir tales propiedades ondulatorias. Causaría un considerable revuelo si se pudiera demostrar dicho efecto con personas o con hipopótamos pero, tal como hemos dicho, en general, cuanto mayor es un objeto menos manifiestos y robustos son los efectos cuánticos. Por lo tanto, es muy improbable que los animales del zoológico pasen ondulatoriamente entre las rejas de sus jaulas. Aun así, los físicos experimentales han observado fenómenos ondulatorios con «partículas» de tamaño cada vez, mayor, y esperan poder replicar algún día con virus los experimentos llevados a cabo con fullerenos. Los virus no tan sólo son mucho mayores, sino que son considerados por algunos como una cosa viva.
 
             Para comprender las explicaciones de los capítulos siguientes tan sólo es necesario entender unos pocos aspectos de la física cuántica. Una de sus características cruciales es la dualidad partícula/onda. Que las partículas de la materia se comporten como una onda sorprendió a todo el mundo. Que la luz se comporte como una onda ya no sorprende a nadie. El comportamiento ondulatorio de la luz nos parece natural y ha sido considerado un hecho aceptado durante casi dos siglos. Si se proyecta un haz de luz sobre las dos rendijas del mencionado experimento, emergen de ellas dos ondas que se encuentran sobre la pantalla. En algunos puntos, sus crestas o sus valles coinciden y forman una mancha brillante; en otros, la cresta de un haz coincide con el valle del otro y se anulan entre sí, dejando una mancha oscura. El físico ingles Thomas Young realizó este experimento a comienzos del siglo xix y logró convencer a la gente de que la luz era una onda y no, como había creído Newton, compuesta de partículas.
 
             A pesar de que se podría concluir que Newton se había equivocado al afirmar que la luz no era una onda, estaba en lo cierto cuando dijo que la luz puede actuar como si estuviera compuesta de partículas. En la actualidad, tales partículas son denominadas fotones. Así como nosotros estamos compuestos por un gran número de átomos, la luz que vemos en la vida cotidiana está compuesta por un número inmenso de fotones —una lámpara de un vatio emite un millón de billones de fotones cada segundo—. Los fotones por separado habitualmente no resultan evidentes, pero en el laboratorio podemos producir haces de luz tan débiles que consisten en un chorro de fotones separados c|ue podemos detectar uno a uno, tal como podemos detectar uno a uno los electrones o los fullerenos. Y podemos repetir el experimento de Young utilizando un haz suficientemente tenue tal que los fotones alcancen la barrera de uno en uno, con algunos segundos de separación entre cada uno de ellos. Si lo hacemos, y sumamos todos los impactos individuales registrados en la pantalla al otro lado de la barrera, hallamos que en conjunto dan lugar al mismo patrón de interferencia que surgiría si realizáramos el experimento de Davisson-Germer pero disparando los electrones (o los fullerenos) uno por uno, separadamente. Para los físicos, esto resultó una revelación asombrosa: si las partículas individuales interfieren consigo mismas, entonces la naturaleza de la luz no es tan sólo la propiedad de un haz o de un conjunto grande de fotones, sino de las partículas individuales.
 
             Otro de los principales hitos de la física cuántica es el principio de incertidumbre, formulado por Werner Heisenberg en 1926. El principio de incertidumbre nos dice que hay límites a nuestras capacidades de medir simultáneamente ciertas magnitudes, como por ejemplo la posición y la velocidad de una partícula. Según el principio de incertidumbre, por ejemplo, si multiplicamos la incertidumbre en la posición de una partícula por la incertidumbre en su cantidad de movimiento (su masa multiplicada por su velocidad) el resultado nunca puede ser menor que una cierta cantidad fija denominada constante de Planck. Aunque esto parezca un trabalenguas, su contenido esencial puede ser formulado con simplicidad: cuanto más precisa es la medida de la velocidad menos precisa será la medida de la posición, y viceversa. Por ejemplo, si reducimos a la mitad la incertidumbre en la posición, se duplicará la incertidumbre en la velocidad. También es importante observar que, en comparación con las unidades corrientes de medida, como los metros, los kilogramos y los segundos, la constante de Planck es muy pequeña. De hecho, si la expresamos en esas unidades, su valor es aproximadamente de unos 6/10.000.000.000.000.000.000.000.000.000.000.000. Como resultado de ello, si determinamos la posición de un objeto macroscópico como una pelota de fútbol, con una masa del orden de un tercio de kilogramo, con una incertidumbre de un milímetro en cada dirección, aún podemos medir su velocidad con una precisión mucho mayor que una billonésima de billonésima de kilómetro por hora. Eso es así porque, medida en estas unidades, la pelota de fútbol tiene una masa de 1/3 y la incertidumbre en su posición es de 1/1.000. Ninguno de estos dos factores es suficientemente pequeño para dar razón de todos los ceros de la constante de Planck, y por lo tanto su pequeñez corresponderá a la pequeña incertidumbre en la velocidad. Pero en esas mismas unidades un electrón tiene ua masa de 0,000.000.000.000.000.000.000.000.000.001, de manera que para los electrones la situación es muy diferente. Si medimos la posición de un electrón con una precisión del orden del tamaño de un átomo, el principio de incertidumbre dice que no podemos conocer su velocidad con precisión mayor que unos mil kilómetros por segundo, que no es muy precisa, que digamos.
 
             Según la física cuántica, sea cual sea nuestra capacidad de obtener información o nuestra capacidad de cálculo, no podemos predecir con certidumbre los resultados de los procesos físicos porque no están determinados con certidumbre. En lugar de ello, dado el estado inicial de un sistema la naturaleza determina su estado futuro mediante un proceso fundamentalmente incierto. En otras palabras, la naturaleza no dicta el resultado de cada proceso o experimento ni siquiera en las situaciones más simples. Más bien, permite un número de eventualidades diversas, cada una de ellas con una cierta probabilidad de ser realizada. Es, parafraseando a Einstein, como si Dios lanzara Los dados antes de decidir el resultado de cada proceso físico. La idea inquietó a Einstein y, a pesar de que fue uno de los padres de la física cuántica, posteriormente se convirtió en uno de sus críticos más destacados.
 
             Puede parecer que la física cuántica mine la idea de que la naturaleza está regida por leyes, pero no es ese el caso, sino que nos lleva a aceptar una nueva forma de determinismo: dado el estado de un sistema en un cierto momento, las leyes de la naturaleza determinan las probabilidades de los diversos futuros y pasados en lugar de determinar con certeza el futuro y el pasado. Aunque esto resulta desagradable para algunos, los científicos debemos aceptar teorías que concuerden con los experimentos y no con nuestras nociones preconcebidas.
 
             Lo que la ciencia pide a una teoría es que pueda ser puesta a prueba. Si la naturaleza probabilística de las predicciones de la física cuántica significara que es imposible confirmar dichas predicciones, las teorías cuánticas no se calificarían como teorías válidas. Pero a pesar de la naturaleza probabilística de sus predicciones, podemos someter a prueba las teorías cuánticas. Por ejemplo, podemos repetir muchas veces un experimento y confirmar que la frecuencia con que se obtienen los diversos resultados es conforme a las probabilidades predichas. Consideremos el experimento con los fullerenos. La física cuántica nos dice que nada está localizado en un punto definido porque, si lo estuviera, la incertidumbre en su cantidad de movimiento sería infinita. De hecho, según la física cuántica, cada partícula tiene una cierta probabilidad de ser hallada en cualquier punto del universo. Así pues, incluso si las probabilidades de hallar un electrón dado dentro del aparato de doble rendija son muy elevadas, siempre habrá una cierta probabilidad de que pueda ser hallado, por ejemplo, más allá de la estrella Alfa Centauri o en el pastel de carne de la cafetería de la oficina. Como consecuencia, si impulsamos un fullereno cuántico y lo dejamos volar, por grandes que sean nuestras habilidades y conocimientos no podremos predecir con exactitud dónde aterrizará. Pero si repetimos muchas veces dicho experimento, los datos que obtengamos reflejarán la probabilidad de hallarlo en diversas posiciones, y los experimentadores han confirmado que los resultados de tales pruebas concuerdan con las predicciones de la teoría.
 
             Es importante advertir de que las probabilidades en la física cuántica no son como las probabilidades en la física newtoniana o en la vicia corriente. Para comprenderlo, podemos comparar los patrones formados por el haz de fullerenos lanzados contra una pantalla con el patrón de agujeros hechos en una diana por los lanzadores de dardos que aspiran a dar en el centro. Salvo que los jugadores hayan consumido demasiada cerveza, la probabilidad de que un dardo vaya a parar cerca del centro son mayores v disminuye a medida que nos alejamos de él. Tal como ocurre con los fullerenos, cualquier dardo puede ir a parar a cualquier sitio, pero con el lanzamiento de más y más dardos irá emergiendo un patrón de agujeros que reflejará las probabilidades subyacentes. En la vida cotidiana, podemos expresar esa situación diciendo que un dardo tiene una cierta distribución de probabilidad de aterrizar en puntos diversos; pero esto, a diferencia del caso de los fullerenos, refleja tan sólo que nuestro conocimiento de las condiciones del lanzamiento del dardo es incompleto. Podríamos mejorar nuestra descripción si conociéramos exactamente la manera en que el jugador ha lanzado el dardo: su ángulo, rotación, velocidad y otras características. En principio, entonces, podríamos predecir con tanta precisión como deseáramos dónde aterrizará el dardo. La utilización de términos probabilísticos para describir el resultado de los sucesos de la vida cotidiana no es un reflejo, pues, de la naturaleza intrínseca del proceso, sino tan sólo de nuestra ignorancia de algunos de sus aspectos.
 
             Las probabilidades en las teorías cuánticas son diferentes. El modelo cuántico de la naturaleza entraña principios que entran en contradicción no sólo con nuestra experiencia cotidiana, sino también con nuestro concepto intuitivo de realidad. Los que encuentran que esos principios son extraños o difíciles de creer están en buena compañía, la de grandes físicos como Einstein e incluso Feynman, cuya descripción de la física cuántica pronto presentaremos. De hecho, una vez Feynman escribió: «creo que puedo afirmar con seguridad que nadie comprende la física cuántica». Pero la física cuántica concuerda con las observaciones. Nunca ha dejado de superar una prueba, y eso que ha sido puesta a prueba más veces que ninguna otra teoría en la historia de la ciencia.
 
             En la década de 1940, el físico americano Richard Feynman tuvo una intuición sorprendente respecto de la diferencia entre el mundo cuántico y el mundo newtoniano. Feynman se sentía intrigado por cómo surge el patrón de interferencias en el experimento de la doble rendija. Recordemos que el patrón que hallamos cuando hacemos el experimento con las dos rendijas abiertas no es la suma de los patrones obtenidos cuando hacemos el experimento dos veces, una con sólo la rendija izquierda abierta, y otra con sólo la rendija derecha abierta. En su lugar, cuando las dos rendijas están abiertas hallamos una serie de franjas iluminadas y oscuras; estas últimas corresponden a zonas en que no van a parar partículas. Ello significa que las partículas que habrían ido a parar a la zona de la franja oscura si, digamos, tan sólo estuviera abierta la rendija de la izquierda, no aterrizan allí cuando la rendija de la derecha también está abierta. Parece como si, en algún punto de su viaje desde la fuente a la pantalla, las partículas adquirieran información sobre las dos rendijas. Este tipo de comportamiento es drásticamente diferente de la manera en que las cosas parecen comportarse en la vida cotidiana, en que una bolita seguiría un camino a través de una rendija sin ser afectada por la situación en la otra rendija.
 
             Según la física newtoniana —y según la manera en que funcionaría el experimento si lo realizáramos con balones de fútbol en lugar de con moléculas—, cada partícula sigue un camino bien definido desde su fuente a la pantalla. En esa descripción, no cabe la posibilidad de una desviación en que la partícula visite la vecindad de cada rendija a lo largo de su camino. Según el modelo cuántico, en cambio, la partícula no tiene posición definida durante el tiempo que transcurre entre su posición inicial y su posición final. Feynman se dio cuenta de que eso no se tiene que interpretar como si las partículas no tomaran ningún camino mientras viajan de la fuente a la pantalla, sino como si tomaran a la vez todos los caminos posibles entre ambos puntos. Eso, según Feynman, es lo que hace que la física cuántica sea diferente de la física newtoniana. Importa la sitúación en las dos rendijas porque, en lugar de seguir un solo camino bien definido, las partículas toman todos los caminos y los toman ¡simultáneamente! Eso suena a ciencia ficción, pero no lo es. Feynman formuló una expresión matemática —la suma de Feynman sobre las historias— que refleja esa idea y que reproduce todas las leyes de la física cuántica. En la interpretación de Feynman, las matemáticas y la imagen física son diferentes de las de la formulación original de la física cuántica, pero las predicciones son las mismas.
 
             En el experimento de la doble rendija, la interpretación de Feynman significa que las partículas toman no sólo caminos que sólo pasan por la rendija de la derecha o sólo por la de la izquierda, sino también caminos que pasan por la rendija izquierda y a continuación se enhebran por la rendija derecha y después pasan de nuevo por la rendija izquierda, caminos que visitan el restaurante que sirve grandes calamares al curry y después da varias vueltas alrededor de Júpiter antes de regresar a casa, e incluso caminos que cruzan el universo y regresan aquí. Eso, en la interpretación de Feynman, explica cómo la partícula adquiere información sobre qué rendijas están abiertas: cuando sólo una rendija está abierta, todos los caminos pasan por ella, pero cuando las dos están abiertas, los caminos en que la partícula pasa por una rendija pueden interferir con los caminos en que pasa por la otra, causando así la interferencia. Puede sonar rebuscado pero para los propósitos de la física más fundamental llevada a cabo en la actualidad —y para los propósitos del presente libro —, la formulación de Feynman ha demostrado ser más útil que la formulación original de la física cuántica.
 
             La interpretación de Feynman de la realidad cuántica resulta crucial para comprender las teorías que pronto presentaremos, de manera que vale la pena tomarse algún tiempo para hacerse una idea intuitiva de su funcionamiento. Imaginemos un proceso sencillo en que una partícula parte de un cierto punto A y se desplaza libremente. En el modelo newtoniano, dicha partícula seguirá una línea recta y, después de un intervalo temporal preciso, la hallaremos en una posición B precisa en dicha recta. En la interpretación de Feynman una partícula cuántica explora cada uno de los caminos que unen A con B y asigna un número denominado fase a cada camino. La fase representa la posición en el ciclo de una onda, es decir, si la onda se halla en una cresta o en un valle o en una cierta posición intermedia. La prescripción matemática de Feynman para calcular dicha fase demuestra que cuando se suman las ondas de todos los caminos se obtiene la probabilidad correcta de que la partícula, partiendo de A, llegue a B.
 
             La fase con que cada camino individual contribuye a la suma de Feynman (y por lo tanto a la probabilidad de ir de A a B) puede ser representada como una flecha de longitud lijada pero que puede apuntar en cualquier dirección. Para sumar dos fases, se coloca la flecha que representa una fase al final de la flecha que representa la otra fase, para obtener una nueva flecha que representa su suma. Para sumar más fases, simplemente se sigue ese proceso. Observemos que cuando las fases están alineadas, la flecha que representa la fase total puede ser muy larga, pero si apuntan en direcciones diferentes, tienden a anularse cuando las sumamos, dejándonos con una flecha diminuta o sin flecha alguna. La idea se ilustra en las figuras posteriores.
 
             Para llevar a cabo la prescripción de Feynman para calcular la probabilidad de que una partícula que parte de una posición A termine en una posición B, sumamos las fases, o flechas, asociadas a cada camino que una A con B. Como hay un número infinito de caminos, las matemáticas resultan complicadas, pero el resultado funciona. Algunos de los caminos están representados en la figura siguiente.
 
             La interpretación de Feynman proporciona una imagen especialmente clara sobre cómo una visión newtoniana del mundo puede surgir de la física cuántica, que parece tan diferente. Según la teoría de Feynman, la fase asociada con cada camino depende de la constante de Planck. La teoría dice que como la constante de Planck es tan pequeña, cuando sumamos las contribuciones de caminos próximos entre sí las fases cambian mucho y por lo tanto, tal como se ve en la figura, tienden a dar una suma igual a cero. Pero la teoría también demuestra que hay algunos caminos cuyas fases tienden a alinearse entre sí, de manera que resultan favorecidos, es decir, hacen una contribución mayor al comportamiento observado de la partícula. Resulta que para objetos grandes los caminos muy parecidos al camino predicho por las leyes de Newton tienen fases semejantes y se suman para dar la máxima contribución, con gran diferencia, a la suma total y, por lo tanto, el único destino que tiene una probabilidad efectiva diferente de cero es el destino predicho por la teoría newtoniana, y su probabilidad es prácticamente igual a la unidad. Por consiguiente, los objetos grandes se mueven tal como lo predice la teoría newtoniana. Hasta ahora hemos presentado las ideas de Feynman en el contexto del experimento de la doble rendija.
 
             En ese experimento, lanzamos partículas contra una pared con dos rendijas y medimos las posiciones a que van a parar las partículas en una pantalla colocada tras la pared. En situaciones más generales, en lugar de referirse a una sola partícula la teoría de Feynman permite predecir los resultados probables de un «sistema», que puede ser una sola partícula, un conjunto de partículas o incluso el universo entero. Entre el estado inicial del sistema y nuestra medidas posteriores de sus propiedades, dichas propiedades evolucionan de una cierta manera que los físicos denominan la «historia» del sistema. En el experimento de la doble rendija, por ejemplo, la historia de cada partícula es simplemente su trayectoria. Así como en el experimento de la doble rendija la probabilidad de observar que la partícula va a aterrizar a un cierto punto depende de todas las trayectorias que la podrían haber llevado allí, Feynman demostró que, para un sistema general, la probabilidad de cualquier observación está construida a partir de todas las posibles historias que podrían haber conducido a dicha observación. Por ello, su método es denominado «suma sobre las historias» o formulación de la física cuántica mediante «historias alternativas».
 
             Ahora que nos hemos formado una cierta impresión de la formulación de Feynman de la física cuántica, ha llegado el momento de examinar otro principio cuántico clave que utilizaremos posteriormente — el principio de que observar un sistema modifica su curso—. ¿No podemos, como cuando nuestro director tiene una mancha de mostaza en la barbilla, observar discretamente pero sin interferir? No. Según la física cuántica, no podemos «tan sólo» observar algo. Es decir, la física cuántica reconoce que para efectuar una observación debemos interaccionar con el objeto que estamos observando. Por ejemplo, para ver un objeto, en el sentido tradicional, lo iluminamos. Naturalmente, iluminar una calabaza tendrá poco efecto sobre ella, pero iluminar, aunque sea con luz muy tenue, una partícula cuántica —es decir, lanzar fotones contra ella— tiene efectos apreciables, y los experimentos muestran que modifica los resultados de los experimentos justo en la manera descrita por la física cuántica.
 
             Supongamos que, como antes, enviamos un chorro de partículas hacia la pared del experimento de la doble rendija y acumulamos los datos del primer millón de partículas. Cuando representamos el número de partículas que van a parar a los diversos puntos de detección, los datos formarán una figura de interferencia como la representada en la página 75, y cuando sumemos las fases asociadas con todas las trayectorias posibles de una partícula que salga del punto A y vaya hasta el punto de detección B, hallaremos que la probabilidad calculada de aterrizar en los diversos puntos coincide con dichos datos.
 
             Supongamos que repetimos el experimento, pero ahora iluminando las rendijas de tal manera que podamos conocer un punto intermedio C por el cual ha pasado la partícula (C es la posición de una rendija o de la otra). Esta información se denomina la información de «qué camino» se ha seguido, porque nos dice si la partícula ha ido desde A hasta B a través de la rendija o a través de la rendija 2. Como sabemos por cuál de las rendijas ha pasado la partícula, las trayectorias de nuestra suma para esa partícula sólo incluirán ahora los caminos que pasen por la rendija o sólo los que pasen por la rendija 2, pero no los que pasan por la rendija 1 y los que pasan por la rendija 2 al mismo tiempo. Como Feynman explicó la figura de interferencia afirmando que los caminos que pasan por una rendija interfieren con los que pasan por la otra, si encendemos una luz que determine por cuál de las rendijas pasa la partícula, eliminando así la otra opción, haremos que desaparezca la figura de interferencia. Y, en efecto, cuando se lleva a cabo el experimento, encender una luz cambia los resultados de la figura de interferencia de la página 75 a una figura como ¡la de la página 74! Además, podemos modificar el experimento empleando una luz muy tenue de manera que no todas las partículas interaccionen con la luz. En dicho caso, sólo podemos obtener la información sobre el camino para un cierto subconjunto de partículas. Si desglosamos los datos de las llegadas de las partículas según conozcamos o no dicha información, hallamos que los datos del subconjunto para el cual no tenemos información sobre el camino forman una figura de interferencia, en tanto que los datos del subconjunto para el cual sí tenemos información acerca del camino de las partículas no mostrarán interferencia.
 
             Esta idea tiene implicaciones importantes para nuestro concepto de «pasado». En la teoría newtoniana, se supone que el pasado existe como una serie bien definida de acontecimientos. Si vemos que el jarrón que compramos en Italia yace en el suelo hecho añicos y nuestro hijito está encima de ellos, mirando compungidamente, podemos imaginar la serie de acontecimientos que condujeron a la desgracia: los pequeños dedos dejándolo resbalar, el jarrón cayendo y estallando en miles de fragmentos al llegar al suelo. De hecho, conocidos los datos completos sobre el presente, las leyes de Newton permiten calcular una descripción completa del pasado. Ello es consistente con nuestra comprensión intuitiva de que, alegre o triste, el mundo tiene un pasado bien definido. Podría ser que nadie hubiera estado observándolo, pero el pasado existiría con tanta certeza como si hubiéramos estado tomando una serie de fotografías de él. Pero, en cambio, no se puede decir que un fullereno cuántico haya tomado un camino bien definido desde la fuente a la pantalla. Podemos determinar la posición de un fullereno observándolo, pero entre dos observaciones consecutivas cualesquiera toma todos los caminos. La física cuántica nos dice que por completa que sea nuestra observación del presente, el pasado (no observado) y el futuro son indefinidos y sólo existen como un espectro de posibilidades. Según la física cuántica, el universo no tiene un solo pasado o una historia única.
 
             Que el pasado no tenga forma definida significa que las observaciones que hacemos de un sistema en el presente también afectan su pasado. Ello es puesto de manifiesto espectacularmente en un tipo de experimento concebido por el físico John Wheeler, denominado el «experimento de la elección retardada». En síntesis, un experimento de elección retardada es como un experimento de doble rendija como el ya descrito en que tuviéramos la opción de observar el camino que toma la partícula, salvo que en el experimento de elección retardada posponemos la decisión de observar o no el camino hasta justo antes de que la partícula esté a punto de chocar contra la pantalla detectora.
 
             Los experimentos de elección retardada conducen a resultados idénticos a los obtenidos si escogemos observar (o no observar) qué camino ha seguido la partícula iluminando adecuadamente las rendijas. Pero, en ese caso, el camino que toma cada partícula, es decir, su pasado, es determinado mucho después de que la partícula haya atravesado las rendijas y presumiblemente haya tenido que «decidir» si pasa sólo por una rendija, y no produce interferencias, o por ambas rendijas, y sí produce interferencias.
 
             Wheeler consideró incluso una versión cósmica del experimento, en que las partículas que intervienen son fotones emitidos por poderosos quásares a miles de millones de años luz de distancia. Esa luz podría ser bifurcada en dos caminos y vuelta a enfocar hacia la Tierra por la lente gravitatoria de una galaxia intermedia. Aunque el experimento está más allá del alcance de la tecnología actual, si pudiéramos recolectar suficientes fotones de esa luz, deberían formar una figura de interferencia. Pero si colocamos un dispositivo para averiguar, poco antes de la detección, qué camino ha seguido la luz, dicha figura de interferencia debería desaparecer. En ese caso, la elección sobre si se toma un camino o ambos se habría adoptado hace miles de millones de años, antes de que la Tierra, o incluso nuestro Sol se hubieran formado, y a pesar de ello nuestra observación en el laboratorio estaría afectando dicha elección.
 
             En este capítulo hemos ilustrado la física cuántica utilizando el experimento de la doble rendija. En lo que sigue, aplicaremos la formulación de Feynman de la mecánica cuántica al universo como un todo. Veremos que, tal como ocurre con una sola partícula, el universo no tiene una sola historia sino todas las historias posibles, cada una con su propia probabilidad, y que nuestras observaciones de su estado actual afectan su pasado y determinan las diferentes historias del universo, tal como las observaciones efectuadas sobre las partículas en el experimento de doble rendija afectan el pasado de las partículas. Dicho análisis mostrará cómo las leyes de la naturaleza surgieron del Big Bang, pero antes de examinar cómo surgieron las leyes hablaremos un poco sobre qué son dichas leyes y algunos de los misterios que suscitan.
 
5 LA TEORÍA DE TODO
 
             Lo más incomprensible del universo es que sea comprensible.
 
             Albert Einstein
 
             El universo ES COMPRENSIBLE porque está regido por leyes científicas, es decir, su comportamiento puede ser modelizado. Pero ¿qué son esas leyes o modelos? La primera fuerza que fue descrita en lenguaje matemático fue la gravedad. La ley de Newton de la gravedad, publicada en 1687, dice que todo objeto en el universo atrae cualquier otro objeto con una fuerza proporcional a su masa e inversamente proporcional al cuadrado de su distancia. Produjo una gran impresión en la vida intelectual de su época porque demostró por vez primera que al menos un aspecto del universo podía ser modelizado con precisión, y estableció la maquinaria matemática para hacerlo. La idea de que había leyes de la naturaleza suscite) cuestiones semejantes a aquellas por las cuales Galileo había sido condenado por herejía medio siglo antes. Por ejemplo, la Biblia cuenta que Josué rezó para que el Sol y la Luna se detuvieran en sus trayectorias de modo que hubiera luz suficiente para terminar la batalla contra los amoritas en Canaán. Según el libro de Josué, el Sol se detuvo durante casi un día entero. Actualmente sabemos que ello habría significado que la Tierra dejó de girar, pero si la Tierra se detuviera, según las leyes de Newton, todo lo que no estuviera fijado a ella se seguiría moviendo a la velocidad original de la Tierra (unos dos mil kilómetros por hora en el ecuador) —un precio muy elevado para retrasar una puesta del Sol—. Nada de eso preocupó en lo más mínimo a Newton ya que, como hemos dicho, creía que Dios podía intervenir e intervenía en el funcionamiento del universo.
 
             Los ulteriores aspectos del universo para los cuales fue descubierta una ley o modelo fueron las fuerzas eléctricas y magnéticas. Esas fuerzas se comportan como la gravedad, pero con la importante diferencia de que dos cargas eléctricas o dos imanes del mismo tipo se repelen mientras que cargas diferentes o imanes de tipos diferentes se atraen. Las fuerzas eléctricas y magnéticas son mucho más intensas que la gravedad, pero habitualmente no las notamos en la vida cotidiana porque los cuerpos macroscópicos contienen casi el mismo número de cargas eléctricas positivas y negativas. Ello significa que las fuerzas eléctricas y magnéticas entre dos cuerpos macroscópicos prácticamente se anulan entre sí, a diferencia de las fuerzas gravitatorias, que siempre se suman.
 
             Nuestras ideas actuales sobre la electricidad y el magnetismo fueron desarrolladas durante un intervalo de un siglo, desde mediados del siglo xviii hasta mediados del siglo xix, cuando físicos de diversos países llevaron a cabo estudios experimentales detallados de las fuerzas eléctricas y magnéticas. Uno de los descubrimientos más importantes fue que las fuerzas eléctricas y las magnéticas están relacionadas entre sí: una carga eléctrica en movimiento produce una fuerza sobre los imanes y un imán en movimiento produce una fuerza sobre las cargas eléctricas. El primero en advertir que había una conexión entre ambas fue el físico danés Hans Christian Oersted. Mientras estaba preparando una clase en la universidad, en 1820, Oersted observó que la corriente eléctrica de la batería que estaba utilizando desviaba la aguja de una brújula vecina. No tardó en darse cuenta de que la electricidad en movimiento producía una fuerza magnética, y acuñó el término «electromagnetismo». Pocos años después, el científico británico Michael Faraday razonó que —expresado en términos modernos— si una corriente eléctrica puede producir un campo magnético, un campo magnético debería poder producir una corriente eléctrica, y demostró este efecto en 1831. Catorce años después, Faraday también descubrió una conexión entre el electromagnetismo y la luz cuando demostró que un magnetismo intenso puede afectar la luz polarizada.
 
             Faraday tenía una educación formal muy limitada. I labia nacido en la familia de un pobre herrero cerca de Londres y tuvo que dejar la escuela a los trece años, para trabajar como chico de recados y encuadernador en una librería. Allí, a lo largo de unos años, aprendió ciencia leyendo los libros que tenía para encuadernar y llevando a cabo experimentos simples y baratos en sus ratos de ocio. Al fin, obtuvo trabajo como ayudante en el laboratorio del gran químico sir Humphrey Davy. Faraday permanecería con él los cuarenta y cinco años restantes de su vida y, a la muerte de Davy, fue su sucesor. Faraday tenía dificultades con las matemáticas y nunca supo muchas, de manera que para él resultaba una auténtica lucha concebir una imagen teórica de los extraños fenómenos electromagnéticos que observaba en su laboratorio. Sin embargo, lo consiguió.
 
             Una de las mayores innovaciones intelectuales de Faraday fue la idea de los campos de fuerza. En nuestros días, gracias a los libros y las películas sobre alienígenas con ojos saltones y naves estelares, la mayoría del público se ha familiarizado con dicho término, de manera que quizá le deberíamos pagar derechos de autor. Pero en los siglos transcurridos entre Newton y Faraday uno de los grandes misterios de la física era que sus leyes parecían indicar que las fuerzas actúan a través del espacio vacío que separa los objetos que interaccionan. A Faraday, eso no le gustaba. Creía que para mover un objeto, algo había de ponerse en contacto con él, de manera que imaginó que el espacio entre cargas eléctricas o imanes se comportaba como si estuviera lleno de tubos invisibles que llevaran físicamente a cabo la tarea de arrastrar o impulsar. Faraday llamó a esos tubos un campo de fuerza. Una buena manera de visualizar un campo de fuerza es llevar a cabo la conocida demostración escolar en que una lámina de vidrio con pec]ueñas limaduras de hierro esparcidas sobre su superficie se coloca encima de la barra de un imán. Con unos leves golpearos para vencer la fricción, las limaduras se mueven como empujadas por una potencia invisible y se disponen en una forma de arcos que se estiran desde un polo del imán al otro. Dicha forma es una representación de la fuerza magnética invisible que invade todo el espacio. En la actualidad creemos que todas las fuerzas son transmitidas por campos, de manera que es un concepto importante en la física moderna, y no sólo en la ciencia ficción.
 
             Durante varias décadas nuestra comprensión del electromagnetismo permaneció detenida, limitada al conocimiento de unas pocas leyes empíricas, a la indicación de que electricidad y magnetismo estaban últimamente, aunque misteriosamente, relacionados, a la sospecha de que tenían algo que ver con la luz, y al concepto todavía embrionario de campos. Había al menos once teorías del electromagnetismo, todas ellas equivocadas, menos una. Entonces, en un intervalo de unos pocos años en la década de 186o, el físico escocés James Clerk Maxwell desarrolló las ideas de Faraday en un formalismo matemático que explicó la relación íntima y misteriosa entre la electricidad, el magnetismo y la luz. El resultado fue un sistema de ecuaciones que describen las fuerzas eléctricas y magnéticas como manifestaciones de una misma entidad física, el campo electromagnético. Maxwell había unificado la electricidad y el magnetismo en una sola fuerza. Además, demostró que los campos electromagnéticos podían propagarse por el espacio como ondas. La velocidad de dichas ondas quedaba determinada por un número que aparecía en sus ecuaciones y que calculó a partir de datos experimentales obtenidos unos pocos años antes. Constató con estupefacción que la velocidad calculada era igual a la velocidad de la luz, que entonces ya era conocida experimentalmente con un margen de error de un 1 por 100. ¡Había descubierto que la luz es una onda electromagnética!
 
             En la actualidad, las ecuaciones que describen los campos eléctricos y magnéticos son denominadas ecuaciones de Maxwell. Aunque poca gente ha oído hablar de ellas, son probablemente las ecuaciones comercialmente más importantes que conocemos. No sólo rigen el funcionamiento de todo, desde las instalaciones domesticas hasta los ordenadores, sino también describen ondas diferentes las de la luz, como por ejemplo microondas, radioondas, luz infrarroja y rayos X, todas las cuales difieren de la luz visible en tan sólo un aspecto: su longitud de onda (la distancia entre dos crestas consecutivas de la onda). Las radioondas tienen longitudes de onda de un metro o más, en tanto que la luz visible tiene una longitud de onda de unas pocas diezmillonésimas de metro, y los rayos X una longitud de onda más corta que una centésima de millonésima de metro. El Sol emite todas las longitudes de onda, pero su radiación es más intensa en las longitudes de onda que nos resultan visibles. Probablemente no es casualidad que las longitudes de onda que podemos ver a simple vista sean precisamente las que el Sol emite con mayor intensidad: es probable que nuestros ojos evolucionaran con la capacidad de detectar radiación electromagnética en dicho intervalo de radiación, precisamente porque es el intervalo que les resulta más disponible. Si alguna vez, nos encontramos con seres de otros planetas, tendrán probablemente la capacidad de «ver» radiación a las longitudes de onda emitidas con máxima intensidad por su sol correspondiente, modulada por algunos factores secundarios como, por ejemplo, la capacidad del polvo y de los gases de la atmósfera de su planeta de absorber, reflejar o filtrar la luz de diferentes frecuencias. Los alienígenas que hubieran evolucionado en presencia de rayos X tendrían, pues, un magnífico porvenir en la seguridad de los aeropuertos.
 
             Las ecuaciones de Maxwell establecen que las ondas electromagnéticas se propagan con una velocidad de unos trescientos mil kilómetros por segundo, o unos mil ochenta millones de kilómetros por hora. Pero dar una velocidad no dice nada si no se especifica el sistema de referencia con respecto al cual está medida. En la vida corriente, no acostumbramos a tener necesidad de este detalle. Cuando una señal de tráfico indica 120 kilómetros por hora se sobreentiende que dicha velocidad se mide con respecto a la carretera y no con respecto al agujero negro del centro de la galaxia. Pero incluso en la vida corriente hay ocasiones en que debemos tener en cuenta los sistemas de referencia. Por ejemplo, si andamos a lo largo del pasillo de un avión en vuelo podemos decir que nuestra velocidad es de unos cuatro kilómetros por hora. Para los que estén en el suelo, sin embargo, nuestra velocidad será de unos novecientos cuatro kilómetros por hora. A menos que creamos que uno u otro de los observadores tiene mejores motivos para sostener que está en lo cierto, conviene tener presente esta idea porque, como la Tierra gira alrededor del Sol, alguien que nos estuviera observando desde la superficie de dicho cuerpo celeste discreparía de ambos y diría que nos estamos desplazando a unos treinta y cinco kilómetros por segundo, por no decir cuánto envidia nuestro aire acondicionado. A la luz de tales discrepancias, cuando Maxwell dijo que había descubierto que la «velocidad de la luz» surgía de sus ecuaciones, la pregunta natural era con respecto a que sistema de referencia viene indicada la velocidad de la luz en las ecuaciones de Maxwell.
 
             No hay razón para creer que el parámetro de la velocidad en las ecuaciones de Maxwell sea una velocidad referida a la de la Tierra ya que, al fin y al cabo, esas ecuaciones son aplicables a todo el universo. Una respuesta alternativa que fue tomada en consideración durante algún tiempo fue que esas ecuaciones especificaban la velocidad de la luz con respecto a un medio hasta entonces no detectado que llenaba todo el espacio, denominado el éter luminífero o, en forma abreviada, simplemente el éter, que era el término utilizado por Aristóteles para la sustancia que, según creía, llenaba todo el universo más allá de la esfera terrestre. Ese éter hipotético sería el medio por el cual se propagarían las ondas electromagnéticas tal como el sonido se propaga por el aire. Si el éter existiera, habría un estándar absoluto de reposo, el reposo con respecto al éter, y por lo tanto también una manera absoluta de definir el movimiento. El éter proporcionaría un sistema de referencia preferido a través de todo el universo, con respecto al cual se podría medir la velocidad de cualquier objeto. Así, a partir de bases teóricas se postuló que el éter existía, cosa que hizo que varios científicos se dispusieran a hallar una manera de estudiarlo o, al menos, de confirmar su existencia. Uno de esos científicos fue el propio Maxwell.
 
             Si corremos con respecto al aire hacia una onda sonora, la onda se nos acerca a mayor velocidad, y si nos alejamos de ella nos alcanza más lentamente. Análogamente, si existiera un éter, la velocidad de la luz variaría según nuestra velocidad con respecto al éter. De hecho, si la luz se comportara como lo hace el sonido ocurriría que, así como los que viajan en avión supersónico nunca oirán ningún sonido emitido desde la zona posterior del avión, los viajeros que corrieran con suficiente velocidad con respecto al éter dejarían atrás una onda luminosa. Basándose en esas consideraciones, Maxwell sugirió un experimento. Sí existe un éter, la Tierra debería estar moviéndose respecto a él a medida que gira alrededor del Sol. Y como la Tierra avanza en una dirección diferente en enero que, digamos, en abril o en julio, deberíamos ser capaces de observar una minúscula diferencia en la velocidad de la luz en diferentes épocas del año —véase la figura—.
 
             Maxwell fue disuadido de publicar esta idea en los Proceedings of the Royal Society por su editor, que no creía que el experimento pudiera funcionar. Pero en 1879, poco antes de morir a los cuarenta y ocho años de un doloroso cáncer de estómago, Maxwell envió una carta sobre ese tema a un amigo. La carta fue publicada postumamente en la revista Nature donde fue leída, entre otros, por un físico norteamericano llamado Albert Michelson. Inspirado por la especulación de Maxwell, en 1887 Michelson y Edward Morley llevaron a cabo un experimento muy sensible diseñado para medir la velocidad con que la Tierra viaja con respecto al éter. Su idea era comparar la velocidad de la Luz en dos direcciones diferentes, perpendiculares entre sí. Si la velocidad de la luz con respecto al éter tuviera un valor fijo, esas medidas deberían revelar velocidades de la luz que diferirían según la dirección del haz. Pero Michelson y Morley no observaron ninguna diferencia.
 
             El resultado del experimento de Michelson y Morley está claramente en contradicción con el modelo de ondas electromagnéticas que viajan a través de un éter, y debería haber hecho que el modelo del éter fuera abandonado. Pero el objetivo de Michelson había sido medir la velocidad de la luz con respecto al éter, pero no demostrar o refutar la hipótesis del éter, y lo que halló no le condujo a concluir que el éter no existiera. Ningún otro investigador llegó, tampoco, a dicha conclusión. De hecho, el célebre físico sir William Thomson (lord Kelvin) afirmó, en 1884, que «el éter luminífero es la única sustancia de la cual estamos seguros en dinámica. Una sola cosa tenemos por cierta: la realidad y la sustancialidad del éter luminífero».
 
             ¿Cómo se podía creer en el éter a pesar de los resultados adversos del experimento de Michelson y Morley? Tal como hemos dicho que a menudo ocurre, la gente intentó salvar el modelo mediante adiciones artificiosas y ad hoc. Algunos postularon que la Tierra arrastraba consigo el éter, de manera que en realidad no nos movemos con respecto a él. El físico holandés Hendrick Antoon Lorentz y el físico irlandés Francis FitzGerald sugirieron que en un sistema de referencia que se moviera con respecto al éter, y probablemente por algún efecto mecánico aún desconocido, los relojes retrasarían y las distancias se encogerían, de modo que siempre se mediría que la luz tiene la misma velocidad. Los esfuerzos para salvaguardar el concepto del éter continuaron durante casi treinta años, hasta un notable artículo de un joven y desconocido empleado de la oficina de patentes de Berna, Albert Einstein.
 
             Einstein tenía veintiséis años en 1905, cuando publicó su artículo «Zur Electrodynamik bewegter Korper» («Sobre la electrodinámica de los cuerpos en movimiento»), En él hizo la sencilla hipótesis de que las leyes de la física, y en particular la velocidad de la luz en el vacío, deberían parecer las mismas a todos los observadores que se movieran con movimiento uniforme. Pero esta idea exige una revolución en nuestros conceptos de espacio y tiempo. Para ver por qué es así, imaginemos que dos sucesos ocurren en el mismo lugar pero en instantes diferentes, en un avión de reacción. Para un observador en el avión, habrá una distancia nula entre esos sucesos, pero para un observador en el suelo los dos sucesos estarán separados por la distancia que el avión ha recorrido durante el intervalo entre ambos. Ello demuestra que dos observadores que se están desplazando uno respecto al otro discreparán en la distancia entre dos sucesos.
 
             Supongamos ahora que los dos advierten un pulso de luz que viaja desde la cola hasta el morro del avión. Tal como en el ejemplo anterior, no estarán de acuerdo en la distancia que la luz ha recorrido desde su emisión en la cola del avión hasta su recepción en el morro. Como la velocidad es la distancia recorrida dividida por el intervalo de tiempo empleado, ello significa que si están de acuerdo en la velocidad con que el pulso viaja —la velocidad de la luz en el vacío— no la estarán acerca del intervalo temporal entre la emisión y la recepción.
 
             Lo que resulta extraño es que aunque los dos observadores miden tiempos diferentes están observando el mismo proceso físico. Einstein no intentó construir una explicación artificial de esto. Llegó a la conclusión lógica, aunque sorprendente, de que las medidas del tiempo transcurrido así como las de la distancia recorrida dependen del observador que efectúa la medición. Dicho efecto es una de las claves de la teoría en el artículo de Einstein de 1905, que se ha venido a conocer como relatividad especial.
 
             Para ver cómo este análisis se aplica a los aparatos que llevan la cuenta del tiempo, consideremos dos observadores que están mirando un reloj. Según la relatividad especial, el reloj va más rápido para un observador que está en reposo con respecto al reloj. Para los observadores que no están en reposo respecto del reloj, éste va más lentamente. Si el observador en el avión sincroniza un pulso de luz que va y viene entre la cola y el morro del avión con el tictac de su reloj, vemos que para un observador en tierra el reloj va más lento, porque en el sistema de referencia del suelo el pulso de luz debe recorrer una distancia mayor. Pero el efecto no depende del mecanismo concreto del reloj; se aplica a todos los relojes, incluso a nuestros relojes biológicos.
 
             El trabajo de Einstein demostró que, tal como ocurre con el concepto de reposo, el tiempo no puede ser absoluto, a diferencia de lo que había creído Newton. En otras palabras, no es posible, para cada suceso, asignar un tiempo para el cual todos los observadores estén de acuerdo. Al contrario, cada observador tiene su propia medida del tiempo, y los tiempos medidos por dos observadores que se están moviendo el uno con respecto al otro no coinciden. Las ideas de Einstein van contra nuestra intuición porque sus implicaciones no son observables a las velocidades que encontramos en la vida corriente, pero han sido repetidamente confirmadas por experimentos. Por ejemplo, imaginemos un reloj de referencia en el centro de la Tierra, otro en la superficie de la Tierra, y otro a bordo de un avión que vuela o bien en el sentido de la rotación de la Tierra o bien en el sentido opuesto. Con respecto al reloj situado en el centro de la Tierra, el reloj a bordo del avión que vuela hacia el este —es decir, en el sentido de la rotación de la Tierra— se desplaza más rápido que el reloj situado en la superficie de la Tierra, y por lo tanto debe retrasar. Análogamente, respecto al reloj situado en el centro de la Tierra, el reloj a bordo del avión que vuela hacia el oeste —en sentido opuesto a la rotación de la Tierra— se desplaza más lentamente que el reloj en la superficie, lo cual significa que el reloj en el avión debería avanzar respecto del reloj en la superficie. Y eso es exactamente lo que se observó cuando, en un experimento realizado en octubre de 1971, un reloj atómico muy preciso voló alrededor del mundo. Así pues, podríamos alargar nuestra vida si voláramos constantemente hacia el este alrededor del mundo, aunque acabaríamos aburridos de ver todas las películas de las aerolíneas. Sin embargo, el efecto es muy pequeño, de unas ciento ochenta milmillonésimas de segundo por vuelta (y queda también algo reducido por los efectos de la diferencia en la gravedad, pero no necesitamos bajar a tantos detalles).
 
             Gracias al trabajo de Einstein, los físicos se dieron cuenta de que postulando que la velocidad de la luz es la misma en todos los sistemas de referencia, la teoría de la electricidad y el magnetismo de Maxwell implica que el tiempo no puede ser tratado separadamente de las tres dimensiones del espacio, sino que tiempo y espacio están profundamente imbricados entre sí. Es como si añadiéramos una cuarta dimensión futuro/pasado a las tres usuales derecha/izquierda, adelante/atrás y arriba/abajo. Los físicos llaman «espacio-tiempo» a ese matrimonio de espacio y tiempo, y como el tiempo constituye una cuarta dimensión le llaman la cuarta dimensión. En el espacio-tiempo el tiempo ya no está separado de las tres dimensiones del espacio y, hablando impropiamente, así como la definición de derecha/izquierda, adelante/atrás o arriba/ abajo depende de la orientación del observador, así también la dirección del tiempo depende de la velocidad del observador. Observadores que se mueven a diferentes velocidades escogerían diferentes direcciones para el tiempo en el espacio-tiempo. Por lo tanto, la teoría de la relatividad especial de Einstein constituyó un nuevo modelo que eliminó los conceptos de tiempo absoluto y reposo absoluto (es decir, reposo con respecto a un éter fijo).
 
             Einstein no tardó en darse cuenta de que para hacer que la gravedad sea compatible con la relatividad era necesario otro cambio. Según la teoría de la gravitación de Newton, en cada instante los objetos son atraídos entre sí por una fuerza que depende de la distancia entre ellos en dicho instante. Pero la teoría de la relatividad había abolido el concepto de tiempo absoluto, de forma que no había manera de definir en qué instante se debían medir las distancias entre las masas. En consecuencia, la teoría de la gravitación de Newton no era consistente con la relatividad especial y tenía que ser modificada. Este conflicto puede parecer a primera vista una mera dificultad técnica, quizá incluso un detalle nimio que podía ser superado sin demasiados cambios en la teoría. Pero que nada estaba tan lejos de la realidad.
 
             En los once años siguientes, Einstein desarrolló una nueva teoría de la gravedad, que denominó relatividad general. El concepto de la gravedad en la relatividad general no es en absoluto como el de Newton, sino que está basado en la propuesta revolucionaria de que el espacio-tiempo no es plano como había sido supuesto anteriormente, sino que está curvado y distorsionado por la masa y energía que contiene.
 
             Una buena manera de representar la curvatura es imaginar la superficie de la Tierra. Aunque la superficie de la Tierra sólo es bidimensional (porque sólo hay en ella dos direcciones, digamos norte/sur y este/oeste), la vamos a utilizar como ejemplo porque es más fácil representar un espacio curvado bidimensional que cuatridimensional. La geometría de los espacios curvados como la superficie de la Tierra no es la geometría euclidiana a que estamos acostumbrados. Por ejemplo, sobre la superficie de la Tierra, la distancia más corta entre dos puntos —que sabemos que es un segmento rectilíneo en la geometría euclidiana— es el camino que conecta los dos puntos a lo largo de lo que se denomina un círculo máximo. (Un círculo máximo es una línea en la superficie de la Tierra cuyo centro coincide con el centro de la Tierra. El ecuador es un ejemplo de círculo máximo, y también lo es cualquier círculo obtenido inclinando el ecuador por uno cualquiera de sus infinitos diámetros.)
 
             Imaginemos, por ejemplo, que queremos ir de Nueva York a Madrid, dos ciudades que se hallan a la misma latitud. Si la Tierra fuera plana, el camino más corto sería ir directamente hacia el este en línea recta. Si lo hiciéramos, llegaríamos a Madrid tras recorrer 3.707 millas. Pero debido a la curvatura de la Tierra, hay un camino que parece curvado y por lo tanto más largo sobre un mapa plano, pero que en realidad es mas corto. Se puede llegar a Madrid en 3.605 millas si seguimos la ruta del círculo máximo, que va primero hacia el noreste, y después gira gradualmente hacia el este y después hacia el sureste. La diferencia de distancias entre ambas rutas es debida a la curvatura de la Tierra y constituye una señal de que su geometría no es euclidiana. Las líneas aéreas lo saben perfectamente y adiestran a sus pilotos para seguir las rutas de los círculos máximos, siempre que resulte practicable.
 
             Según las leyes de Newton del movimiento, los objetos, como por ejemplo obuses, croissants o planetas, se desplazan en línea recta salvo que actúe sobre ellos una fuerza, por ejemplo la gravedad. Pero la gravedad, en la teoría de Einstein, no es una fuerza como las demás fuerzas sino una consecuencia de que la masa deforma el espacio-tiempo y le confiere una cierta curvatura. En la teoría de Einstein, los objetos se desplazan a lo largo de lo más parecido a las líneas rectas en un espacio curvado, llamadas geodésicas. Las rectas son geodésicas en el espacio plano y los círculos máximos son geodésicos en la superficie de la Tierra. En ausencia de materia, las geodésicas en el espacio-tiempo cuatridimensional corresponden a rectas en el espacio tridimensional, pero en presencia de materia que deforme el espacio-tiempo, las trayectorias de los cuerpos en el espacio tridimensional correspondiente se curvan de una manera que en la teoría newtoniana era explicada por la atracción de la gravedad. Cuando el espacio-tiempo no es plano, las trayectorias de los objetos parecen estar curvadas, y producen la impresión de que sobre ellos está actuando una fuerza.
 
             La teoría de la relatividad general de Einstein se reduce a la relatividad especial en ausencia de la gravedad y hace casi las mismas predicciones —pero no idénticas— que la teoría de la gravitación de Newton en el ambiente de gravitación débil de nuestro sistema solar. De hecho, si no se tuviera en cuenta la relatividad general en el sistema GPS de navegación por satélite, los errores en la posición global se acumularían a un ritmo de unos ¡diez kilómetros por día! Sin embargo, la auténtica importancia de la relatividad general no es su aplicación a dispositivos que nos guíen hacia nuevos restaurantes sino que constituye un modelo del universo muy diferente, que predice nuevos efectos como ondas gravitatorias y agujeros negros. Y así, la relatividad general ha transformado la física en geometría. La tecnología moderna es suficientemente sensible para permitirnos llevar a cabo muchas pruebas detalladas de la relatividad general, y las ha superado todas con éxito.
 
             Aunque ambas revolucionaron la física, la teoría de Maxwell del electromagnetismo y la teoría de Einstein de la gravitación — la relatividad general— son, como la física de Newton, teorías clásicas, es decir, son modelos en que el universo tiene una sola historia. Tal como vimos en el capítulo anterior, a nivel atómico y subatómico esos modelos no concuerdan con las observaciones, sino que debemos utilizar teorías cuánticas en que el universo puede tener cualquier historia posible, cada una de ellas con su propia amplitud de probabilidad. Para los cálculos prácticos para el mundo cotidiano podemos continuar utilizando las teorías clásicas, pero si queremos comprender el comportamiento de los átomos y las moléculas necesitamos una versión cuántica de la teoría de Maxwell del electromagnetismo, y si queremos comprender el universo primitivo, cuando toda la materia y toda la energía del universo estaban comprimidas en un volumen diminuto, necesitamos una versión cuántica de la teoría de la relatividad general. También necesitamos dichas teorías si queremos llegar a una comprensión fundamental de la naturaleza, porque no sería consistente que algunas de las leyes fueran clásicas y otras cuánticas. Por lo tanto, tenemos que hallar versiones cuánticas de todas las leyes de la naturaleza. Tales teorías se denominan teorías cuánticas de campos.
 
             Las fuerzas conocidas de la naturaleza pueden ser divididas en cuatro clases:
 
             1) Gravedad. Es la fuerza más débil de las cuatro, pero es una fuerza de largo alcance y actúa de forma atractiva sobre todos los objetos del universo. Ello implica que para cuerpos grandes las fuerzas gravitatorias se suman y pueden dominar sobre todas las demás fuerzas.
 
             2) Electromagnetismo. También es una fuerza de largo alcance y es mucho más intensa que la gravedad, pero sólo actúa sobre partículas con carga eléctrica y es repulsiva entre cargas del mismo signo y atractiva entre cargas de signo opuesto. Ello significa que las fuerzas eléctricas entre cuerpos grandes se anulan entre sí, pero a escala de átomos y moléculas son dominantes. Las fuerzas electromagnéticas son las responsables de toda la química y la biología.
 
             3) Fuerza nuclear débil. Produce la radiactividad y desempeña un papel decisivo en la formación de los elementos en las estrellas y en el universo primitivo. Sin embargo, en la vida corriente no entramos en contacto con esa fuerza.
 
             4) Fuerza nuclear fuerte. Mantiene unidos los protones y los neutrones dentro de los núcleos atómicos. También mantiene la integridad de los protones y neutrones, lo cual es necesario porque están formados por partículas todavía más diminutas, los quarks, mencionadas en el capítulo 3. La fuerza nuclear fuerte es la fuente de energía del Sol y de las centrales nucleares pero, tal como ocurre con la fuerza nuclear débil, no tenemos un contacto directo con ella.
 
             La primera fuerza para la cual se propuso una versión cuántica fue el electromagnetismo. La teoría cuántica del campo electromagnético, denominada electrodinámica cuántica o simplemente QED (siglas en inglés de quantum electrodynamics), fue desarrollada en la década de 1940 por Richard Feynman y otros, y se ha convertido en un modelo para todas las teorías cuánticas de campos. Tal como hemos dicho, según las teorías clásicas las fuerzas son transmitidas por campos. Pero en las teorías cuánticas de campos, los campos de fuerzas son representados como constituidos por partículas elementales denominadas bosones, que son las partículas transmisoras de fuerzas que se intercambian entre las partículas de materia, transmitiendo las fuerzas. Los electrones y los quarks son ejemplos de fermiones. El fotón, o partícula de luz, es un ejemplo de un bosón; es el bosón el que transmite la fuerza electromagnética. Lo que ocurre es que una partícula de materia, como por ejemplo un electrón, emite un bosón o partícula de fuerza, y recula al hacerlo, como un cañón recula al disparar un obús. La partícula transmisora de la fuerza choca después con otra partícula de materia y es absorbida por ella, con lo cual modifica el movimiento de dicha partícula. Según la QED, todas las interacciones entre partículas cargadas eléctricamente —partículas sensibles a la fuerza electromagnética— son descritas en términos del intercambio de fotones.
 
             Las predicciones de la QED han sido sometidas a prueba y se ha verificado que concuerdan con los resultados experimentales con gran precisión. Pero realizar los cálculos matemáticos requeridos por la QED puede ser difícil. El problema, como veremos después, es que cuando añadimos a este marco de intercambio de partículas el requisito cuántico de incluir todas las historias en que una interacción puede producirse —por ejemplo, rodas las maneras en que pueden ser intercambiadas las partículas de fuerzas-las matemáticas se hacen muy complicadas. Afortunadamente, además de inventar la interpretación de las «historias alternativas» de la teoría cuántica descrita en el último capítulo, Feynman también desarrolló un método gráfico muy nítido para expresar las diferentes historias, un método que es aplicado actualmente no tan sólo a la QED, sino a todas las teorías cuánticas de campos.
 
             El método gráfico de Feynman proporciona una manera de representar cada término de la suma sobre historias. Esas figuras, denominadas diagramas de Feynman, son uno de los instrumentos más importantes de la física moderna. En la QED, la suma sobre todas las posibles historias puede ser visualizada como una suma sobre diagramas de Feynman como los reproducidos a continuación, que describen algunas de las maneras en que dos electrones se puedan desviar uno al otro mediante la fuerza electromagnética. En esos diagramas, las líneas continuas representan los electrones y las líneas onduladas representan fotones. Se supone que el tiempo aumenta desde abajo arriba, y los lugares en que las líneas se unen corresponden a la emisión o absorción de fotones por parte de un electrón. El diagrama (a) representa que los dos electrones se aproximan entre sí, intercambian un fotón y siguen su nuevo camino. Ésa es la manera más simple en que dos electrones pueden interaccionar electromagnéticamente, pero debemos considerar todas las historias posibles. Por lo tanto, también debemos incluir diagramas como (b). Ese diagrama también tiene dos segmentos que entran, los electrones que se aproximan, y dos segmentos que salen, los electrones tras su interacción, pero en ese diagrama los electrones intercambian dos fotones antes de alejarse el uno del otro. Los diagramas representados aquí son tan sólo unas pocas de las posibilidades; de hecho, hay un número infinito de diagramas que deben ser tenidos en cuenta matemáticamente.
 
             Los diagramas de Feynman no son sólo una manera nítida de representar y clasifícar cómo pueden ocurrir las interacciones. También vienen acompañados por reglas que nos permiten leer, a partir de las líneas y vértices de cada diagrama, una expresión matemática. La probabilidad, por ejemplo, de que los electrones incidentes, con una cierta cantidad de movimiento inicial, salgan con una cierta cantidad de movimiento final, es obtenida sumando las contribuciones de cada diagrama de Feynman. Eso puede requerir mucho trabajo porque, como hemos dicho, hay un número infinito de diagramas. Además, aunque los electrones incidentes y salientes tienen una energía y una cantidad de movimiento definidas, las partículas en los bucles cerrados del interior del diagrama pueden tener cualquier energía y cantidad de movimiento. Eso es importante porque al efectuar la suma de Feynman debemos sumar no sólo sobre todos los diagramas, sino también sobre todos los valores de esas energías y cantidades de movimiento.
 
             Los diagramas de Feynman proporcionaron a los físicos una enorme ayuda al visualizar y calcular las probabilidades de los procesos descritos por la QED, pero no solucionaron un grave inconveniente que sufría la teoría: cuando se suman las contribuciones del número infinito de diferentes historias se llega a un resultado infinito. (Si los términos sucesivos de una suma infinita decrecen lo suficientemente rápido es posible que la suma sea finita pero ello, desgraciadamente, no ocurre aquí.) En particular, cuando se suma los diagramas de Feynman la solución parece implicar que el electrón tiene carga y masa infinitas. Ello es absurdo, porque podemos medir la carga y la masa y son finitas. Para tratar con esos infinitos, se desarrolló un procedimiento denominado renormalización.
 
             El proceso de renormalización hace intervenir magnitudes infinitas positivas y negativas, que se restan mutuamente, de manera que tras una contabilidad matemática muy cuidadosa, los valores infinitos positivos y negativos que surgen en la teoría casi se anulan entre sí, dejando un pequeño residuo correspondiente a los valores finitos observados de la masa y la carga. Esas manipulaciones pueden parecer el tipo de cosas que nos hacen obtener mala nota en los exámenes de matemáticas en la escuela, y la renormalización es, en efecto, matemáticamente discutible. Una consecuencia es que los valores para la masa y la carga del electrón obtenidos mediante ese método pueden ser cualquier número finito. Eso tiene la ventaja de que los físicos pueden escoger los infinitos negativos de tal manera que den la solución correcta, pero presenta el inconveniente de que la masa y la carga del electrón no pueden ser predichas por la teoría. Pero una vez se ha fijado la masa y la carga del electrón de tal manera, se puede utilizar la QED para efectuar muchas otras predicciones muy precisas, todas las cuales concuerdan con gran exactitud con las observaciones, de manera que la renormalización es uno de los ingredientes esenciales de la QED. Uno de los triunfos iniciales de la QED, por ejemplo, fue la predicción correcta del llamado desplazamiento de Lamb, una minúscula variación en la energía de uno de los estados del átomo de hidrógeno, descubierta en 1947.
 
             El éxito de la renormalización en la QED impulse') varios intentos de buscar teorías cuánticas de campos que describieran las otras tres fuerzas de la naturaleza. Pero la división de las fuerzas naturales en cuatro clases es probablemente artificial, una mera consecuencia de nuestra falta de comprensión. Por lo tanto, la gente empezó a buscar una Teoría de Todo que unificara los cuatro tipos de fuerza en una sola ley que fuera compatible con la teoría cuántica. Ello sería el Santo Grial de la física.
 
             Un indicio de que la unificación es el camino correcto vino de la teoría de las interacciones débiles. La teoría cuántica de campos que describe la interacción débil por sí sola no puede ser renormalizada, es decir, sus infinitos no pueden ser anulados restándoles otros infinitos para dar un número finito para magnitudes como la masa y la carga. Sin embargo, en 1967, Abdus Salam y Steven Weinberg, independientemente el uno del otro, propusieron una teoría en que el electromagnetismo quedaba unificado con las interacciones débiles y hallaron que esa unificación evitaba la plaga de los infinitos. La fuerza unificada se denomina fuerza electrodébil. Su teoría pudo ser renormalizada y predijo tres nuevas partículas, denominadas W+, W— y Z°. En 1973, fueron descubiertas en el CERN de Ginebra evidencias de la partícula Z°. Salam y Weinberg recibieron el premio Nobel de física en 1979 aunque las partículas W y Z no fueron observadas directamente hasta 1983.
 
             La fuerza nuclear fuerte puede ser renormalizada por su cuenta en una teoría denominada cromodinámica cuántica o QCD (por sus siglas en ingles de quantum chromodynamics). Según la QCD, el protón, el neutrón, y muchas otras partículas elementales de la materia están formadas por quarks, que tienen la notable propiedad que los físicos han denominado color, de donde viene el término cromodinámica, aunque los colores de los quarks son tan sólo etiquetas útiles que nada tienen que ver con los colores visibles. Hay quarks de tres colores: rojo, verde y azul. Además, cada quark tiene una antipartícula correspondiente, y los colores de dichas antipartículas son denominados antirrojo, antiverde y antiazul. La idea es que sólo las combinaciones sin color neto pueden existir como partículas libres. Hay dos maneras de conseguir esas combinaciones neutras de quarks. Un color y su anticolor se anulan mutuamente, de manera que un quark y un antiquark forman un par sin color, partículas inestables denominadas mesones. Además, cuando los tres colores (o anticolores) se mezclan, el conjunto no tiene color neto. Tres quarks, uno de cada color, forman partículas estables denominadas bariones, de las cuales los protones y los neutrones son ejemplos (y tres antiquarks forman las antipartículas de los bariones). Los protones y los neutrones son los bariones que forman los núcleos de los átomos y constituyen la base de toda la materia normal del universo.
 
             La QCD también tiene una propiedad denominada libertad asintótica, a la cual también nos referimos, sin llamarla por su nombre, en el capítulo 3. La libertad asintótica significa que las fuerzas fuertes entre quarks son pequeñas cuando los quarks están muy próximos entre sí, pero aumentan si se separan, como si estuvieran unidos con una goma elástica. La libertad asintótica explica por qué en la naturaleza no vemos quarks aislados y hemos sido incapaces de producirlos en el laboratorio. Pese a ello, aunque no podamos observar los quarks individuales aceptamos el modelo porque explica muy bien el comportamiento de los protones, neutrones y otras partículas de materia.
 
             Tras unir las fuerzas electromagnética y débil, los físicos, en la década de 1970, buscaron una manera de incorporar la fuerza fuerte a dicha teoría. Hay un cierto número de teorías de gran unificación (GUT, siglas de Grand Unified Theories) que atinan la fuerza fuerte con la fuerza débil y el electromagnetismo, pero la mayoría de ellas predicen que los protones, que constituyen el material de que estamos formados, deberían decaer en promedio tras unos 1032 años. Esa vida media es muy larga, dado que el universo tan sólo tiene unos 1010 años. Pero en física cuántica, cuando decimos que la vida media de una partícula es de unos 1032 años, no queremos decir que la mayoría de las partículas duren aproximadamente 1032 años, algunas un poco más, algunas un poco menos, sino que queremos decir que cada año una partícula tiene una probabilidad de 1 sobre 1032 de desintegrarse. En consecuencia, si observamos durante unos pocos años un tanque que contenga 1032 protones, deberíamos ver desintegrarse algunos de ellos. No es demasiado difícil construir un tanque así, ya que 1032 protones están contenidos en unas mil toneladas de agua. Los científicos han llevado a cabo tales experimentos, pero resulta que detectar esas desintegraciones y distinguirlas de otros sucesos provocados por los rayos cósmicos que continuamente llueven sobre nosotros no es tarea fácil. Para minimizar el ruido, los experimentos se realizan a grandes profundidades, en lugares como la mina de la Compañía de Kamioka de Minería y Fundición a unos mil metros bajo una montaña en Japón, que queda bastante protegida de los rayos cósmicos. Como resultado de las observaciones en 2009, los investigadores han concluido que si los protones realmente se desintegran, su vida media es mayor que unos 1034 años, lo cual son malas noticias para las teorías de gran unificación.
 
             Como las teorías de gran unificación (GUT) no son corroboradas por evidencias observacionales la mayoría de físicos adoptó una teoría ad hoc denominada el modelo estándar, que consiste en la teoría unificada de las fuerzas electrodébiles y en la cromodinámica cuántica como teoría de las fuerzas fuertes. Pero en el modelo estándar las fuerzas electrodébiles y fuertes actúan por separado y no están unificadas. El modelo estándar ha acumulado muchos éxitos y concuerda con todas las evidencias observacionales hasta la fecha pero es en último término insatisfactorio porque, además de no unificar las fuerzas electrodébiles y fuertes, no incluye la gravedad.
 
             Aunque se han revelado las dificultades de fundir las fuerzas fuertes con las electrodébiles, dichos problemas no son nada en comparación con la dificultad de unificar la gravitación con las otras tres fuerzas, o incluso de formular una teoría cuántica auto-consistente de la gravedad. La razón por la cual crear una teoría cuántica de la gravedad resulta tan difícil está relacionada con el principio de incertidumbre de Heisenberg que hemos explicado en el capítulo 3. Aunque no sea obvio verlo, resulta que con respecto a dicho principio el valor de un campo y de su tasa de cambio temporal desempeñan el mismo papel que la posición y la velocidad de una partícula. Es decir, cuanto mayor es la precisión con que se consigue determinar el uno menor es la precisión con que se puede determinar el otro. Una consecuencia importante de ello es que no existe el espacio vacío. Ello es así porque espacio vacío significa que el valor de un campo es exactamente cero y que la tasa de cambio del campo es también exactamente cero (si no fuera así, el espacio no permanecería vacío). Como el principio de incertidumbre no permite que los valores del campo y de su tasa temporal de cambio tengan valores exactos simultáneamente, el espacio nunca está vacío. Puede tener un estado de mínima energía, denominado el «vacío», pero dicho estado está sujeto a lo que llamamos fluctuaciones del vacío cuántico, que consisten en partículas y campos que aparecen y desaparecen de la existencia.
 
             Podemos interpretar las fluctuaciones del vacío cuántico como pares de partículas que aparecen conjuntamente en un cierto instante, se separan, vuelven a unirse y se aniquilan entre sí. En términos de los diagramas de Feynman, corresponden a bucles cerrados. Dichas partículas se denominan partículas virtuales ya que, a diferencia de las partículas reales, las partículas virtuales no pueden ser observadas directamente mediante detectores de partículas. Sin embargo, sus efectos indirectos, como por ejemplo pequeños cambios en la energía de las órbitas electrónicas, pueden ser medidos y concuerdan con las predicciones teóricas con un notable grado de exactitud. El problema consiste en que las partículas virtuales tienen energía y, como hay un número infinito de pares virtuales, su cantidad de energía sería infinita. Según la relatividad general, ello comportaría que curvarían el universo a un tamaño infinitesimalmente pequeño, ¡lo cual obviamente no ocurre!
 
             Esa plaga de infinitos es análoga al problema que se presenta en las teorías de las fuerzas electromagnéticas, débiles y fuertes, salvo que en esos casos la renormalización consigue eliminar los infinitos. Pero los bucles cerrados de los diagramas de Feynman para la gravedad producen infinitos que no pueden ser absorbidos por renormalización, ya que en la relatividad general no hay suficientes parámetros renormalizables para eliminar todos los infinitos cuánticos de la teoría. Nos quedamos, pues, con una teoría de la gravedad que predice que algunas magnitudes, como la curvatura del espacio-tiempo, son infinitas, lo cual no es manera de tener un universo habitable. Ello significa que la única posibilidad de obtener una teoría razonable sería que todos los infinitos se anularan sin tener que acudir a renormalización.
 
             En 1976 se halló una posible solución a este problema, la llamada supergravedad. El calificativo súper en supergravedad no se añade porque los físicos creyeran que era «súper» que esa teoría de la gravitación cuántica pudiera realmente funcionar, sino que se refiere a un tipo de simetría que la teoría posee, la llamada supersimetría.
 
             En física se dice que un sistema tiene una simetría si sus propiedades no quedan afectadas por una cierta transformación, como por ejemplo una rotación espacial o hacer su imagen especular. Por ejemplo, si damos la vuelta a un donut sobre sí mismo parece exactamente el mismo (a no ser que tenga un recubrimiento de chocolate en su parte superior, en cuyo caso lo mejor es comérselo). La supersimetría es un tipo más sutil de simetría que no puede ser asociado con una transformación en el espacio ordinario. Una de las implicaciones de la supersimetría es que las partículas de fuerza y las partículas de materia, y por lo tanto la fuerza y la materia, son en realidad dos facetas de una misma cosa. En términos prácticos ello significa que cada partícula de materia, como por ejemplo un quark, debería tener una partícula compañera que fuera una partícula de fuerza, y que cada partícula de fuerza, como por ejemplo el fotón, debería tener una partícula compañera que fuera una partícula de materia. Eso tiene el potencial de resolver el problema de los infinitos porque los infinitos que proceden de los bucles cerrados de las partículas de fuerza son positivos, en tanto que los infinitos procedentes de los bucles cerrados de las partículas de materia son negativos. Así, los infinitos que surgen en la teoría a partir de las partículas de fuerza y los de sus compañeras las partículas de materia tenderían a anularse entre sí. Desgraciadamente, los cálculos necesarios para comprobar si quedarían o no infinitos sin anular en la supergravedad eran tan largos y difíciles y presentaban tantas posibilidades de cometerse errores que nadie se veía con fuerzas para abordarlos. Sin embargo, la mayoría de los físicos creían que la supergravedad era probablemente la respuesta correcta al problema de unificar la gravedad con las otras fuerzas.
 
             Podría creerse que la validez de la supersimetría sería algo fácil de comprobar —tan sólo examinar las propiedades de las partículas existentes y ver si están apareadas entre ellas, pero no se han observado esas partículas compañeras —. Pero varios cálculos realizados por los físicos indican que las partículas compañeras correspondientes a las partículas que observamos deberían ser miles de veces, o más, más pesadas que un protón. Ello es demasiado pesado para haber sido visto en los experimentos realizados hasta la fecha, pero hay esperanzas de que tales partículas puedan ser producidas por fin en el gran colisionador de hadrones (LHC, siglas de Large Hadron Collider) en Ginebra, Suiza.
 
             La idea de la supersimetría fue un punto clave en la formulación de la supergravedad, pero en realidad el concepto se había originado años antes, en los teóricos que estudiaban una teoría denominada teoría de cuerdas. Según la teoría de cuerdas, las partículas no son puntos sino modos de vibración que tienen longitud, pero no altura ni anchura —como fragmentos de cuerda infinitamente finos—. Las teorías de cuerdas también conducen a infinitos, pero se cree que en la versión adecuada todos ellos se anularán. Además, tienen otra característica poco usual: tan sólo son consistentes si el espacio-tiempo tiene diez dimensiones en lugar de las cuatro usuales. Diez dimensiones pueden parecer excitantes a los científicos, pero causarían auténticos problemas si olvidáramos dónde hemos dejado aparcado el automóvil. Si están presentes, ¿por qué no advertimos esas dimensiones adicionales? Según la teoría de cuerdas, están enrolladas en un espacio de un tamaño minúsculo. Para representárnoslo, imaginemos un plano bidimensional. Decimos que el plano es bidimensional porque necesitamos dos números, por ejemplo una coordenada horizontal y otra vertical, para localizar en él un punto cualquiera. Otro espacio bidimensional es la superficie de una pajilla de beber. Para localizar un punto en ella necesitamos saber en qué longitud de la pajilla se halla el punto y, además, dónde está en su dimensión circular transversal. Pero si la pajilla es muy fina, podemos tener una idea satisfactoriamente aproximada de la posición empleando tan sólo la coordenada a lo largo de la pajilla, de manera que podemos ignorar la dimensión circular. Y si la pajilla fuera una millonésima de billonésima de billonésima de centímetro de diámetro, no percibiríamos en absoluto su dimensión circular. Esta es la imagen que tienen los teóricos de las dimensiones adicionales —están muy curvadas, en una escala tan ínfima que no podemos verlas—. En la teoría de cuerdas, las dimensiones adicionales están enrolladas en lo que se llama un «espacio interno», en oposición al espacio tridimensional que experimentamos en la vida corriente. Como veremos, esos estados internos no son sólo dimensiones ocultas que podamos barrer debajo de la alfombra, sino que tienen una importante significación física.
 
             Además de la cuestión de las dimensiones, la teoría de cuerdas adolecía de otra característica incómoda: parecía que había al menos cinco teorías diferentes y millones de maneras en que las dimensiones adicionales podían curvarse, lo cual conduce a una multitud embarazosa de posibilidades para los que abogaban que la teoría de cuerdas era la teoría única de todo. Entonces, hacia 1994, se empezó a descubrir dualidades —que diferentes teorías de cuerdas, y diferentes maneras de curvar las dimensiones adicionales, son simplemente maneras diferentes de describir los mismos fenómenos en cuatro dimensiones—. Además, se descubrió que la supergravedad también está relacionada con las otras teorías de esa manera. Los teóricos de cuerdas están convencidos ahora de que las cinco diferentes teorías de cuerdas y la supergravedad son simplemente diferentes aproximaciones a una teoría más fundamental, cada una de las cuales es válida en situaciones diferentes.
 
             La teoría más fundamental es la denominada teoría M, como dijimos antes. Nadie parece saber qué significa la M, pero puede ser Maestra, Milagro o Misterio. Parece participar de las tres posibilidades. Aún estamos intentando descifrar la naturaleza de la teoría M, pero puede que no sea posible conseguirlo. Podría ser que la tradicional expectativa de los físicos de una sola teoría de la naturaleza sea inalcanzable y que no exista una formulación única.
 
             Podría ser que para describir el universo tengamos que emplear teorías diferentes en situaciones diferentes. Cada teoría puede tener su propia versión de la realidad, pero según el realismo dependiente del modelo, ello sólo es aceptable si las predicciones de las teorías concuerdan en los dominios en que éstas se solapan, es decir, en que ambas pueden ser aplicadas.
 
             Tanto si la teoría M existe como una formulación única o como una red de teorías, conocemos algunas de sus propiedades. En primer lugar, el espacio-tiempo de la teoría M tiene once dimensiones en lugar de diez. Los teóricos de cuerdas habían sospechado desde hacía tiempo que la predicción de diez dimensiones debería ser corregida, y trabajos recientes demostraron que efectivamente una dimensión había sido dejada de lado. Ademas, la teoría M puede contener no sólo cuerdas vibrantes, sino también partículas puntuales, membranas bidimensionales, burbujas tridimensionales y otros objetos que resultan más difíciles de representar y que ocupan todavía más dimensiones espaciales, hasta nueve. Son llamados p-branas (donde p va desde 0 a 9).
 
             ¿ Y qué podemos decir sobre el enorme número de maneras de curvar las dimensiones pequeñas? En la teoría M las dimensiones espaciales adicionales que forman el espacio interno no pueden ser curvadas de manera arbitraria, ya que las matemáticas de la teoría restringen las maneras posibles de hacerlo. La forma exacta del espacio interno determina los valores de las constantes físicas, como la carga del electrón, y la naturaleza de las interacciones entre las partículas elementales; en otras palabras, determina las leyes aparentes de la naturaleza. Decimos «aparentes» porque nos referimos a las leyes que observamos en nuestro universo —las leyes de las cuatro fuerzas y los parámetros como las masas y las cargas que caracterizan las partículas elementales —, pero las leyes más fundamentales son las de la teoría M.
 
             Por lo tanto, las leyes de la teoría M permiten diferentes universos con leyes aparentes diferentes, según como esté curvado el espacio interno. La teoría M tiene soluciones que permiten muchos tipos de espacios internos, quizá hasta unos 105°°, lo cual significa que permitiría unos 10500 universos, cada uno con sus propias leyes. Para hacernos una idea de qué representa ese número pensemos lo siguiente: si alguien pudiera analizar las leyes predichas para tales universos en tan sólo un milisegundo por universo y hubiera empezado a trabajar en el instante del Big Bang, en el momento presente sólo habría podido analizar las leyes de 1020 de ellos, y eso sin pausas para el café.
 
             Hace siglos, Newton demostró qué ecuaciones matemáticas podían proporcionar una descripción asombrosamente precisa de la manera como interaccionan los objetos tanto en la tierra como en los cielos. Los científicos pasaron a creer que el futuro de todo el universo podría ser contemplado con tan sólo que conociéramos la teoría adecuada y tuviéramos suficiente poder de cálculo. Después llegaron la incertidumbre cuántica, el espacio curvado, los quarks, las dimensiones adicionales, y el resultado de sus diversas contribuciones es 10500 universos, cada uno con leyes diferentes y sólo uno de los cuales corresponde al universo tal como lo conocemos. Puede que debamos abandonar la esperanza original de los físicos de descubrir una sola teoría que explique las leyes aparentes de nuestro universo como única consecuencia posible de unas pocas hipótesis sencillas. ¿A dónde nos conduce eso? Si la teoría M permite 10500 conjuntos de leyes aparentes, ¿cómo es que nos hallamos en ese universo, con las leyes aparentes que conocemos? Y ¿qué pasa con los otros posibles universos?
 
6 ESCOGIENDO NUESTRO UNIVERSO
 
             SEGÚN LA TRIBU DE LOS BOSHONGO del África central, en el inicio sólo había oscuridad, agua y el gran dios Bumba. Un día, Bumba, en un dolor de estómago, vomitó el Sol. Transcurrido un tiempo, el Sol secó parte del agua y dejó al descubierto tierra firme, pero Bumba todavía padecía el dolor y vomitó aún más cosas: la Luna, las estrellas y algunos animales: el leopardo, el cocodrilo, la tortuga y, finalmente, el hombre. Los mayas de México y América Central hablan de una época semejante antes de la creación, cuando todo lo que existía era el mar, el cielo y el Hacedor. En la leyenda maya, el Hacedor, entristecido porque nadie lo alababa, creó la tierra, las montañas, los árboles y la mayoría de animales. Pero como los animales no podían hablar decidió crear los humanos. Primero los hizo de barro, pero sólo decían cosas sin sentido. Dejó que se deshicieran y lo intentó de nuevo, haciendo ahora la gente de madera, pero esa gente era muy torpe. Decidió destruirlos, pero escaparon a la selva, sufriendo sucesivos daños a lo largo de su carrera, que los fueron transformando en monos. Después de esc fracaso, el Hacedor finalmente halló una fórmula que funcionaba, y construyó los primeros humanos con maíz blanco y amarillo. Actualmente hacemos etanol con maíz, pero por ahora no hemos conseguido repetir el hito del Hacedor de construir gente que se lo beba.
 
             Mitos de la creación como ésos intentan dar respuesta a las preguntas que nos formulamos en este libro. ¿Por qué existe un universo y por qué el universo es como es? Nuestra capacidad de tratar tales cuestiones ha ido creciendo a lo largo de los siglos, desde los antiguos griegos y de manera más profunda en el último siglo.
 
             Pertrechados con las bases proporcionadas por los capítulos anteriores, estamos en disposición de ofrecer una posible respuesta a esas preguntas.
 
             Una cosa que debió haber resultado evidente incluso en tiempos muy primitivos es que o bien el universo es una creación muy reciente o bien los humanos sólo han existido durante una pequeña fracción de la historia del universo. Ello es así porque la especie humana ha ido mejorando de forma tan rápida en conocimientos y tecnología que, si la gente hubiera estado ahí durante millones de años, nuestra especie estaría mucho más avanzada en sus destrezas y conocimientos.
 
             Según el Antiguo Testamento, Dios hizo a Adán y Eva tan sólo seis días después de la creación. El obispo Ussher, primado de toda Irlanda desde 1625 hasta 1656, situó el origen del mundo con mayor precisión todavía, a las 9 de la mañana del 27 de octubre del año 4004 a. C. En la actualidad adoptamos un punto de vista diferente, a saber, que los humanos son una creación reciente pero que el universo empezó mucho antes, hace unos trece mil setecientos millones de años.
 
             La primera evidencia científica actual de que el universo tuvo un inicio procede de la década de 1920. Tal como dijimos en el capítulo 3, en esa época la mayoría de los científicos creía en un universo estático que había existido siempre. La evidencia de lo contrario era indirecta, basada sobre las observaciones que Edwin Hubble había realizado con el telescopio de cien pulgadas del observatorio de Monte Wilson, en la colinas de Pasadena, en California. Analizando el espectro de la luz que emiten las galaxias, Hubble determinó que prácticamente todas ellas se están alejando de nosotros, y que cuanto más lejos están con mayor velocidad se mueven. En 1929, publicó una ley que relacionaba la tasa de alejamiento de las galaxias con su distancia a nosotros y concluyó que el universo se está expandiendo. Si efectivamente es así, el universo debe de haber sido más pequeño en el pasado. De hecho, si extrapolamos al pasado lejano, toda la materia y la energía en el universo habrían estado concentradas en un región minúscula de temperatura y densidad inimaginables y, si retrocedemos lo suficiente, debería haber habido un instante en que todo empezó, el suceso que conocemos actualmente como Big Bang o gran explosión primordial.
 
             La idea de que el universo se está expandiendo implica diversas sutilezas. Por ejemplo, no queremos decir que se esté expandiendo de la manera en que, por ejemplo, expandiríamos una casa, empujando las paredes hacia fuera y situando una nueva sala de baño donde antes hubo un majestuoso roble. Más que extenderse el propio espacio, lo que está creciendo es la distancia entre dos puntos cualesquiera dentro del universo. Esa idea emergió en la década de [930, rodeada de controversias, y una de las mejores maneras de visualizarla sigue siendo todavía una metáfora propuesta en 1931 por el astrónomo de la Universidad de Cambridge, Arthur Eddington. Eddington visualizó el universo como la superficie de un globo que se está expandiendo y las galaxias como puntos sobre dicha superficie. Esa imagen ilustra claramente por qué las galaxias lejanas se separan más rápidamente que las más próximas. Por ejemplo, si el radio del globo se duplicara cada hora, la distancia entre dos «galaxias» cualesquiera sobre el globo se duplicaría cada hora. Si en un cierto instante dos galaxias estuvieran separadas un centímetro, una hora después estarían separadas dos centímetros y parecería que se están separando la una de la otra con un ritmo de un centímetro por hora. Pero si inicialmente hubieran estado separadas dos centímetros, una hora después estarían separadas cuatro centímetros y parecería que se están separando entre sí a un ritmo de dos centímetros por hora. Esto es precisamente lo que Hubble descubrió: cuanto más lejos se halla una galaxia, más velozmente se aleja de nosotros.
 
             Es importante darse cuenta de que la expansión del espacio no afecta el tamaño de objetos materiales como las galaxias, estrellas, manzanas, átomos u otros objetos cohesionados o mantenidos unidos por algún tipo de fuerza. Por ejemplo, si trazáramos un círculo alrededor de un racimo de galaxias sobre el globo, el círculo no se expandiría a medida que el globo se expandiera sino que, como las galaxias están ligadas entre sí por fuerzas gravitatorias, el círculo y las galaxias de su interior mantendrían su tamaño o configuración aunque el globo se expandiera. Eso es importante porque sólo podemos detectar la expansión si nuestros instrumentos de medida tienen tamaños fijos. Si todo se estuviera expandiendo, entonces, tanto nosotros como nuestras varas de medir, nuestros laboratorios, etc., todo se expandiría proporcionalmente y no notaríamos ninguna diferencia en el tamaño del universo en dos instantes diferentes.
 
             Que el universo se estuviera expandiendo resultó una novedad para Einstein, pero la posibilidad de que las galaxias se estuvieran alejando las unas de las otras ya había sido propuesta años antes de los artículos de Hubble a partir de fundamentos teóricos suministrados por ecuaciones del propio Einstein. En 1922, el físico y matemático ruso Alexander Friedmann (1888-1925) investigó qué ocurriría en un modelo de universo basado en dos hipótesis que simplificaban mucho las matemáticas: que el universo tiene aspecto idéntico en todas direcciones y que tiene también el mismo aspecto desde cualquier punto de observación. Sabemos que la primera hipótesis de Friedmann no es exactamente verdadera —afortunadamente, ¡el universo no es uniforme por doquier! —. Si miramos hacia arriba en una dirección, podemos ver el Sol; en otra dirección, la Luna; en otra, una colonia emigrante de murciélagos vampiros. Pero el universo sí parece aproximadamente igual en cualquier dirección cuando lo consideramos a una escala muy grande —mayor, incluso, que la distancia entre las galaxias—. Es, en cierta manera, como mirar un bosque desde un avión. Si volamos suficientemente bajo, podemos ver las hojas individuales, o al menos los árboles y los espacios entre ellos. Pero si volamos tan arriba que alargando el brazo el pulgar oculta la visión de un kilómetro cuadrado de árboles, el bosque parecerá una masa verde uniforme. Podríamos decir que, a dicha escala, el bosque es uniforme.
 
             A partir de esas hipótesis, Friedman consiguió obtener una solución a las ecuaciones de Einstein en la cual el universo se expandía de la forma que posteriormente observaría Hubble. En particular, el modelo de universo de Friedmann empieza con tamaño cero, se expande hasta que la atracción gravitatoria lo frena del todo, y después se vuelve a colapsar sobre sí mismo por efecto de dicha atracción. (Resulta que hay, además, otros dos tipos de soluciones de las ecuaciones de Einstein que también satisfacen las hipótesis del modelo de Friedmann, una de las cuales corresponde a un universo en que la expansión prosigue indefinidamente, aunque se frena un poco, y otra a un universo en que la tasa de expansión va disminuyendo hacia cero pero sin llegar a alcanzar dicho valor.) Friedmann murió pocos años después de haber llevado a cabo su trabajo, y sus ideas permanecieron prácticamente desconocidas hasta el descubrimiento de Hubble. Pero en 1927, un profesor de física y sacerdote católico llamado Georges Lemaitre (1894-1966) propuso una idea semejante: si retrotraemos la historia del universo, a medida que vamos a pasados más lejanos el universo se va haciendo cada vez más pequeño, hasta que llegamos a un suceso de creación —lo que llamamos en la actualidad el Big Bang—.
 
             La imagen del Big Bang no gusté) a todo el mundo. De hecho, el término Big Bang fue acuñado con intención peyorativa y ridiculizadora en 1949 por el astrofísico de Cambridge Fred Hoyle, que creía en un universo que se expandía eternamente. Las primeras observaciones directas que reforzaron la idea del Big Bang no se obtuvieron hasta 1965, con el descubrimiento de un tenue fondo de microondas que llena todo el espacio. Esta radiación cósmica de fondo de microondas o CMBR (siglas de Cosmic Microwave Background Radiation), es análoga a la de los hornos de microondas pero mucho menos potente. Podemos observar esa radiación de fondo nosotros mismos si sintonizamos el televisor a un canal no utilizado, ya que un pequeño tanto por ciento de la nieve que vemos en la pantalla es debido a la radiación de fondo. Esa radiación fue descubierta accidentalmente por dos científicos de los laboratorios Bell que intentaban eliminar ese ruido estático de su antena de microondas. Al principio, creyeron que esa señal estática procedía de las deposiciones de palomas que habían anidado en su aparato, pero resultó que su problema tenía un origen más interesante — la radiación de fondo es la radiación que queda del universo primitivo muy caliente y denso que habría existido poco después del Big Bang—. A medida que el universo se expandió, la radiación se enfrió hasta convertirse en el tenue remanente que observamos ahora. Actualmente, esas microondas sólo podrían calentar la comida hasta —270 °C, tres grados por encima del cero absoluto, por lo cual no resultan demasiado útiles para freír palomitas de maíz.
 
             Los astrónomos han hallado otros indicios que sostienen la imagen del Big Bang de un universo primitivo diminuto y muy caliente. Por ejemplo, durante el primer minuto, aproximadamente, el universo habría estado más caliente que el centro de una estrella típica. Durante ese intervalo, el conjunto del universo se habría comportado como un reactor nuclear de fusión. Las reacciones nucleares habrían cesado cuando el universo se expandió y enfrie) lo suficiente, pero la teoría predice que eso debería haber dejado el universo con un 23 por 100 de helio y trazas de litio y berilio (todos los elementos más pesados han sido formados posteriormente, en el interior de las estrellas). El cálculo está en buen acuerdo con las cantidades observadas de helio, litio y berilio.
 
             Las medidas de la abundancia de helio y de la radiación cósmica de fondo proporcionaron evidencia convincente a favor de la imagen del Big Bang del universo muy primitivo, pero aunque podemos considerar dicha imagen como una descripción válida de los tiempos muy primitivos, sería equivocado tomar la idea del Big Bang literalmente, es decir, pensar que la teoría de Einstein proporciona una visión auténtica del origen del universo. Ello es porque la relatividad general predice que hay un instante en que la temperatura, la densidad y la curvatura del universo serían infínitas, una situación que los matemáticos llaman singularidad. Para los físicos, ello significa que la teoría de Einstein deja de valer en dicho instante y por lo tanto no puede ser utilizada para predecir cómo empezó el universo, sino sólo cómo evolucionó después de aquel instante. Así, aunque podamos utilizar las ecuaciones de la relatividad general y nuestras observaciones del firmamento para aprender cómo era el universo en una edad muy temprana, no es correcto extrapolar la imagen del Big Bang hasta exactamente el inicio.
 
             Dentro de pocas líneas abordaremos el tema del origen del universo, pero antes debemos decir algunas palabras sobre la primera lase de la expansión. Los físicos la llaman inflación. A no ser que usted viva en Zimbabue, donde la inflación excedió hace poco el 200.000.000 por 100, puede que el término inflación no le parezca muy explosivo. Pero, incluso según las estimaciones más conservadoras, durante la inflación cosmológica el universo se expandió en un factor de 1.000.000.000.000.000.000.000.000.000.000 en 0,00000000000000000000000000000000001 segundos. Es como si una moneda de un centímetro de diámetro súbitamente explotara a una dimensión de unos diez millones de veces la anchura de la Vía Láctea. Podría parecer que eso viola la relatividad, ya que ésta establece que nada puede moverse más rápido que la luz en el vacío, pero dicha velocidad límite no se aplica a la expansión del propio espacio.
 
             La idea de que un episodio inflacionario como éste pudiera haberse producido fue propuesta por primera vez en 1980, a partir de consideraciones que van más allá de la teoría de Einstein de la relatividad general y tienen en cuenta aspectos de la teoría cuántica. Como no disponemos de una teoría cuántica completa de la gravedad, los detalles todavía están siendo elaborados, y los físicos no están del todo seguros de cómo ocurrió la inflación. Pero según la teoría, la expansión causada por la inflación no habría sido completamente uniforme, en contraste con lo que predice la imagen del Big Bang tradicional. Esas irregularidades producirían variaciones minúsculas en la temperatura de la radiación cósmica de fondo en diferentes direcciones. Esas variaciones son demasiado pequeñas para que hubieran podido ser detectadas en la década de 1960, pero fueron descubiertas por primera vez en 1992 por el satélite COBE de la NASA, y posteriormente medidas por su sucesor, el satélite WMAP, lanzado en 2001. En consecuencia, estamos bastante seguros de que la inflación realmente tuvo lugar.
 
             Irónicamente, aunque pequeñas variaciones en la radiación cósmica de fondo constituyen una evidencia de la inflación, una de las razones por las cuales la inflación es importante es la uniformidad casi perfecta de la temperatura de la radiación cósmica de fondo. Si calentamos una parte de un objeto a una temperatura mayor que la de sus alrededores y esperamos, la zona caliente se irá enfriando y sus alrededores se irán calentando hasta que la temperatura sea uniforme. Análogamente, esperaríamos a que el universo llegara a tener una temperatura uniforme, pero ello requeriría tiempo, y si la inflación no se hubiera producido no habría habido suficiente tiempo en toda la historia del universo para que el calor de zonas muy separadas se igualara, suponiendo que la velocidad de la transferencia de dicho calor estuviera limitada por la velocidad de la luz. Un período de expansión muy rápida (mucho más rápida que la velocidad de la luz) pone remedio a ese problema, ya que en ese caso sí habría habido tiempo suficiente para igualar la temperatura de la zona extremadamente diminuta del universo primitivo preinflacionario.
 
             La inflación explica el estallido o «bang» del Big Bang, al menos en el sentido que durante el intervalo que duró la inflación la expansión fue mucho más extremada que la predicha por la teoría tradicional del Big Bang de la relatividad general. El problema es que, para que los modelos teóricos de la inflación funcionen, el estado inicial del universo tuvo que ser muy especial y altamente improbable. Así pues, la teoría tradicional de la inflación resuelve un conjunto de problemas pero crea otro —la necesidad de un estado inicial muy especial —. Esta cuestión del instante cero es eliminada en la teoría de la creación del universo que estamos a punto de describir.
 
             Como no podemos describir la creación utilizando la teoría de Einstein de la relatividad general, esta teoría debe ser reemplazada por una teoría más completa si queremos describir el origen del universo. De hecho, incluso en el caso de que la relatividad general no condujera a una singularidad, sospecharíamos la necesidad de una teoría más completa, porque la relatividad general no toma en consideración las estructuras de la materia a pequeña escala, que son regidas por la teoría cuántica. Ya mencionamos en el capítulo 4 que para casi todos los efectos prácticos la teoría cuántica no es muy relevante en el estudio de la estructura a gran escala del universo porque se aplica a la descripción de la naturaleza a escalas microscópicas. Pero si retrocedemos suficientemente en el tiempo, el universo alcanza un tamaño tan minúsculo como el tamaño de Planck, una milmillonésima de billonésima de billonésima de centímetro, en el cual la teoría cuántica de la gravedad debe ser tomada en consideración. Así, aunque aún no disponemos de una teoría cuántica completa de la gravedad, sabemos que el origen del universo fue un suceso cuántico. Por consiguiente, así como combinamos la teoría cuántica y la relatividad general —al menos provisionalmente— para deducir la teoría de la inflación, si queremos ir aún más atrás y comprender el origen del universo debemos combinar lo que sabemos de la relatividad general con la teoría cuántica.
 
             Para ver cómo se hace eso, necesitamos comprender el principio de que la gravedad deforma el espacio y el tiempo. La deformación del espacio es más fácil de visualizar que la del tiempo. Imaginemos que el universo es la superficie de una mesa de billar plana. La superficie de la mesa es un espacio plano, al menos en dos dimensiones. Si hacemos rodar una bola por la mesa irá en línea recta. Pero si la mesa se deforma o tiene pequeñas protuberancias en algunos lugares, como en la ilustración siguiente, la trayectoria de la bola se curvará.
 
             En el caso que estamos considerando es fácil constatar que la mesa de billar está deformada porque vemos que se curva hacia una tercera dimensión exterior, que podemos representar. Pero como no podemos saltar fuera de nuestro propio espacio-tiempo para ver su deformación, resulta más difícil imaginar la deformación del espacio-tiempo de nuestro universo. Pero su curvatura puede ser constatada aunque no podamos salir de él y verla desde la perspectiva de un espacio mayor, ya que puede ser detectada desde el interior del mismo espacio. Imaginemos que una microhormiga está confinada sobre la superficie de la mesa. Incluso aunque no pueda abandonar la mesa, la hormiga podría detectar la deformación si midiera cuidadosamente las distancias sobre la mesa. Por ejemplo, la longitud de una circunferencia en el espacio plano es siempre algo mayor que tres veces la longitud de su diámetro (el múltiplo real es el número PI). Pero si la hormiga trazara un círculo alrededor del pozo de la mesa de billar representada en la figura, vería que la longitud de su diámetro es mayor de lo esperado, es decir, mayor que un tercio de la longitud de su circunferencia. De hecho, si el pozo fuera suficientemente profundo, la hormiga hallaría que la longitud de la circunferencia es menor que la longitud del diámetro. Lo mismo ocurre con la deformación de nuestro universo: alarga o contrae la distancia entre los puntos del espacio y modifica su forma o geometría de una manera que puede ser medida desde el interior del mismo universo. La deformación del tiempo alarga o acorta los intervalos temporales de una manera análoga.
 
             Pertrechados con esas ideas, volvamos a la cuestión del inicio del universo. Podemos hablar de espacio y de tiempo por separado, tal como hemos visto en las explicaciones anteriores, en situaciones con velocidades pequeñas y gravedad débil. En general, sin embargo, el tiempo y el espacio están imbricados entre sí, de manera que sus alargamientos y acortamientos también implican una cierta mezcla entre ellos. Esa mezcla es importante en el universo primitivo y es la clave para entender el inicio del tiempo.
 
             La cuestión del inicio del tiempo viene a ser algo análogo a la cuestión del borde del mundo. Cuando la gente creía que el mundo era plano se podría haber preguntado si el mar se derramaba por sus bordes. Eso ha sido estudiado experimentalmente: se puede dar la vuelta al mundo y no caer de él. El problema de lo que ocurre en el borde del mundo fue resuelto cuando la gente se dio cuenta de que el mundo no era una superficie plana sino curvada. Sin embargo, el tiempo parecía ser como una vía de tren. Si tuvo un origen, debía haber allí alguien, por ejemplo Dios, para poner los trenes en marcha. Aunque la teoría de Einstein de la relatividad general unificaba el tiempo y el espacio en el espacio-tiempo y suponía una cierta mezcla entre tiempo y espacio, el tiempo seguía siendo diferente del espacio y, o bien tenía un inicio v un final, o bien seguía indefinidamente. Sin embargo, una vez incorporamos los efectos de la teoría cuántica a la teoría de la relatividad general, en algunos casos extremos la deformación puede llegar a ser tan grande que el tiempo se comporte como una dimensión del espacio.
 
             En el universo primitivo —cuando el universo era tan pequeño que era regido tanto por la relatividad general como por la teoría cuántica— había efectivamente cuatro dimensiones del espacio y ninguna del tiempo. Ello significa que cuando hablamos del «inicio» del universo no tenemos en cuenta la cuestión sutil de que, en el universo muy primitivo, ¡no existía un tiempo como el tiempo que conocemos ahora! Debemos aceptar que nuestras ideas usuales de espacio y tiempo no se aplican al universo muy primitivo. Este está más allá de nuestra experiencia pero no más allá de nuestra imaginación o de nuestras matemáticas. Si en el universo muy primitivo las cuatro dimensiones se comportaban como el espacio, ¿qué ocurre con el inicio del tiempo?
 
             Darnos cuenta de que el tiempo se puede comportar como una dirección más del espacio implica que podemos librarnos del problema de que el tiempo tenga un comienzo de manera análoga a como nos libramos del problema del borde del mundo. Supongamos que el inicio del universo fue como el Polo Sur de la Tierra, con los grados de latitud desempeñando el papel del tiempo. Cuando nos desplazamos hacia el norte, los círculos de latitud constante, que representarían el tamaño del universo, se expandirían. El universo empezaría como un punto en el Polo Sur, pero éste es en muchos aspectos como cualquier otro punto. Preguntar lo que ocurrió antes del inicio del universo resultaría una pregunta sin sentido, porque nada hay al sur del Polo Sur. En esa interpretación, el espacio-tiempo no tiene bordes —en el Polo Sur se cumplen las mismas leyes de la naturaleza que en todos los otros lugares —. Análogamente, cuando se combina la teoría general de la relatividad con la teoría cuántica, la cuestión de qué ocurrió antes del inicio del universo deja de tener sentido. La idea de que las historias del universo deberían ser superficies cerradas sin bordes se denomina la condición de ausencia de bordes.
 
             A lo largo de la historia muchos pensadores, incluido Aristóteles, han creído que el universo debe haber existido siempre, para evitar la cuestión de cómo empezó a existir. Otros han creído que el universo tuvo un inicio y lo han utilizado como argumento para la existencia de Dios. La observación de que el tiempo se comporta como el espacio presenta una nueva alternativa. Elimina la objeción inmemorial a que el universo tuviera un inicio y significa, además, que el inicio del universo fue regido por las leyes de la ciencia y que no hay necesidad de que sea puesto en marcha por algún Dios.
 
             Si el origen del universo fue un suceso cuántico, debería poder ser descrito con precisión por la suma de Feynman sobre historias. Pero aplicar la teoría cuántica al conjunto del universo —en que los observadores son parte del mismo sistema que está siendo observado— es, sin embargo, delicado. En el capítulo 4 vimos que las partículas de materia lanzadas contra una pantalla con dos rendijas podían exhibir figuras de interferencia como las que forman las ondas de agua. Feynman demostró que eso ocurre porque una partícula no tiene una única historia, es decir, cuando se mueve desde el punto inicial A hasta un punto final B no sigue un camino bien definido, sino toma simultáneamente todos los posibles caminos que conectan ambos puntos. Según esa interpretación, la interferencia no constituye una sorpresa porque, por ejemplo, la partícula puede viajar a través de ambas rendijas al mismo tiempo e interferir consigo misma. Aplicada al movimiento de una partícula, el método de Feynman nos dice que para calcular la probabilidad de un punto final particular cualquiera debemos considerar todas las historias que la partícula podría seguir desde su punto de partida hasta dicho punto de llegada. También podemos utilizar los métodos de Feynman para calcular las probabilidades cuánticas para observaciones del universo. Si son aplicadas al universo en su conjunto no hay punto A, de manera que sumamos sobre todas las historias que satisfacen la condición de ausencia de límites y que terminan en el universo que observamos hoy.
 
             En esa perspectiva, el universo apareció espontáneamente, empezando en todos los estados posibles, la mayoría de los cuales corresponden a otros universos. Mientras que algunos de dichos universos son parecidos al nuestro, la gran mayoría es muy diferente. No difieren tan sólo en algunos detalles, como por ejemplo en si Elvis Presley realmente murió joven o si los nabos se comen o no como postre, sino que difieren incluso en las leyes aparentes de la naturaleza. De hecho, existen muchos universos, con muchos conjuntos diferentes de leyes físicas. Hay gente que hace un gran misterio de esta idea, denominada a veces multiverso, pero en el fondo no se trata más que de una forma diferente de expresar la suma de Feynman sobre historias.
 
             Para representar esto, alteremos la analogía del globo de Eddington y en su lugar imaginemos el universo en expansión como la superficie de una burbuja. Nuestra imagen de la creación cuántica espontánea del universo es entonces algo parecida a la formación de burbujas de vapor en agua hirviente. Aparecen muchas burbujas diminutas, que vuelven a desaparecer rápidamente. Esas burbujas representan miniuniversos que se expanden pero se vuelven a colapsar cuando aún tienen tamaño microscópico. Representan posibles universos alternativos pero no tienen un gran interés, ya que no duran lo suficiente para que en ellos se desarrollen galaxias ni estrellas ni mucho menos vida inteligente. Sin embargo, unas pocas de esas burbujas crecerán lo suficiente para no volverse a colapsar, continuarán expandiéndose a un ritmo cada vez mayor y formarán las burbujas de vapor que somos capaces de ver. Esas burbujas corresponden a universos que empiezan expandiéndose a un ritmo cada vez más rápido, en otras palabras, en un estado de inflación.
 
             Tal como hemos dicho, la expansión producida por la inflación no sería completamente uniforme. En la suma sobre historias hay sólo una historia completamente uniforme y regular, a la que corresponde la probabilidad máxima, pero muchas otras historias ligeramente irregulares tienen probabilidades casi tan elevadas como ella. Es por eso por lo que la inflación predice que es probable que el universo primitivo sea ligeramente no uniforme, correspondiendo a las pequeñas variaciones de la intensidad que fueron observadas en la radiación cósmica de fondo. Tenemos suerte de las irregularidades del universo primitivo. ¿Por qué? La homogeneidad es buena si no queremos que la crema se separe de la leche, pero un universo homogéneo es un universo aburrido. Las irregularidades del universo primitivo son importantes porque si algunas regiones tenían una densidad ligeramente mayor que las otras, la atracción gravitatoria de la densidad adicional habría reducido el ritmo de expansión de dichas regiones en comparación con las de sus alrededores. Como la fuerza de la gravedad va agrupando lentamente la materia, puede llegar a conseguir que se colapse para formar galaxias y estrellas que pueden conducir a planetas y, al menos en una ocasión, a humanos. Observe, pues, con atención la imagen del cielo en microondas: es el plano de todas las estructuras del universo. Somos el producto de fluctuaciones cuánticas del universo muy primitivo. Si uno fuera religioso, podría decir que Dios juega realmente a los dados.
 
             Esta idea conduce a una visión del universo que difiere profundamente del concepto tradicional y nos exige modificar la manera en que pensamos la historia del universo. Para hacer predicciones en cosmología necesitamos calcular las probabilidades de los diferentes estados del conjunto del universo en el presente. En física, normalmente se supone algún estado inicial para el sistema y se le hace evolucionar en el tiempo mediante las ecuaciones matemáticas adecuadas. Dado el estado del sistema en un instante, se intenta calcular la probabilidad de que el sistema esté en un cierto estado diferente en un instante posterior. La hipótesis habitual en cosmología es que el universo tiene una historia única bien definida y que se puede utilizar las leyes de la física para calcular cómo esa historia se va desplegando con el tiempo. Llamamos a eso el método ascendente («de abajo arriba» o bottom-up) de tratamiento de la cosmología. Pero como debemos tomar en consideración la naturaleza cuántica del universo, expresada por la suma de Feynman sobre historias, la amplitud de probabilidad de que el universo se halle ahora en un cierto estado particular se consigue sumando las contribuciones de todas las historias que satisfacen la condición de ausencia de bordes y que terminan en el estado en cuestión. En otras palabras, en cosmología no deberíamos seguir la historia del universo de abajo arriba, porque supone que hay una sola historia con un punto de partida y una evolución bien definidos. En lugar de eso se debería trazar la historia descendente (de «arriba abajo» o top-down) hacia atrás, partiendo del instante actual. Algunas historias serán más probables que otras y la suma total estará dominada normalmente por una sola historia que empieza con la creación del universo y culmina en el estado que estamos considerando. Pero habrá diferentes historias para los diferentes estados posibles del universo en el presente. Eso conduce a una visión radicalmente diferente de la cosmología y de la relación entre causa y efecto. Las historias que contribuyen a la suma de Feynman no tienen una existencia autónoma, sino que dependen de lo que se mida. Así pues, nosotros creamos la historia mediante nuestra observación en lugar tic que la historia nos cree a nosotros.
 
             La idea de que el universo no tiene una historia única e independiente del observador parece estar en contradicción con ciertos hechos que conocemos. Puede haber una historia en que la Luna esté hecha de queso de Roquefort, pero hemos observado que la Luna no es de queso, cosa que es una mala noticia para los ratones. Por lo tanto, las historias en que la Luna es de queso no contribuyen al estado actual de nuestro universo, a pesar de que pueden tal vez contribuir a otros estados. Eso puede parecer ciencia ficción, pero no lo es.
 
             Otra implicación del método descendente es que en él las leyes aparentes de la naturaleza dependen de la historia del universo. Muchos científicos creen que existe una teoría tínica que explica dichas leyes, además de los valores y la naturaleza de las constantes físicas como por ejemplo la masa del electrón o la dimensionalidad del espacio-tiempo. Pero la cosmología «de arriba abajo» afirma que las leyes aparentes de la naturaleza son diferentes para historias diferentes.
 
             Consideremos la dimensionalidad aparente del universo. Según la teoría M, el espacio-tiempo tiene diez dimensiones espaciales y una dimensión temporal. La idea es que siete de las dimensiones espaciales están curvadas en un tamaño tan pequeño que no las advertimos, cosa que nos produce la impresión de que lo único que existe son las tres dimensiones extensas remanentes con las que estamos familiarizados. Una de las cuestiones centrales abiertas en la teoría M es: ¿por qué, en nuestro universo, no hay más dimensiones extensas, y por qué hay dimensiones curvadas?
 
             A mucha gente le gustaría creer que hay algún mecanismo que hace que todas las dimensiones espaciales menos tres se curven espontáneamente. Alternativamente, también podría haber ocurrido que todas las dimensiones hubieran empezado muy pequeñas pero, por alguna razón que desconocemos, tres dimensiones espaciales se expandieran y las otras no. Parece, sin embargo, que no hay ninguna razón dinámica por la que el universo tenga que parecer cuatridimensional. Es más: la cosmología descendente predice que el número de dimensiones espaciales extensas no está fijado por ningún principio de la física, sino que habrá una cierta amplitud de probabilidad cuántica para cada número de dimensiones espaciales extensas, desde o hasta 10. La suma de Feynman permite todos esos valores, para cada posible historia del universo, pero la observación de que nuestro universo tiene tres dimensiones espaciales extensas selecciona la subclase de historias que tienen esta propiedad. En otras palabras, la probabilidad cuántica de que el universo tenga otras dimensiones extensas además de las tres habituales es irrelevante, porque ya hemos medido su dimensionalidad y determinado que estamos en un universo con tres dimensiones espaciales extensas. En tanto que la probabilidad de tres dimensiones espaciales extensas no sea exactamente nula, no importa cuan pequeña sea en comparación con la probabilidad para otros números de dimensiones. Sería como preguntar por la probabilidad de que el Papa actual sea chino. Sabemos que es alemán, aunque la probabilidad de que fuera chino es mucho mayor ya que hay muchos más chinos que alemanes. Análogamente, sabemos que nuestro universo exhibe tres dimensiones espaciales extensas y por lo tanto, aunque otros números de dimensiones espaciales extensas tuvieran una amplitud de probabilidad mayor, sólo estamos interesados en las historias con tres dimensiones.
 
             ¿Y qué ocurre con las dimensiones curvadas? Recordemos que en la teoría M, la forma precisa de las restantes dimensiones curvadas, el espacio interno, determina los valores de magnitudes físicas como la carga del electrón y la naturaleza de las interacciones entre las partículas elementales, es decir, la fuerzas de la naturaleza. Las cosas serían más claras si las teoría M hubiera permitido tan sólo una única forma para las dimensiones curvadas, o quizá unas pocas, todas menos una de las cuales hubieran podido ser descartadas de una manera u otra, dejándonos con una única posibilidad para las leyes aparentes de la naturaleza. En cambio, hay amplitudes de probabilidad no nulas para unos 10500 espacios internos diferentes, cada uno de los cuales conduce a leyes diferentes y a valores diferentes de las constantes físicas.
 
             Si construimos la historia del universo de abajo arriba, no hay razón por la cual el universo debiera haber acabado con el espacio interno correspondiente a las interacciones entre partículas que observamos nosotros, el modelo estándar de las interacciones entre partículas elementales. Pero en la formulación descendente aceptamos que existen universos con todos los posibles espacios internos. En algunos universos, los electrones pesan como pelotas de golf y la fuerza de la gravedad es más intensa que la del magnetismo. En el nuestro, se aplica el modelo estándar, con todos sus parámetros. Podemos calcular la amplitud de probabilidad para el espacio interno correspondiente al modelo estándar partiendo de la base de la condición de ausencia de bordes. Tal como ocurre con la probabilidad de que haya un universo con tres dimensiones extensas, no importa cuan pequeña sea esta amplitud en comparación con otras posibilidades, porque ya hemos observado que el modelo estándar describe nuestro universo.
 
             La teoría que describimos en este capítulo es verificable. En los ejemplos anteriores, hemos insistido en que las amplitudes de probabilidad relativa para universos radicalmente diferentes, como por ejemplo los que tienen un número diferente de dimensiones extensas, no importan. Sin embargo, las amplitudes de probabilidad relativa para universos vecinos (es decir, parecidos) sí importan. La condición de ausencia de bordes implica que la amplitud de probabilidad es máxima para las historias en que el universo comienza con una forma completamente lisa, y se reduce para los universos que son más irregulares. Ello significa que el universo primitivo debería haber sido casi liso, salvo diminutas irregularidades. Tal como hemos advertido, podemos observar esas irregularidades como pequeñas variaciones en las microondas que nos llegan de direcciones diferentes del firmamento. Se ha comprobado que concuerdan exactamente con las exigencias generales de la teoría inflacionaria; sin embargo, necesitaremos mediciones más precisas para poder distinguir completamente la teoría descendente de las otras teorías, y así confirmarla o refutarla. Es de esperar que tales mediciones sean llevadas a cabo por satélites en un futuro próximo.
 
             Hace siglos, la gente creía que la Tierra era única y estaba situada en el centro del universo. Actualmente sabemos que en nuestra galaxia hay centenares de miles de millones de estrellas, y que hay centenares de miles de millones de galaxias, un gran porcentaje de las cuales contienen sistemas planetarios. Los resultados descritos en este capítulo indican también que nuestro universo es uno de muchos universos y que sus leyes aparentes no están determinadas de forma única. Ello debe resultar decepcionante para los que esperaban que una teoría última, una teoría de todo, predijera la naturaleza de la física cotidiana. No podemos predecir características discretas como el número de dimensiones extensas del espacio o el espacio interno que determina las magnitudes físicas que observamos, como por ejemplo la masa y la carga del electrón y de otras partículas elementales, sino que utilizamos esos números para seleccionar las historias que contribuyen a la suma de Feynman.
 
             Parece que nos hallemos en un punto crítico en la historia de la ciencia, en el cual debemos modificar nuestra concepción de los objetivos y de lo que hace que una teoría física sea aceptable. Parece que los valores de los parámetros fundamentales, e incluso la forma de las leyes aparentes de la naturaleza, no son exigidos por ningún principio físico o lógico. Los parámetros pueden tomar muchos valores diferentes y las leyes pueden adoptar cualquier forma que conduzca a una teoría matemática autoconsistente, y toman en general valores diferentes y formas diferentes en universos diferentes. Puede que ello no satisfaga nuestro deseo humano de ser especiales o de descubrir unas instrucciones claras que contengan todas las leyes de la física, pero ésa parece ser la forma de funcionar de la naturaleza.
 
             Parece haber un vasto paisaje de universos posibles. Tal como veremos en el capítulo siguiente, los universos en que pueda existir vida como la nuestra son raros. Vivimos en uno de los universos en que la vida es posible, pero tan sólo con que el universo fuera ligeramente diferente seres como nosotros no podrían existir. ¿Qué podemos hacer con esa sintonización tan fina? ¿Es una evidencia de que el universo, a fin de cuentas, fue diseñado por un Creador benévolo? ¿O bien la ciencia ofrece otra explicación?
 
7 EL MILAGRO APARENTE
 
             Los CHINOS hablan DE una Época, durante la dinastía Hsia (c. 2205 a 1782 a. C), en que nuestro entorno cósmico varió súbitamente. Aparecieron diez soles en el cielo. La gente en la Tierra sufría mucho de tanto calor, de manera que el emperador ordenó a un célebre arquero que disparara contra los soles adicionales. El arquero fue recompensado con una pildora que tenía el poder de hacerle inmortal, pero su mujer se la robó. Por ese delito fue desterrada a la Luna.
 
             Los chinos estaban en lo cierto al pensar que un sistema solar con diez soles no resulta acogedor para la vida humana. Actualmente sabemos que, aunque se nos ofrecerían grandes posibilidades de broncearnos, la vida probablemente no se desarrollaría nunca en un sistema solar con múltiples soles. Las razones no son tan sencillas como el calor asfixiante imaginado en la leyenda china. De hecho, un planeta podría tener una temperatura agradable aunque orbitara alrededor de múltiples soles, al menos durante un cierto intervalo. Pero parece improbable que así se pudiera alcanzar un calentamiento uniforme durante largos intervalos de tiempo, situación que parece necesaria para la vida. Para comprender por qué, consideremos lo que ocurre con el tipo más sencillo de sistema de múltiples estrellas, un sistema con dos soles, que es denominado una estrella binaria. Aproximadamente, la mitad de las estrellas del firmamento son miembros de tales sistemas. Pero incluso los sistemas binarios sencillos sólo pueden mantener ciertos tipos de órbitas estables, del tipo mostrado en la figura. En cada una de ellas, es probable que haya intervalos de tiempo en que el planeta esté demasiado caliente o demasiado frío para poder al bergar vida. La situación sería aún peor para sistemas con muchas estrellas.
 
             Nuestro sistema solar tiene otras propiedades «afortunadas» sin las cuales nunca habrían podido desarrollarse formas sofisticadas de vida. Por ejemplo, las leyes de Newton permiten que las órbitas planetarias sean círculos o elipses, que son círculos alargados, más anchos en un eje y más estrechos en otro. El grado de deformación de una elipse viene descrito por lo que se denomina su excentricidad, un número entre cero y uno. Una excentricidad vecina a cero significa que la figura se parece mucho a un círculo en tanto que una excentricidad próxima a uno significa que la figura está muy aplanada. Kepler estaba trastornado por la idea de que los planetas no se mueven en círculos perfectos, pero la órbita de la Tierra tiene una excentricidad de tan sólo un 2 por 100, lo que significa que casi es circular. Como veremos, eso es un gran golpe de suerte.
 
             Los patrones estacionales del clima terrestre están determinados principalmente por la inclinación del eje de rotación de la Tierra con respecto al plano de su órbita alrededor del Sol. Por ejemplo, durante el invierno en el hemisferio septentrional, el Polo Norte tiene una inclinación que lo aleja del Sol. El hecho de que la Tierra se halle más cerca del Sol en esa época —sólo unos 146,4 millones de kilómetros, en comparación con los 150,8 millones de kilóme tros a que se encuentra a principios de julio— tiene un efecto des preciable sobre la temperatura, en comparación con los electos de la inclinación. Pero en los planetas con una excentricidad orbital grande la variación de la distancia al Sol desempeña un papel mucho mayor. En Mercurio, por ejemplo, con una excentricidad de un 20 por 100, la temperatura es unos 110 °C más cálida en la época de máxima aproximación del planeta al Sol (perihelio) que cuando está más alejado del Sol (afelio). De hecho, si la excentricidad de la órbita de la Tierra fuera próxima a la unidad, los océanos hervirían cuando alcanzáramos el punto más próximo al Sol y se congelarían cuando alcanzásemos el punto más lejano, lo cual haría que ni las vacaciones de invierno ni las de verano fueran demasiado agradables. Excentricidades orbitales grandes no conducen a la vida, de manera que hemos sido afortunados de tener un planeta cuya excentricidad orbital sea próxima a cero.
 
             También hemos tenido suerte en la relación entre la masa del Sol y su distancia a la Tierra, ya que la masa de la estrella determina la cantidad de energía que libera. Las estrellas mayores tienen una masa de aproximadamente cien veces la masa del Sol, y las menores son unas cien veces menos masivas que el Sol. Y aun así, suponiendo que la distancia Tierra/Sol está fijada, si nuestro Sol fuera tan sólo un 20 por 100 más masivo o menos masivo, la Tierra sería más fría que actualmente Marte o más caliente que Venus en la actualidad.
 
             Tradicionalmente, dada cualquier estrella, los científicos definen la «zona habitable» como la estrecha región alrededor de la estrella en la cual las temperaturas planetarias son tales que puede existir agua líquida. La zona habitable en nuestro sistema solar, representada abajo, es muy pequeña. Afortunadamente para aquellos de nosotros que somos formas de vida inteligente, ¡la Tierra está precisamente en esa zona!
 
             Newton creía que nuestro sorprendentemente habitable sistema solar no había «surgido del caos por las meras leves de la naturaleza», sino que el orden del universo fue «creado por Dios al principio y conservado por El hasta nuestros días en el mismo estado y condición». Es fácil comprender por qué se puede creer eso. Esas casualidades tan improbables que han conspirado para hacer posible nuestra existencia, y el diseño del mundo hospitalario para la vida humana, serían en verdad sorprendentes si nuestro sistema solar fuera el único sistema planetario en el universo. Pero en 1992 se realizó la primera observación confirmada de un planeta que giraba alrededor de una estrella que no era nuestro Sol. En la actualidad conocemos centenares de planetas como ése, y poca gente duda de que exista un número incontable de otros planetas entre los muchos miles de millones de estrellas de nuestro universo. Ello hace que las coincidencias de nuestras condiciones planetarias —una sola estrella, la combinación afortunada de la distancia Tierra-Sol y la masa solar— sean mucho menos asombrosas y mucho menos elocuentes como evidencia de que el universo fue cuidadosamente diseñado sólo para complacernos a los humanos. Hay planetas de todas clases y algunos —al menos uno— albergan vida, y cuando los seres de un planeta que alberga vida examinan el mundo que les rodea se ven forzados a concluir que su ambiente satisface las condiciones necesarias para que ellos existan.
 
             Es posible convertir esa última afirmación en un principio científico: nuestra mera existencia impone reglas que determinan desde dónde y en qué tiempo podemos observar el universo. Es decir, el hecho de que existamos restringe las características del tipo de entorno en que nos podemos hallar. Ese principio es denominado el principio antrópico «débil» (veremos dentro de poco por qué se añade el calificativo «débil»). Un término más adecuado que el de «principio antrópico» hubiera sido el de «principio de selección», porque el principio se refiere a cómo nuestro conocimiento de nuestra propia existencia impone reglas que seleccionan, de todos los entornos posibles, sólo aquellos que permiten la vida.
 
             Aunque pueda sonar a filosofía, el principio antrópico débil puede ser utilizado para efectuar predicciones científicas. Por ejemplo, ¿qué edad tiene el universo? Para que podamos existir, el universo debe contener elementos como el carbono, que son producidos, como veremos, cocinando elementos ligeros en el interior del horno de las estrellas. A continuación, el carbono debe ser diseminado en el espacio en una explosión de supernova y se debe condensar como parte de un planeta en una nueva generación de sistemas solares. En 1961, el físico Robert Dicke argüyó que ese proceso requiere unos diez mil millones de años, de modo que el universo debe tener como mínimo esa edad. Por otro lado, el universo no puede ser mucho más viejo que diez mil millones de años, ya que en el futuro lejano se habrá consumido el combustible para las estrellas, y necesitamos estrellas calientes para nuestro sostenimiento. Por lo tanto, el universo debe de tener unos diez mil millones de años. No es una predicción extremadamente precisa, pero es verdadera —según los datos de que disponemos actualmente, el Big Bang ocurrió hace unos trece mil setecientos millones de años—.
 
             Tal como en el caso de la edad del universo, las predicciones antrópicas indican habitualmente un intervalo de valores para algunos parámetros físicos en lugar de determinarlos con precisión. Ello es debido a que, si bien es posible que nuestra existencia no requiera un valor particular de un parámetro físico, depende de que tales parámetros no difieran demasiado de los valores que observamos que tienen. Además, suponemos que las condiciones reales en nuestro mundo son típicas dentro del intervalo antrópicamente permitido. Por ejemplo, si tan sólo excentricidades modestas, digamos entre o y 0,5, permiten la vida, entonces una excentricidad de 0,1 no nos debe sorprender, porque probablemente un porcentaje considerable del conjunto de los planetas del universo tendrá órbitas con excentricidades como ésta. Pero si la Tierra se moviera en círculo casi perfecto, digamos con una excentricidad de 0,00000000001, ello haría efectivamente de la Tierra un planeta muy especial y nos motivaría a intentar explicar por que nos hallamos en un hogar tan anómalo. Esa idea es denominada.1 veces principio de mediocridad.
 
             Las coincidencias afortunadas relacionadas con la forma de las órbitas planetarias, la masa del sol, etc., son calificadas de ambientales, porque surgen de una feliz casualidad de nuestro entorno y no de las leyes fundamentales de la naturaleza. La edad del universo también es un factor ambiental, ya que aunque en la historia del universo haya un tiempo anterior y un tiempo posterior al nuestro debemos vivir en esta era porque es la única que puede conducir a la vida. Las coincidencias ambientales son fáciles de comprender, porque nuestro habitat cósmico es tan sólo un caso concreto entre los muchos que existen en el universo, y obviamente debemos existir en un ambiente que sea compatible con la vida.
 
             El principio antrópico débil no resulta demasiado controvertido pero hay una forma más fuerte que sostendremos a continuación, aunque es mirada con desdén entre algunos físicos. El principio antrópico fuerte sugiere que el hecho de que existamos impone restricciones no sólo con respecto a nuestro entorno, sino también sobre la forma y contenido posibles de las propias leyes de la naturaleza. Esa idea surgió porque no son sólo las peculiares características de nuestro sistema solar las que parecen extrañamente compatibles con el desarrollo de la vida humana, sino también las características del conjunto del universo, y eso es mucho más difícil de explicar.
 
             La historia de cómo el universo primordial de hidrógeno, helio y un poco de litio evolucionó hacia un universo que aloja al menos un planeta con vida inteligente es una historia de muchos capítulos. Como hemos mencionado antes, las fuerzas de la naturaleza tenían que ser tales que los elementos más pesados —especialmente el carbono— pudiesen ser producidos a partir de los elementos primordiales y permanecer estables durante al menos miles de millones de años. Dichos elementos pesados fueron formados en los hornos que llamamos estrellas, de manera que, antes, las fuerzas tuvieron que permitir que se formaran estrellas y galaxias. Éstas crecieron a partir de las semillas de las diminutas inhomogeneidades del universo primitivo, que era casi completamente uniforme, pero sabiamente contenía variaciones de densidad del orden de una parte en cien mil. Pero la existencia de estrellas y, en su interior, de los elementos de que estamos formados, no es suficiente. La dinámica de las estrellas tenía que ser tal que algunas de ellas acabaran por explotar y, además, lo hicieran precisamente de manera que dispersaran por el espacio galáctico sus elementos pesados. Además, las leyes de la naturaleza debían permitir que esos remanentes de la explosión pudieran volverse a condensar en una nueva generación de estrellas circundadas por planetas que incorporaran esos elementos pesados. Así como algunos acontecimientos de la Tierra primitiva eran imprescindibles para permitir nuestro desarrollo, también cada eslabón de esa cadena de procesos resulta necesario para nuestra existencia. Pero en el caso de los acontecimientos que caracterizan la evolución del universo, tales procesos son regidos por el equilibrio de las fuerzas fundamentales de la naturaleza, cuyas relaciones mutuas tenían que ser justo las adecuadas para que pudiéramos existir.
 
             Uno de los primeros en reconocer que eso podía suponer un alto grado de ajuste fue Fred Hoyle en la década de 1950. Hoyle creía que todos los elementos químicos se habían formado originariamente a partir del hidrógeno, que él consideraba como la auténtica sustancia primordial. El hidrógeno tiene el núcleo atómico más sencillo, que consiste en sólo un protón, sea solo o combinado con uno o dos neutrones (Las diferentes formas del hidrógeno, o de cualquier otro núcleo, que tienen el mismo número de protones pero diferente número de neutrones son denominadas isóto pos.) Actualmente sabemos que el helio y el litio, cuyos inicíeos contienen dos y tres protones respectivamente, también fueron sintetizados primordialmente, aunque en mucha menor abundancia, cuando el universo tenía unos doscientos segundos. Por otro lado, la vida depende de elementos más complicados, el más importante de los cuales es el carbono, la base de toda la química orgánica.
 
             Aunque podríamos imaginar organismos «vivientes», como por ejemplo ordenadores inteligentes compuestos por otros elementos, como el silicio, es dudoso que la vida pudiera haber evolucionado espontáneamente en ausencia de carbono. Las razones para ello son de tipo técnico, pero tienen que ver con la manera singular en que el carbono se combina con otros elementos. El dióxido de carbono, por ejemplo, es gaseoso a temperatura ambiente, lo cual biológicamente es muy útil. El silicio es el elemento que está inmediatamente debajo del carbono en la tabla periódica y por lo tanto ambos tienen propiedades químicas análogas. Sin embargo, el dióxido de silicio, cuarzo, es mucho más útil en una colección de rocas que en los pulmones de un organismo. Aun así, quizá podrían evolucionar algunas formas de vida que se alimentaran de silicio y movieran rítmicamente sus colas en estanques de amoníaco líquido. Pero incluso un tipo exótico de vicia como éste no podría evolucionar a partir de tan sólo los elementos primordiales, ya que esos elementos únicamente pueden formar dos compuestos estables, el hidruro de litio, que es un sólido cristalino incoloro, y el gas hidrógeno, ninguno de los cuales es un compuesto que se pueda reproducir y mucho menos enamorarse. Además, está el hecho de que nosotros somos una forma de vida de carbono, y ello suscita la cuestión de cómo fueron formados el carbono, cuyo núcleo contiene seis protones, y los otros elementos pesados de nuestro cuerpo.
 
             El primer paso tiene lugar cuando las estrellas más viejas empiezan a acumular helio, que es producido cuando dos núcleos de hidrógeno chocan y se fusionan entre sí. Eso ocurre dentro de las estrellas y es la manera como éstas producen la energía que nos calienta. A su vez, dos átomos de helio pueden chocar y formar berilio, cuyo núcleo contiene cuatro protones. En principio, una vez se ha formado el berilio se podría fusionar con un tercer núcleo de helio para formar carbono, pero eso no ocurre porque el isótopo de berilio que se ha formado vuelve a decaer casi inmediatamente en dos núcleos de helio.
 
             La situación cambia cuando las estrellas comienzan a agotar el hidrógeno. Cuando ocurre eso, el centro de la estrella se contrae hasta que su temperatura sube a unos cien millones de grados Kelvin. En esas condiciones, los inicíeos se encuentran entre sí con tanta frecuencia que algunos núcleos de berilio chocan con uno de helio antes de que hayan tenido tiempo de desintegrarse. Entonces, el berilio puede fusionarse con helio y formar un isótopo estable de carbono. Ese carbono está todavía lejos de formar agregados ordenados de compuestos químicos como los que son capaces de disfrutar de un buen vaso de vino de Burdeos, de hacer juegos de manos con vistosas sorpresas, o de plantearse preguntas sobre el universo. Para que existan seres como los humanos, el carbono debe pasar desde el interior de la estrella a unos entornos más acogedores. Eso, como hemos dicho, ocurre cuando la estrella, al final de su ciclo de vida, explota como supernova y esparce el carbono y otros elementos pesados, que posteriormente se condensarán en un planeta.
 
             Ese proceso de formación de carbono se denomina el proceso de la triple alfa, porque partícula alfa es otro nombre que se da al núcleo del isótopo de helio que interviene en el proceso, y porque ese proceso requiere que se fusionen tres de ellos. La física usual predice que la tasa de producción de carbono mediante el proceso de la triple alfa debería ser muy pequeña. Como ello no es así, en 1952 Hoyle predijo que la suma de las energías del berilio y del núcleo de helio debe ser casi exactamente igual a la energía de un cierto estado cuántico del isótopo de carbono, una situación llamada resonancia, que incrementa mucho el ritmo de una reacción nuclear. En aquella época, no se conocía ese nivel de energía pero, a partir de la sugerencia de Hoyle, William Fowler en el Caltech lo buscó y lo encontró, proporcionando un apoyo importante a las ideas de Hoyle sobre cómo se forman los núcleos pesados.
 
             Hoyle escribió: «No creo que ningún científico que examinara la evidencia dejara de llegar a la conclusión de que las leyes de la física nuclear han sido diseñadas deliberadamente con respecto a las consecuencias que producen en el interior de las estrellas». En aquella época no se sabía suficiente física nuclear para comprender hasta qué punto resultaba asombrosa la coincidencia resultante de dichas leyes físicas exactas. Pero al investigar la validez del principio antrópico fuerte, en años recientes los físicos se empezaron a preguntar cómo hubiera sido el universo si las leyes de la naturaleza fueran diferentes. Actualmente podemos fabricar ordenadores que nos digan cómo depende el ritmo de la reacción del proceso triple alfa de la intensidad de las fuerzas fundamentales de la naturaleza. Esos cálculos muestran que una variación de tan sólo un 0,5 por 100 en la intensidad de la fuerza nuclear fuerte o de un 4 por 100 en la fuerza eléctrica destruiría casi todo el carbono o casi todo el oxígeno en cualquier estrella y, por lo tanto, la posibilidad de vida tal como la conocemos. Si se cambian las reglas de nuestro universo sólo un poco, ¡las condiciones necesarias para nuestra existencia dejan de cumplirse!
 
             Examinando en el ordenador los modelos de universo que se generan cuando hacemos ciertos cambios en las teorías de la física, podemos estudiar metódicamente los efectos de esos cambios. Resulta que no son sólo las intensidades de la fuerza nuclear fuerte y de la interacción electromagnética las que están ajustadas a nuestra existencia. La mayoría de las constantes fundamentales que aparecen en las teorías están ajustadas con tanta precisión que si su valor cambiara aunque sólo fuera ligeramente el universo sería cualitativamente diferente, y en la mayoría de los casos resultaría inadecuado para el desarrollo de la vida. Por ejemplo, si la otra fuerza nuclear, la fuerza débil, fuera mucho más débil, todo el hidrógeno del universo primitivo se habría convertido en helio v por lo tanto no habría estrellas normales; si fuera mucho más in tensa, las supernovas no lanzarían su envoltura externa al explotar y por lo tanto no sembrarían el espacio interestelar con los elementos pesados que necesitarán los planetas para producir vida. Si los protones fueran un 0,2 por 100 más pesados decaerían en neutrones y desestabilizarían los átomos. Si la suma de las masas de los tipos de quarks que constituyen un protón se modificara en tan sólo un 10 por 100, la abundancia de los núcleos atómicos estables de que estamos formados sería mucho menor. De hecho, la suma de las masas de esos quarks parece optimizada para la existencia del mayor número posible de núcleos estables.
 
             Si suponemos que un planeta necesita estar al menos unos pocos centenares de millones de años en órbitas estables alrededor de su estrella para que en él pueda evolucionar la vida, el número de dimensiones del espacio también queda lijado por nuestra existencia. Ello es debido a que, según la ley de la gravedad, las órbitas elípticas estables sólo son posibles en tres dimensiones. Las órbitas circulares son posibles en otros números de dimensiones pero, tal como temía Newton, son inestables. Para cualquier número de dimensiones excepto tres, incluso perturbaciones pequeñas como las producidas por la atracción de los otros planetas expulsarían a un planeta de su órbita circular y harían que cayera en espiral hacia el Sol o que se escapara en espiral, de manera que o bien arderíamos o bien nos congelaríamos. Además, en más de tres dimensiones, la fuerza gravitatoria entre dos cuerpos decrecería con la distancia más rápidamente que en tres dimensiones. En tres dimensiones, la fuerza gravitatoria cae a 1/4 de su valor si duplicamos la distancia; en cuatro dimensiones caería a 1/8 veces; en cinco dimensiones caería a 1/16 veces, y así sucesivamente. Por consiguiente, en más de tres dimensiones el Sol no podría existir en un estado estable, con su presión interna equilibrando la compresión de la gravedad. Ello significa que o bien se despedazaría o bien se colapsaría, formando un agujero negro, y cualquiera de las dos posibilidades nos echaría a perder el día. A escala atómica, las fuerzas eléctricas se comportan de la misma forma que las fuerzas gravitatorias, lo cual quiere decir que los electrones de los átomos o bien se escaparían o bien caerían en espiral hacia el núcleo. En ninguno de los dos casos serían posibles los átomos como los conocemos.
 
             La emergencia de estructuras complejas capaces de albergar observadores inteligentes parece ser muy frágil. Las leyes de la naturaleza forman un sistema extremadamente bien ajustado, y las leyes físicas se pueden cambiar muy poco sin destruir la posibilidad del desarrollo de vida como la que conocemos. Si no fuera por una serie de intrigantes coincidencias en los detalles precisos de las leyes físicas, parece que no hubieran podido llegar a existir ni los humanos ni formas de vida semejantes a las que conocemos.
 
             La coincidencia de ajuste fino más impresionante se refiere a la llamada «constante cosmológica» de las ecuaciones de Einstein de la relatividad general. Tal como hemos dicho, en 1915, cuando formuló su teoría, Einstein pensaba que el universo era estático, es decir, ni se expandía ni se contraía. Como la materia atrae a la materia, introdujo en su teoría una nueva fuerza «antígravitatoria» para contrarrestar la tendencia del universo a colapsarse sobre sí mismo. Esa fuerza, a diferencia de las demás fuerzas, no procedía de ninguna fuente en particular, sino que estaba incorporada en la misma fábrica del espacio-tiempo. La constante cosmológica describe la intensidad de dicha fuerza.
 
             Cuando se descubrió que el universo no era estático, Einstein eliminó la constante cosmológica de su teoría y la consideró el disparate más grande de su vida. Pero en 1998, observaciones de supernovas muy distantes revelaron que el universo se está expandiendo con un ritmo acelerado, un efecto que no es posible sin algún tipo de fuerza repulsiva que actúe por todo el espacio. I,a constante cosmológica fue resucitada. Como ahora sabemos que su valor no es cero, queda por despejar la cuestión de por qué tiene el valor que tiene. Los físicos han ideado argumentos que explican cómo podría surgir debido a efectos mecánico-cuánticos, pero el valor que calculan es unos ciento veinte órdenes de magnitud (un seguido de 120 ceros) mayor que su valor real, obtenido de las observaciones de supernovas. Ello significa que o bien el razonamiento utilizado en el cálculo es erróneo o bien que existen otros efectos que se anulan milagrosamente entre sí salvo en una fracción diminuta del número calculado. Lo que sí es cierto es que si el valor de la constante cosmológica fuera muy superior al valor que tiene, nuestro universo se habría despedazado antes de que las galaxias se hubieran podido formar y —una vez más— la vida tal como la conocemos sería imposible.
 
             ¿Qué cabe pensar sobre esas coincidencias? Tener tanta suerte en la forma precisa y en la naturaleza de las leyes físicas fundamentales es un tipo de suerte diferente de la que hemos hallado en los factores ambientales. No puede ser explicada con tanta facilidad y tiene implicaciones físicas y filosóficas mucho más profundas. Parece que nuestro universo y sus leyes han sido diseñados con exquisita precisión para permitir nuestra existencia y que, si tenemos que existir, queda poca libertad para su alteración. Eso no es explicable fácilmente y suscita la pregunta natural de por que las cosas son así.
 
             A mucha gente le gustaría que utilizáramos esas coincidencias como evidencia de la obra de Dios. La idea de que el universo fue diseñado para alojar a la humanidad aparece en las teologías y las mitologías desde hace miles de años hasta el presente. En el Popal Vuh de los mayas los dioses proclaman: «No recibiremos gloria ni honor de lo que hemos creado y formado hasta que existan los humanos, dotados de razón». Un texto egipcio típico datado hacia 2000 a. C. dice que «Los hombres, el ganado de Dios, han sido bien proveídos. El (el dios Sol) hizo el cielo y la tierra para beneficio de ellos». En China, el filósofo taoísta Lieh Yu-Khou expresó la idea mediante un personaje de una narración que dice: «El cielo hace crecer cinco tipos de grano y produce los animales con aletas o con plumas especialmente para nuestro provecho».
 
             En la cultura occidental, el Antiguo Testamento contiene la idea del diseño providencial en su historia de la creación, pero la interpretación cristiana también fue muy influida por Aristóteles, quien creía «en un mundo natural inteligente que funciona de acuerdo con un diseño». El teólogo cristiano medieval Tomás de Aquino (1225-1274) utilizó las ideas de Aristóteles sobre el orden de la naturaleza para argumentar la existencia de Dios. En el siglo xviii, otro teólogo cristiano llegó al extremo de decir que los conejos tienen colas blancas para que nos resulte más fácil cazarlos. Una ilustración más moderna del punto de vista cristiano fue suministrada hace unos pocos años por Christoph Schónborn, cardenal arzobispo de Viena, quien escribió: «Actualmente, a comienzos del siglo xxi, enfrentados a afirmaciones científicas como el neodarwinismo y la hipótesis del multiverso (existencia de muchos universos) en cosmología, inventadas para eludir las evidencias abrumadoras de propósito y de diseño halladas en la ciencia moderna, la Iglesia Católica defenderá todavía la naturaleza humana proclamando que el diseño inmanente en la naturaleza es real». En cosmología, la evidencia abrumadora de propósito y diseño a la cual se estaba refiriendo el cardenal es el ajuste fino de las leyes físicas a que nos acabamos de referir.
 
             El punto de inflexión en el rechazo científico de un universo centrado en los humanos fue el modelo copernicano del sistema solar, en el cual la Tierra ya no tenía una posición central. Irónicamente, el punto de vista del propio Copérnico era antropomórfico, hasta el extremo de que nos consuela haciéndonos observar que a pesar de su modelo heliocéntrico la Tierra está casi en el centro del universo: «Aunque (la Tierra) no esté en el centro del mundo, sin embargo, su distancia (a dicho centro) no es nada en comparación con la de las estrellas fijas». Con la invención del telescopio, algunas observaciones del siglo XVII, como el hecho de que nuestro planeta no es el único orbitado por una luna, apoyaron el principio copernicano de que no gozamos de una posición privilegiada en el universo. En los siglos siguientes, cuanto más fuimos sobre el universo más pareció que nuestro planeta era tan sólo una variedad de la jardinería planetaria. Pero el descubrimiento relativamente reciente del ajuste extremadamente fino de muchas de las leyes de la naturaleza nos podría conducir, al menos a algunos, hacia la vieja idea de que ese gran diseño es la obra de algún gran Diseñador. En América, como la Constitución prohibe la enseñanza de la religión en las escuelas, ese tipo de idea es denominado diseño inteligente, con la idea no manifiesta pero implícita de que el Diseñador es Dios.
 
             Pero esa no es la respuesta de la ciencia moderna. Vimos en el capítulo 5 que nuestro universo parece ser uno entre muchos otros, cada uno de ellos con leyes diferentes. La idea del multiverso no es una noción inventada para justificar el milagro del ajuste fino, sino que es consecuencia de la condición de ausencia de límites y de muchas otras teorías de la cosmología moderna. Pero si es verdad, reduce el principio antrópico fuerte al débil, al situar los ajustes finos de las leyes físicas en la misma base que los factores ambientales, ya que significa que nuestro habitat cósmico —actualmente la totalidad del universo observable— es tan sólo uno entre otros muchos, tal como nuestro sistema solar es uno entre muchos otros. Ello quiere decir que de la misma manera que las coincidencias ambientales de nuestro sistema solar fueron convertidas en irrelevantes al darnos cuenta de que existen miles de millones de sistemas planetarios, los ajustes finos en las leyes de la naturaleza pueden ser explicados por la existencia de miles de millones de universos. Mucha gente a lo largo de los siglos ha atribuido a Dios la belleza y la complejidad de la naturaleza que, en su tiempo, parecían no tener explicación científica. Pero así como Darwin y Wallace explicaron cómo el diseño aparentemente milagroso de las formas vivas podía aparecer sin la intervención de un Ser Supremo, el concepto de multiverso puede explicar el ajuste lino de las leyes físicas sin necesidad de un Creador benévolo que hiciera el universo para nuestro provecho.
 
             Einstein plantee) en una ocasión a su ayudante Ernst Straus la siguiente pregunta: «¿Tuvo Dios elección cuando creó el universo?». En el siglo xvi, Kepler estaba convencido de que Dios había creado el universo de acuerdo con algún principio matemático perfecto. Newton demostró que las mismas leyes que se aplican en el firmamento se aplican en la Tierra y las exprese') en ecuaciones matemáticas tan elegantes que inspiraron un fervor casi religioso entre muchos científicos del siglo XVIII, que parecieron intentar utilizarlas para demostrar que Dios era un matemático.
 
             Desde Newton, y especialmente desde Einstein, el objetivo de la física ha sido hallar principios matemáticos simples del tipo que Kepler imaginaba, y crear con ellos una «teoría de todo» unificada que diera razón de cada detalle de la materia y de las fuerzas que observamos en la naturaleza. En el siglo xix y a principios del siglo xx, Maxwell y Einstein unieron las teorías de la electricidad, el magnetismo y la luz. En la década de 1970, fue formulado el modelo estándar, una sola teoría de las fuerzas nucleares fuertes y débiles y de la fuerza electromagnética. La teoría de cuerdas y la teoría M aparecieron a continuación en un intento de incorporar la fuerza restante, la gravedad. El objetivo era hallar no sólo una sola teoría que explicara todas las fuerzas, sino también los valores de los pa rámetros fundamentales de que hemos estado hablando, como por ejemplo la intensidad de las fuerzas y las masas y cargas de las partículas elementales. Tal como Einstein lo expresó, la esperanza consistía en decir que «la naturaleza está constituida de tal forma que es posible establecer lógicamente unas leyes tan estrictamente determinadas que en su marco sólo pueden presentarse constantes físicas completamente determinadas de forma racional (por lo tanto, constantes cuyo valor numérico no pueda ser modificado sin destruir la teoría)». Es improbable que una teoría única tuviera el ajuste fino que nos permite existir. Pero si a la luz de los avances recientes interpretamos el sueño de Einstein como la existencia de una teoría única que explique este y otros universos, con todo su espectro de leyes diferentes, la teoría M podría ser tal teoría. Pero la teoría M ¿es única, o es exigida por algún principio lógico simple? ¿Podemos responder a la cuestión de por qué la teoría M?
 
8 EL GRAN DISEÑO
 
             En el presente libro hemos desCrito cómo las regularidades en el movimiento de los cuerpos astronómicos como el Sol, la Luna y los planetas sugirieron que estaban gobernados por leyes lijas en lugar de estar sometidos a las veleidades y caprichos de dioses o demonios. Al principio, la existencia de esas leyes se manifestó solamente en la astronomía (o en la astrología, que era considerada más o menos lo mismo). El comportamiento de las cosas que hay en la Tierra es tan complicado y está sujeto a tantas influencias que las civilizaciones primitivas fueron incapaces de discernir patrones claros o leyes que rigieran dichos fenómenos. Gradualmente, sin embargo, fueron descubiertas nuevas leyes en otras áreas que la astronomía, lo cual condujo a la idea del determinismo científico: debe haber un conjunto completo de leyes tal que, dado el estado del sistema en un instante concreto, pueda especificar cómo evolucionará el universo a partir de aquel instante. Esas leyes deberían cumplirse siempre y en todo lugar; de otra manera no serían leyes. No podría haber excepciones ni milagros. Ni dioses ni demonios podrían intervenir en el funcionamiento del universo.
 
             En la época en que fue propuesto el determinismo científico, las leyes de Newton del movimiento y de la gravedad eran las únicas leyes conocidas. Hemos descrito cómo esas leyes fueron extendidas por Einstein en su teoría general de la relatividad y cómo otras leyes que regían otros aspectos del universo fueron descubiertas.
 
             Las leyes de la naturaleza nos dicen cómo se comporta el univer so pero no responden las preguntas del por qué, que nos plantea mos al comienzo de este libro:
 
             ¿Por qué hay algo en lugar de no haber nada?
 
             ¿ Por qué existimos?
 
             ¿Por qué este conjunto particular de leyes y no otro?
 
             Algunos dirían que la respuesta a estas preguntas es que un Dios decidió crear el universo de esa manera. Es razonable preguntar quien o qué creó el universo, pero si la respuesta es Dios la cuestión queda meramente desviada a qué o quién creó a Dios. En esa perspectiva, se acepta que existe algún ente que no necesita creador y dicho ente es llamado Dios. Esto se conoce como argumento de la primera causa en favor de la existencia de Dios. Sin embargo, pretendemos que es posible responder esas preguntas puramente dentro del reino de la ciencia, y sin necesidad de invocar a ninguna divinidad.
 
             Según la idea del realismo dependiente del modelo introducida en el capítulo 3, nuestros cerebros interpretan las informaciones de nuestros órganos sensoriales construyendo un modelo del mundo exterior. Formamos conceptos mentales de nuestra casa, los árboles, la otra gente, la electricidad que fluye de los enchufes, los átomos, las moléculas y otros universos. Esos conceptos mentales son la única realidad que podemos conocer. No hay comprobación de realidad independiente del modelo. Se sigue que un modelo bien construido crea su propia realidad. Un ejemplo que nos puede ayudar a pensar sobre cuestiones de realidad y creación es el Juego de la vida, inventado en 1970 por un joven matemático en Cambridge llamado John Conway.
 
             La palabra «juego» en el Juego de la vida es engañosa. No hay ganadores ni perdedores; de hecho, no hay ni tan siquiera jugadores. El Juego de la vida no es realmente un juego sino un conjunto de leyes que rigen un universo bidimensional. Es un universo determinista: una vez se empieza con una cierta configuración de partida o configuración inicial, las leyes determinan qué ocurrirá en el futuro.
 
             El mundo considerado por Conway es una disposición cuadrada, como un tablero de ajedrez, pero que se extiende infinitamente en todas direcciones. Cada cuadrado está en uno de dos estados: vivo —representado en verde— o muerto —representado en negro—. Cada cuadrado tiene ocho vecinos: el de arriba, el de abajo, el de la derecha, el de la izquierda y los cuatro en diagonal. En ese mundo el tiempo no es continuo sino que avanza en saltos discretos. Dada una disposición cualquiera de cuadrados vivos y muertos, el número de vecinos vivos determina qué ocurre a continuación, según las siguientes leyes:
 
             1) Un cuadrado vivo con dos o tres vecinos vivos sobrevive (supervivencia).
 
             2) Un cuadrado muerto con exactamente tres vecinos vivos se convierte en una célula viva (nacimiento).
 
             3) En todos los restantes casos, una célula muere o permanece muerta. En el caso de que un cuadrado vivo tenga uno o ningún vecino muere de soledad; si tiene más de tres vecinos, muere de superpoblación.
 
             Eso es todo: dada una condición inicial cualquiera, esas leyes producen generación tras generación. Un cuadrado vivo aislado o dos cuadrados vivos adyacentes mueren en la generación siguiente ya que no tienen un número suficiente de vecinos. Tres cuadrados vivos en diagonal viven un poco más de tiempo. Tras el primer paso temporal, mueren los cuadrados de los extremos, dejando solo al cuadrado de en medio, el cual morirá en la generación si guíente. Cualquier línea diagonal de cuadrados «se evapora» de esa manera.
 
             Pero si tres cuadrados vivos están situados horizontal mente en una fila, el centro tiene dos vecinos y sobrevive, en tanto que los dos cuadrados de los extremos mueren, pero ahora las células justo arriba y debajo de la del centro experimentan un nacimiento. Por lo tanto, la lila se convierte en una columna. Análogamente, en la siguiente generación la columna se vuelve a convertir en una fila, y así sucesivamente. Estas configuraciones oscilatorias son llamadas «intermitentes» o «parpadeadoras».
 
             Si tres cuadrados vivos están dispuestos en Corma de «L», se presenta un nuevo comportamiento. En la generación siguiente, el cuadrado abrazado por la «L» dará nacimiento, conduciendo a un bloque 2 X 2. El bloque pertenece a un tipo de patrón denominado vida estacionaria porque pasa inalterado de generación en generación. Existen muchos otros tipos de patrones que se metamorfosean en las primeras generaciones pero pronto se convierten en una vida permanente, o mueren, o vuelven a su forma original, y a continuación repiten el proceso.
 
             También hay patrones llamados «planeadores», que se metamorfosean en otras formas y tras unas pocas generaciones recuperan su forma original, pero en una posición que está un cuadrado más abajo en diagonal. Si contemplamos cómo evolucionan en el tiempo, parece que se arrastren a lo largo de la disposición. Cuando esos planeadores chocan, pueden ocurrir comportamientos curiosos, según la forma de cada planeador en el momento de la colisión.
 
             Lo que hace que ese universo resulte interesante es que aunque su «física» fundamental sea sencilla su «química» puede ser muy complicada. Es decir, pueden existir objetos compuestos en diferentes escalas. En la escala más pequeña, la física fundamental nos dice que sólo hay cuadrados vivos y muertos. A una escala mayor, hay los planeadores, los intermitentes y los bloques de vida estacionaria. A escala todavía mayor hay objetos todavía más complejos, como por ejemplo «ametralladoras de planeadores»: patrones estacionarios que engendran periódicamente nuevos planeadores que abandonan el nido y se deslizan diagonal abajo.
 
             Tras observar el universo del Juego de la vida durante un rato a una escala particular cualquiera, podríamos deducir las leyes que rigen los objetos a esa escala. Por ejemplo, a escala de los objetos de unos pocos cuadrados podemos deducir leyes como «los bloques nunca se mueven», «los planeadores se mueven en diagonal» y varias leyes sobre lo que ocurre cuando los objetos chocan. Podríamos elaborar toda una física a cualquier nivel de objetos compuestos, cuyas leyes harían intervenir entidades y conceptos que no aparecen en las leyes originales. Por ejemplo, en las leyes originales no hay conceptos como «chocar» o «desplazarse». Las leyes originales simplemente describen la vida y la muerte de cuadrados individuales estacionarios. Tal como en nuestro universo, en el Juego de la vida la realidad depende del modelo que utilizamos.
 
             Conway y sus alumnos crearon ese mundo porque querían saber si un universo con reglas fundamentales tan sencillas como las que habían definido podía contener objetos suficientemente complejos para replicarse. En el mundo del Juego de la vida, ¿existen objetos compuestos que simplemente siguiendo las leyes del Juego de la vida durante generaciones den lugar a otros objetos de su mismo tipo? Conway y sus alumnos pudieron demostrar no sólo que eso es posible, sino que incluso demostraron ¡que uno de tales objetos puede ser, en cierto sentido, «inteligente»! ¿Qué queremos decir con eso? Para ser precisos, mostraron que los enormes conglomerados de cuadrados que se autorreplican son «máquinas de Turing universales». Para los efectos de nuestra explicación, ello significa que, para cualquier cálculo que un ordenador de nuestro mundo físico pudiera en principio realizar, si suministráramos a la máquina el input adecuado —es decir, le suministráramos el ambiente adecuado en el mundo de la vida—, algunas generaciones después la máquina se hallaría en un estado que podría leerse como el output correspondiente al resultado de dicho cálculo de ordenador.
 
             Para hacernos una impresión de cómo funciona eso, consideremos qué ocurre cuando disparamos planeadores contra un bloque 2x2 de cuadrados vivos. Si los planeadores se acercan en la forma adecuada, el bloque, que había permanecido estacionario, se desplazará hacia la fuente de los planeadores o en dirección opuesta. De esa manera, el bloque puede simular una memoria de ordenador. De hecho, todas las funciones básicas de un ordenador moderno, tales como las puertas Y u O, también pueden ser creadas mediante planeadores. De ese modo, así como pueden emplearse señales eléctricas en un ordenador físico, se puede utilizar chorros de planeadores para enviar y procesar información.
 
             En el Juego de la vida, como en nuestro mundo, dichos patrones autorreproductores son objetos complejos. Una estimación basada en trabajos originales del matemático John von Neumann estima el tamaño medio de un patrón autorreplicante del Juego de la vida en diez billones de cuadrados —aproximadamente el número de moléculas que hay en una célula humana—.
 
             Podemos definir los seres vivos como sistemas complejos de tamaño limitado que son estables y que se reproducen. Los objetos que acabamos de describir satisfacen la condición de reproducirse pero probablemente no son estables: probablemente una pequeña perturbación procedente de su entorno podría destrozar su delicado mecanismo. Sin embargo, es fácil imaginar que leyes ligeramente más complicadas pudieran permitir sistemas complejos con todos los atributos de la vida. Imaginemos una entidad de tal tipo, un objeto en un mundo parecido al de Conway, Tal objeto podría responder a los estímulos ambientales y por lo tanto podría parecer que toma decisiones. ¿Tendría tal vida conciencia de sí misma; sería autoconsciente? Las opiniones sobre esta cuestión están irreconciliablemente divididas. Algunos pretenden que la autoconciencia es algo único de los humanos, que les proporciona libre albedrío, la capacidad de escoger entre diferentes cursos de una acción.
 
             ¿Cómo podemos discernir si un ser tiene libre albedrío? Si encontráramos un alienígena, ¿cómo podríamos decir si es sólo un robot o si tiene una mente propia? El comportamiento de un robot estaría completamente determinado, a diferencia de un ser con libre albedrío. Por lo tanto, podríamos en principio detectar un robot como un ente cuyas acciones pueden ser predichas. Tal como dijimos en el capítulo 2, esto puede ser muy difícil o imposible si el ente es grande y complejo, ya que ni siquiera podemos resolver exactamente las ecuaciones para tres o más partículas en interacción mutua. Dado que un alienígena del tamaño de un humano contendría unos mil billones de billones de partículas, aunque el alienígena fuera un robot sería imposible resolver sus ecuaciones y predecir lo que va a hacer. Por lo tanto, tendríamos que decir que cualquier objeto complejo tiene libre albedrio) no como una característica fundamental, sino como una admisión de nuestra incapacidad para llevar a cabo los cálculos que nos permi tirían predecir sus acciones .
 
             El ejemplo del Juego de la vida de Conway demuestra que incluso un conjunto simple de leyes puede producir características complejas análogas a las de la vida inteligente. Debe haber muchos conjuntos de leyes con esa propiedad. ¿Qué selecciona las leyes que rigen nuestro universo?. Tal como ocurre en el universo de Conway, las leyes de nuestro universo determinan la evolución del sistema, dado su estado en un instante cualquiera. En el mundo de Conway, nosotros somos los creadores —escogemos el estado inicial del sistema al especificar los objetos y sus posiciones en el inicio del juego—.
 
             En un universo físico, la contrapartida de objetos como los planeadores del Juego de la vida son cuerpos materiales aislados. Cualquier conjunto de leyes que describa un mundo continuo como nuestro propio mundo tendrá el concepto de energía, que es una magnitud conservada, es decir, que no cambia con el tiempo. La energía del espacio vacío será una constante independiente del tiempo y de la posición. Podemos prescindir de la energía constante del vacío si expresamos la energía con respecto a la del mismo volumen de espacio vacío, de manera que podemos tomar esa constante como cero. Un requisito que debe satisfacer cualquier ley de la naturaleza es que estable/xa que la energía de un cuerpo aislado rodeado por el espacio vacío es positiva, lo cual significa que debemos realizar trabajo para ensamblar el cuerpo. Ello es así porque si la energía de un cuerpo aislado fuera negativa podría ser creado en un estado de movimiento, de tal forma que su energía negativa fuera contrarrestada exactamente por la energía positiva de su movimiento. Si ello ocurriera, no habría razón alguna por la cual los cuerpos no aparecieran en cualquier lugar y en cualquier instante. Por lo tanto, el espacio vacío sería inestable. Pero si crear un cuerpo aislado cuesta energía, eso no podrá ocurrir porque, como hemos dicho, la energía del universo debe permanecer constante. Eso es lo que debemos hacer para que el universo sea localmente estable —hacerlo de tal manera que las cosas no aparezcan de la nada en cualquier lugar—.
 
             Si la energía total del universo debe permanecer siempre igual a cero y si cuesta energía crear un cuerpo, ¡¡cómo puede ser creado de la nada todo un universo? Es por eso por lo que se necesita una ley como la de la gravedad. Como la gravedad es atractiva, la energía gravitatoria es negativa: debemos efectuar trabajo para disgregar un sistema gravitariamente ligado, como por ejemplo la Tierra y la Luna. La energía gravitatoria negativa puede contrarrestar la energía positiva necesaria para crear la materia, pero la realidad no es tan simple como eso. La energía gravitatoria negativa de la Tierra, por ejemplo, es menor que una milmillonesima de la energía positiva de las partículas materiales que la constituyen. Un cuerpo como una estrella tendrá más energía gravitatoria negativa (en valor absoluto), y cuanto menor sea y cuanto más próximas estén entre sí sus diferentes partes, mayor será el valor absoluto de esa energía gravitatoria negativa. Pero antes de que la energía gravitatoria negativa pueda superar la energía positiva de la materia, la estrella se colapsará a un agujero negro, y los agujeros negros tienen energía positiva. Es por ello por lo que el espacio vacío es estable. Cuerpos como las estrellas o los agujeros negros no pueden aparecer de la nada. Pero tocio un universo sí puede.
 
             En efecto, como la gravedad da forma al espacio y al tiempo, permite que el espacio-tiempo sea localmente estable pero global-mente inestable. A escala del conjunto del universo, la energía positiva de la materia puede ser contrarrestada exactamente por la ener gía gravitatoria negativa, por lo cual no hay restricción a la creacion de universos enteros. Como hay una ley como la de la gravedad, el universo puede ser y será creado de la nada en la manera descrita en el capítulo 6. La creación espontánea es la razón por la cual existe el universo. No hace falta invocar a Dios para encender las ecuaciones y poner el universo en marcha. Por eso hay algo en lugar de nada, por eso existimos.
 
             ¿Por qué las leyes de nuestro universo son tal como las hemos descrito? La teoría última del universo debe ser consistente y debe predecir resultados finitos para las magnitudes mensurables. Hemos visto que debe existir una ley como la de la gravedad, y vimos en el capítulo 5 que para que una teoría de la gravedad prediga magnitudes finitas la teoría debe poseer lo que se llama supersimetría entre las fuerzas de la naturaleza y la materia sobre la cual actúan. La teoría M es la teoría supersimetrica más general de la gravedad. Por esas razones, la teoría M es la única candidata a teoría completa del universo. Si es finito —y esto debe demostrarse todavía— será un modelo de universo que se crea a sí mismo. Nosotros debemos ser parte de ese universo, ya que no hay otro modelo consistente de universo.
 
             La teoría M es la teoría unificada que Einstein esperaba hallar. El hecho de que nosotros, los humanos —que somos, a nuestra vez, meros conjuntos de partículas fundamentales de la naturaleza—, hayamos sido capaces de aproximarnos tanto a una comprensión de las leyes que nos rigen a nosotros y al universo es un gran triunfo. Pero quizá el verdadero milagro es que consideraciones lógicas abstractas conduzcan a una teoría única que predice y describe un vasto universo lleno de la sorprendente variedad que observamos. Si la teoría es confirmada por la observación, será la culminación de una búsqueda que se remonta a más de tres mil años. Habremos hallado el Gran Diseño.
 
AGRADECIMIENTOS
 
             El universo tiene un diseño, y también lo tiene un libro. Pero a diferencia del universo, un libro no aparece de la nada. Un libro requiere un creador, y ese papel no recae tan sólo en los hombros de sus autores. Así, en primer lugar y antes de nada, quisiéramos agradecer a nuestros editores, Berth Rashbaum y Ann Harris, su paciencia, vecina al infinito. Fueron nuestros estudiantes cuando necesitábamos estudiantes, nuestros profesores cuando necesitábamos profesores, y nuestros consejeros cuando necesitábamos consejero. Lucharon con el manuscrito, y lo hicieron con buen humor, tanto si la discusión se centraba sobre la posición de una coma o sobre la imposibilidad de introducir una superficie axisimétrica de curvatura negativa en un espacio plano. También quisiéramos expresar nuestro agradecimiento a Mark Hillery, que leyó amablemente una gran parte del manuscrito e hizo valiosos comentarios; a Carole Lowenstein, que fue una ayuda inestimable en el diseño interior; a David Stevenson, que condujo a buen puerto la cubierta; y a Loren Noveck, cuya atención a los detalles nos ha librado de algunos errores tipográficos que no nos hubiera gustado ver impresos. A Peter Bollinger: te agradecemos que ha yas acercado el arte a la ciencia en tus ilustraciones, y tu diligencia en asegurar la pertinencia y precisión de cada detalle. Y a Sidney Harris: gracias por tus maravillosas caricaturas y por tu gran sensibilidad a tantos aspectos referentes a los científicos. En otro universo, hubieras sido un físico. También agradecemos a nuestros agentes, Al Zuckerman y Susan Ginsburg, su apoyo v los animos que nos han dado. Los dos mensajes mutuamente consistentes que nos han dado una y otra vez, han sido: «Ya es hora de acabar el libro» y «No os preocupéis por cuándo terminaréis el libro; tarde o temprano lo acabaréis». Fueron lo suficientemente juiciosos para saber cuándo convenía cada uno de estos mensajes. Y finalmente, gracias a la ayudante personal de Stephen, Judith Croasdell, a su ayudante de ordenador, Sam Blackburn, y a Joan Godwin. Proporcionaron no solo apoyo moral, sino también práctico y técnico, sin el cual no hubiéramos podido escribir este libro. Por otra parte, siempre supieron dónde hallar los mejores pubs.
 
 
 
GLOSARIO
 
             Agujero negro: región del espacio-tiempo que, debido a su inmensa fuerza gravitatoria, queda desconectada del resto del universo.
 
             Amplitud de probabilidad: en una teoría cuántica, número complejo cuyo módulo al cuadrado da una probabilidad.
 
             Antimateria: cada partícula de materia tiene una correspondiente antipartícula. Si se encuentran se aniquilan entre sí, dejando energía pura.
 
             Átomo: unidad básica de la material ordinaria, consistente en un núcleo con protones y neutrones rodeado por electrones que orbitan a su alrededor.
 
             Bariones: tipo de partículas elementales, como por ejemplo el protón y el neutrón, que están formadas por tres quarks.
 
             Big Bang: inicio denso y caliente del universo. La teoría del Big Bang postula que hace unos trece mil setecientos millones de años la parte del universo que actualmente podemos ver tenía tan sólo unos pocos milímetros. En la actualidad, el universo es mucho más grande y frío, pero podemos observar los remanentes de aquel período temprano en la radiación cósmica de fondo de mi croondas que invade todo el espacio.
 
             Bosón: partícula elemental que transmite una fuerza.
 
             Condición de ausencia de bordes: requisito por el que las historias del universo son superficies cerradas sin borde alguno.
 
             Constante cosmológica: parámetro en las ecuaciones de Einstein que confiere al espacio-tiempo una tendencia inherente a expandirse.
 
             Electrón: partícula elemental de la materia que tiene carga eléctrica negativa y es responsable de las propiedades químicas de los elementos.
 
             Espacio-tiempo: espacio matemático cuyos puntos deben ser especificados por las coordenadas espacial y temporal.
 
             Fase: posición en el ciclo de una onda.
 
             Fermión: tipo de partícula elemental de la materia.
 
             Física clásica: cualquier teoría de la física en la cual se suponga que el universo tiene una sola historia, bien definida.
 
             Formulación ascendente, o de abajo arriba: en cosmología, idea basada en la suposición de que hay una sola historia del universo, con un punto de partida bien definido, y que el estado actual del universo procede de la evolución de aquel inicio.
 
             Formulación descendente, o de arriba abajo: formulación de la cosmología en que se traza la historia del universo de «arriba abajo», es decir desde el momento presente hacia atrás.
 
             Fotón: bosón que transporta la fuerza electromagnética. Partícula cuántica de la luz.
 
             Fuerza electromagnética: la segunda fuerza más intensa de las cuatro fuerzas de la naturaleza. Actúa entre partículas cargadas eléctricamente.
 
             Fuerza nuclear débil: una de las cuatro fuerzas de la naturaleza. La fuerza débil es la responsable de la radiactividad y desempeña un papel decisivo en la formación de los elementos en las estrellas y en el universo primitivo.
 
             Fuerza nuclear fuerte: la más intensa de las cuatro fuerzas de la naturaleza. Mantiene unidos los protones y neutrones en el interior de los núcleos atómicos. También mantiene la cohesión interna de protones y neutrones, lo cual es necesario, ya que están formados por partículas aún más pequeñas, los quarks.
 
             Galaxia: gran conjunto de estrellas, materia interestelar y materia oscura que se mantiene unido por la gravedad.
 
             Gravedad: la fuerza más débil de las cuatro fuerzas de la naturaleza. Mediante ella los objetos que tienen masa se atraen entre sí.
 
             Historias alternativas: formulación de la teoría cuántica en la cual la probabilidad de cada observación es construida a partir de todas las historias posibles que podrían haber conducido a dicha observación.
 
             Leyes aparentes: las leyes de la naturaleza que observamos en nuestro universo —las leyes de las cuatro fuerzas y las partículas como las masas y cargas que caracterizan las partículas elementales—, a diferencia de las leyes más fundamentales de la teoría M, que permiten universos diferentes con leyes diferentes.
 
             Libertad asintótica: propiedad de la fuerza fuerte que hace que ésta se haga más débil a distancias más cortas. Por lo tanto, aunque los quarks estén confinados en las partículas de los núcleos por la fuerza fuerte, pueden moverse en el interior de ellas como si no notaran fuerza alguna.
 
             Mesón: tipo de partícula elemental que está formado por un quark v un antiquark.
 
             Multiverso: conjunto de universos.
 
             Neutrón: tipo de barión eléctricamente neutro que, con el protón, forma los núcleos de los átomos.
 
             Neutrino: partícula elemental extremadamente ligera que sólo es afectada por la fuerza nuclear débil y la gravedad.
 
             Principio antrópico: es la idea de que podemos alcanzar conclusiones sobre las leyes aparentes de la física a partir del hecho de que existimos.
 
             Principio de incertidumbre de Heisenberg: ley de la teoría cuántica que establece que ciertos pares de magnitudes físicas no pueden ser conocidos simultáneamente con precisión arbitraria.
 
             Protón: tipo de barión cargado positivamente que, con el neutrón, forma los núcleos de los átomos.
 
             Quark: partícula elemental con carga eléctrica fraccionaria y sensible a la fuerza fuerte. El protón y el neutrón están constituidos por tres quarks.
 
             Renormalización: técnica matemática diseñada para eliminar los infinitos que aparecen en las teorías cuánticas.
 
             Singularidad: punto del espacio-tiempo en que alguna magnitud física se hace infinita.
 
             Supergravedad: teoría de la gravitación que tiene un tipo de simetría denominado supersimetría.
 
             Supersimetría: tipo sutil de simetría que no puede ser asociada con la transformación de un espacio ordinario. Una de las implicaciones importantes de la supersimetría es que las partículas de fuerza y las partículas de materia, y por lo tanto fuerza y materia, son en realidad dos facetas de la misma cosa.
 
             Teoría cuántica: teoría en que los objetos no tienen una sola historia bien definida.
 
             Teoría M: teoría fundamental de la física que es candidata a ser teoría de todo.
 
             Teoría de cuerdas: teoría de la física en que las partículas son descritas como modos de vibración que tienen longitud pero no anchura ni altura, como fragmentos de cuerda infinitamente finos.