sábado, 5 de noviembre de 2011

Letras para tontos con inquietudes

Ya sé que este es un blog de ciencia, pero a veces se plantean unas curiosidades que interesan a todo el mundo por igual. Hoy me apetecía hacer un post ligero y entretenido.


Nuestras letras modernas descienden de la escritura jeroglífica de las civilizaciones antiguas. En particular de la egipcia. Prácticamente todos nuestros caracteres se pueden encontrar en un jeroglífico. Y sin embargo no somos capaces de reconocer ninguno de ellos. ¿Por qué?

Los sistemas de escritura se suelen dividir en ideográficos y fonológicos. Es decir, en ellos un dibujo es capaz representar una idea completa o un único sonido. Entre estos dos extremos de complejidad se han desarrollado todos los alfabetos que ha inventado la humanidad. Existen los silábicos, los consonánticos, etc. Ninguna ortografía se libra de tener un cierto carácter ideográfico o fonológico. Por ejemplo nosotros seguimos escribiendo ‘hombre’ con H porque en latín primitivo la H de ‘homo’ sí que se pronunciaba, y la razón de que la conservemos no es filológica, sino ideográfica: estamos acostumbrados a encontrar una H para reconocer la palabra visualmente. Una lectura en diagonal de un texto que contenga frases como “un ombre be a su ijo” nos cuesta entenderla, no por las faltas de ortografía, sino por la falta de costumbre de encontrar algo así. Esto hoy en día nos parece tonto, pero durante la Edad Media, Renacimiento y Edad Moderna los únicos textos de valor de los que se disponía estaban escritos en latín, donde se veía “homo” con H, “videre” con V y “filius” con F. Era necesario intentar ser fiel en la escritura de los nuevos idiomas con el latín que usaban los clásicos. Va en la cultura de un pueblo ser conservador o reformista con la ortografía. Idiomas como el francés han conservado muchas más letras latinas aunque no las pronuncien (p.ej. “doigt” se pronuncia simplemente “duá” pero conserva la G y la T de “digitus”). Palabras como “figuera”, “filio”, “fava”, conservadas en catalán, perdieron el sonido de la F en castellano, y ante la desazón que provocaba el vacío pusieron allí una H. El italiano fue más radical y aceptó “ora”, “erba”, “emorragia”…

Los mismos egipcios se dieron cuenta de que la escritura puramente ideográfica presentaba graves problemas a la hora de expresar conceptos complicados. Es fácil dibujar “el jefe caza un buey”, pero para “tengo miedo” o “Marco Antonio quiere a Cleopatra” había que recurrir a metáforas que no siempre eran entendidas por las generaciones siguientes. El amor para nosotros reside en el corazón, pero otros pueblos lo situaron en el estómago, y llegará un día en el que los enamorados grabarán en un árbol sus nombres embarcados por un cerebro. La escritura egipcia de las últimas dinastías evolucionó hacia la fonética. Cada dibujo representaba un carácter. ¿Cuál? el inicial de la palabra. Como si nosotros para decir “hola” dibujáramos un hombre, un oso, una ladilla y un avión.

Esta situación se mantuvo así hasta la aparición de la cultura judeocristiana. En ella se ordenaba el segundo Mandamiento que nosotros hemos transformado un poco, pero que para muchos pueblos significa “no harás imágenes”. Por eso las culturas árabes, judaicas, protestantes y demás no hacen representaciones humanas ni de animales. Esta nueva visión (imposición) del mundo supuso prácticamente la extinción de la escritura. En nuestra Europa occidental por ejemplo, la cultura celta la prohibió y los druidas transmitían sus secretos por vía oral. Tenemos enormes lagunas de conocimiento a partir del año 3000 a.C. por culpa de esta pérdida de la tradición escrita.

Pero hubo quien se las ingenió. Si bien las imágenes estaban prohibidas, nadie había dicho nada acerca de hacer rayas, y en el Sinaí encontraron la manera de evocar las imágenes por medio de rayas simples. Cojamos un ejemplo: la letra A se representaba por un toro. Era el aleph, el símbolo de la fuerza. El símbolo no se podía representar ya, pero ¿qué es lo más característico de un toro? Sus cuernos, ¿no? Bueno, pues se puede dibujar algo así . Y de ahí a había un paso. Después ya el tema de la orientación horizontal o vertical del carácter fue una cuestión de estilo. Pero la transformación hacia la abstracción estaba hecha.

La misma historia se puede contar para todas las demás letras. Vamos a ello:
- La A. (ya comentada), el aleph da .
- La B. Es la casa, , casi siempre con puertas , y de ahí .
- La C y la G son inicialmente la misma letra. Los romanos necesitaron distinguirlas para adaptarlas a su fonética y a una de ellas le añadieron un palito transversal. La C es el camello, el “camel” también pronunciado “gamel” que dio “gamma”. ¿Qué es lo más característico de un camello? la joroba. Bueno, pues aquí la tenemos . La representación más rectilínea dio la gamma . Insisto, olvidaos de la orientación.
- La D. Es la puerta. Inicialmente se representa pero por identificación con la puerta púbica (sí, sí, el triángulo, la matriz) se pasa a representar . Qué cochina es la D.
- La E. Es la oración. Un hombre rezando acaba siendo .
- La F, U y V. Es el clavo o la almohada de la antigüedad , por extraños motivos algunos dibujos se inclinan y hacen .
- La H es la barrera . Está clara la evolución.
- La I, J y Y son deformaciones de la misma letra, el yod, un híbrido entre I y J. Dicen que en el catalán de Barcelona se puede escuchar la yod al pronunciar Valls por ejemplo. El yod es el brazo que se solía representar con la palma de la mano al final. Cuando se prohibió dibujar brazos se quedó el palo solo.
- La K es la mano. da .
- La L, el látigo. se convirtió en .
- La M es el agua, o el mar. En casi todos los idiomas del mundo el mar empieza por la letra M. ¿Lo más característico? las olas. y luego . Es bonita la M.
- La N es la serpiente, y sobre todo la serpiente que levanta la cabeza: la cobra. da .
- La O es el ojo (oyin). Curiosamente en los jeroglíficos no se representaba por un círculo, sino por o por . Cuando se prohibió representarlo se pasó a la O que conocemos.
- La P es la boca. Difícil verla en . La escritura tiende a estilizarse para hacer . Una letra complicada.
- La Q. Un misterio. Representa el mono y se dibuja .
- La R. Esta es bonita, es la cara . Está clara la reducción iconográfica.
- La S. Cuesta imaginar que era un diente, un molar probablemente . Pasó a y de ahí se quedó sólo en las curvas. Es más fácil ver la evolución a la sigma griega .
- La T es la cruz o la marca, signo utilizadísimo mucho antes que los cristianos. o se estilizaron perdiendo un palo.

Y ya está. Otro día, ¡los números!

viernes, 28 de octubre de 2011

¿Por qué es tan difícil enseñar la ciencia?

Tenemos la sensación de que los avances en el conocimiento nos enseñan que el mundo es enormemente complejo y que cuanto más profundicemos en nuevos descubrimientos, más complicada será la descripción de las cosas. Esto nos causa un cierto vértigo y, ante la sensación de no poder abarcarlo todo, tendemos a centrarnos en las áreas de conocimiento que nos son más familiares. Pero en realidad lo que vamos encontrando es que cuanto más progresa la ciencia, más sencillas son sus explicaciones y menos conceptos involucran. Una misteriosa tendencia unificadora en la naturaleza nos está acostumbrando a ver muchos fenómenos como distintas manifestaciones de unas pocas leyes y cuanto más comprendemos el mundo, más asequible nos parece. Debemos empezar a difundir estas ideas.


Enseñar, divulgar o explicar la ciencia no debería ser, a priori, más difícil que transmitir los conocimientos de cualquier otra materia. En esencia ese trabajo consistiría en describir los comportamientos de aquello que se está estudiando y buscar las causas que los provocan. Para un estudiante, el grado completo de conocimiento llega cuando comprende bien la ley que describe causas y comportamientos.

1 - La intuición
El enfoque pedagógico más utilizado es la representación de la realidad mediante modelos que pretenden ser intuitivos. La intuición es la herramienta a la que más se recurre. Nos encontramos con modelos de bolitas para explicar la estructura de un átomo, dibujos con flechas que simbolizan fuerzas, exageraciones, colores falsos, distorsiones… Se abusa tanto de la representación que se acaba transmitiendo la idea de que el modelo es suficiente para explicar toda la realidad. Por ejemplo, a los niños se les explican las primeras matemáticas sencillas mediante ejemplos de manzanas y peras, pero cuando toca explicar los números negativos el modelo se queda pequeño ante la imposibilidad de representar una manzana negativa. Entonces se recurre casi siempre a una recta con marcas a izquierda y derecha. Es decir, cuando se amplía el conocimiento que se quiere transmitir hay que recurrir a un nuevo modelo, todo en aras de la intuición. ¿Pero realmente hay alguna forma intuitiva de explicar que -3 x -5 es igual a 15? ¿Es intuitivo hablar del infinito, de múltiples dimensiones, de los años que han pasado desde el inicio del Pleistoceno, de dos gases que reaccionan químicamente y forman un líquido? La tendencia natural del cerebro es intentar encajar los nuevos conocimientos dentro del viejo esquema mental, el presuntamente intuitivo. Y cuando se le fuerza por la vía pedagógica a cambiar de paradigma se le está obligando a hacer un esfuerzo laborioso de flexibilidad mental, que indudablemente es útil para la salud cerebral, pero no ayuda a la comprensión de la materia que se quiere transmitir, sino que provoca desconcierto, desconfianza y en última instancia, rechazo. Parte de los tópicos acerca de la dificultad de las ciencias y su presunta infalibilidad radican en esta enorme abundancia de ejemplos metafóricos que confunden al no experto.

2.- El gran salto hacia la ciencia formal
A la hora de transmitir los aspectos de la ciencia a niveles más profundos y fundamentales la intuición sufre enormes limitaciones porque el cerebro humano está formidablemente bien adaptado al entorno en el que se mueve, a la escala humana y a las percepciones cotidianas. De manera que el cerebro no puede imaginar situaciones o comportamientos ajenos a su día a día y esto condiciona y restringe nuestros pensamientos, especialmente cuando se intentan representar con imágenes o palabras. Por ejemplo, es imposible visualizar más de 3 dimensiones, sólo concebimos el espacio y el tiempo como entidades disociadas, estáticas e inmutables, no abarcamos más de 2 ó 3 acontecimientos simultáneos, no toleramos las ilusiones ópticas… Aceptar estas restricciones significa reconocer que mediante la vía intuitiva no lograremos entender nada coherente, y tanto el que enseña como el que aprende deben dar un salto hacia un modelo de ciencia más formal en busca de la exactitud. Este salto es traumático ya que supone abandonar los sencillos modelos con dibujos y bolitas para caer en brazos de fórmulas y cálculos matemáticos enormemente complejos. Este es el punto que origina la fama de que la ciencia es difícil y muchas veces inabordable. ¿Por qué? Porque hemos convertido la ciencia formal en matemática. Y no debería ser así.

3.- La abstracción
Las matemáticas son algo por encima de la ciencia, quizá son un lenguaje, una forma de expresión de la naturaleza, algo ligado con la filosofía, quizá son una creación del ser humano… Escapa de este post entrar en ese debate que por otro lado es tremendamente interesante. Para lo que nos interesa, la ciencia recurre a las matemáticas como una herramienta extraordinariamente útil, una poderosa forma de representación. Pero pedagógicamente se abusa de ellas prescindiendo del uso de una competencia fundamental de nuestro cerebro: la abstracción.

La abstracción es un mecanismo de defensa extraordinariamente potente que utiliza el cerebro para compensar nuestros fallos de memoria. Mientras que la cantidad de información que perciben nuestros sentidos es colosal, la que llegamos a almacenar en nuestra memoria es un porcentaje ínfimo de ella. Tanto de forma consciente como inconsciente lo que hacemos es aplicar un enorme proceso de filtrado tras el cual el cerebro se queda con los rasgos más llamativos o más sobresalientes de la información. A eso le llamamos abstracción, y la abstracción también se puede utilizar para aumentar nuestra comprensión del mundo. Gracias al pensamiento abstracto podemos manejarnos en un mundo de varias dimensiones, acercarnos al infinito, a lo muy pequeño… Quizá no lo abarcaremos con la mente, pero mediante la extrapolación de fenómenos cercanos a nuestra experiencia conocida, mediante la observación de regularidades y patrones, mediante procesos de generalización o deducción sí podremos navegar por esos entornos extraños, e incluso hacer predicciones. Un verdadero científico no es alguien extraordinariamente dotado para el cálculo matemático, sino alguien con dotes de observación, comprensión, generalización, etc.

Nos cuesta confiar en la pura abstracción porque tenemos tanta herencia de la intuición (son tantos siglos pensando así) que nos cuesta cambiar de paradigma. Einstein llegó a aceptar que el tiempo se distorsionaba y se mezclaba con el espacio, pero cuando tropezó con el resultado de que el universo se expandía se negó a aceptarlo “porque iba contra el sentido común”. Y la realidad es que el sentido común decía que nunca nadie había medido si el universo se expandía o no, y cuando lo midieron salió que sí. De igual manera la mecánica cuántica va en contra de nuestra intuición y por eso más de un siglo después seguimos pensando que “algo está equivocado ahí”. Repito: para entender la ciencia hay que confiar en el pensamiento abstracto.

4.- La sencillez
La historia de la ciencia es la historia del aumento de nuestro grado de abstracción. En la época del Renacimiento, los primeros científicos modernos realizaron sencillos experimentos y por simple comparación de resultados establecieron las primeras leyes naturales no basadas en razones filosóficas o religiosas: por ejemplo, si yo estiro un muelle el doble la fuerza que notaré será el doble, si tiro dos bolas desde una torre llegarán al suelo a la vez aunque pesen distinto. En los siglos XVII al XIX, por comparación de estas leyes se pasó a un grado superior de abstracción y llegaron las teorías, que explicaban las causas: no necesitamos una ley para explicar la caída de las bolas desde la torre y otra ley para el movimiento de la Luna porque son la misma aplicada a casos distintos, y la razón que lo justifica es que todos los cuerpos se atraen. El siglo XX nos permitió encontrar enormes similitudes entre las teorías fundamentales y nos hemos lanzado hacia algo más grande que, a falta de otro nombre, le estamos llamando teoría de unificación, o teoría global, o teoría de todo, etc. En ella la idea que subyace es que existe una explicación única que abarca cualquier fenómeno de la naturaleza, de lo más grande a lo más pequeño, del origen del mundo, de la materia que estamos hechos, de las reacciones químicas, de los principios de la biología, de las ciencias sociales, de la psicología… No tenemos aún esa explicación completa, y quizá no la encontremos nunca, pero desde que en 1964 se encontró la famosa radiación de fondo cosmológica estamos convencidos de que esa descripción unificada existe, y ha sido una gran sorpresa.

A medida que avanzamos en la abstracción se reduce la complejidad del mundo, y a medida que mejor lo entendemos vemos que necesitamos menos elementos para describirlo, menos variables y menos suposiciones. A día de hoy necesitamos muy pocas piezas y reglas para explicar muchas cosas. Tenemos un modelo de conocimiento enormemente sencillo y los esfuerzos que se están haciendo son para simplificarlo aún más. Por ello no hay derecho a seguir transmitiendo que la ciencia es una doctrina compleja. Hemos llegado a un nivel en el que toda la historia desde la creación del universo (lo que algunos empiezan a llamar El Gran Relato) la podemos explicar de forma sencilla a un estudiante de secundaria. De igual manera podríamos explicar cualquier otro fenómeno. Dejémonos de modelizaciones simplistas y matemáticas complejas. La idea fundamental que debemos transmitir es que la ciencia se basa en unas leyes sencillas que explican cualquier fenómeno usando la única herramienta del pensamiento estructurado. Antiguamente estaban justificadas otras aproximaciones pedagógicas, pero hoy, desde 1964, fecha en la que sabemos en qué consiste exactamente eso llamado Ciencia, debemos explicarla de esta manera.

martes, 4 de octubre de 2011

Premio Nobel de Física en 2011 para la Cosmología

Nueva aparición en los diarios de una noticia científica debido a los Premios Nobel. Dejaremos a un lado que tienen previsto entregar el de Medicina a una persona muerta y nos centraremos en el de Física. ¿Por qué? pues porque por una vez han premiado una cosa que se entiende.

Desde 1929 sabemos que el Universo se expande. Lo comenté en un post de este mismo blog esta primavera. Significa que todas las galaxias se alejan unas de otras debido a una expansión del espacio fruto de la energía liberada en una especie de explosión. La ley es sencilla: lo que está lejos se aleja más rápido. Doble distancia > doble velocidad. Haría una gráfica para ilustrarlo, pero entre lectores informáticos y gente de letras no sé si se entendería mucho.

Esto ha sido así durante toda la vida (o sea, desde 1929 hasta finales de los años 90). Era un modelo bonito, cómodo y sencillo de manejar en ecuaciones. Servía hasta para predecir cómo sería el final del universo. Sólo faltaba mejorar la precisión en las medidas. Estamos hablando de distancias de unos 10 trillones de kilómetros (son 10.000 millones de años-luz, pero no quiero crear más confusión usando ese nombre tan poco afortunado que lleva la palabra ‘año’), y a esas distancias las mediciones se calculan mediante métodos indirectos y los márgenes de error son grandes. Por suerte combinando distintas ramas del conocimiento astrofísico empezamos a contar con técnicas más precisas, y uno de los métodos que mejores resultados da es el de las supernovas tipo I. El trabajo de medición de distancias usando el método de las supernovas ejecutado durante una década, y el sorprendente resultado encontrado es lo que se premia este año.

Una supernova es una explosión de estrellas. Para los antiguos la nova era toda aquella estrella que aparecía de repente en el cielo, y modernamente se llamaron supernovas a las novas que brillaban muchísimo. No esperéis ver muchos cambios en el cielo durante vuestras vidas, estadísticamente hay que vivir unos 500 años para ver una supernova y más o menos la misma cantidad de tiempo para dejar de ver una estrella. Y nosotros ya hemos vivido la de 1987 aunque sólo la pudieron ver en el hemisferio sur. Las supernovas más corrientes son las que tienen lugar cuando a una estrella muy pesada se le agota la capacidad de generar energía. Pero las que nos interesan en este post son las llamadas ‘Tipo Ia’, en las que intervienen dos estrellas y una literalmente destroza a la otra. Lo normal de las estrellas es que estén en pareja (como los seres humanos), y más raramente en tríos (como los seres humanos también). Los ‘singles’ como el Sol no son lo que más abunda. El problema de la convivencia es que a veces una de las partes necesita más espacio, y esto les pasa a las estrellas viejas: se expanden e invaden a su compañera. Esto desemboca en una violenta explosión en la que se libera buena parte de la masa de ambas. Utilidad científica que nos aporta este fenómeno: que sucede siempre igual, con la misma intensidad, el mismo patrón de duración, cantidad de luz, etc, con lo cual estamos en condiciones de saber la distancia de una supernova tipo Ia en cuanto la vemos.

El trabajo rutinario de medir las distancias de millones de galaxias en las que hay una supernova Ia habría pasado inadvertido como tantos otros trabajos de astronomía (ciencia que consiste en observar miles de objetos para hacer un catálogo). Lo excepcional ha sido que se ha encontrado una violación a la regla “a más distancia, más velocidad”. Lo que se ha encontrado, y se ha confirmado después de años de verificaciones, y por eso se les otorga el Premio Nobel, es que los objetos que están muy lejos se alejan mucho más rápido de lo que deberían. Supongo que en los próximos días nos hincharemos a leer en los medios que “la expansión del universo se está acelerando”, una forma poco intuitiva de explicar este descubrimiento, pero la consecuencia trascendente es que existe algo más en la naturaleza, una extraña forma de fuerza, o energía, o materia, que actúa como una gravedad que en vez de atraer a los cuerpos los repele cuando están muy lejos. Y este nuevo ingrediente, que leeréis estos días bajo los nombres de “energía oscura” o “quintaesencia”, se calcula que constituye el 70% del universo, que junto al 25% de materia oscura que no sabemos lo que es, nos hace ser conscientes una vez más de nuestro desconocimiento. Han premiado la comprobación experimental de que no sabemos en qué consiste el 95% de lo que nos rodea. Pero hay que alegrarse de este paso. Todo avance proporciona nuevas pistas para dar los siguientes pasos. Es reconfortante en cierta medida tener una gravedad repulsiva porque era la única fuerza conocida que sólo actuaba en un sentido, y eso encajaba muy mal con las otras fuerzas. Es un reto ilusionante tener una interacción más que medir en los laboratorios. Habrá que diseñar experimentos para encontrar la fuerza repelente. Y habrá que ir a los aceleradores de partículas para encontrar a aquellas responsables. Y habremos encontrado una pieza más, quizá una ya de las últimas, para poner en esa teoría fundamental de gran unificación le las leyes o “teoría de todo” que buscan los físicos. Y cuando la tengamos, ya nos dedicaremos a otra cosa.

miércoles, 28 de septiembre de 2011

Atrapa un neutrino

Es raro ver en las noticias (fuera de la sección de ciencia de los diarios) menciones a asuntos científicos, y más raro aún es que un mismo asunto lo haga durante varios días seguidos. Ha pasado con el experimento que anuncia que los neutrinos quizá puedan moverse más rápido que la luz, y aunque no se amenaza ningún pilar fundamental de la física ni probablemente este descubrimiento tendrá trascendencia en el futuro, el revuelo que se ha generado bien merece un comentario.


La Teoría de la Relatividad establece que la velocidad de la luz es insuperable. Esto no es un dogma de fe ni un mandamiento que sea cuestión de creérselo o no, sino que es una consecuencia coherente de otros comportamientos de la naturaleza. Los cuerpos tienen peso, y según la relatividad cuando se mueven aumentan ligeramente su masa. Lo siento, cuando camináis pesáis más que si estáis sentados. Y los que hacéis footing ni te cuento. Cuando los cuerpos se mueven muy rápido pesan mucho más, y a miles de kilómetros por segundo un pequeño gorrión puede pesar varias toneladas. El tope son los 300.000 km/seg, donde el peso de cualquier cosa se hace infinito. Sólo las cosas que no tienen masa como la luz, algunas partículas de esas que se mueven en los aceleradores y poco más, pueden moverse a esa velocidad. Esto está comprobado desde hace más de 100 años y no hay nada que nos haga pensar que pueda ser falso.

Los neutrinos son de esas partículas raras que hablan los físicos. Han dado siempre muchos dolores de cabeza porque son ligerísimas, lo cual las hace casi imposibles de detectar. En el laboratorio el detector capta una de cada trillón. Por otro lado, hay varias “razas” de neutrinos, y se cree que cada uno de ellos cambia varias veces por segundo de una raza a otra. En estas condiciones, esperar precisión al medir algo de estos bichos es casi un chiste. Los experimentos que hasta ahora han salido bien son los que han trabajado con millones y millones de neutrinos a la vez y en promedio los datos han resultado ser bastante coherentes.

¿Qué es lo que han medido en el Gran Sasso? El tiempo de viaje de unos 15000 neutrinos lanzados desde Ginebra, y han encontrado que han tardado unos 60 nanosegundos menos que la luz. Entonces la pregunta es ¿nos podemos fiar de este dato? Lógicamente ahora mismo todo el mundo piensa que lo más probable es que haya habido un error. Además sería muy extraño que la Relatividad fallara en esto. Sería tan extraño como si nos dijeran que los neutrinos tienen inteligencia y se matriculan a cursos de cocina, o como si encontraran que los neutrinos corren menos en fin de semana. Claro que todas las teorías se acaban corrigiendo y refinando, pero no violando leyes anteriores. En este caso sería la primera vez en la historia que asistimos a la violación de una ley.


El problemazo

Tenemos un precedente documentadísimo de haber medido la velocidad de billones de neutrinos. Fue en 1987 cuando estalló una supernova bastante cerca de la Tierra (se vio durante 6 meses en todo el hemisferio sur). Las explosiones de estrellas liberan neutrinos y los laboratorios de la Tierra los esperaron para verlos llegar. Lo hicieron 4 horas después de la luz, como era de esperar. Frente a eso, presentar sólo 15.000 neutrinos anómalos recorriendo la pequeña distancia de 750 kilómetros (la estrella de 1987 estaba a 1’5 trillones de kms), es como empeñarse en estudiar el agua de un vaso cuando estás al lado de las cataratas del Niágara.


¿Y si fuera verdad?

No cambiaría gran cosa. La relatividad permite velocidades por encima de la luz si los cuerpos tienen “masa imaginaria”, aunque no sepamos lo que es eso. Entra dentro de lo posible que estos cambios de raza de los neutrinos se deban a que están compuestos de otra sustancia, que son materia exótica o algo así. También entra dentro de lo muy muy posible que haya alguna dimensión más aparte de las 4 que conocemos. Si de verdad se ha encontrado una anomalía seguro que la explicación nos abrirá la puerta a una concepción más grande de la realidad. No hará falta derogar ninguna teoría de las actuales, que gozan de excelente salud, sino que las enriqueceremos y a la vez ampliaremos nuestra visión del mundo. Ojalá.

domingo, 18 de septiembre de 2011

Poniendo orden en la teoría del caos

Nos hemos acostumbrado como algo habitual a manejar frases o conceptos sin entender verdaderamente su significado, y un ejemplo de ello es que hace unos 20 años que empleamos las expresiones “teoría del caos” y “efecto mariposa” sin saber realmente a qué se refieren. En el mejor de los casos ha triunfado la explicación tópica concentrada en la famosa frase “si una mariposa mueve las alas en Brasil provoca una tormenta en Tokio”. La encontramos con infinidad de variaciones en la ciudad y país del ejemplo.

Al margen de que la famosa metáfora es tremendamente acertada y sintetiza perfectamente el contenido de la teoría, se queda muy corta para quien quiera conocerla con un poco de detalle. Aquí está este post para remediarlo.

Siempre hemos pensado que un problema complejo se puede atacar dividiéndolo en varios problemas más sencillos. Lo tenemos tan interiorizado que instintivamente aplicamos la expresión “ir por partes” como una receta segura de éxito, aunque sea trabajosa. Desde hace siglos cualquier tipo de ciencia, tanto las de la naturaleza como las humanas, tanto la física como la medicina, la sociología, la economía, la psicología, etc., han basado su doctrina en elaborar un catálogo de patrones o modelos, encajar cada uno de los casos de estudio en el ‘problema tipo’ que más se le asemeje y explicar con mejor o peor fortuna las anomalías que pueda presentar frente al patrón estándar. El enfoque modelo+pequeñas desviaciones ha funcionado y funciona perfectamente para explicar la mayoría de situaciones de la vida cotidiana.

Pero hay otra categoría de problemas que se resisten a este enfoque: a los físicos les cuesta modelar las turbulencias del agua hirviendo, los economistas no saben cómo forzar las condiciones para que la bolsa suba o baje y a los sociólogos se les escapa cuándo y dónde puede surgir un movimiento social (p.ej. en el mismo día 14-M nadie había predicho lo que podría pasar a partir del 15-M). Son un tipo de problemas caracterizados por la aleatoriedad, la impredecibilidad y la aparente imposibilidad de ser subdivididos en subsistemas más pequeños. Es decir, son problemas que se plantean como inabordables por su elevada complejidad. A partir de los años 70, el estudio de varios de estos ‘casos difíciles’ dentro de diversas disciplinas llevó a encontrar ciertas leyes comunes a todos ellos, leyes matemáticas que podían aplicarse indistintamente en dominios tan alejados entre sí como la meteorología y las ciencias sociales, y leyes que se basaban en una nueva realidad extraña de dimensiones fraccionarias que sugerían que la naturaleza a veces se mueve entre el mundo tridimensional y el bidimensional, o entre 1 y 2 dimensiones, etc. De esto trata la teoría del caos.


El problema de Don Vito

Uno de los primeros éxitos de la teoría del caos fue demostrar que los sistemas caóticos existen en la realidad y no tienen por qué ser extraordinariamente complejos. Este descubrimiento rompe con la única tendencia de pensamiento que ha existido hasta los años 80, en la que se asume que todos los comportamientos son deterministas y que un conocimiento completo de los millones de variables que pueden intervenir en un sistema complejo haría predecir su evolución futura. Llegar a explicar muchos fenómenos parecía sólo una cuestión de capacidad de cálculo. Fue entonces cuando alguien intentó utilizar ordenadores para resolver el problema de Volterra, y no lo consiguió.

Volterra fue un grandísimo matemático que vivió en Sicilia a principios del siglo XX. Como buen siciliano se llamaba Vito y prácticamente no salió de su pueblo en toda su vida. Eso no le impidió desarrollar una gran labor docente y de investigación, inspirada a veces en la contemplación de un estanque cercano. Don Vito observaba cómo en el estanque había básicamente dos clases de peces: unos herbívoros que se alimentaban de algas y otros carnívoros que se alimentaban de los primeros. Cuando la población de herbívoros escaseaba, los carnívoros pasaban hambre y también disminuía su número. Esto daba un respiro a los herbívoros que rápidamente se multiplicaban, con lo que los pocos carnívoros tenían el sustento asegurado, se reproducían igualmente, su población aumentaba, volvían a comer a muchos de los pequeños, y así se repetía una especie de ciclo. Esta es la típica explicación cualitativa de cualquier fenómeno que encontramos en cualquier libro de cualquier área de conocimiento. Esta es la típica explicación que nos ha llevado a pensar que todo se puede explicar. En realidad, os acabo de describir un sistema caótico.

El sistema se muestra caótico cuando se intenta explicar cuantitativamente. No se puede. Don Vito intentó calcular las poblaciones de peces que se encontraría al año siguiente conociendo el número de peces del año actual. Fracasó durante todos los años de su vida, pero dejó un par de ecuaciones sencillas, de primer grado, donde la solución es algo así como la raíz cuadrada de 5 menos 1, y que demuestran que un sistema con dos variables puede ser imprevisible. Este mismo efecto sucede en el péndulo de Newton en 2 dimensiones (tenéis uno en el Cosmocaixa) y otros muchos más. En el libro de Parque Jurásico (no así en la película), el personaje del matemático cínico es escéptico y se asusta porque conoce el problema de Volterra y trata de convencer a los demás de que es imposible conocer la población de dinosaurios al cabo de unas semanas de libertad.


Vamos a por el efecto mariposa

Para terminar de creernos que un sistema sencillo puede ser intrínsecamente caótico aquí va un esquema simplificado de la solución al problema de Don Vito: cada uno de los números decimales de √5 nos da la población de peces de cada año. Es decir:
√5=2,236067977499…
El primer año habrá 2 peces, el siguiente 3, el siguiente 6, etc. Y no podemos encontrar un patrón de regularidad porque al ser √5 un número irracional es imposible predecir cuál será el siguiente dígito, sean cuales sean los anteriores. Todos los sistemas caóticos que se estudian acaban llegando a soluciones con números irracionales.

Más aún, cuando intentamos aplicar en la práctica la solución Volterra no nos sirve de mucho, porque siempre resulta que no hemos tenido en cuenta algunos elementos y nuestro estanque de peces en realidad se rige por la raíz de 5,01 por ejemplo, y nos encontramos con una secuencia de población de:
√5,01=2,238302928…
O sea, nuestro modelo dirigido por √5 nos puede servir para acertar las dos primeras cifras pero falla todas las demás a partir de la tercera. Es decir, sólo un error en la medida del 1% nos lleva a predicciones completamente erróneas a muy corto plazo. Todos los modelos meteorológicos sufren de esta enorme sensibilidad. Igualmente fluctúan así las cotizaciones de la bolsa, las leyes de la oferta y la demanda y muchos comportamientos sociales colectivos. Por eso nadie puede predecir una tormenta con 3 días de antelación, y por eso la mariposa puede provocar el tifón en el Pacífico. Y por eso tiene razón el primo de Rajoy aunque Rajoy no sepa lo que está diciendo. No es un problema de precisión en las medidas, es una cuestión de que cualquier mínimo efecto se amplifica hasta llegar a ser impredecible.


Los objetos fractales

Benoît Mandelbrot fue un ingeniero francés nacido en Polonia, emigrado a Estados Unidos y fallecido el año pasado. En unos años en los que trabajó para IBM se dedicó a hacer estadísticas sobre las tasas de errores de transmisión de datos y encontró una especie de regularidad. A veces los errores se sucedían con frecuencia, seguidos por una etapa de transmisiones limpias y posteriormente otra de errores. Cuantos más errores, más larga era la etapa tranquila que los seguía. Y si analizaba los datos a escala más fina encontraba que este patrón se reproducía a tamaños grandes o pequeños. Copio una imagen de la Wikipedia que lo ilustra:


Este patrón se conoce como Conjunto de Cantor, y es la pauta de repetición de todos los fenómenos raros o esporádicos, en esencial los relacionados con catástrofes. Las crecidas de los ríos lo siguen, por eso la tendencia moderna es construir los puentes muy altos, a determinadas cotas según se desea que sobrevivan a la fuerte riada de cada 100 años, a la grande de cada 300 o a la catastrófica de cada 500. Los terremotos igualmente, por eso se sabe que debe sobrevenir uno de magnitud 9 en California a medio plazo, el famoso big-one. Los accidentes aéreos igual. Si os fijáis, nunca hay un accidente aislado sino que van en rachas. Hace 3 semanas hubo uno en Chile y otro en Rusia con sólo 2 días de diferencia. Cuando oigáis ‘accidente aéreo’ estad atentos porque en menos de una semana habrá otro, y en general serán 3. Por eso tenéis rachas de buena suerte o mala suerte en la vida. Echadle la culpa al conjunto de Cantor. Los acontecimientos suceden en oleadas.


Este conjunto de Cantor fue el primer representante de una colección de objetos llamados fractales. Otros fractales famosos, si los queréis buscar por internet, son la curva de Koch y el conjunto de Mandelbrot. Los habréis visto como fondos de pantalla de ordenador porque suelen dar imágenes muy bonitas. Pero matemáticamente tienen una propiedad inquietante: su dimensión no es ni 1 ni 2 ni 3, sino que suele estar por en medio. Son conjuntos de infinitos puntos que no llegan a formar una línea, o de infinitas rayas que no llegan a tapar una superficie… Y lo que ha encontrado la teoría del caos es que cualquier sistema caótico se acaba describiendo por un objeto extraño de estos. O sea, la naturaleza acaba obedeciendo comportamientos que se sitúan en dimensiones intermedias porque para ella son tan reales como las 3 que percibimos nosotros. En otro post hablaré de que, aparte del tiempo como 4ª dimensión, estamos muy cerca de encontrar una 5ª dimensión geométrica, así que ¿por qué no empezar a aceptar la dimensión 2,6 o la 0,8 como reales? Nos permitirá entender y mejorar nuestros conocimientos en muchas materias, y seguramente desvelar alguna verdad más fundamental de la naturaleza.


El resumen

Como novedad de este año, al final de cada post incluiré una pequeña síntesis de lo esencial. Todo sea por conseguir que se entienda algo.

La llamada teoría del caos es una teoría en fase de desarrollo desde hace 2 o 3 décadas y que ha conseguido identificar unas pautas comunes de comportamiento en diversos sistemas complejos de múltiples áreas de conocimiento. En especial llama la atención que las mismas soluciones para problemas de la física o de la biología sean aplicables en economía, sociología o psicología.

1. Los sistemas caóticos existen verdaderamente en la realidad. Presentan un comportamiento errático e imprevisible independientemente del grado de detalle con el que los podamos conocer.
2. Son extremadamente sensibles a cualquier pequeño efecto o variación dando lugar a enormes diferencias en su evolución. Ello imposibilita hacer predicciones fiables a corto plazo.
3. Los sistemas caóticos no son puramente aleatorios, sino que su comportamiento está regulado por un extraño objeto de dimensión fraccionaria. Entender el verdadero significado de estos objetos será la tarea de los próximos años.

miércoles, 27 de julio de 2011

La historia del mundo en 7 párrafos

Este post es doble. Lo he dividido así por marcar la separación entre ciencia y opiniones personales. Pero probablemente en las explicaciones científicas incorporo algo de opinión personal y la justificación de mis opiniones la baso en argumentos científicos. El post de conocimientos contiene, mediante un recopilatorio de muchos conceptos que ya he mencionado otros días, una explicación acerca de cuándo surgió el mundo, cómo ha crecido y hacia dónde creemos que va, y cuando hablo de mundo me refiero a la Tierra, el cielo, nosotros, los objetos que vemos, etc. Hablo de la existencia en general. En el post “personal” me atrevo a dar una opinión sobre el por qué de la existencia.


¿Podemos tratar científicamente el origen del mundo? Es decir, ¿tenemos alguna prueba física que justifique nuestros argumentos? Las religiones lo hacen constantemente basándose en las creencias. Pero ¿el hombre del siglo XXI tiene algún elemento tangible en el que apoyarse? Sí, claramente podemos dar una explicación rotunda de muchas cosas. Y no hacen falta grandes conocimientos técnicos para ello.


A mediados del siglo XIX un alemán llamado Olbers planteó esta reflexión que cualquiera puede hacerse en una noche oscura a cielo abierto: ¿por qué el cielo es negro? Es importante que todo el mundo se la haga porque al cabo de medio minuto de reflexión uno se da cuenta de que si el universo es infinito y hay estrellas por todas partes, su luz acabará llegando a nosotros, y mirando en cualquier dirección habrá una estrella de la cual veremos su luz, con lo que el cielo nocturno debería ser una alfombra estelar iluminada.


Hacia 1915 se creyó haber encontrado la respuesta: cuando se pudo medir con precisión la distancia a la que se encuentran los objetos celestes (y no es complicado porque se puede hacer con prismáticos, telescopios y cámaras fotográficas), se encontró que el firmamento no está uniformemente repartido, sino que las estrellas se agrupan en galaxias dejando grandes vacíos entre ellas. De esta manera parecía que era posible explicar la llamada ‘paradoja de Olbers’ aceptando que las estrellas de nuestra galaxia no cubren todo el cielo, que entre una galaxia y otra la luz nos llega muy debilitada, etc. Pero eso es verdad sólo a nivel muy local, porque en la práctica si el universo ha sido eterno la luz de las galaxias lejanas nos acabaría llegando con el tiempo y volveríamos a ver el cielo completamente iluminado.


Ya he dado una pista: el hecho de que de algunas direcciones del cielo no nos llegue luz es un excelente motivo para pensar que a lo mejor el universo no es eterno sino que tuvo un principio, y por lo tanto, de las regiones más alejadas todavía no ha dado tiempo a que nos llegue la luz. Ahora vamos a por la explicación completa.


En 1929, a la vez que se hundía la bolsa de Nueva Cork, un astrónomo californiano llamado Edwin Hubble se dedicaba a medir los movimientos de las galaxias. Al cabo de meses de trabajo anunció al mundo que todas se alejaban de nosotros, y que visto desde cualquier punto del cielo, cualquier objeto se aleja de los demás. Cuando alguien pregunta si tenemos pruebas de que el universo se expande, la respuesta es fácil: “sí, coge el telescopio y mira cómo se aleja todo”. Hubble demostró por la evidencia que el universo se hace cada vez más grande, en consonancia con la teoría general de la relatividad. Al aceptar que esa teoría podía ser válida, inmediatamente los astrofísicos empezaron a exprimirla para obtener más resultados. Y primera deducción: si todo se aleja es que hubo un momento anterior en el que todo estuvo más cerca. Y así antes de 1940 se tenía elaborado un modelo: hubo una vez en la que todo estuvo junto y se separó tras una gran explosión, el Big-Bang.


Por eso el cielo es negro, porque el universo tuvo un origen y se expande, no hacen falta más demostraciones que la evidencia, y además cuanto más lejos está un objeto, más debilitada es la luz que nos llega de él. Hablando técnicamente la luz se vuelve cada vez más rojiza con la distancia, si pudiéramos ver en el infrarrojo profundo captaríamos alguna señal luminosa más, y si pudiéramos ver toda toda la luz infrarroja, veríamos que el universo está lleno de una tenue luz rojiza. Eso es lo que ven los radiotelescopios, le llaman radiación de fondo y es la segunda prueba experimental que nos demuestra que hubo una explosión. Los modelos del big-bang pronosticaban que después de la explosión todo estaría muy caliente y los objetos se moverían muy rápido, y debido a la expansión se enfriaría todo progresivamente. Los números a día de hoy casan perfectamente y explican que la explosión tuvo lugar hace unos 13.500 millones de años, que la temperatura en el primer segundo era de trillones de grados, que al principio sólo salió luz y algunas particulillas sueltas como electroncillos, protoncillos y otros bichos cuánticos exóticos, que la luz se separó y quedó como radiación de fondo, el mayor y más antiguo fósil conocido, que por efecto de 2 fuerzas cuánticas que no son ni la electricidad ni la gravedad, aquellas particulillas se juntaron para formar átomos estables, que esos átomos eran nubes de gases y formaron estrellas, que por una casualidad extrema las estrellas pueden vivir miles de millones de años y a partir de esos gases forman la materia sólida, y que a la segunda o tercera generación estelar se formaron planetas capaces de albergar vida, en un universo ya casi frío, a sólo 2’7 grados por encima del cero absoluto, un universo que no se volverá a contraer y generará enormes regiones vacías, donde al cabo de unas pocas generaciones la materia expulsada por las estrellas no será capaz de volver a agruparse y se enfriará lentamente. La historia del universo es la historia de un enfriamiento, y probablemente estamos viviendo un momento privilegiado de dicha historia, porque los habitantes que vengan después, durante la 4ª o 5ª generación estelar no tendrán nada que observar en el cielo.


Es una historia dura, pero probablemente cualquier historia con vocación de trascendencia lo es. Por ejemplo, no sería mucho mejor imaginar que todas las galaxias vuelvan hacia nosotros para morir por aplastamiento. Sólo los modelos de ciclos eternos o de universos estáticos nos reconfortan algo, y aun así siempre habrá alguien a quien le parezcan vacíos y se pregunte sobre la finalidad de todo esto. Las religiones han dado respuestas compatibles en cierta medida con la mentalidad humana. Pero mientras tanto la obligación de la ciencia será siempre seguir haciendo preguntas descorazonadoras.








Mi opinión personal


Entre los argumentos que expongo a continuación hay muy pocas ideas mías. Son un conjunto de teorías expuestas por cosmólogos, biólogos, pensadores… Lo que es mío es el criterio para seleccionarlas y construir un hilo conductor del razonamiento.


Mi opinión es que existe un por qué de todo esto. En el anterior post he pintado un cuadro simplista del big-bang, pero en realidad el proceso fue más extraño: existen 4 fuerzas en la naturaleza de intensidades diferentes, con la propiedad de que dichas intensidades cambian con los cambios de temperatura de una manera tan ajustada que los 3 primeros minutos desde el big-bang fueron una sucesión de:
1. predominancia de una fuerza,
2. efectos provocados por esa fuerza (separación de la luz, fusiones de quarks, fusiones de átomos, etc),
3. al cabo de unos segundos decaimiento de la temperatura por efecto de la expansión, y por lo tanto debilitamiento de la fuerza dominante
4. que cede el poder a otra más fuerte a temperaturas más frías, que así provoca otros efectos, etc.
El resultado no podía ser más preciso: 3 minutos después del big-bang estaban creados todos los constituyentes necesarios para formar un universo partiendo únicamente de luz y gas generados en una explosión. Esto es muy, muy parecido a la germinación de una semilla. O es muy parecido a la ejecución de un programa informático. El big-bang fue una fluctuación cuántica que se amplificó, y por eso el universo no es homogéneo sino que es la réplica de aquella “semilla primigenia”.


Descubrimos también que las leyes a pequeña escala funcionan de una manera extraña que obliga a los objetos a adoptar sólo ciertos valores cuánticos, pero resulta que esta manera de funcionar aporta una ayuda clave para la estabilidad de las moléculas. ¿Por qué? por ejemplo nuestro ADN es una cadena de billones de átomos enroscados en espiral, una espiral que si la intentáramos construir con papel o cerillas se nos desmontaría por todas partes, ¿pero por qué aguanta esa espiral en nuestras células? porque la cuántica la obliga a aguantarse. Porque los valores de las fuerzas cuánticas están ajustados con tanta precisión que obligan a los átomos a situarse en una posición determinada. Si no existieran las leyes cuánticas no existiría el ADN y no existiría la vida, pero como estas leyes son absurdas a gran escala, no existen en el macro mundo. Esto es muy, muy inquietante. Es como si la naturaleza tuviera herramientas para trabajar a pequeñas, grandes o muy grandes escalas y supiera cómo desarrollar la semilla cuántica inicial hasta obtener lo que vemos hoy en día. Las leyes naturales que siempre nos han parecido algo universal e inmutable en realidad son una curiosa combinación de rangos de validez en un tiempo y espacio determinado que determinan qué efectos prevalecen más en cada momento. De hecho sospechamos que existen más leyes que tomarán el relevo en un futuro. Por ejemplo desde hace 15 años se vislumbra que existe una gravedad repulsiva a grandes escalas, le llaman “quintaesencia” o “energía oscura”. No sabemos lo que es, pero seguro que llegará un momento en el que tendrá su importancia en la historia universal. Al final la naturaleza está ejecutando algoritmos, y no sabemos quién los diseñó.


Otro tema inquietante: ¿estamos solos? Es decir, ¿existe la vida extraterrestre? Pues lamentablemente hay que decir que quizá no. El argumento de “con lo grande que es esto y los millones de planetas que hay, seguro que existe la vida” parece de una lógica aplastante, pero… repasando la historia vemos que aparecimos en la Tierra hace un millón de años, en una estrella de tercera generación, y que el ser humano como especie inteligente capaz de moverse por el espacio y emitir señales ha necesitado apenas 2000 años para desarrollar su tecnología. Es decir, ¡¡somos los últimos en llegar!! En estrellas de segunda generación debería haber civilizaciones que nos aventajen en 5.000 millones de años! Incluso dentro de las estrellas de tercera generación, entre las que el Sol no destaca especialmente, debería haber otros planetas en los que se nos hayan adelantado! Pero aquí llevamos más de un siglo mandando ondas de radio al espacio y no encontramos nada procedente de lugares más antiguos. Entonces, o una de dos: o estamos solos o somos la civilización más avanzada que existe. Sí, sé que es exagerado decir esto cuando todavía no hemos rastreado completamente el cosmos, pero empieza a ser muy extraño no haber encontrado nada a estas alturas, porque ¿hemos pensado en la tecnología? Nosotros probablemente antes de 2 siglos habremos construido ascensores espaciales, o hayamos alterado algún planeta, quizá habremos podido hacer algo en el Sol… y cualquiera que mire entonces el sistema solar desde otro sitio verá que estos humanos recién llegados, en el año 2300 habrán construido algo visible desde el espacio. Pero nosotros no conseguimos ver nada en ningún otro sitio. Entonces… ¿es posible que en estos últimos 10.000 millones de años no haya surgido algo parecido a la vida en ningún planeta más? Quizá sea así.


No conocemos gran cosa sobre el origen de la vida. Admitimos que por una enorme cadena de casualidades las condiciones terrestres pudieron crear las moléculas orgánicas que nos forman. Una vez más aparecen coincidencias extrañas en las leyes naturales que indican que la manera más viable de construir un ser vivo es hacerlo parecido a lo que hay en la Tierra. Los cosmólogos llaman a esto “principio antrópico”. Aquel zigoto que nos originó supo cómo reproducirse para formar brazos, piernas y órganos porque llevamos impreso nuestro ADN en todas las células del cuerpo, y da la impresión de que mediante un mecanismo parecido, aquella fluctuación cuántica que fue el big-bang llevaba impreso un conjunto de leyes que explicaban cómo debía crecer un universo capaz de albergar vida. Y esta vida desarrollada, inteligente, que somos nosotros, quizá no esté muy lejos de crear sus propias fluctuaciones cuánticas artificiales en laboratorios. En el acelerador de partículas de Ginebra quizá se hayan originado ya mini-agujeros negros (hubo incluso una demanda judicial contra el aparato “por riesgo de destruir el universo”, no me lo invento). Pero lo cierto es que al no saber cómo está organizada la materia dentro de los agujeros negros la posibilidad de que sean semillas capaces de formar otros universos es demasiado tentadora como para no explorarla. Y no es descabellado pensar en las dimensiones alternativas en las que se desarrollarían estos universos: hay precedentes de teorías que hablan de la existencia de otras dimensiones y hoy en día se da casi por seguro que la gravedad se mueve, al menos, en una dimensión adicional, inaccesible para nosotros.


Lo que empieza a no ser descartable es que quizá algún día entendamos del todo las condiciones del universo primitivo, y entonces probablemente seremos capaces de reproducirlas a voluntad en un laboratorio, si es que no lo hemos hecho ya en Ginebra. ¿Y qué características tendrá ese universo que hayamos creado? Pues por genética LE TRANSMITIREMOS LAS LEYES DE NUESTRO PROPIO UNIVERSO. Podríamos generar un big-bang en el cual transmitamos a otros seres este mismo código físico expresado en forma de leyes que a nosotros nos ha servido para crear planetas y vida a partir de luz y gas. Quizá, debido a imperfecciones en los experimentos, hasta transmitiríamos accidentalmente alguna ley de forma ligeramente cambiada, y eso es una mutación genética. Quizá procedamos nosotros de la acción de otros seres en un mundo pasado. Quizá estemos solos en el universo porque toda esta cantidad de materia es necesaria para el desarrollo de una única especie que sea capaz de volver a crear la misma explosión con sus herramientas y vuelva a empezar el ciclo cósmico. Los universos creados con condiciones naturales inadecuadas no prosperarán, y aquellos que accidentalmente hereden leyes que favorezcan la estabilidad desarrollarán vida inteligente con capacidad de reproducción cósmica. Es una teoría de la evolución a escala universal, y a mí todo esto me hace pensar que formamos parte de algo superior.


Gracias por leerlo entero, ha sido muy denso pero el acto de pensar nunca tiene límites. Gracias, feliz verano, y buenas vacaciones!

domingo, 24 de julio de 2011

Polvo de estrellas

¿Qué es lo más longevo que existe? ¿Cuál es el ser vivo u objeto que más tiempo perdura? En la Tierra la referencia más habitual son algunos árboles como las sequoias, que viven unos 3.000 años. Son árboles que nacieron antes que se desarrollara la civilización romana, que convivieron con el Alto Egipto o con la Baja Mesopotamia. Según la wikipedia el récord terrestre se atribuye de manera extraoficial a una esponja gigante de la Antártida que se supone que lleva viviendo más de 10.000 años. Más o menos cuando terminó el paleolítico y el ser humano entró en la era neolítica.

El hombre como especie existe desde hace un millón de años (fecha admitida “por redondear” para marcar la transición entre primates y homínidos). Los yacimientos de Crô-Magnon y Neandertal son de ayer mismo, unos 30.000 años. Atapuerca ha sido una revolución por contener esqueletos humanos de 800.000 años. Antes de los humanos existieron otros mamíferos, anteriormente pájaros, y siguiendo en orden inverso, reptiles, crustáceos, peces, plantas, bacterias, etc. Se supone que la vida en la Tierra surgió hace 1000 millones de años. Es importante la unidad 1000 millones. Nuestro idioma es de los pocos que no tienen una palabra para definirla. Para los anglosajones es un ‘billion’, los italianos y franceses utilizan un despreciativo de millón, el ‘millard’, y los informáticos el Giga. Cuando hacíamos las cuentas en pesetas la unidad 1000 millones era la normal para hablar de grandes eventos. Una línea de AVE cuesta medio millardo de pesetas (le llamaré así), el Fòrum costó casi un millardo de euros, las Olimpiadas del 92 un millardo de dólares… Vamos a cambiar la escala, a partir de ahora hablaré en esta palabra rara.

La vida surgió hace un millardo de años, y la Tierra tiene 5’5 millardos de edad. Eso significa que surgió relativamente tarde, pero probablemente fue el tiempo necesario para que se dieran las condiciones ambientales y la creación de moléculas químicas capaces de dar el salto a la vida. La Luna y resto de planetas que nos acompañan se crearon más o menos a la vez. El Sol se formó un poco antes, hace unos 5’7 millardos, y en el próximo post explicaré que el universo tiene unos 13’5 millardos de años de vida.

Y vuelvo al principio. Resulta que por una extraña combinación de valores y leyes físicas, las estrellas son capaces de aguantar de forma estable durante varios millardos de años. Su longevidad depende fundamentalmente de su masa, las más grandes mueren jóvenes, hacia el millardo de año de vida, y las más pequeñas pueden aguantar unos 15 millardos de años, en concordancia con las observaciones que muestran que aún existen estrellas primitivas. El Sol está prácticamente a la mitad de su existencia, así que no hay que preocuparse porque le quedan más de 5000 millones de años antes de que empiece a ‘hacer cosas raras’. Y mejor así, porque las cosas raras que hará serán volverse rojo, engordar y tragarse la Tierra. Esta es la muerte de una estrella típica.

Casi siempre pensamos en los sistemas como estáticos, pero cualquier objeto tiene una evolución. Las estrellas nacen, crecen y mueren. Nacen como colapso de nubes de gas y crecen rápidamente hasta que absorben toda su nube. A partir de ahí viven de forma extraordinariamente estable alimentándose de convertir su gas hidrógeno en gas helio mediante reacciones nucleares basadas en la preciosa mecánica cuántica. Esto permite dar tiempo para que se desarrolle la vida en los planetas de su entorno. Y primer problema: al principio del universo sólo había gas, que dio lugar a las estrellas. ¿Cómo nacieron los planetas? Pues espectacularmente de la muerte de otras estrellas.

Sí, el big-bang sólo creó una nube aburrida de gas, como cualquier explosión. Pero ese gas se concentró y formó estrellas, que convierten el hidrógeno en helio, y el helio en oxígeno, y el oxígeno en carbono, y luego en flúor, y en nitrógeno, y en hierro, y en aluminio, y en oro… Y cuando la estrella muere lo hace generalmente en forma de explosión gigantesca, capaz de expulsar por amplias regiones del espacio todos estos elementos. Todo lo que vemos, y todo lo que nos forma, nació en la explosión de una estrella más vieja que el Sol. Literalmente estamos hechos de polvo de estrellas muertas. Y este es el ciclo de la vida: el Sol explotará y otra estrella surgirá de los restos, y quizá surjan otros seres que hablarán de nosotros en sus blogs. Y ya podemos calcular que si el universo tiene unos 13’5 millardos de años, y una estrella vive en promedio unos 5 millardos, lo normal es que las estrellas que veamos sean de segunda o tercera generación. El Sol es de tercera, y de la primera quedan muy pocas. Son raras y únicamente se componen del gas original del big-bang.

Con esto introduzco la idea de ciclo cósmico. En el próximo post explicaré el origen de todo esto y su futuro. Pero cierro el post con una nota de ciencia-ficción: los agujeros negros. Existen y son estrellas muertas, pero estrellas tan pesadas que su propia explosión no consiguió desintegrarlas, y por efecto de su propia gravedad colapsaron juntando mucha materia en poco espacio. Recordando la teoría de la relatividad, cualquier masa deforma el espacio, y si la masa es muy grande puede llegar a deformarlo tanto que crea un pozo del que nada sale, ni siquiera la luz. En 1996 se confirmó por primera vez la existencia de uno de ellos. Pero no pensemos en túneles para viajar: en las cercanías del agujero negro la gravedad es tan intensa que todo se despedaza. Y para salir por otro lado haría falta la existencia de ‘agujeros blancos’, fuentes de materia y luz que sí que caen completamente en el dominio de la ciencia-ficción. Y por hoy esto es todo y me despido de vosotros, cadáveres estelares.

sábado, 16 de julio de 2011

Después de inventar la teoría de la relatividad, Einstein inventó la teoría de la relatividad

Quien haya tenido paciencia para tragarse y entender alguno de mis posts anteriores habrá visto que a principios del siglo XX tuvieron lugar dos revoluciones conceptuales en el mundo de la ciencia básica. Una de ellas es la mecánica cuántica, sobre la cual no insistiré más para no provocar colapsos cardíacos; la otra es la mal llamada teoría de la relatividad.

Entendámonos, claro que existe la teoría de la relatividad. Tanto es así que existen dos, y las dos fueron formuladas por Einstein en 1905 y 1915, y se llaman respectivamente ‘relatividad especial’ y ‘relatividad general’. Por qué la historia ha conservado el nombre genérico de relatividad dando a entender que sólo existe una sola teoría es un misterio, y de dónde sale la leyenda de que a Einstein le dieron el premio Nobel por ella es otro misterio, y supongo que las claves para entenderlos se basan en la excesiva vulgarización de la ciencia.

Abro un paréntesis, nosotros tenemos una palabra bonita: divulgar. Etimológicamente significa expresar algo para el vulgo, o sea el pueblo. En otros idiomas han cogido la misma raiz pero a difundir le llaman vulgarizar, dando a entender que el verdadero significado del conocimiento sólo es accesible para los iniciados. Y con este mismo espíritu de satirización se alimenta la idea de que Einstein es un viejo de pelo blanco que saca la lengua en la pizarra, va en zapatillas por la calle y se parece al Doc de Regreso al Futuro. En el fondo es una vía de escape para no reconocer abiertamente que esas teorías de la relatividad nos superan.

Ha pasado más de un siglo desde que nació la primera teoría de la relatividad, y en el 2015 celebraremos el aniversario de la segunda, y ya va siendo hora de que asimilemos sus ideas como una cosa natural, de la misma manera que hemos modificado el pensamiento social, económico o antropológico en las últimas décadas. La historia de la relatividad es la historia de unas ideas demasiado rompedoras para una concepción conservadora del mundo, es la historia de la negación de los datos experimentales y de una irrenunciable manera de entender el mundo. Y de hecho, siendo objetivos, Einstein no descubrió nada, solamente interpretó los hechos. En 1895 existía la tecnología para medir la velocidad de la luz, la más rápida que existe, y salía el resultado extraño de que los rayos siempre se movían igual de rápido. Incluso si la bombilla estaba en movimiento; incluso mirando el rayo hacia delante o hacia atrás de la bombilla en movimiento. Incluso mandando rayos a Júpiter o a la Luna desde una Tierra que se mueve (a 30km/segundo, por si a alguien le interesa). Siempre salía que la luz viaja a casi 300.000 kilómetros por segundo.

No entaré en detalles técnicos. Einstein hizo lo que hoy en día nos sigue costando: aceptar la realidad y entenderla según los datos que nos aporta. Es indignante, y ligeramente patético, ver en muchos campos del conocimiento a quienes sostienen una doctrina elegante a sus ojos y sólo escuchan los datos u opiniones que les son favorables, negando incluso la validez de los contrarios. Einstein asumió como verdad el hecho de que la luz siempre tiene el mismo aspecto y velocidad indiferentemente de cómo se mire, y cuando las ecuaciones resultantes arrojaban la conclusión de que el tiempo es distinto según a la velocidad que se mueva el observador, lo aceptó como verdad con la que había que convivir. El resumen de la primera teoría de la relatividad, la especial es: el tiempo transcurre de una manera constante medible con un reloj para cualquier cuerpo, persona u observador, pero si éste se pone en movimiento, y en particular si se mueve a velocidades elevadas, el curso del tiempo literalmente transcurre más despacio. Cuando vais en avión a América no os movéis demasiado rápido, sólo a unos 600 o 900 km por hora según el viento, pero este efecto multiplicado por 8 horas hace que los que hayáis cruzado el océano hayáis vivido en torno a una milésima de segundo menos que los que nos hemos quedado aquí. Es poco relevante, es una curiosidad de feria, pero sucede y se puede medir. De igual manera, cuando algo se mueve incrementa su masa de forma natural. No es que engorde, sino que pesa más. El que va en un avión pesa unas cuantas milésimas de gramo más que cuando está en tierra, y aunque el efecto es despreciable, marca una barrera, que es la imposibilidad de superar la velocidad de la luz. Si intentamos empujar algo a lo bruto hasta que alcance 300.000 km/seg, nos encontraremos con que su peso crece hasta alcanzar el infinito, literalmente no podremos empujarlo más. Y su sensación de transcurso del tiempo será de parón: el tiempo no transcurrirá. Estas son las razones por las que la velocidad de la luz es insuperable, y no dejeis volar la imaginación: la naturaleza funciona así.

Complicado, ¿no? Pues en 1905 esa fue la sensación de los sabios cuando leyeron el artículo de Einstein, aquel chaval que había sido el último de la clase en el politécnico de Zürich y se había tenido que reciclar en burócrata de una oficina de patentes en Berna. Esto que acabáis de leer es un resumen de teoría de la relatividad especial, la de que “el tiempo es relativo”. Cuando en 1929 se le acabó concediendo a Einstein el Premio Nobel, las razones fueron por explicar el efecto fotoeléctrico (es cuántico, olvidaros), “y otras contribuciones a la física teórica”.

Pero en 1915 los espíritus ya estaban contagiados de las revoluciones ideológicas. En Rusia inventaban un nuevo concepto del mundo y en occidente (menos España) nos lanzábamos a la primera guerra global. Einstein se encerró en una habitación durante 15 días, le pidió a su mujer de entonces (la segunda o la tercera ya) que le dejara la comida en la puerta, y finalmente salió con dos folios en la mano: la revolución de la relatividad general. Intrigado por en cambio de la masa cuando un cuerpo está en movimiento, Eintein descubrió un doble juego extraño: cualquier cuerpo es capaz de deformar el espacio-tiempo (ya para entonces una única entidad), y los cuerpos que se mueven en un espacio-tiempo curvado no siguen trayectorias rectas, y eso da la impresión de atracción gravitatoria. La teoría general de la relatividad es en realidad una teoría de la gravitación. ¿Y cómo de grande es esta deformación del espacio o de las trayectorias? Pues la que da la masa del cuerpo multiplicada por la velocidad de la luz dos veces, o sea… la famosa E=mc2.

No preocuparse, no hay que entender los detalles. La cuestión es que a principios del siglo XX, por última vez en la historia, una única persona fue capaz de cambiar la visión del mundo. Desde entonces trabajamos en gigantescos equipos, de más de 1000 personas, con máquinas que nos hacen nuestro trabajo. Fue la última vez que una mente teórica cambió las ideas. En 1918 empezaron a llegar las primeras confirmaciones de la teoría: se confirmó la predicción de que el tiempo también va más despacio cerca de una gran masa poniendo un reloj en el Himalaya y otro al nivel del mar y se confirmó la deformación del espacio-tiempo viendo el cambio de dirección de un rayo de luz cerca de una estrella. A día de hoy, ya nadie discute la teoría, pero Einstein murió en 1957 teniendo más detractores que partidarios.


Los “contras”

He ignorado deliberadamente dos obstáculos a la teoría por simplificar la historia. En 1917 un soldado ruso llamado Schwarzschild que combatía en el frente de Polonia envió una carta a Einstein explicándole que si su teoría era cierta, las estrellas muy pesadas tenían que colapsar convirtiéndose en una especie de pozo extraño que hoy en día llamamos “agujero negro”. Es algo tan bestia que deforma tanto el espacio-tiempo que lo colapsa, y durante décadas se pensó que era una idea teórica sin reflejo en la naturaleza. Hoy en día nos parecen objetos cotidianos, aunque la confirmación de la existencia del primero llegara en 1997, pero hasta su muerte Einstein estuvo jurando en todos los idiomas conocidos sobre esa pequeña objeción a su teoría que iba en contra del sentido común.

Y en 1921 un pequeño cura católico belga llamado Lemaître también escribió a Einstein explicándole que según sus ecuaciones, el Universo no podía ser estático, sino que tenía que autocrearse continuamente de forma que cada vez hubiera más espacio entre un sitio y otro. Ahí ya Einstein rompió sus ecuaciones, las retocó y las deformó hasta que se adaptaran al “sentido común”: un universo constante. Mi próximo post explicará que en 1929 esto saltará por los aires, que se constata empíricamente la expansión del universo, y que Einstein al darse cuenta de que podía haber predicho este modelo cosmológico acabó declarando que aquello fue “el mayor error de su carrera”.

sábado, 9 de julio de 2011

Haciendo de gurú con la cuántica

La suerte de no pasar a la posteridad es que puedes decir lo que quieras sin que nadie venga a manchar tu memoria dentro de 200 años. Así que no integraré la lista de aquellos físicos que demostraron matemáticamente que un avión no podía volar o que la electricidad nunca tendría aplicaciones prácticas. Digo esto para aclarar que la predicción de que el ordenador cuántico no se podrá construir es una opinión personal, aunque fundada sobre los graves inconvenientes prácticos encontrados a día de hoy y que yo considero insalvables por naturaleza. Ahora bien, lo más importante de una predicción no es si es acertada o errónea, sino el camino de pensamiento que lleva hasta ella. Así que siguiendo esa línea, puedo lanzar unas cuantas hipótesis más sobre las posibilidades que nos ofrece la física cuántica y que todavía no han sido desarrolladas en su totalidad.

Teletransportación. Sí, es viable, pero una vez más, sólo a las escalas pequeñas del mundo cuántico. Aprovechando la naturaleza ondulatoria de las cosas pequeñas sería posible forzar a una partícula a localizarse en un punto u otro. Pero es todavía más interesante la multilocalización, es decir, conseguir que un sistema cuántico pueda estar en múltiples lugares a la vez. Se ha conseguido hacer hasta con átomos. Y lo que es interesante de verdad es la teletransportación de información: aprovechando que la probabilidad de localización de cualquier objeto se extiende por el universo entero, y que dos elementos que han estado en contacto en un momento dado lo seguirán estando siempre, se puede transmitir información instantáneamente a un objeto situado en la otra punta del mundo solamente manipulando un objeto que previamente estuvo ligado a él. Se está trabajando mucho en esta tecnología, se conoce como “entrelazamiento cuántico” y “paradoja EPR”, podéis buscarlo.

Viajes en el tiempo. A día de hoy sigue siendo imposible según la teoría de la relatividad. Hablaré de ella otro día. Mi opinión es que será imposible siempre porque hay muchos fenómenos naturales que marcan una dirección determinada en el tiempo y que lo hacen irreversible. Es uno de los límites absolutos de la naturaleza, como el frío absoluto, la velocidad máxima, etc. Pero queda una puerta abierta: según algunas interpretaciones, parece ser que el estado cuántico que notamos en algunas partículas es el resultado de su historial de interacciones con otras partículas en el pasado… ¡y en el futuro!. Matemáticamente las ecuaciones se simplifican mucho si se incluye la influencia del futuro en el presente.

Y una puerta más que abre una cierta manera de viajar en el tiempo es moverse a grandes velocidades: para el resto del mundo transcurre el tiempo a su velocidad normal pero para el que viaja se mueve muy lentamente, incluso prácticamente se para si la velocidad es alta. Lo hemos visto en películas de ciencia-ficción: los astronautas han viajado durante siglos casi a la velocidad de la luz, para ellos ha pasado un año pero cuando regresan a la Tierra se encuentran con que han transcurrido miles de años y el planeta está destruido.

Creación de materia. Sí, claro que es posible. La creación de materia a partir de energía y vice-versa es un hecho. El inconveniente es que es carísimo. Haría falta toda una central nuclear para construir un gramo de uranio, porque es revertir el proceso normal. Hace años que se abandonó la construcción de diamantes para uso industrial o la fabricación de oro artificial porque sale mucho más caro que buscarlos en las minas. También creamos materia artificial en los aceleradores de partículas, cuya finalidad es buscar materia exótica. Esa sí que es una rama teórica interesante: a día de hoy sabemos que más del 90% de la materia que forma el universo es exótica y distinta a la que conocemos. Ya en la Tierra sabemos que todo está formado por electrones y protones, pero que hay otras dos familias más de partículas que están ahí, sin participar, y que podrían formar materia normal. Llevan ahí desde el tiempo del big-bang. En el Cosmocaixa tenéis un precioso detector de partículas cósmicas en el que podéis ver muones, tauones y otros bichos raros en tiempo real. Incluso lo podéis fabricar en casa: es una “cámara de niebla”, buscadlo si queréis. Y de otra la materia que llena las galaxias no imaginamos ni cómo puede ser. Se la ha llamado “materia oscura” porque no brilla, pero no sabemos nada más de ella.

En definitiva, se nos están planteando numerosos enigmas y estamos repitiendo la historia. A finales del siglo XIX parecía que la ciencia estaba acabada. Incluso una revista americana publicó una lista con los últimos 27 problemas que quedaban por resolver y experimentos que quedaban por explicar, dando una recompensa de miles de dólares para cada persona que consiguiera solucionar alguna de las cuestiones. Varias de ellas necesitaban la mecánica cuántica y la relatividad. Hubo que formular dos nuevas teorías y ha costado casi un siglo entenderlas. El premio ha sido obtener una descripción casi completa del mundo y su historia, pero cuando en los años 90 parecía que sólo quedaba confirmar detalles, hemos vuelto a descubrir que no sabemos nada. La mayoría del universo está formado por cosas que no sabemos lo que son, parece ser que existen más fuerzas de las que conocemos como una gravedad repulsiva, la teoría del caos nos sugiere que la complejidad es algo que surge espontáneamente, se nos sigue resistiendo saber qué es la vida, etc. Y yo me alegro, porque con este material tengo para llenar un blog durante 100 años más.

viernes, 8 de julio de 2011

La cuántica: una de las dos sacudidas científicas del siglo XX

En 1899 se pensaba que las leyes importantes de la ciencia ya estaban descubiertas. El triunfo del pensamiento racional generalizado desde la época del Renacimiento había generado la confianza suficiente para pensar que el mundo funcionaba como un reloj, de forma que teniendo las fórmulas adecuadas y la capacidad de cálculo necesaria podía ser posible conocer el comportamiento de cualquier sistema o entidad. De hecho, por aquel entonces se aconsejaba a los alumnos brillantes que estudiaran otras ramas de la ciencia alejadas de la física porque aquello era un campo muerto.

Bien, pues justo cuando faltaban 17 días para estrenar el siglo XX, esta concepción saltó por los aires al anunciarse una nueva explicación del mundo a pequeñas escalas: la mecánica cuántica.

Se suele pensar que hablar de cuántica puede ser interesante para el que le guste la ciencia, pero ¿qué utilidad tiene? Bueno, quiero explicar la enorme trascendencia de esta revolución científica. Toda la ciencia del siglo XX, y toda nuestra tecnología moderna se basan en correctas aplicaciones de los fenómenos cuánticos. Sobre ellos se basó la concepción del diodo y el transistor, y con ellos la electrónica entera. No hace falta que conozcamos los detalles de su funcionamiento, pero los usamos constantemente y con ellos hemos creado ordenadores, teléfonos móviles, etc. También basándose en conceptos cuánticos más avanzados funcionan los lectores de códigos de barras, y estirando una predicción más importante de la física cuántica hemos descubierto la antimateria. Sí, sí, la antimateria, ese combustible de la nave de Star Treck existe. Es como una materia “negativa”, del mismo aspecto que la ordinaria, sólo que cuando las dos entran en contacto se aniquilan mutuamente. Y no es ciencia-ficción: cuando te hacen un TAC por ejemplo, esos scanners del cuerpo que te seccionan en rodajas de un milímetro, te están bombardeando con positrones, que son la antimateria de los electrones.

Después de sentar los principios de la física cuántica los físicos se dedicaron a estudiar el átomo, y durante la Segunda Guerra Mundial llegó la tecnología atómica con sus bombas y sus centrales atómicas. La tecnología atómica es una consecuencia de la teoría de la relatividad #futuropost. Einstein estableció que la materia se puede deshacer en energía y vice-versa. Así funciona una central (la palabra “nuclear” vino un poco después, cuando la tecnología permitió estudiar solamente el núcleo del átomo), una bomba atómica, y los tratamientos de radioterapia contra los tumores cancerígenos. También hemos aprendido a entender por qué brillan las estrellas, que era un tema que preocupaba desde el siglo XIX. No brillan por fuego, sino por una reacción nuclear: la estrella tiene hidrógeno y lo convierte en helio. Esto lo explicaré otro día #futuropost.


Bueno, ¿y entonces qué es exactamente eso de la cuántica?

La mecánica cuántica no es propiamente hablando una teoría, sino una descripción de la naturaleza a pequeña escala. Es decir, es un conjunto de reglas que nos informan de cómo es el mundo visto al tamaño de las cosas más pequeñas que existen. Y es completamente distinto a nuestro macromundo.

Para empezar, cuando uno intenta trabajar con cosas pequeñas se encuentra con que el mundo no es analógico sino digital. Es decir, las cosas no pueden tener valores arbitrarios sino múltiplos de ciertas cantidades, como si todo funcionara por escalones. La temperatura de algo no puede ser de un escalón y medio, por ejemplo. Esto le pasa también a las fuerzas, a los pesos y se sospecha que al mismo espacio y el tiempo. Un reloj de arena puede ser una buena metáfora de la cuantización del tiempo.

Pero los efectos más extraños se notan cuando se intenta “atrapar” una cosa pequeña. No se puede saber exactamente dónde está porque parece que está en muchos sitios a la vez. Además, si repites la misma prueba muchas veces te salen resultados distintos, con lo cual sólo puedes encontrar probabilidades. Unas veces ves algo que mira hacia arriba y otras mira hacia abajo y te tienes que contentar con hacer apuestas. Más aún, si puedes encontrar resultados distintos es porque en realidad están sucediendo varias cosas a la vez. Si algo puede mirar hacia arriba o hacia abajo lo hace en las dos direcciones, y mientras tú no mires tu átomo está mirando a la vez hacia arriba y abajo. Y si cuando el átomo mira hacia abajo toca un cable que lanza una descarga de 20000 voltios a un gato que tiene al otro extremo, obtienes la famosa paradoja de Schrödinger, en la que el gato está a la vez vivo y muerto porque tu átomo está mirando simultáneamente en las dos direcciones. La resolución de la paradoja conduce al misterio más extraño que se conoce en ciencia a día de hoy: en el momento de mirar algo parece que influyes de alguna manera y la naturaleza se decanta por un resultado. Repito: las cosas evolucionan de manera distinta cuando se dejan solas que cuando se miran. Está comprobado el los laboratorios hasta el aburrimiento.

¿Alguien se ha enterado de algo? ¿no?... Normal. Es que nadie lo entiende. Los científicos, a fuerza de repetir estas reglas muchas veces se acaban familiarizando con ellas. Y mientras les sean útiles para hacer cálculos, las aplican. Y eso que no he hablado de cosas bizarras como que un átomo de mi cuerpo puede estar ahora mismo en la Luna, o el famoso experimento de las dos rendijas, en el que un electrón puede pasar por las dos a la vez.

Han pasado 111 años, y todavía seguimos sin entender por qué las cosas pequeñas funcionan así. En http://gurusyvidentes.blogspot.com/2011/07/que-sabemos-del-ordenador-cuantico.html, explico cómo se interpretó inicialmente la mecánica cuántica, y cómo hoy se está refinando esa concepción. Pero los interrogantes sobre el verdadero significado de la teoría siguen ahí. No hay explicación al hecho absurdo de que el mundo funcione de forma diferente, tan enormemente diferente, a pequeños niveles. Racionalmente no hacían falta nuevas leyes, y sobre todo no nos hacía falta esa extraña curiosidad inquietante según la cual cada vez que observamos algo estamos cambiando el mundo. Si alguien tiene interés en el tema, que mire la película “Y tú qué sabes?” (en inglés “What the Bleep?”). No es científica, no hay que tomársela al pie de la letra, pero entenderá los misterios que nos está sugiriendo el mundo cuántico.