física

Los cazadores del último bosón. A dos años del descubrimiento del bosón de Higgs.

Evento real de detección de un bosón de Higgs en el detector ATLAS del Gran Colisionador de Hadrones. El bosón de la imagen se encuentra decayendo en dos pares de electrones marcados en rojo y azul. ATLAS Experiment © 2014 CERN.  

Hace más de dos años, el 4 de julio de 2012, científicos de la Organización Europea para la Investigación Nuclear (CERN por sus siglas en inglés) mataron dos pájaros de un tiro: hicieron que Stephen Hawking perdiera una apuesta de cien dólares y pusieron fin a la búsqueda más intensiva de la que la ciencia moderna tiene registro. Esta búsqueda requirió de la construcción del Gran Colisionador de Hadrones (LHC), el complejo científico más grande del mundo con un costo superior a los nueve mil millones de dólares y un equipo de trabajo de más de diez mil científicos e ingenieros de todo el mundo. ¿Qué era lo que buscaban estos físicos con tanto empecinamiento? ¿Qué descubrimiento monumental requería de esfuerzos tan notables por parte de la comunidad científica internacional? Nada monumental, por el contrario, la búsqueda era en pos de algo en un orden de magnitud tan pequeño, que resulta incluso incomprensible. Lo que encontraron fue la última pieza de un rompecabezas llamado Modelo Estándar de las Partículas Elementales, una partícula que daría coherencia a los modelos físicos actuales. La infame, pero popularmente llamada Partícula de Dios: el bosón de Higgs.

 

Un gran descubrimiento… que no sorprendió a muchos

La primera imagen que viene a mi cabeza cuando recuerdo esa primera semana de julio de 2012 es la de un montón de periodistas tratando de explicar al mundo la importancia de un evento científico que sabían era de gran relevancia, pero que en realidad, no comprendían en lo más mínimo. Y es que la física de partículas subatómicas rara vez llega a los titulares, pero este descubrimiento ameritaba todos los reflectores.

Después de más de dos décadas de planeación, construcción y calibración de la instalación experimental más grande y compleja jamás construida, el Gran Colisionador de Hadrones cumplió el objetivo para el que había sido diseñado: la detección de una partícula cuyas características correspondían a las predicciones de lo que se esperaba era el bosón de Higgs.

 

ATLAS. Uno de los detectores multipropósito del Gran Colisionador de Hadrones. Lleva a cabo un amplio rango de labores, desde la búsqueda del bosón de Higgs y extra dimensiones, hasta la detección de partículas generadoras de materia obscura. ATLAS Experiment © 2014 CERN.

 

 

El descubrimiento del bosón corrobora las predicciones teóricas que Peter Higgs, Gerald Guralnik, Richard Hagen, Tom Kibble, Robert Brout y Françoise Englert realizaron en la década de los sesentas –¡la cacería duró cerca de medio siglo!- con respecto a la física de partículas subatómicas. El hallazgo, que le brindó el premio Nobel a Higgs y a Englert, era el último eslabón para que el Modelo Estándar estuviera completo, validando el trabajo de décadas de muchos físicos teóricos. La comunidad científica esperaba con ansias la comprobación de la existencia del bosón, ¡no podía no existir! La alternativa, un escenario mucho más interesante para la ciencia según Stephen Hawking, hubiera implicado el replanteamiento de muchos de los postulados físicos vigentes. La existencia comprobada del bosón de Higgs abre la puerta a nuevas concepciones sobre la forma en la que se comporta nuestro universo y podría ser el parte aguas para superar el Modelo Estándar y dar paso a una “nueva física”.

Se estarán preguntando ¿por qué tanto alboroto?, ¿qué es lo que hace a esta partícula tan especial? o ¿por qué la física moderna dependía de su descubrimiento? Para responder todo esto tenemos que empezar por una pregunta más general… ¿qué demonios es un bosón?

 

La naturaleza cuántica de un bosón

A mediados del siglo pasado, los físicos elaboraron el Modelo Estándar, una ambiciosa colección de ecuaciones y postulados cuyo objetivo es describir el comportamiento de todas las partículas subatómicas y la forma en las que estas interactúan. Es una teoría de casi todo y, aunque no considera elementos como la fuerza de gravedad o la materia obscura, es el modelo más ambicioso de la física moderna.

De acuerdo al Modelo Estándar, todas las partículas pueden ser divididas en dos grupos: los fermiones y los bosones. Los fermiones son las partículas subatómicas que constituyen la materia y se dividen a su vez en quarks (que conforman a los protones y neutrones) y leptones (de los cuales el electrón es el más conocido). Los bosones, por otro lado, son las partículas responsables de las fuerzas fundamentales asociadas a la naturaleza. Los fotones, por ejemplo, son los bosones relacionados con el electromagnetismo; los gluones, se encuentran asociados a las interacciones fuertes de los núcleos atómicos, responsables de que protones y neutrones no se desintegren en un frenesí de quarks; y los bosones W y Z se relacionan a las interacciones débiles, responsables de cambiar las propiedades de los quarks y de otras curiosidades como el decaimiento radiactivo y la fusión nuclear que mantiene al Sol brillando y generando calor para que podamos aprovechar un buen día de playa. Hasta aquí todo “fácil”.

 

¿Qué papel juega Higgs en todo esto?

En el Modelo Estándar bosones y fermiones interactúan alegremente para darle forma al universo como lo conocemos, permitiendo la expansión de las galaxias, la formación de estrellas y la vida en nuestro planeta. Para que esta armonía sea posible, las interacciones entre materia y energía deben ajustarse a ciertas reglas o simetrías. Sin embargo, la evidencia empírica empezó a jugar en contra del modelo: había partículas con más masa de la esperada, fuerzas que actuaban de forma distinta a lo predicho… ¡El caos! ¡Sería necesario reevaluar todos los postulados de la física moderna! ¡Tardaríamos décadas en reconstruir un modelo igual de robusto! O…podríamos intentar balancear el Modelo Estándar tomando en cuenta las anomalías y ver qué pasa.

El postulado teórico que vino a balancear el Modelo Estándar es asombroso. En teoría, el universo estaría embebido en una especie de red –el Campo de Higgs- encargada de suministrar de masa a la materia del universo. ¡Todas las partículas del universo obtienen su masa por la interacción con este campo y el bosón de Higgs es una expresión de esta interacción! ¿Confundidos? Intentemos visualizar lo siguiente. Imagínense que el universo se reduce a la superficie de un –enorme- charco de lodo. Sobre la superficie del charco hay un sinnúmero de canicas, algunas se deslizan sobre la superficie tan rápido que no dejan rastro de su paso y ni siquiera se embarran de lodo, otras cruzan por el charco con menos gracia y no se libran de alguna salpicadura y están aquellas que van rodando sin mayor preocupación y están hechas una porquería. Las primeras canicas corresponden a las partículas que carecen de masa, como los fotones. Las segundas corresponden a fermiones como los electrones y a algunos bosones que tienen masas muy bajas. Las últimas canicas son los quarks, componentes de los protones y neutrones del núcleo de los átomos. En esta pequeña analogía, el campo de Higgs sería el lodo y el bosón de Higgs… ¡las ondas que se forman por la interacción entre las canicas y el lodo!

Explicar el campo y el bosón de Higgs resulta tan complicado que a finales del siglo pasado, el Ministerio de Ciencias del Reino Unido ofreció una botella de champaña de la mejor calidad a aquel que realizara la analogía más sencilla al respecto. El premio se lo llevo David Miller del University College of London. Aquí les dejo una interpretación animada de su solución, esperando que, entre ésta y el lodazal, queden claros los conceptos más generales del campo de Higgs.

 

http://www.youtube.com/watch?v=joTKd5j3mzk

 

A dos años de detectar el bosón

La historia del bosón de Higgs, desde su concepción hasta su descubrimiento, es uno de los mejores ejemplos de cómo debe funcionar la ciencia moderna. Por un lado, nos demostró el poder que tienen las teorías científicas para realizar descripciones y predicciones sobre nuestro universo. Pero también es un recordatorio de que la única forma de validar nuestras ideas, debe ser a través del método científico.

El túnel principal del Gran Colisionador de Hadrones no ha visto muchas colisiones recientemente y, contrario a lo esperado por actores sensacionalistas de opiniones pseudocientíficas, todavía no ha destruido al universo. El mantenimiento es costoso y llevará tiempo. Sin embargo, los datos que se generaron en el complejo durante su periodo operativo siguen siendo analizados y los resultados siguen sorprendiendo a muchos. Hoy se cuenta con evidencia (observen la primera imagen de este artículo) de el decaimiento del bosón de Higgs hacia fermiones (su descubrimiento se basó exclusivamente en el decaimiento a bosones de baja masa) y se tienen más elementos para analizar a fondo la naturaleza del campo de Higgs. Recientemente se presentó el plan de trabajo para los próximos años de los distintos experimentos activos en el LHC.

El Modelo Estándar está completo. Ahora, la labor de la ciencia es terminar de entenderlo y expandirlo con la ayuda de las nuevas evidencias. Seguimos muy lejos de tener una “teoría de todo”, pero no cabe duda que dimos un paso gigante en esa dirección.

 

El gato de Schrödinger: ¿estaba entonces vivo o muerto?

¿Puede un gato estar vivo y muerto a la vez? En esta colaboración, nuestro amigo Juan de Pedazos de Carbono responde esta pregunta y nos explica por qué. ------

Seguramente habrás escuchado, quizá sin enterarte mucho de los detalles, sobre la paradoja del famoso gato de Schrödinger. Yo mismo sabía desde hace años sobre este experimento mental, pero fue hace poco gracias a la explicación de Jim Al-Khalili en “Paradox” que finalmente entendí la solución a esta aparente paradoja. La respuesta sobre si todo este tiempo el gato estaba vivo o muerto es: . Pero mejor déjenme explicar antes la pregunta.

GatoSchroedinger

El gato de Schrödinger, ¿simultaneamente vivo y muerto? / Imagen: Dhatfield *

Erwin Schrödinger se preguntó lo que pasaría si colocamos a un gato dentro una caja especialmente preparada y después la cerramos. Dentro de la caja se encuentra también una muy pequeña cantidad de algún material radioactivo, tan pequeña que en el transcurso de una hora hay sólo un 50% de probabilidad de que el material emita una partícula cargada de energía. Si la partícula es emitida entonces activará un detector que, a su vez, liberará un potente ácido matando al gato de forma instantánea. (Recuerda: es un experimento mental, ¡ningún gato ha sido lastimado pensando en las implicaciones de este experimento!)

Si repitiéramos el experimento muchas veces—colocamos un gato en la caja, cerramos la caja, esperamos una hora, abrimos la caja—la mitad de las veces encontraríamos un gato muerto (cuando se emitió la partícula) y la mitad de las veces un gato vivo (cuando la partícula no fue emitida). Esto puede sonar un poco cruel, pero nada extraño. Schrödinger notaba que lo realmente absurdo es que, según la física cuántica, cuando la caja estaba cerrada la partícula fue “emitida” y “no emitida” al mismo tiempo. En el mundo cuántico ambas posibilidades ocurrieron simultáneamente en realidad y, por consecuencia, mientras no mirábamos el gato estaba simultáneamente vivo y muerto. Más aún, parecería que nuestra acción de abrir la caja y observar el interior fue lo que “decidió” el destino del gato.

¡Eso sí que suena completamente absurdo! ¿Qué tenemos de especial que con sólo observar podemos estar decidiendo el destino de los gatos?

Antes de contestar estas preguntas, y revelar la solución a la aparente paradoja, quizá sea importante entender exactamente qué es lo que dice la física cuántica, y por qué es que sabemos que lo que dice es cierto.

Un electrón, por poner un ejemplo, en realidad no es una pequeña canica que se encuentre siempre en algún lugar determinado. La posición del electrón se puede entender más bien como una onda, cuya amplitud está relacionada con la probabilidad de encontrar al electrón en distintos sitios. Ojo, no se trata de que seamos nosotros los que no sepamos la posición exacta del electrón y por lo tanto usemos probabilidades como una aproximación, el hecho es que el electrón realmente se encuentra en distintos sitios al mismo tiempo.

Esto puede comenzar a sonar algo bizarro pero la verdad es que, hasta este punto, la situación no es muy distinta a lo que ocurre cuando dejas caer una piedra en un lago y observas las ondas producidas sobre la superficie. La onda no está localizada en un punto exacto sobre el lago, sino distribuida y ocupando distintos sitios al mismo tiempo. De modo similar, al chocar unos con otros los electrones “interfieren” entre ellos—sumándose o cancelándose sus amplitudes—del mismo modo como lo hacen las ondas en el lago.

El comportamiento de los electrones no es muy distinto al de las ondas en la superficie de un lago / Foto: Scott Robinson

Esto se puede comprobar en el famoso experimento de la doble rejilla donde a un solo electrón se le hace pasar por dos caminos distintos que—al juntarse después de nuevo—ocasionan que el electrón haga interferencia “consigo mismo”. Espero que con la explicación que acabo de dar te puedas hacer en la mente una idea más o menos de lo que está sucediendo. No es muy complicado. Quizá nunca lo habías pensado de esta manera, pero también te darás cuenta que no es tan descabellado como sonaba en un principio.

Lo realmente inesperado y sorprendente es lo siguiente: si en uno de los dos caminos pones un detector para determinar si el electrón pasó o no pasó por ahí, entonces los patrones de interferencia desaparecen y el electrón parece ser forzado a elegir entre tomar “uno” o “el otro” camino, ya no ambos al mismo tiempo. Pareciera que el electrón puede felizmente recorrer los dos caminos distintos al mismo tiempo mientras nadie lo mira, pero al observarlo el electrón es forzado a elegir una y sólo una de las dos opciones.

El párrafo anterior contiene una de las ideas centrales de la física cuántica, la que daba dolores de cabeza a Schrödinger, y de la que surgen muchas de las otras extrañezas que seguro has escuchado sobre física cuántica. Y no se trata de filosofía ni de un experimento mental, esta es en realidad la forma en que los electrones—al igual que fotones y otras partículas energéticas—se comportan cuando se les estudia en el laboratorio. Este es un hecho de nuestro universo.

Desafortunadamente ésta es también la idea de la física cuántica que más suele ser mal interpretada, dando dar lugar a ideologías como “El Secreto” o toda la pseudo-filosofía de Deepak Chopra. Y es que el experimento parece decir que las cosas no son “reales” hasta que las observamos, que nuestro acto consciente de observar al mundo es el que ocasiona que el destino se desenlace de una u otra manera. “Tu mente decide la realidad.” Pero esto no es así.

Lo curioso es que la solución a este malentendido resuelve también la paradoja del gato de Schrödinger. Y es que el “observar” que hace que un electrón tome uno u o otro camino—o que una partícula se emita o no se emita, y por lo tanto se produzca o no la muerte del gato—no requiere una mente consciente que esté “observando”. No requiere un humano, ni siquiera un par de ojos: el electrón es “observado” al interactuar de cierta manera con cualquier otro sistema—por ejemplo un detector de electrones—en un proceso llamado decoherencia cuántica.

El gato no pudo estar vivo y muerto al mismo tiempo pues, si en algún momento el detector “observa” que la partícula radioactiva es emitida, a partir de entonces el destino de la partícula—y fatalmente también del gato—ha sido definido. La respuesta es entonces que , en todo momento el gato está vivo o muerto—según el detector determine—pero nunca se encontraba en ambos estados al mismo tiempo.

En conclusión los efectos cuánticos son reales, pero solo aplican en escalas muy pequeñas del tamaño de los átomos, así como a electrones, fotones y partículas más pequeñas. En cuanto tienes un sistema más grande y complejo—como un detector, un gato, o una persona a quien le gustan los gatos—el proceso de decoherencia pronto ocurre y los efectos cuánticos desaparecen. Cuando se entiende un poco más la física cuántica no parece ya taaan extraña, ¿verdad?

Juan

--

Escrito por Juan A. Navarro Pérez y publicado originalmente en Pedazos de Carbono

* La imagen aquí utilizada para ilustrar el gato de Schrödinger es distinta a la que se presentó en la versión original de Pedazos de Carbono

Un paso más hacia la teletransportación cuántica.

  teletransportacion

Teletransportar seres vivos es un reto que aún se ve distante, algunos dicen que imposible, pero teletransportar información electrónica cada vez se vuelve una realidad más cercana.

Para lograr esta hazaña, unos investigadores del Instituto Kavli de Nanociencias de la Universidad Técnica de Delft se tuvieron que basar en la teoría del entrelazamiento cuántico (o Quantenverschränkung, como lo nombraron los alemanes), fenómeno al cual Albert Einstein se refería como “acción fantasmal a distancia”. O como Ronald Hansnon, líder de la investigación, dice: “la más extraña e intrigante consecuencia de las leyes de la mecánica cuántica”.

El entrelazamiento cuántico ocurre cuando dos partículas se entrelazan, su identidad se combina y su estado colectivo se puede determinar con precisión, con la consecuencia de que la identidad individual de cada partícula desaparece. De esta forma, las partículas entrelazadas se comportan como una sola, aun estando separadas por un metro de distancia o por el universo entero.

Por medio de este fenómeno, ahora el equipo alemán ha logrado teletransportar la información entre dos cubits (la unidad de información entre partículas cuánticas) entre dos chips que se encontraban en computadoras distintas, utilizando fotones entrelazados. Para lograrlo, los investigadores produjeron los cubits usando electrones en diamantes. “Usamos diamantes porque se forman “mini prisiones” para los electrones en el material cuando los átomos de nitrógeno están localizados en la posición uno de los átomos de carbono (átomos de nitrógeno incrustados en una placa fina de diamante que actúan como cajas para los electrones). El hecho de que podamos ver estas prisiones miniatura de forma individual, nos permite estudiar y verificar un sólo electrón y hasta un sólo núcleo atómico. Podemos establecer el spin (o rotación direccional, en español) de estas partículas en un estado predeterminado, verificar este spin y posteriormente leer los datos. Todo lo hacemos en materiales que puedan ser usados para hacer chips. Esto es importante porque muchos creen que sólo los sistemas hechos de estos materiales pueden aumentar su escala para la tecnología práctica”, comenta y explica Ronald Hanson.

Esta no es la primera vez que se logra una hazaña similar. Sin embargo, lo que destaca en esta ocasión es que la teletransportación se garantiza en un 100%. De esta forma, la tecnología de cubits para teletransportar información se coloca como la más factible para su uso en el futuro. El desarrollo de esta tecnología nos permitiría tener una red cuántica de información, algo así como un internet cuántico.

Además, las computadoras cuánticas lograrán resolver problemas que hoy en día la más potente súper computadora no puede hacer y nos permitirá encriptar la información de tal manera que se vuelva “inhackeable”.

________________________

Bibliografía:

Nota fuente en TU Delft's, PCMag Artículo original en Science | Video de entrelazamiento cuántico  | Nota original en el Blog de Historias Cienciacionales

Asomémonos a las primeras fracciones de segundo del universo

26marzo El físico teórico Kip Thorne escribía en El futuro del espacio tiempo, obra de 2002: «En algún momento entre 2008 y 2030 se descubrirán ondas gravitacionales procedentes de la singularidad del Big-Bang [y] seguirá una era, que durará hasta 2050, en la que se harán grandes esfuerzos para medir el espectro de las ondas gravitacionales primordiales». Si los datos que hace poco presentaron en una conferencia de prensa John Kovac y sus colegas del Centro de Astrofísica Harvard-Smithsonian superan el escrutinio, la era predicha por Kip Thorne comienza en este momento.

El descubrimiento de Kovac y sus colegas ha causado un verdadero revuelo entre la comunidad científica, al grado de que se habla de un Nobel para el equipo responsable. A pesar de que sus resultados no han sido revisados por sus pares (el proceso regular para todo trabajo científico), muchos físicos de numerosas universidades, en entrevistas, responden por la confiabilidad de sus colegas. “Para mí, esto luce realmente, realmente sólido”, dice el cosmólogo Marc Kamionkowski de la Universidad John Hopkins, en entrevista para la revista Nature. “Con una importancia comparable a la de la energía oscura o el descubrimiento de la Radiación de Microondas Cósmica de Fondo; algo que pasa una vez cada varias décadas”. El astrónomo John Carlstrom, de la Universidad de Chicago, declara para la misma revista: “Se tienen que resolver los detalles pero, por lo que sé, es muy probable que esto sea lo que todos estábamos esperando”.

¿De qué se trata exactamente su descubrimiento? Con un detector de microondas llamado BICEP2, situado en la Antártida, el equipo de Harvard ha conseguido por primera vez evidencia de las ondas gravitacionales causadas por los primeros momentos del Big-Bang. Según esta famosa teoría sobre el origen de nuestro universo, antes de que pasara el primer segundo de su existencia, el universo se expandió rápidamente, en un proceso conocido como inflación. De acuerdo con la teoría general de la relatividad de Einstein, esta inflación habría generado ondas gravitacionales que se habrían extendido a lo largo del cosmos. Esas ondas habrían afectado también a la llamada Radiación de Microondas Cósmica de Fondo, que es el residuo de radiación que ha viajado por más o menos 13 mil millones de años (la edad del universo), desde los límites del universo observable hasta nosotros. Cuando en las primeras fracciones de segundo del universo las ondas gravitacionales interactuaron con esa radiación de fondo, las microondas sufrieron un tipo particular de polarización, llamado de modo B. (La polarización de la luz visible, otra onda electromagnética, es un fenómeno de todos los días: lentes de sol, pantallas LCD o el cine en 3D son tecnologías que lo usan). Kovac y su equipo afirman haber encontrado polarización de modo B en la Radiación Cósmica de Fondo, luego de 3 años de recabar y analizar datos del experimento BICEP2.

De confirmarse, sus resultados tendrían muchas implicaciones para la física y probablemente para la concepción que tenemos del universo. Por un lado, son una evidencia de la existencia de ondas gravitacionales, un fenómeno que promete ser de inmensa utilidad para el estudio del universo en el futuro. Por poner un ejemplo, estudiando los neutrinos (un tipo de partículas subatómicas) provenientes del espacio es posible asomarse hasta a un segundo despúes del Big-Bang, no antes. Usando ondas de gravedad, podremos asomarnos a lo que pasó a una billonésima de segundo después del gran estallido (para más precisión, es una fracción de segundo de un punto decimal seguido de 38 ceros y un uno). Por el otro lado, se trata de una confirmación empírica de la hipótesis hasta ahora la más aceptada acerca del origen del cosmos, la famosa teoría del big-bang. Por último, según varios físicos, incluso podría comenzar el acercamiento entre la física cuántica y la gravedad, uno de los matrimonios que aún no se han logrado en la física moderna.

Para darle completa solidez al descubrimiento, se tendrá que comparar con los datos de otros proyectos que también están asomandose a la Radiación Cósmica de Fondo, como el del telescopio espacial Planck, de la Agencia Espacial Europea, o el del Telescopio del Polo Sur (SPT, por sus siglas en inglés), administrado por muchas universidades, y que está situado también en la Antártida, justo al lado del BICEP2. Es de esperar que, una vez pasado el revuelo inicial, con el tiempo las implicaciones de este descubrimiento se vuelvan más claras. Aunque ese Nobel no llegase, el trabajo de Kovac y sus colegas ha inaugurado un renovado interés en el origen del universo que indudablemente rendirá frutos. Así que podemos estar seguros de lo que los científicos de Harvard escriben en el enunciado final del manuscrito de su artículo científico, publicado hace poco en el portal ArXiv: “...una nueva era de cosmología de modo B ha iniciado”.

¿Estamos listos para ella?

Bibliografía:

*Reacción de Andrei Linde, uno de los físicos que predijo este descubrimiento, cuando le informan sobre el descubrimiento: sploid.gizmodo.com/witness-the-joy-of-the-man-who-predicted-todays-big-ba-1545834924 

Nota (en inglés) sobre el descubrimiento en The Guardian| Nota sobre el descubrimiento en Universe Today | Nota de Reuters en español sobre el tema | Uno de los artículos del equipo de Kovac, todavía en borrador| Nota en el blog de Historias Cienciacionales

El Arduo Camino Hacia el Lado Obscuro: Mitos, realidades y elucubraciones sobre la materia obscura

  “Es necesaria una gran madurez para entender que la opinión que defendemos no es más que nuestra hipótesis favorita, a la fuerza imperfecta, probablemente pasajera, que sólo los muy cortos de entendederas pueden tomar como una certeza o una verdad.”

Milán Kundera

 

No la podemos ver, no la podemos medir, podemos "sentir" sus efectos, pero no podemos asegurar que existe; es uno de los grandes dolores de cabeza para los astrofísicos y aunque realmente no la alcanzamos a comprender en su totalidad, cada vez se le imputan más y más responsabilidades de magnitudes astronómicas; nos referimos al presunto responsable de que el universo, los cúmulos de galaxias y nuestra propia Vía Láctea existan en la forma en que los conocemos. Con ustedes: La materia obscura.

 

¿Cómo se descubrió algo tan difícil de detectar?

Esta pregunta engloba la parte más interesante de este tema. En realidad, la materia obscura nunca ha sido "descubierta"; su concepto surge como una hipótesis para explicar el por qué ciertos cuerpos celestes no se comportan tal cual lo predice la teoría general de la relatividad de Einstein. Conforme se volvió más común el estudio de objetos distantes en el universo, derivado de los avances tecnológicos de principios del siglo XX, fue posible analizar el movimiento de las galaxias y estrellas con gran precisión; en este contexto, algunos científicos como Jan Oort y Fritz Zwicky notaron peculiaridades sumamente trascendentes en sus observaciones: la velocidad orbital de las estrellas en la Vía Láctea (Oort, 1932) y de las galaxias dentro de sus cúmulos (Zwicky, 1933), era mucho mayor a la esperada; esto implicaba que había algo allá afuera generando interacciones gravitacionales de gran magnitud.

El término “materia obscura” fue acuñado por Zwicky con el fin de explicar el desajuste entre la materia observable (estrellas, planetas, polvo, conejos, etc.) y las relaciones gravitacionales entre las galaxias. En un momento en que los supuestos eran tan divergentes como asumir que había materia incapaz de ser detectada por los telescopios de la época, o la necesidad de replantear la teoría de la relatividad para ajustarse a las nuevas observaciones, Zwicky, humano, apostó por el primero.

El tema quedó en el olvido por algunas décadas ya que, en realidad, nadie sabía mucho sobre el comportamiento de las galaxias ni se mostraba interesado en revivir la polémica de la materia perdida; sin embargo, a mediados de la década de los setentas, los avances tecnológicos de la época pusieron nuevamente el tema sobre la mesa. Vera Rubin descubrió que la velocidad de rotación de las galaxias sufre el mismo desajuste que las estrellas de Oort y las galaxias de Zwicky. Nueva evidencia se acumuló y la materia obscura regresó a las primeras planas.

 

¿Alguien tiene idea de qué es la materia obscura?

Las observaciones más recientes sobre radiación residual realizadas por el Satélite Planck de la Agencia Espacial Europea, apuntan a que 84.5% de la materia presente en el universo podría ser materia obscura. ¿En qué forma se presenta y dónde se esconde toda esa materia? Las primeras hipótesis sobre su naturaleza se enfocaron en objetos masivos indetectables (por su baja o nula emisión de radiación electromagnética): agujeros negros, estrellas de neutrones, algunas estrellas enanas y planetas no asociados a sistemas. Los telescopios del mundo y sus alrededores (en la actualidad hay muchísimos telescopios orbitando la Tierra) voltearon al cielo en busca de evidencia que sustentara esta teoría y, en efecto, existen evidencias, pero éstas no convencen al no ser suficientes. El 84.5% de la materia del universo no se esconde en forma de planetas errantes.

La hipótesis más aceptada es que la materia obscura se encuentra distribuida por todo nuestro universo, en forma de partículas masivas que interactúan débilmente (WIMPs, por sus siglas en inglés). Si las WIMPs fueran las responsables de la materia obscura en el universo, es posible que millones de estas partículas subatómicas estuvieran atravesando nuestros cuerpos a cada segundo. Sin embargo, las propiedades (hipotéticas) de las WIMPs impedirían que interactuaran de forma perceptible con la materia no obscura (exceptuando, obviamente, las interacciones gravitacionales).

La naturaleza de estas partículas subatómicas ha eludido a los científicos, a pesar de los grandes esfuerzos realizados para su detección directa o indirecta. En octubre de 2013 el equipo del Gran Detector Subterráneo de Xenón (LUX), localizado a kilómetro y medio por debajo de la superficie de Dakota del Sur, y considerado como la instalación más sensible para la detección de partículas de materia obscura, anunció lo que muchos ya imaginaban: no  han podido encontrar nada.

La frustración por la falta de resultados en la Tierra tiene su contraparte espacial; recientemente ha habido descubrimientos que ponen en duda los modelos vigentes relacionados a la materia obscura. Se han encontrado, por ejemplo, grandes grupos de estrellas, cuyas interacciones gravitacionales parecen estar dictadas exclusivamente por la materia visible, sin efectos perceptibles de materia obscura. También hay casos en los que la materia obscura no se comporta como lo esperamos: un caso sonado es el del cúmulo galáctico Abell 520, que presenta una distribución de materia obscura (hipotética, siempre hipotética) con un patrón inverso al esperado, como se puede observar en la siguiente figura.

 

 

Seguimos modelando con la materia obscura como andamio

A más de ochenta años de escuchar su voz en off, la materia obscura sigue siendo ese abominable misterio que sólo se conoce por las consecuencias gravitacionales que presuponen su existencia, pero esto no ha sido motivo para dejar de elaborar modelos basados en un universo que es, en su mayoría, obscuro. Recientemente Lisa Randall y Matthew Reece, de la universidad de Harvard, propusieron un modelo que asocia las extinciones masivas en la Tierra con la materia obscura. De acuerdo con este modelo, el Sol, en su transitar por la galaxia, podría atravesar de forma periódica una zona con alta densidad de materia obscura ubicada en el plano central de la Vía Láctea, esta interacción podría estar provocando desórdenes gravitacionales que alterarían el comportamiento de cometas y otros cuerpos en la nube de Oort (una nube de rocas congeladas que, en teoría, rodea nuestro sistema planetario) y provocar bombardeos periódicos en la Tierra. Si esta propuesta suena demasiado especulativa, es porque lo es. Aun así, los invito a que la comparen con el propio modelo que hipotetiza la existencia de la materia obscura; variables hipotéticas más, variables hipotéticas menos, la especulación sigue estando presente y la carencia de pruebas contundentes sigue siendo la norma.

 

¿Será posible que la materia obscura… no esté ahí afuera?

La posibilidad de que la materia obscura sea un artefacto de teorías físicas incompletas es real. Existen varios modelos gravitacionales que intentan explicar el comportamiento del universo sin recurrir (o prescindiendo de) a la materia obscura, pero las preguntas siguen aventajando en número a las respuestas .

En el momento actual, los centros de investigación están revestidos de alta tecnología y una gran capacidad de análisis, características que han favorecido que tanto los partidarios como los adversarios de la materia obscura se hayan multiplicado como jamás se había visto.

El tiempo decidirá si llega el momento de borrar la materia obscura de nuestros libros o de darle nombre a esas elusivas partículas que, en teoría, la conforman.

 

Hawking y el sensacionalismo mediático bajo la lupa

24022014 El más reciente artículo de Stephen Hawking ha generado mucha controversia. Es por ello que resulta urgente distinguir las palabras del físico de entre las extrapolaciones ridículas de medios y políticos, así como reflexionar de manera breve qué tan importante es su argumento en el contexto actual de la física.

A mediados de enero de este año, una sola cabecera resaltó por sobre las demás noticias en distintos medios (sí, también en Historias Cienciacionales): "No existen los agujeros negros". La frase se atribuyó a Stephen Hawking. Cosa rara, porque el científico no escribió eso en su artículo. Lo que hizo fue alegar, de manera descriptiva (algo inusual en un artículo de física), que no existen los horizontes de eventos pero sí los horizontes aparentes.

La distinción entre horizontes aparentes y horizontes de eventos fue hecha por Hawking en los setentas; no es una idea nueva. Para entender la diferencia entre ambos, es útil imaginar que un agujero negro se traga una estrella. El horizonte de eventos es una superficie imaginaria que funge como frontera entre el interior y el exterior del agujero negro. Si algo cruzara los límites del horizonte, aun si fuera la luz misma, no podría escapar ya que la gravedad ha distorsionado tanto al espacio que los objetos sólo pueden moverse "hacia adentro". Es el punto de no retorno, donde la única esperanza de las desafortunadas partículas que traspasan la frontera sería viajar hacia atrás en el tiempo.

Siguiendo con nuestro ejercicio de imaginación, el agujero negro crecería mientras devora la estrella. Lo complicado ahora es decir si el horizonte de eventos creció junto con la estrella. En realidad, lo que creíamos que era EL horizonte de eventos sólo aparentaba serlo. De ahí, el nombre de horizonte aparente.

Los horizontes aparentes tienen muchas de las propiedades de los horizontes de eventos: ninguna partícula puede escapar fuera de ellos, el tiempo y el espacio invierten su papel, y dentro de estos horizontes existe una singularidad física cuyo desgarre gravitacional destruye hasta a los átomos. La cosa es que las vastas evidencias empíricas que apuntan muy fuertemente a la existencia de agujeros negros en realidad siempre han sido evidencia de la existencia de horizontes aparentes.

En la publicación más reciente de Hawking, la distinción entre horizontes de eventos y aparentes es relevante sólo para conservar información y para ciertas propiedades de la mecánica cuántica. Esto se relaciona con una paradoja que emana de los argumentos originales del físico: si las extensiones cuánticas a los agujeros negros que presentó en los años setentas fuesen válidas, entonces la información que entra a un agujero negro se pierde, algo que la mecánica cuántica estándar prohíbe.

Imagine usted ahora que manda a su escritor favorito de Historias Cienciacionales a un agujero negro. De acuerdo con la teoría que hizo famoso a Albert Einstein, la relatividad general, no sabríamos nada más de él/ella una vez que cruzara el horizonte de eventos, y su información (contenida en sus átomos, los enlaces químicos que se forman en sus células, y una totalidad de cosas importantes para que su escritor favorito siga con vida) se perdería para siempre. Hawking modifica esto y dice que el agujero negro emite luz de regreso –de manera casi imperceptible–, como la que emitiría un horno al calcinar a Víctor, Rodrigo, Sofía o Emiliano (o a todos ellos, como guste). La diferencia con el horno es que el tipo de luz que podemos observar depende de lo que quemamos; en un agujero negro, la luz que éste regresaría no depende de lo que haya entrado en él. La distinción entre la propuesta de Stephen Hawking y lo que dice la física clásica es que la segunda no toma en cuenta a la mecánica cuántica, y Hawking sí. Es importante aclarar que todo esto es, hasta la fecha, meramente especulativo: no existe ninguna evidencia experimental que lo sustente, y es probable que por esta razón el científico británico nunca haya ganado un Nobel.

Hawking promovió sus conclusiones durante 30 años hasta 2004, cuando se retractó de ellas a causa de algunas ideas –también especulativas– de la teoría de cuerdas, un modelo de la física teórica. No pasó mucho sino hasta hace dos años, cuando se publicó un artículo donde se afirmaba que, si se asumían algunos supuestos de la teoría de cuerdas, se generaba una “barrera de fuego” o firewall hecha de partículas de luz súper-energéticas dentro del horizonte de eventos, destruyendo así la información. Una vez más, la polémica resurgió y, de las cenizas de una discusión que se había dado por terminada, se avivaron las llamas de la duda. Hawking se opone a esta nueva idea y, en su artículo reciente, presenta razones por las cuales, según él, no puede formarse un firewall. Estos argumentos implicarían, de paso, que no existen los horizontes de eventos. Sólo los horizontes aparentes.

Aquí es donde difiero de la ola sensacionalista que invadió a los medios el mes pasado. Los argumentos actuales de Hawking son altamente especulativos. Suponen que se extienden principios de la mecánica cuántica a otras escalas, como la de la gravedad cuántica, sobre las cuales no existe ningún consenso por la ausencia de experimentos. Pero estos debates sobre la existencia de firewalls sólo tienen sentido en el contexto particular de una de las más de 20 (quizá hasta 100) diferentes teorías sobre la gravedad cuántica, todas ellas con principios e ideas diferentes. Desafortunadamente, el debate que ahora enfrentamos es más del tipo religioso, en la que una teoría se promueve a través de los principios que predica y su número de seguidores, y no a través de evidencia empírica.

Al respecto, es válido preguntarse cuál es el valor científico del debate que Hawking genera si la mayoría de sus argumentos carecen de un sustento experimental. No es que sea malo especular. Al contrario, es una labor importante del físico teórico. Pero cuando la cantidad de especulaciones excede lo verificado, las ideas comienzan a perder su carácter científico.

El mismo Hawking es también un ejemplo de esto. En 2003, redactó un artículo donde sugería que dentro de los agujeros negros se formaban universos bebés, algo que se puede ver al final de un gran documental de la BBC. Un par de años después se retractó, y hoy su idea ha pasado al olvido.

¿Será ése el mismo destino de su reciente artículo? Sólo el tiempo y el espacio lo dirán.

_________________

Esta es la primera colaboración de Daniel Sheinbaum Frank con Historias Cienciacionales. Daniel es matemático por la UNAM y actualmente cursa su posgrado en física en la Universidad de British Columbia, en Vancouver, donde se divierte estudiando simulaciones numéricas en el marco de la relatividad general. También le gustan los cuentos de Cortázar y la serie Breaking Bad.

_________________

Bibliografía

*Wikipedia (en inglés) tiene un extenso artículo sobre la relatividad general, agujeros negros y horizontes aparentes: http://en.wikipedia.org/wiki/Black_hole#Observational_evidence

*Acá está el artículo más reciente de Hawking, que ha levantado tantas pasiones: http://arxiv.org/pdf/1401.5761.pdf

*Y aquí un análisis sobre los firewalls y los agujeros negros: http://arxiv.org/pdf/1207.3123.pdf

*Una breve lista de la teorías de gravedad cuántica se encuentra en este enlace: http://en.wikipedia.org/wiki/Quantum_gravity#Other_approaches

*Blog Historias Cienciacionales 

La aeroacústica de una tetera

Imagen tomada de Pinterest ¿Sabías que el mecanismo físico del silbido de una tetera era un misterio? Parece inimaginable, sobre todo después de considerar que el ser humano ya ha pisado la Luna o que ahora es capaz de detectar galaxias muy, muy lejanas. Pero si se compartía una taza de té con un físico y se le preguntaba por qué las calderas de vapor, como una tetera o la olla exprés, silban al punto de parecer que están a punto de explotar, era probable que respondieran: “vibraciones, o algo por el estilo”. Ahora, las razones detrás de esto ya no son un misterio.

Un equipo del departamento de ingeniería de la Universidad de Cambridge, en Inglaterra, ha generado un modelo matemático preciso para explicar el mecanismo físico que está detrás del silbido de una caldera de vapor. Los autores del trabajo realizaron diferentes experimentos, enfocándose en saber cómo la acústica del sistema varía dependiendo de la velocidad del flujo y otros factores.

Los resultados mostraron que dicho silbido tiene dos fases. El primero comienza cuando el vapor se ve forzado a salir en chorro por la abertura de la tetera; en tanto que el aire se comprime y escapa, vibra con la misma frecuencia de un silbato. Pero el agua en el interior sigue hirviendo, por lo que continúa enviando más y más vapor a través de la boquilla a velocidades cada vez más rápidas. Cuando la velocidad del flujo pasa un cierto punto, se forman pequeños remolinos en el vapor y generan ondas de sonido que, eventualmente, alcanzan a las vibraciones originales.

El nuevo modelo es tan preciso que ahora los físicos pueden predecir el tono de cualquier silbato de cualquier caldera de vapor mientras disfrutan una rica taza de té. Bibliografía:

Nota fuente en Science | Artículo original | Nota en el blog de Historias Cienciacionales 

Sir Isaac Newton y los fluidos que no le hacen caso

Uno de los nombres más respetados y famosos en la ciencia es el de Isaac Newton. Este personaje sentó las bases del cálculo infinitesimal y sus estudios sobre el movimiento de las cosas son hasta ahora los fundamentos de la rama de la física conocida como mecánica clásica. Entre otras cosas, Newton describió el comportamiento de algunos fluidos, como el agua, en los cuales el movimiento de sus moléculas guarda una relación directa con la fuerza o perturbación que se aplique sobre el mismo. Suena complicado, pero en realidad se trata de algo muy sencillo: el agua y algunos otros fluidos como el aire, los vinos, etcétera, se mueven lento si los agitamos lentamente y son muy dinámicos si los agitamos más rápidamente. A los fluidos que se comportan de esta manera los conocemos como fluidos newtonianos. La viscosidad, es decir, la resistencia a fluir de estos materiales, es constante mientras la temperatura también lo sea, pero cuando la temperatura aumenta, su viscosidad disminuye.

Existe otro tipo de fluidos, unos fluidos rebeldes y a los cuales poco les importa que un tal Sir Isaac Newton haya dicho que se tenían que mover de una manera en particular. A estos fluidos rebeldes los conocemos como fluidos no newtonianos. Su característica principal es que la viscosidad de éstos no es constante, sino que depende de la fuerza que se aplique sobre ellos. Como existen diferentes maneras de desobedecer a las reglas, existen por supuesto, diferentes tipos de fluidos no newtonianos.

Algunos fluidos llamados pseudoplásticos disminuyen su viscosidad mientras más fuerza se aplique sobre ellos. ¿Puedes imaginarte a un fluido que sea de este tipo? En esta categoría encontramos a algunas sustancias comunes, como la salsa cátsup. La cátsup es muy viscosa cuando no hay ninguna fuerza actuando sobre ella (por ejemplo, cuando está en reposo), pero cuando la cátsup se agita su viscosidad disminuye; es por esto que cuesta  mucho trabajo hacer que la cátsup empiece a salir de la botella pero luego de unos cuantos golpes sale sin mayor problema. Otro fluido que se comporta de la misma manera es la sangre. Esta característica aunque parece muy sutil es de vital importancia, pues permite mantener un flujo sanguíneo adecuado a lo largo de una intrincada red de venas, arterias y vasos capilares de diámetro y presión variable. Si la sangre no disminuyera su viscosidad al fluir a través de los capilares, se aglutinaría, impidiendo así la irrigación correcta de los distintos órganos y tejidos.

Existe otro tipo de fluidos no newtonianos: los fluidos dilatantes. Los dilatantes se comportan de manera totalmente opuesta a los pseudoplásticos, pues en este tipo de fluidos la viscosidad aumenta cuando se aumenta la fuerza aplicada sobre ellos. Un ejemplo de este tipo de fluidos son las arenas movedizas, las cuales son una mezcla de agua y tierra suelta en la que muchos animales (y uno que otro humano incauto) mueren atrapados. Al ser un fluido dilatante, las arenas movedizas permiten que los animales o la persona que pisó sobre ellas comiencen a hundirse. Sin embargo, la desesperación de estas víctimas los hace luchar instintivamente para salir de las arenas movedizas. Cuando la víctima de esta desafortunada situación lucha con fuerza para salir con vida, en realidad está aumentando la viscosidad de las arenas movedizas, lo cual genera más resistencia, y como consecuencia, la víctima lucha con más fuerzas hasta que muere sofocado. Otro ejemplo menos dramático pero en el cual observamos el mismo comportamiento es la mezcla de fécula de maíz y agua. Más Ciencia Por México tuvo la oportunidad de participar en la Séptima Jornada de Ciencia y Tecnología del Estado de Morelos, la demostración que se hizo durante tal evento fue justamente sobre la fécula de maíz como fluido no newtoniano.

 

Más Ciencia Por México en la demostración sobre fluidos no newtonianos durante la 7ª Jornada de Ciencia y Tecnología del Estado de Morelos

Este experimento puedes realizarlo en casa si consigues un poco de fécula o almidón de maíz, también conocido como maicena: en un recipiente mezcla dos partes de maicena con una de agua. Es decir, si colocas dos tazas de maicena, agrega solamente una taza de agua. Disuelve todo muy bien hasta que desaparezcan los grumos. Inmediatamente notarás algo peculiar de esta solución: si intentas mezclarla muy rápido, encontrarás una resistencia tremenda, pero si lo haces lentamente esa resistencia disminuye. Los fluidos dilatantes se comportan de esta manera debido a la organización de las moléculas disueltas (el almidón en este caso) en el solvente (agua). Cuando los gránulos de almidón no están sometidos a ninguna fuerza se distribuyen más o menos uniformemente en la mezcla, pero cuando se aplica una fuerza brusca sobre el fluido, los gránulos de almidón se empacan muy cerca entre sí haciendo que este líquido se comporte como un sólido por una fracción de tiempo. Considerando lo anterior podemos concluir que el comportamiento de los dilatantes depende de la concentración de moléculas en una solución, y en efecto, es así. En el siguiente vídeo de ICBIScience, Santiago López te muestra cómo preparar un fluido no newtoniano con fécula de maíz y agua.

Esta mezcla exhibe muy bien sus propiedades no newtonianas cuando las cantidades de maicena son el doble que de agua, sin embargo las proporciones pueden ser variables, ¿qué crees que suceda si aumentas la cantidad de maicena con respecto a la de agua? ¿y si aumentas la cantidad de agua en la solución? Una parte fundamental de la ciencia es la experimentación, así que si decides realizar este sencillo experimento comparte con nosotros las cantidades de maicena y agua que utilizaste, así como los resultados que obtuviste.

Las propiedades de los fluidos dilatantes han intentado aprovecharse para construir chalecos antibalas, pues con materiales de este tipo podría absorberse la energía de impacto de un proyectil, minimizando con ello el posible daño físico ante un ataque con armas de fuego.

Los fluidos no newtonianos son muy interesantes y sus aplicaciones industriales son diversas: desde la tecnología de alimentos hasta la industria petrolera; de la medicina a la fabricación de pinturas líquidas… ¡del atole de fécula de maíz, a un sistema que se comporta igual que las arenas movedizas!

Nota: Si preparas tu fluido no newtoniano puedes almacenarlo uno o dos días antes de que empiecen a crecer colonias bacterianas en él. Cuando lo deseches no lo tires en ninguna tubería, pues los gránulos de almidón se sedimentarán y como consecuencia tendrás tuberías obstruidas muy difíciles de destapar. Para desechar esta mezcla puedes hacer dos cosas: (i) colocarlo en una bolsa de plástico y depositarlo así en la basura o (ii) embarrarlo sobre una superficie, esperar a que esté completamente seco y luego rasparlo, puedes ahora desecharlo en la basura como polvo o como pedazos sólidos. ¡Que te diviertas con tu fluido no newtoniano!

Agradecemos al Consejo de Ciencia y Tecnología del Estado de Morelos, quien nos permitió acercarnos a los niños y jóvenes mediante la actividad de los fluidos no newtonianos durante la 7ª Jornada de Ciencia y Tecnología y quienes tomaron la fotografía que encabeza al presente texto.

 [hozbreak]

Acerca del autor

Gustavo Rodríguez Alonso es estudiante del doctorado en ciencias bioquímicas de la UNAM. Su proyecto está enfocado en el estudio de los genes que controlan el desarrollo de la raíz en las plantas cactáceas. Puedes encontrarlo en twitter como @RodAG_

Santiago López Pendás es el creador de ICBIScience, puedes encontrarlo en twitter como @YPendas y en Vine como Yago Pendas.

¿Por qué limitarte a hacer levitar una gota de agua con ondas acústicas?

Sobre todo, cuando puedes moverla de un lado a otro y mezclarla con otro líquido o sólido, con la tecnología creada por Daniel Foresti y sus colegas en el Instituto de Tecnología de Zurich. Dos gotas de agua se unen en el aire. Tomada del sitio de New Scientist, donde también se reporta la noticia.

La levitación por ondas acústicas es un fenómeno bien conocido, pero hasta ahora no se había desarrollado la tecnología para mover y manipular un cuerpo más allá de hacer que levitara inmóvil en el aire. Con la tecnología de Foresti y su equipo, se ha logrado transportar gotas de líquidos de diferentes características, mezclarlas y hacerlas reaccionar sin que toquen ninguna superficie. Incluso han logrado hacer levitar un palillo para dientes y hacer que gire sobre su propio eje.

El secreto está en colocar una serie de módulos de emisión y reflexión de ondas acústicas en una fila. Haciendo variar las ondas entre cada módulo, se logra transportar un cuerpo (líquido o sólido) entre los módulos.

Esta tecnología permitiría que se manipularan muestras químicas o biológicas de importancia sin riesgo de contaminación por contacto, o simular ciertas condiciones de gravedad cero, entre otras cosas. "Tiene un amplio espectro de posibles aplicaciones," dice Foresti. La tecnología es prometedora; su principal limitante es que hay que calcular con exactitud la onda acústica requerida para el cuerpo en cuestión, pues, al menos con líquidos, se corre el riesgo de que la fuerza acústica sobrepase la tensión superficial de la gota y la muestra se atomice en el aire. Sin embargo, a diferencia de la levitación por campos electromagnéticos, no se requiere que el objeto tenga propiedades electromagnéticas particulares.

"En principio, puedes hacer flotar cualquier cosa con la levitación acústica", dice Dimos Poulikakos, uno de los desarrolladores de la tecnología. Incluso una persona. "Ahora, si una persona puede sobrevivir a las fuerzas acústicas, no estoy cien por ciento seguro," comenta Poulikakos.

A manera de inspiración para aplicaciones futuras, te dejamos un video de la tecnología de Foresti, Poulikakos y sus colegas en plena acción:

http://www.ltnt.ethz.ch/research/transport/projects/foresti/Photochemicalswitch.mov

 

Fuente en ETH Zurich | Artículo original en PNAS 

 

Nueva fase de transición en el agua: Gas->líquido->hielo-> ¿líquido?

(Foto:  http://www.wallpapermania.eu/wallpaper/melting-ice) El agua contiene propiedades físicas y químicas asombrosas. Y uno, al verla día con día, pensaría que sabemos casi todo de ella. Sin embargo, mediante una simulación realizada en agua “súper congelada”, un equipo de investigadores de la Universidad de Arkansas, liderados por Feng Wang, confirmó una fase de transición de “líquido-líquido” a 207° Kelvin, o lo que es igual, a -66°C.

Esta nueva propiedad descubierta en el agua es importante para entender procesos básicos durante la crioprotección (preservación de tejido o de células mediante nitrógeno líquido).

“En tiempo de escala de un microsegundo, el agua no llegó a formar hielo, sino que se transformó en una nueva forma de líquido”, dijo Wang. “El estudio provee fuerte evidencia que soporta esta fase de transición y predice una temperatura de densidad mínima si el agua puede enfriarse por debajo de su temperatura de congelación normal. Nuestro estudio muestra que el agua se expanderá a muy baja temperatura aún sin la formación de suelo”.

La investigación se realizó por medio del uso de un modelo llamado potencial hídrico de fuerzas adaptables correspondientes de hielo y líquido (WAIL, por sus siglas en ingles). De acuerdo con la simulación, mientras el agua común es un líquido de alta densidad, a bajas temperaturas pasa por una fase de transición a un líquido de baja densidad.

 

Fuente: Universidad de Arkansas | Artículo original: "Liquid–liquid transition in supercooled water suggested by microsecond simulations", en PNAS

Amigable, limpia y casi inagotable: Fusión nuclear (parte 1)

Hoy en día la palabra nuclear está altamente descalificada en torno a la producción de energía eléctrica a través de procesos de fisión nuclear.Es una realidad la existencia de un miedo nuclear en nuestra sociedad y recientemente tal miedo está asociado a catástrofes y accidentes nucleares ocurridos en la historia de la humanidad. Ejemplos  sui generis   como Chernobyl, Three Mile Island o Fukushima nos ha llevado a la conclusión de que los reactores de fisión nuclear debido a su mantenimiento, vulnerabilidad ante accidentes y su producción de deshechos, los coloca como una opción desconfiable (1) aunado a su alto costo económico y ambiental.

Imagen de reactor de fisión nuclear

Sin embargo, existe otro proceso nuclear que está en la mira como una solución potencial al problema energético: la fusión nuclear. Este fenómeno ocurre cuando dos núcleos ligeros se unen para formar uno pesado junto con la generación de energía. Por ejemplo, la fusión nuclear ocurre de manera natural en el interior del Sol donde átomos de Hidrógeno se fusionan formando Helio y neutrones. Aquí el papel que juega la temperatura y la presión en el núcleo solar son fundamentales para que esta reacción se lleve acabo (P = 10ˆ16 Pa, T = 15 millones °C). Para que se tenga una idea del orden de magnitud, la presión atmosférica a nivel del mar es de 10ˆ5 Pa (2) y en el interior de la Tierra de  10ˆ11 Pa (3). Entonces, ¿Se pueden lograr estas condiciones en un laboratorio?

Primeras imagenes del sol obtenidas mediante STEREO

Desde hace más de 50 años se ha tenido claro que la manera más fácil de producir una reacción de fusión nuclear involucra dos isótopos del átomo de Hidrógeno –Deuterio(D) y Tritio(T). Se necesita entonces que un gas altamente ionizado (plasma de D y T) esté sujeto a presiones y temperaturas extremas; y al no igualar las condiciones de presión que hay en el núcleo solar, se necesita mantener al plasma a una temperatura de 150 millones °C. ¡10 veces más que la temperatura del núcleo solar! El lector podrá imaginarse que la fusión nuclear, de llevarse acabo, debe resolver grandes retos científicos y tecnológicos nunca antes vistos.

Pero antes de entrar en detalles de la fusión nuclear, surgen varias cuestiones que se deben responder. Las dos primeras son:

1. ¿Por qué las naciones apostarían por la fusión nuclear cuando se tiene a la mano todo un ejército de energías alternativas: fósiles, solar, eólica, hidroeléctrica, geotérmica, biomasa.?

2. ¿Qué se gana invirtiendo en otra energía nuclear?

La realidad es que las fuentes de energías fósiles eventualmente se agotarán, las energías alternativas no tienen la capacidad de cubrir la creciente demanda energética y ninguna de éstas ofrece lo que la fusión nuclear: prácticamente cantidad ilimitada de combustible, producción nula de dióxido de carbono, baja producción de deshechos y atractivas propuestas de seguridad. De apostarse por la fusión nuclear, es crítico responder: ¿qué requisitos se necesitan para construir un reactor comercial de fusión nuclear? y ¿cuáles son los procesos físicos fundamentales involucrados?

Brevemente retomaré un resultado básico del electromagnetismo: partículas cargadas (iones o electrones) moviéndose en presencia de campos magnéticos experimentan una fuerza conocida como la fuerza de Lorentz. ¿Y esto para qué sirve? Supongamos que el plasma de D y T se encuentra dentro de una cámara, se sabe que si el plasma entra en contacto con las paredes de dicho contenedor, la temperatura del plasma disminuirá y por tanto no se alcanzaría la condición de temperatura de fusión nuclear (¡que es la que estamos buscando!) Entonces, si se está tratando de un problema de partículas cargadas, es de esperarse la introducción de campos magnéticos que confinen dicho plasma evitando el contacto con las paredes de la cámara, preservando así su temperatura.

Dicho lo anterior, es ahora cuando introduzco el término fusión nuclear a través del confinamiento magnético. Los científicos que optaron por esta estrategia han desarrollado ideas referentes al diseño óptimo del dispositivo que confine magnéticamente a un plasma. Es posible mostrar mediante estudios de estabilidad y equilibrio que la forma de “anillo” o “dona” es la óptima, dando origen al Tokamak acrónimo del ruso тороидальная камера с магнитными катушками (cámara toroidal con bobinas magnéticas), esta idea se ha desarrollado, implementado y mejorado por más de 6 décadas.

Aterricemos ideas, se necesita entonces de un dispositivo anular con bobinas magnéticas en cuyo interior se localiza un plasma de Deuterio y Tritio. ¿Con esto basta para tener fusión? Y la respuesta es no, ya que para elevar y mantener la temperatura del plasma en el régimen de fusión es necesario contar con algún sistema que proporcione energía al plasma. Sistemas tales como inyección de neutrones y de ondas electromagnéticas de radio frecuencia modulan y elevan la temperatura del plasma hasta llegar a aquella de fusión.

Un ejemplo concreto de un tokamak en funcionamiento es JET (Joint European Torus) ubicado a las afueras de Oxford, Inglaterra. En 1997, científicos lograron no sólo confinar un plasma con campos magnéticos sino que produjeron energía de fusión nuclear, logrando una potencia de salida de 16 MW con 25 MW como potencia de entrada. Debido a que JET no fue construido para generar cantidades significativas de energía como resultado de la fusión, científicos e ingenieros de la comunidad internacional se plantearon la construcción de un dispositivo que incremente la razón entre energía producida por fusión y la energía eléctrica necesaria para iniciar y mantener la reacción nuclear. De aquí nace la idea de construir ITER.

ITER (International Thermonuclear Experimental Reactor) es un proyecto internacional que pretende demostrar la factibilidad científica y tecnológica de la fusión nuclear a escalas comerciales. En este magno proyecto está involucrada la Unión Europea, China, Rusia, India, Corea del Sur, Japón y los Estados Unidos de América. La construcción de este colosal tokamak se sitúa en Cadarache, Francia y se prevé su culminación para el año 2019. Pero no todo está resuelto, aspectos técnicos de diseño y seguridad se han cruzado en el camino haciendo de ITER un reto científico e ingenieril sin precedentes. Temas que trataré en la segunda parte de este escrito.

Finalmente, para todos los lectores que quisieran empaparse más en este fascinante tema de la fusión nuclear, los invito a visitar los siguientes 2 videos (inglés) donde se detalla el proceso de fusión y los actuales experimentos con tokamaks: Jet, ITER.

ITER, the way to fusion power (1 of 2)

ITER, the way to fusion power (2 of 2)

Acerca del autor:

Cristian Gleason González es egresado de la carrera en Ciencias (Física) de la UAEMor, actualmente estudia el segundo año de la maestría en Ciencias de la Fusión Nuclear e Ingeniería Física que forma parte del programa de cooperación europea Erasmus Mundus. Referencias:

1) Physics World , 23, 10 (Octubre 2010) , IOP Publishing Ltd ., Pp. 30. 2) Dziewonski, A. (1981). "Preliminary reference Earth model". Physics of the Earth and Planetary Interiors 25 (4): 297–356. doi:10.1016/0031-9201(81)90046-7 3) Williams, David R. (September 1, 2004). "Sun Fact Sheet". NASA. Retrieved 2008-01-23.