Computación cuántica
La teoría cuántica nos guarda dos sorpresas que colisionan con nuestro sentido común. La primera es que el acto de observación define el mundo: no existe ninguna realidad profunda, vivimos en un mundo fantasma donde nada existe hasta que se mide. La segunda es que en el mundo subatómico la noción de causalidad desaparece, quedando únicamente la probabilidad de que algo suceda. Sin embargo, ambas nos van a permitir revolucionar el mundo de la información. “Hay un montón de espacio libre ahí dentro”. Así comenzó una conferencia el genial físico Richard Feynman. Era una llamada de atención sobre la ingente cantidad de espacio descubierto en el mundo microscópico interior de la materia. La física actual se pregunta por qué no explotarlo y usarlo, por ejemplo, para transportar, almacenar y procesar información. Ese es precisamente el objetivo de la teoría cuántica de la información. ¿Quién podría imaginarse la Biblioteca del Congreso de EE UU encerrada en la cabeza de un alfiler? Y no sólo eso, también nos va a permitir codificar esa información de manera inviolable –la criptografía cuántica– y construir supercomputadoras capaces de realizar en sólo una fracción de segundo las mismas operaciones que un ordenador convencional tardaría varios
millones de años en completar.
millones de años en completar.
A la caza de la partícula divina
¿De qué está hecha la materia? A este interrogante los físicos responden que los átomos están hechos de electrones, protones y neutrones. A su vez, protones y neutrones están hechos de unas partículas más pequeñas llamadas quarks. La teoría predice que debe haber seis de ellos, de nombres tan floridos como arriba, abajo, encanto, extraño, valle y cima. En los aceleradores se han descubierto todos ellos. Pero existe una partícula predicha teóricamente que todavía no se ha encontrado con un nombre también peculiar: el bosón vectorial de Higgs. Postulada hace más de 30 años, responde a una pregunta fundamental: ¿por qué las partículas tienen masa? La culpa es del Higgs, pues es él el que da las masas a las partículas elementales. Pero hay que descubrirla. El nuevo acelerador del CERN, el LHC, tiene entre sus misiones darle caza. Si es que existe…
La nueva nano ciencia
Estamos ante el umbral de una revolución tecnológica, similar a la invención de la máquina de vapor. Es la nanociencia, esto es, la ciencia de lo muy pequeño. “Nano” es un prefijo que se añade a una magnitud para obtener un valor mil millones de veces más pequeño. Así, hablar de nanosistemas implica objetos más pequeños que las bacterias. Físicos de todo el mundo trabajan en proyectos cuya finalidad última es controlar a escala atómica nuevos materiales artificiales de diseño. Ya se han conseguido dispositivos tan variopintos como uniones túnel magnéticas, cajas y sistemas de bombeo cuánticos, transistores en los que se puede controlar el paso de electrones uno a uno... Son los pasos previos a los nanorrobots que inundan la ciencia–ficción moderna. Lo “nano” esta de moda.
Fotónica y optoelectrónica
Si las predicciones de los expertos se cumplen, en unos diez años veremos en el mercado un nuevo tipo de circuitos en nuestros ordenadores, televisores y reproductores de DVD: electrónica hecha con luz. En 25 años, llegarán los ordenadores ópticos, que serán mucho más rápidos que los actuales. Y es que a medida que vayamos miniaturizando más y más, los trozos de metal que se usan para conectar los componentes de un chip provocarán, entre otros problemas, una pérdida de velocidad. El uso de conexiones ópticas sería una alternativa, porque no tienen estos problemas, pero hay que encontrar materiales capaces de controlar y guiar la propagación de la luz a escala microscópica. Ahora bien, alcanzar una electrónica exclusivamente con fotones puede que esté lejos, e incluso que jamás se consiga. Por ello se investiga en optoelectrónica, esto es, el diseño de circuitos que usen tanto electrones como fotones. Con ella se tenderá el puente que unirá la electrónica con la fotónica y las comunicaciones ópticas.
Superconductores a temperatura ambiente
La superconductividad es la evidencia macroscópica tangible de la existencia de un mundo cuántico. Los superconductores permiten conducir corriente eléctrica sin pérdidas y, por tanto, pueden transportar densidades de corriente por encima de 2.000 veces de lo que hace un cable de cobre. Se usan en multitud de dispositivos, desde los equipos de resonancia magnética de los hospitales –los campos magnéticos se producen mediante bobinas superconductoras– hasta en la detección de campos magnéticos una milmillonésima más pequeños que el de la Tierra. El inconveniente es que un material se vuelve superconductor enfriándolo mucho. Los llamados superconductores de alta temperatura son materiales que adquieren esta propiedad cuando se baja a -138 ºC. Lo que ya no está tan claro es por qué son superconductores. La teoría clásica, llamada BCS y enunciada en 1957, falla. Hoy, la superconductividad es un campo de intensa investigación. Descubrir un superconductor a temperatura ambiente es uno de los nuevos retos.
Vida y mejor universo. Complejidad
Desde hace unos años la física está empeñada en entender la vida. Al parecer, el comportamiento de la mayoría de sistemas complejos es el resultado de procesos de auto organización. En ellos, aunque los elementos, como las hormigas o las neuronas, se comunican sólo con otros físicamente próximos, el sistema puede generar estructuras –como las manchas de un jaguar– o propiedades –como la memoria– que sólo se comprenden si se estudia todo el sistema. La complejidad parece surgir a medio camino entre el orden y el desorden. Si pensamos en términos de información, la necesidad de almacenarla requiere cierto grado de orden, pero a la vez la capacidad de adaptación y de manipular la información requiere cierto grado de desorden. La estructura del ADN es un buen ejemplo. Uno de los mayores retos a los que se enfrentan los físicos que investigan la vida es su incapacidad para predecir el plegamiento de las proteínas, es decir, por qué, entre todas las posibilidades, la larga cadena de aminoácidos se pliega de esa forma y no de otra. El problema reside en que las proteínas están construidas en el borde de la estabilidad: si fueran algo más inestables se degradarían y si fueran más estables no cumplirían su función. Las proteínas se escapan entre los dedos de los físicos. Estamos, en esencia, ante una ausencia de física.
La constante cosmológica y el universo acelerado
Para muchos éste es el enigma más fascinante de la física. Ninguna de las ideas propuestas hasta ahora ha funcionado. La constante cosmológica es algo que se sale de todo. Su historia comenzó con Einstein. Un universo en expansión era consecuencia de la teoría general de la relatividad y él no pudo creérsela. Para evitarlo, modificó las ecuaciones introduciendo un término ajeno a la teoría que detenía la expansión: la constante cosmológica. Cuando tiempo después el astrónomo Edwin Hubble descubrió la expansión del universo, Einstein declaró que la introducción de la constante cosmológica había sido el mayor error de su vida. Casi 70 años después los astrónomos han descubierto que la expansión del universo está acelerando; algo inconcebible. Ante semejante desastre los cosmólogos retomaron la constante repudiada por Einstein. Esta repulsión puede deberse a una enigmática energía oscura (véase MUY 278). ¿Pero de qué se trata? Nadie lo sabe con exactitud. Quizá quien ha expresado mejor esa perplejidad ha sido el Nobel Steven Weinberg: “Para los físicos es difícill atacar este problema sin saber qué es lo que hay que explicar”. Eso sí, si la energía oscura está en forma de constante cosmológica, nos encontraríamos ante la peor estimación teórica de la historia de la ciencia.
0 comentarios:
Publicar un comentario