Somos una molécula

La longevidad de la mosca de la fruta (Drosophila melanogaster) es de tan sólo 10 a 14 días. En ese período de tiempo tiene que ocuparse de nacer, crecer, desarrollarse, reproducirse y, finalmente, morir. Nosotros no damos crédito a una vida tan corta, se no hace difícil. Pero si esta mosca fuera conciente de si misma y de lo que le rodea, si tuviera un poco de raciocinio y se le dijera que el hombre vive en promedio 70 años (y en algunas ocasiones hasta poco mas de 100 años), es decir, alrededor de 2,130 veces la duración de su corta vida, le costaría entenderlo.

Ahora vamos nosotros. Las primeras civilizaciones aparecieron ha-ce 5,000 años aproximadamente. Eso es poco más de 70 veces la vida de una persona de 70 años. Es fácil comprenderlo. La extinción de los dinosaurios ocurrió hace 65 millones de años. Muchos conocen esta cifra, pero poco han meditado sobre cuan lejana es. Es 13,000 veces más remota que el comienzo de las primeras civilizaciones. El inicio del Universo se calcula que sucedió hace alrededor de 15 mil millones de anos (15,000,000,000). La cifra es lar-ga, pero a mucha gente le sigue pareciendo abstracta. Difícilmente se la imaginan porque no es cosa que se vea a diario. Pero podría ser más comprensible si la comparamos con algo tangible. Supongamos que toda la historia del Universo pudiera ser comprimida en unos 100 metros precisos. Ya sabemos que una tiene unidades de tiempo, y la otra es una longitud, pero solo es un ejercicio mental. Nuestro presente se localiza exactamente al inicio de esos 100 metros y el origen del Universo, el Gran Estallido (Big Bang para los angloparlantes) esta al final de esta longitud, en el metro 100. Así como tal, este ejemplo no nos dice gran cosa. Para ello debemos colocar varios elementos importantes en nuestros 100 metros. El nacimiento de las primeras galaxias se calcula que ocurrió hace 10 mil millones de anos, es decir, a 66.67 metros de nosotros. Nuestro hogar, el sistema solar nació hace 4.6 mil millones de anos, a 30.67 metros de nosotros.

Aunque mucha gente cree que la vida en nuestro planeta ha estado casi a la par de la duración de este, eso es incorrecto. En realidad la vida apareció en nuestro planeta hace 3,500 millones de años, es decir, a 23.33 metros de la actualidad. A 23.33 metros de nosotros aparecieron los primeros indicios de la vida, tal vez en forma de algas flotando libremente en antiguos mares, transformando la atmósfera rica en dióxido de carbono en una con un poco más de oxígeno. Hace 700 millones de años (4.67 metros) aparecen sobre la faz de la Tierra las primeras medusas y los primeros gusanos. Finalmente, hace 570 millones de años (3.8 metros) finaliza la primera gran Era de la historia de la Tierra, el Precámbrico e inicia el Paleozoico (Vida antigua) el cual finalizó hace 245 millones de años (1.63 metros). En este lapso de 325 millones de años (2.17 metros) se presentaron 6 diferentes períodos: el Cámbrico, con la aparición de los primeros peces, trilobites, corales y caracoles; el Ordovicico, con sus nautiloides y una mayor abundancia en corales y trilobites; el Silúrico, con la invasión de las plantas en tierra firme; el Devónico, cuyo telón de fondo sirvió para la presentación de los primeros anfibios, insectos y arañas; el Carbonífero, caracterizado por la presencia de los primero reptiles en un ambiente de bosques de pantano de carbón, y el Pérmico, con los primeros reptiles con aleta en el lomo. Al final de la Era Precámbrica se presenta una gran extinción la cual arrasó con muchos animales marinos y terrestres.

A continuación viene la Era Mesozoica (Vida media) la cual inició hace 245 millones de años y finalizó hace 65 millones de años (1.63 metros a 43 centímetros). En este lapso de 1.2 metros de historia se presentaron sucesivamente los períodos Triásico (primeros dinosaurios, mamíferos, tortugas, cocodrilos y ranas), Jurásico (dominio pleno de los dinosaurios sobre la faz de la Tierra) y el Cretácico (aparición de las primeras serpientes y mamíferos modernos).

La última Era la desglosaremos un poco más. Se trata del Cenozoico (Vida moderna) y abarca desde hace 65 millones de años hasta la actualidad. Consta de 6 períodos, los cuales son el Paleoceno (inició hace 65 millones de años o 43 centímetros en nuestra escala) y en él hubo una rápida expansión de los mamíferos, con aparición de los primeros búhos, musarañas y erizos; el Eoceno inició hace 58 millones de años (38.67 centímetros) y en él hicieron su aparición los perros, gatos, conejos, elefantes y caballos; el Oligoceno (inicio hace 37 millones de años o 24.67 centímetros) y se caracterizó por la aparición de los primeros ciervos, monos con cola, cerdos y rinocerontes. En el Mioceno (inicio hace 24 millones de años o 16 centímetros) aparecieron los primeros ratones, ratas y monos sin cola. El Plioceno inicia hace 5 millones de años (3.33 centímetros) y en el surge el Australopithecus, además de presentarse las primeras ovejas. El último período del Cenozoico es el Pleistoceno, el cual abarca los últimos 2 millones de años de historia de la Tierra hasta llegar a nuestros días. En nuestra escala, corresponde a los últimos 1.3 centímetros de los 100 metros con los cuales iniciamos el recorrido. En el Pleistoceno ocurrieron las eras glaciares y por fin aparecen los primeros seres humanos. Ahora bien, se mencionó previamente que las primeras civilizaciones aparecieron hace 5,000 años, es decir, abarcando los últimos 0.0033 centímetros (0.033 milímetros). Los últimos 2,000 años corresponden a 0.013 milímetros, o lo que es lo mismo 13 micras. Los últimos 100 años corresponden a las últimas 0.66 micras en nuestra larga escala de 100 metros.

Un glóbulo rojo de nuestra sangre mide unas 7 micras de diámetro en promedio. Nuestros últimos cien años de historia no alcanzan el tamaño de estos glóbulos rojos. Un componente de las células son las mitocondrias, las cuales son útiles para la obtención de energía para todas las actividades celulares. Miden unos 0.5 a 1.0 micras de ancho a 10 micras de largo. En nuestra escala de los 100 metros, apenas nuestros últimos 100 años de historia abarcan el grosor de una mitocondria. Ahora supongamos la sola historia de un adulto joven, digamos de 30 años, equivale a los últimos 0.2 micras, o lo que es lo mismo, 200 nanómetros. Una molécula de colágeno mide 280 nanómetros aproximadamente. Un solo año de nuestras vidas equivale a las últimas 0.0067 micras o 6.7 nanómetros. Una sola vuelta de la hélice del ADN mide 3.4 nanómetros, por lo que dos vueltas serían 6.8 nanómetros. Un año equivale a la longitud de estas 2 vueltas de la doble hélice del ADN en nuestra escala. Un día es igual a 0.018 nanómetros, mucho más pequeño que el diámetro de un átomo, el cual oscila entre los 0.1 y los 0.5 nanómetros.

Con todo este ejercicio mental no damos cuenta de cuan antigua es la historia del Universo, allá en el lejano metro 100 cuando todo inicio. Nosotros solo somos una hebra de colágena de 200 nanómetros (200 x 10–9 metros) en esta enorme distancia.

José Fco. Camacho A.

Las formas del Universo (1)

Hace poco se ha celebrado en Madrid el llamado Congreso Internacional de Matemáticos o ICM, y se ha hablado mucho de un matemático llamado Grigori Perelman que ha resuelto uno de los grandes problemas abiertos de las matemáticas, la conjetura de Poincaré. Entre otras cosas, se ha dicho que esta conjetura ayudará a conocer la verdadera forma del Universo. El caso es que en ninguna parte han tratado de profundizar un poco más ni en la ciencia matemática a la que pertenece dicha conjetura, la topología, ni en cómo exactamente va a ayudar a semejante prodigio de la astrofísica, y por eso me he liado la manta a la cabeza y he decidido (intentar) explicarlo siendo lo más claro posible, pero tampoco simplista. Así que vamos allá. En este primer artículo voy a hablar un poco de la topología y a lo que se dedica.

Lo primero de todo: la topología NO tiene nada que ver con la topografía, un error bastante habitual. La topología es una rama de la geometría que tiene como objetivo clasificar todas las formas existentes. Así de fácil y así de complejo. De ese modo, al conocerse todas, se podría ayudar a muchas otras ciencias a la hora de establecer modelos aproximados de la realidad, y en especial a la física.

Lo primero que hace la topología es tener en cuenta el asunto de las dimensiones de los objetos, desde una sola dimensión hasta las que uno quiera (no hay límite en términos abstractos). Es importante no confundir la dimensión de un objeto con la del espacio que lo contiene. Por ejemplo, una pelota tiene dimensión dos, aunque está dentro del espacio tridimensional. ¿Y por qué es esto? Pues porque si fuéramos un bicho y estuviéramos apoyados en la pelota para nosotros no sería muy distinto de un plano. Fijado un punto de partida, con dos números (latitud y longitud) nos bastaría para desplazarnos, igual que en un plano nos bastaría con saber cuándo a la derecha o izquierda y cuando arriba o abajo nos desplazamos del origen. Por otro lado, un muelle posee una sola dimensión, porque por el mismo motivo, viviendo dentro de él no notaríamos diferencia entre él y un alambre recto.

Vamos a llamar a los objetos de dimensión dos superficies (porque en verdad lo son).
Por fortuna hay métodos indirectos para poder distinguir unos objetos de otros. Del mismo modo que nosotros no necesitamos salir de la Tierra para saber que es redonda, ciertas evidencias físicas como la gravedad o el concepto de curvatura y las longitudes de las sombras nos darían pistas para saber cómo es una superficie en la que estamos atrapados.

Claro, alguien puede decir, pues para qué eso si podemos verlo desde fuera. Eso está muy bien si hablamos de superficies, pero hemos dicho que la topología se encarga de todas las dimensiones. Pensemos en dimensión tres. Igual que hay muchas clases de superficies, hay muchas clases de objetos de dimensión tres, aunque no los podamos percibir. De hecho, vivimos dentro de uno muy grande del que parece que no podemos escapar: el Universo. Así que enfocar el estudio de estas formas desde el punto de vista anterior no es una tontería, ni mucho menos.
De modo que nos centraremos en las superficies. Salvo algunas pocas excepciones de objetos unidimensionales (como por ejemplo un hilo), en nuestra vida cotidiana todo lo que nos rodea son superficies. Claro, así a priori pensar en clasificar todas esas formas parece una tarea titánica. Y en verdad lo es, además de un poco innecesaria, porque en el fondo hay formas que no son tan distintas de otras. Es por ese motivo que los topólogos, para hacerse la vida un poco menos imposible, decidieron que si podíamos coger una superficie y deformarla hasta obtener otra, entonces eran esencialmente iguales. Por ejemplo, todas las pelotas, con independencia de su radio, son iguales, porque podemos estirarlas o aplastarlas hasta tener las otras. Y no sólo eso, de hecho un balón de rugby es igual a una pelota, e incluso una cuchara es igual a una pelota. Imaginen que la cuchara es de plastilina, por tanto la pueden deformar todo lo que quieran mientras no corten ni peguen nada hasta hacer una pelota con ella. Pero por ejemplo, un donut nunca será igual a una esfera, porque por mucho que deformen, no podrán librarse del agujero del medio (por eso es importante la regla de no pegar ni cortar).

Bueno, la clasificación es ahora un poco más sencilla… ¿o no? Pues aunque parece que hemos simplificado muchísimo, aún existen demasiadas formas. De modo que vamos a pedir algo más, dos propiedades un poco extrañas pero que dan coherencia a todo el asunto.

La primera es que los objetos serán compactos. La idea de un objeto compacto es que aunque no esté acotado, posee propiedades y ventajas parecidas. Eso se consigue poniendo una serie de propiedades matemáticas que no vienen al caso, y es razonable porque los objetos no compactos de dos dimensiones son muy escasos en la naturaleza.

Por otro lado vamos a pedir que no tengan borde. Por borde se entienden finales bruscos, como las esquinas de un cubo o la base de un cono. El motivo de eso es que con nuestro truco de deformar podemos hacer suaves esos bordes, de modo que considerar objetos con borde no haría más que complicar las cosas.

Vamos mejor. Esto ya empieza a tener buena pinta. Ahora presentaré una serie de superficies importantes en el mundo de la topología. La primera de ellas ya la conocen. Es la esfera.

La esfera es una superficie muy importante. Para empezar, porque con nuestro truco de deformar, hay millones de cosas que pasan a tener la misma forma de una esfera. Sólo en mi escritorio cuento así en un momento un par de docenas (eso sin incluir todos y cada uno de mis bolígrafos y lapiceros).

El siguiente en la lista hay sido mencionada antes bajo la forma de donut. Su nombre matemático es el toro.

Es importante destacar del toro que, como decía antes, tiene entidad propia, no es como la esfera. El toro es el gran representante de todos los objetos con un agujero que conocemos, como una taza de café. El agujero hace que, por ejemplo, dos viajeros, uno que siga un círculo vertical, y otro que siga un círculo horizontal, no puedan jamás encontrarse salvo al regresar de nuevo al punto de partida (no como en la esfera, donde sus rutas se cruzan en las antípodas).
Otra cosa importante del toro es que hay una manera de dibujarlo en dos dimensiones, y es como si fuera una especie de recortable. Cogemos un cuadrado (que si es necesario podemos estirar como chicle en vertical ú horizontal, recuerden), y pegamos los lados opuestos entre sí teniendo en cuenta que las puntas de las flechas deben coincidir:

¿Por qué es importante (y mucho) esto? Porque podemos estudiar una superficie usando sólo dibujos planos. Si un bichito que viviera en una pelota de tenis evolucionara mucho, podría hacerlo, de hecho, aunque no tuviera percepción de la tercera dimensión. Y volviendo al Universo, nosotros apenas tenemos percepción de la cuarta dimensión, pero gracias a este procedimiento, podemos ver el Universo a partir de un esquema de recortables parecido a éste. Claro, es más complicado porque ahora las cosas que se juntan no son líneas sino superficies y en teoría no partimos de un cuadrado sino de un cubo, pero la idea básica se mantiene.
Pero vamos a regresar al cuadrado. A base de poner distintas flechas uno puede jugar una barbaridad y obtener formas de lo más variopintas. Incluyendo una nueva regla, que es que los lados opuestos sin flechas no se deben pegar, vamos a poner unos ejemplos a ver si son capaces de distinguir de qué figuras hablamos:

La primera, en efecto, es un cilindro, pues es como coger una tira de papel y pegarla por los extremos. La segunda, sin embargo, al tener las flechas apuntando al revés, da otra forma ligeramente distinta. La idea es que antes de pegar los extremos de nuestra tira damos un giro. Esta superficie, que seguro a muchos les suena porque la ciencia ficción la adora, es la banda de Moebius (no confundir, por cierto, con el por otro lado magnífico dibujante).

La banda de Moebius tiene una extraña propiedad: no posee nada que se pueda llamar dentro y fuera. A un cilindro, con poner dos tapas, le basta para poseer interior y exterior. Un toro y una esfera, evidentemente, lo poseen. Pero cualquier intento de hacer eso con la banda de Moebius está destinado al fracaso. De hecho, si uno se pone a andar por la cara interior de la banda, de repente aparece por la cara exterior y viceversa. Ojalá pasara eso con una esfera, en concreto con nuestro planeta (es decir, que viajando por el exterior que de repente apareciéramos en el interior). Esta propiedad se llama ser no orientable, y la banda de Moebius no es la única superficie que la posee. Los dos últimos cuadrados tampoco lo son. Es posible que algunos se hayan roto la cabeza intentando imaginar qué formas tienen. No se esfuercen, no se pueden concebir por la mente humana con claridad de lo extraños que son porque no pueden ser dibujados en un espacio de dimensión tres. El primero de ellos se llama la Botella de Klein, y el dibujo que mejor lo aproxima es el siguiente:

Es una superficie muy rara pero muy importante, la idea es que la botella tiene conectado el cuello y la base y está a la vez dentro y fuera de sí misma, pero esto es sólo una manera de hablar, porque como la banda de Moebius, no posee dentro ni fuera. La otra se llama el plano proyectivo. La representación del cuadrado de arriba no es la más habitual para referirse a ella. Se usa mucho en dibujo técnico y en perspectivas, porque en ella no existen las rectas paralelas (de hecho, se puede decir que su inventor es Leonardo Da Vinci).

Sólo me falta un ingrediente para la gran receta, y es la suma conexa de dos superficies. La idea de la suma conexa es: cogemos un tubo, pegamos un extremo a una superficie, otro a la otra, y tenemos una suma conexa. Como podemos deformar lo que queramos, al final es como si cosiéramos una superficie a otra, en cierto modo. Así que vamos a ver, la suma conexa de un toro y una esfera es… un toro con un bulto redondo enorme, ¿no? Peeero, deformamos el bulto enorme (imaginen que es como un grumo de harina que hundimos) y tenemos… pues otra vez el toro. Ahora, la suma conexa de dos toros es… pues es una figura nueva. Tener dos agujeros no tiene nada que ver con tener uno ni tener ninguno. Esta figura se llama, como es lógico, el ocho. Es representante de objetos de la vida cotidiana con dos agujeros, como unas tijeras.

Y por fin, llega la gran clasificación. Vale, vale, vale, tenemos una superficie cualquiera, que es compacta y sin borde, acordamos. Entonces:

  • Si es orientable, es o una esfera, o un toro, o sumas conexas de varios toros entre sí (tres agujeros, cuatro, cinco…)
  • Si no lo es, o es el plano proyectivo, o es la Botella de Klein, o es sumas conexas de estas dos superficies (aquí podemos mezclar, y salen cosas distintas, no como arriba, que coser una esfera no vale para nada).

Y ya está. Se acabó. No hay más. De este modo se obtienen TODAS las superficies que existen en el Universo. Si ya quieren ser más precisos, empiezan a deformar y punto, pero tampoco es necesario, porque la geometría de dos superficies, si una es deformada a partir de la otra, posee la misma naturaleza. De modo que ahora conocen todas las formas esenciales de todas las superficies del Universo. Bueno, este resultado, por supuesto, es difícil de demostrar, mucho.

Por desgracia, no se ha conseguido este resultado en las superficies de tres dimensiones, es decir, no sólo es que no sepamos qué forma tiene el Universo, es que ni sabemos con seguridad todas las posibilidades. Pero aun así, existen ciertas cosas que debería cumplir. Por otro lado, el reciente descubrimiento de Perelman ha ayudado a que haya que buscar menos formas. Pero todo esto, en la segunda parte de este artículo.

por Miguel Angel López

(Para más detalles leer el artículo La Forma del Universo, por Vicente Muñoz).

Energía Nuclear II: Fusión Nuclear

Se ha dicho que el nivel de vida y el grado de desarrollo de una civilización humana dependen de la disponibilidad de energía que tiene. En un pasado no tan remoto, el hombre disponía solamente de su propia musculatura para hacer el trabajo físico. Más adelante la mayoría de las civilizaciones tuvieron a su disposición animales domésticos para carga y tiro, tales como caballos, bueyes, camellos, elefantes y llamas. Además, aprendieron a utilizar algunos recursos naturales en su provecho, como la luz solar que permitía la agricultura; las corrientes de aguas que movían las ruedas de molinos; y la Continue reading «Energía Nuclear II: Fusión Nuclear»

Dispositivo Josephson

Para poder entrar de lleno al tema debo hacer referencia a la trilogía El Paralaje Neanderthal, de Robert Sawyer, cuya trama gira alrededor de un portal abierto entre dos dimensiones, producto de un computador cuántico en la otra dimensión, una copia de la tierra donde la especie dominante son los neanderthal y no los cromagnon.

En la nuestra se vienen desarrollando prototipos de computadores cuánticos desde hace tiempo, y en el momento en que sean viables darán un impulso al desarrollo tecnológico comparable al paso de la regla de cálculo a una Workstation de cuatro procesadores en paralelo y con una cantidad obscena de memoria RAM.

Procesando con cuántica
La computación cuántica comienza donde termina la Ley de Moore, que según cálculos se agotará alrededor del 2020, cuando la miniaturización llevará los circuitos al nivel de átomos y moléculas. Sin embargo, a diferencia del computador que abre el portal en El Paralaje, en esta dimensión tenemos computadores cuánticos bastante primitivos aún.

Uno de los renombrados en su tiempo fue el IBM Research5-qubit, que contiene cinco qubits: cinco átomos de flúor dentro de una molécula especialmente diseñada, de modo que los núcleos del flúor interactúen entre sí como bits de memoria. Para ponerla a prueba se empleó un problema conocido como «localización del orden», que consiste en la localización del periodo de una función particular, lo cual es típico de muchos problemas matemáticos básicos necesarios para aplicaciones informáticas como la criptografía, por ejemplo.

El problema puede ejemplificarse considerando un número determinado de habitaciones y un mismo número de pasillos ubicados al azar, algunos de los cuales conducen a una misma habitación. Se supone que, en cierto momento, una persona que avance por los pasillos y recorra las habitaciones volverá al punto de partida. El problema consiste en calcular, con el menor número de iteraciones, el número mínimo de transiciones que se requerirían para volver al punto inicial. El computador cuántico resolvió el problema en un sólo paso, mientras que uno convencional requeriría de hasta cuatro pasos.

Si bien el potencial de la computación cuántica es inmenso, y los últimos avances han sido muy prometedores para su desarrollo, quedan aún enormes retos por delante, antes de que estas máquinas sean accesibles al público. Si bien los computadores cuánticos serán fundamentales para la elaboración de bases de datos y para resolver problemas matemáticos complejos, es improbable que puedan usarse para procesamiento de palabras, o para navegar por Internet.
Podría especularse que los computadores cuánticos aparecerán mucho más temprano que tarde en centros de alta tecnología y complejos militares, pero a pesar de todo su potencial los computadores cuánticos no serían nada sin casi un siglo de investigación y desarrollo en superconductores.

Los superconductores

Los superconductores son metales y aleaciones que presentan cero resistencia a la corriente eléctrica a temperaturas muy bajas, típicamente inferiores a 13°K. Los superconductores se han empleado para construir electroimanes poderosos, pero las temperaturas necesarias para que estos materiales presenten propiedades superconductoras son demasiado bajas, lo que ha impedido que su uso se haya difundido.

En 1911, el científico holandés Heike Kamerlingh Onnes de la Leiden University logró bajar la temperatura del mercurio a 4ºK y observó una extraña característica en él. Se dio cuenta que la resistencia eléctrica del mercurio a esa temperatura repentinamente desapareció, fenómeno que bautizó como superconductividad.

Años más tarde, en 1933, los científicos Walter Meissner y Robert Ochsenfeld descubrieron que los materiales superconductores tienen la capacidad de repeler un campo magnético actuando como material diamagnético. Esto fue conocido más tarde como Efecto Meissner, y se ha descubierto que es tan fuerte que puede hacer levitar un imán colocado sobre un superconductor.

El primer avance teórico ampliamente aceptado sobre la superconductividad fue hecho en 1957 por los físicos norteamericanos John Bardeen, Leon Cooper y John Schrieffer, el cual fue llamado la Teoría BCS (por las iniciales de cada apellido) y que les hizo merecedores del Premio Nobel en Física en el año 1972. Esta teoría explica la superconductividad de elementos y aleaciones simples con temperaturas cercanas al cero absoluto, pero no es válida en la explicación del fenómeno a temperaturas mayores.

Un descubrimiento increíble sobre superconductividad fue hecho en 1986, cuando Alex Müller y Georg Bednorz, investigadores del IBM Research Laboratory, crearon un compuesto cerámico superconductor con la más alta temperatura registrada hasta entonces: 30°K. Este descubrimiento, (que les hizo merecedores del Premio Nobel de Física en el año 1987), fue notable, ya que generalmente las cerámicas son empleadas como aisladores puesto que no conducen corriente eléctrica.

Fue así como una nueva época en la historia de los superconductores nació dando paso a los superconductores de alta temperatura. Investigadores de todo el mundo empezaron a “crear” cerámicas de cualquier posible combinación para obtener superconductores de mayor temperatura. Actualmente, el récord mundial de temperatura para un superconductor de alta temperatura (conocidos como HTS: High Temperature Superconductor) es de 138°K, pero ello será tema para un artículo posterior.

Brian D. Josephson

Maliciosamente omití en la sección anterior al físico británico Brian David Josephson, nacido en 1940 en Cardiff (Glamorgan, Gales), que predijo a los 22 años que la corriente eléctrica podría fluir entre dos materiales superconductores. Antes de obtener su doctorado en 1964, Josephson se interesó en la superconductividad, y empezó a explorar las propiedades de una juntura entre dos superconductores, que sería conocida después como Unión Josephson.

Josephson demostró teóricamente en 1962 que en este tipo de unión los pares de Cooper (la asociación de dos electrones), que dan al superconductor su resistencia nula, son capaces de pasar de un lado a otro a través del aislante por efecto túnel (fenómeno mediante el cual los electrones, operando como onda, pueden penetrar sólidos; había sido estudiado anteriormente por los físicos Esaki y Giaever).

El efecto túnel entre dos superconductores podía tener características muy especiales, como por ejemplo el flujo de electrones a través de una capa aislante sin la aplicación de voltaje; al aplicar un voltaje, la corriente deja de fluir y oscila a gran frecuencia; se puede decir que el conjunto se comporta como si fuese un nuevo superconductor más grande a pesar de la resistencia del aislante. Éste es el efecto Josephson y es aplicado en instrumentos capaces de detectar campos magnéticos muy débiles .

Cuando Josephson propuso esta idea, era tan increíble que ni siquiera su director de tesis quiso ser coautor. El artículo fue enviado a una revista que por aquel entonces era nueva, con la esperanza que ante la necesidad de material publicaran casi cualquier cosa; el artículo se publicó y más tarde Josephson recibiría el premio Nobel de física en 1973, junto a Esaki y Giaever.
La experimentación confirmó el efecto, y su aplicación a su vez reforzó la anterior Teoría BCS. Aplicando los descubrimientos de Josephson con superconductores, los investigadores de IBM habían ensamblado para 1980 un computador experimental de velocidades de cálculo de 10 a 100 veces superior que aquellas logradas con los chips de silicio convencionales de la época.

La unión Josephson

Como mencioné en el párrafo anterior, el efecto Josephson puede emplearse en la detección de campos magnéticos muy débiles. De hace un tiempo se han venido empleando uniones Josephson para medir campos magnéticos con extrema precisión, circuitos electrónicos, puertas lógicas, amplificadores y células de memoria entre otras aplicaciones.

En el régimen clásico la unión Josephson se comporta como un inductor (bobina), pero hace un tiempo se predijo que también se puede comportar como una capacitancia (condensador) si la unión es lo suficientemente pequeña.

Ahora Per Delsing y un equipo de la Universidad Tecnológica de Chalmers en Suecia, e independientemente, Pertti Hakonen y sus colaboradores de la Universidad Tecnológica de Helsinki y del Instituto Landau de Física Teórica de Moscú han observado este comportamiento capacitivo por primera vez.

Uno de los problemas de diseño de un computador cuántico es que las múltiples superposiciones de estado, que permitirían la ejecución de innumerables operaciones simultáneamente, son tan frágiles que el intento de leerlas las destruye. Este comportamiento capacitivo podría usarse para medir, sin destruirlo, el estado cuántico de los qubits en un futuro computador cuántico. De hecho, Hakonen ha usado este modelo para leer el valor de un qubit sin alterar su valor.
Según Mika Sillanpaa, en un futuro la unión Josephson podría usarse para operaciones a gran escala en ordenadores cuánticos; y la inductancia y capacitancia de la unión Josephson juntas podrían permitir la construcción de nuevos tipos de dispositivos electrónicos tales como amplificadores paramétricos de bajo ruido.

Límites actuales al rendimiento de los computadores

El progreso en la tecnología computacional basada en semiconductores ha sido espectacular en las últimas décadas. Pero mientras las densidades en los circuitos se verán incrementadas en el futuro, será más difícil mejorar la velocidad de procesamiento, y, en particular, el rendimiento de los sistemas. Ocurre así porque el calor generado por la operación de los chips semiconductores de alto rendimiento ya es tan grande que no puede ser transferido directamente desde el chip al fluido refrigerante (por ejemplo el aire, en un sistema de escritorio o un portátil).
El chip debe en cambio unirse a disipadores de calor para incrementar la interfase sólido—líquido (usualmente una placa en contacto con aire impulsado por un ventilador en los computadores actuales) y prevenir las fugas termales con temperaturas excesivas en el chip. Sin embargo los disipadores de calor son, por necesidad, voluminosos, y no permiten empaquetamientos densos en el chip.

Puesto que las señales eléctricas viajan a velocidad finita – de hecho, no más de 1.5 cm en 100 ps en líneas de transmisión – es evidente que las conexiones deben mantenerse pequeñas de forma que los retrasos de las señales dentro del chip y a través del circuito no disminuyan la alta velocidad de procesamiento del computador.

Puede decirse que mejoras en la velocidad de procesamiento bajo los 100 ps son inconsecuentes para sistemas computacionales de alto rendimiento, a menos que el enfriamiento y el empaquetamiento del chip pueda revolucionarse de forma similar. La unión Josephson, con su baja disipación de potencia y alta velocidad de procesamiento inherente, provee la respuesta a ambos problemas.

Potencial del efecto Josephson

El potencial de los hipotéticos computadores cuánticos basados en esta nueva tecnología desafía la imaginación: velocidades de cálculo más de diez veces superior a la velocidad actual de los computadores más rápidos de hoy día, con lógica miniaturizada que disipa menos de una milésima de la potencia de los actuales dispositivos basados en semiconductores VLSI (Very Large Scale Integration, integración a muy alta escala).

Dos atributos de los computadores cuánticos basados en el efecto Josephson tienen la clave de este gran potencial: velocidad de cálculo de 10 ps o menos y disipación de potencia para cada elemento medido en uW. Características impresionantes como estas no se consiguen fácilmente. Para alcanzar la superconductividad, los dispositivos Josephson deben enfriarse a 4ºK por inmersión en helio líquido. La física de estos dispositivos involucra una mezcla de mecánica cuántica, electromagnetismo y teoría de superconductores.

Gracias a su baja disipación de potencia, las uniones Josephson eliminan la necesidad de elaborar disipadores de calor, requeridos por los actuales chips semiconductores de alto rendimiento. Sin disipadores de calor, un empaquetamiento (integración) más denso puede ser logrado, resultando en una reducción tanto del tamaño general del computador como del retraso de la señal entre los chips.

La refrigeración directa de los dispositivos Josephson por inmersión en helio líquido, a pesar de requerir una ingeniería cuidadosa, es enteramente factible hoy en día: los criostatos de helio ya están actualmente en uso para una variedad de aplicaciones.

Pros y contras de la baja temperatura

Puesto que los dispositivos Josephson operan a sólo unos pocos grados sobre el cero absoluto, deben sumergirse en helio liquido. Hirviendo a presión atmosférica, el helio liquido mantiene una temperatura de 4.2ºK. La baja temperatura es a la vez beneficiosa y dañina.

Un aspecto beneficioso es que cables superconductores pueden ser usados muy delgados, lo que ayuda al proceso LSI. Otro beneficio de las temperaturas muy bajas es que el ruido (distorsión de las señales) a causa de la energía termal es aproximadamente 90 veces menor a 4ºK que a 350ºK, donde los dispositivos semiconductores usualmente operan.

Reacciones químicas y físicas tales como difusión, corrosión y electromigración están también virtualmente detenidas a 4ºK. Éstos y otros factores ofrecen el potencial para una operación ultraconfiable, a condición de que, por supuesto, no se presenten nuevos tipos de falla producidos por el ambiente de baja temperatura, tales como expansión termal: un potencial problema que puede resolverse eligiendo los materiales adecuados.

Por otra parte, la necesidad de ambientes de baja temperatura supone un costo agregado de mantenimiento por el criostato y los refrigeradores de helio liquido, además de los inconvenientes de mantener y dar servicio a computadores en un ambiente criogénico.

Volando sin red

Cuando la actual tecnología de superconductores de alta temperatura sea superada, requiriendo de temperaturas de 165-170ºK para operar (puede sonar mucho, pero no es menos que la temperatura de un congelador doméstico) podremos ver desarrollos que hoy son materia de ciencia ficción.

Podrá haber computadores lo suficientemente rápidos para albergar inteligencias artificiales que puedan interpretar simultáneamente o que puedan ejecutar software de interpretación de modo que reemplacen a las actuales secretarias, mucho más eficientes y menos adictas a conversar por teléfono.

Estos computadores podrán tener la suficiente capacidad de cálculo de modo de poder mantener proyecciones actualizadas al minuto de la economía mundial, y de todos los posibles escenarios dependiendo del movimiento de los índices económicos, así como proporcionar un análisis estadístico minucioso de las diferentes tendencias en el comercio mundial.

Tal vez podrá realizarse el proyecto del túnel submarino Nueva York – Londres, previamente simulado informáticamente para lograr el mejor diseño. Si alguna vez se ejecuta el proyecto de la pirámide de la bahía de Tokio, probablemente en su proyección se encontrará involucrado un computador cuántico.

Probablemente cuando los primeros computadores cuánticos entren en operación de forma confiable serán parecidos a UNIVAC, que ocupaba una gran habitación herméticamente sellada y que operaba a una temperatura constante de 50ºC: verdaderos mastodontes a los que el acceso estaba restringido a personas del mundo académico y militar. Nadie pensaba en esos años que muchas veces la capacidad de UNIVAC hoy podía encontrarse en algo tan diminuto como un reproductor de mp3, sumergido en las profundidades de un bolsillo o una cartera.

Tal vez un par de siglos después de la masificación de la computación cuántica, con superconductores a temperatura ambiente baratos y confiables, la humanidad será tan tecnodependiente que tal vez las decisiones importantes serán dejadas a cargo de un computador, que decidirá el rumbo de los países y de los proyectos científicos. La prensa escrita será de autoría de alguna IA, y la administración de pequeñas empresas y estados estará en manos de algún computador cuántico corporativo.

Si soñar no cuesta nada, probablemente todos llevaremos un computador cuántico en un implante que se dedique a grabar en forma permanente nuestro entorno, conectarse inalámbricamente a una base de datos, ordenar una pizza, interpretar simultáneamente cuando estemos visitando un país de lengua desconocida, dar aviso en caso de emergencia, recordar las citas y las fechas importantes, todo ello energizado por la temperatura corporal o por un generador hemodinámico.

Lo cierto es que cada vez que nuestra tecnología informática da un salto hacia delante, también el desarrollo da un gran paso; esperamos que la capacidad que proporcionen los computadores cuánticos sea empleada no para planear la obliteración del algún difuso y probablemente inexistente Eje del Mal, sino para el desarrollo de curas para enfermedades que hoy no son curables, para la recuperación del medio ambiente y la exploración de nuevos lugares.

Los Pilares del Imperio

La literatura de ciencia ficción en Chile fue sacudida, a fines del tercer trimestre de 2005, por Ygdrasil, la ópera prima de Jorge Baradit. Considerando lo pequeño de la oferta de género fantástico en Chile, resulta curioso y tal vez injusto que la obra de ciencia ficción comentada en estas líneas, aparecida casi al mismo tiempo que Ygdrasil, haya pasado casi sin levantar una mota de polvo en la prensa.

Los Pilares del Imperio, la obra de Miguel Lagos Infante, nos presenta un argumento que promete situar a nuestro país en el centro de una revolución a escala planetaria. Vamos viendo: un científico chileno, Ismael Grau, descubre un material plástico que posee casi 100 veces la conductividad eléctrica del cobre y, comparado con éste, es muchísimo más barato de producir. Las implicancias de tan prodigioso material prometen revolucionar el mercado, según lo narrado en la historia. Continue reading «Los Pilares del Imperio»