Cuestión de Medidas

por José Fco. Camacho

I. Cuestión de Medidas.

Sueños de niño
Una vez, cuando niño, hice una pausa en mi vida y por motivos que ignoro me puse a meditar de manera casi filosófica. Me preguntaba sobre tantas cosas, sobre todo aquello que me llenaba de dudas, me cuestionaba sin llegar a responderme sobre muchas cosas que yo desconocía, tal vez debido a la cortedad de mi edad. Me preguntaba desde por qué las cosas caen y no vuelan, hasta por qué uno tenía que ir a la escuela. Muchas cosas eran banales, pero otras me llenaban de angustia (¿por qué vivimos?, ¿qué es la muerte?, ¿qué es existir?). Creo que todos en alguna parte de nuestra vida nos hacemos las mismas preguntas, y es razonable. El ser humano por naturaleza, desde que pisó por primera vez la faz de éste planeta, siempre se ha cuestionado sobre muchas cosas y entre ellas está el preguntarse de donde viene, por qué está aquí y a donde va. Desde cualquier individuo común y corriente, hasta los grandes filósofos se han venido haciendo las mismas preguntas así que yo no iba a ser la excepción de mis congéneres.
Más no son esas dudas y sus posibles respuestas las que interesan en éste pequeño espacio. Después habrá oportunidad de divagar un poco sobre el tema, pero no ahora. A lo que iba es que entre tanto cuestionamiento, de vez en cuando me hacia algunas preguntas sobre lo que debía ser el Universo. En éste punto, tal vez pocas personas han tenido las mismas dudas, y posiblemente sean muchas las que ni les interese en absoluto esta área. Sólo aquellas personas que de niños han levantado su mirada al cielo nocturno y han querido saber cuan grande debía ser el Universo, de que estaba compuesto, por qué era negro y no de otro color, por qué había estrellas y cuán distantes estaban con respecto a nuestros hogares, podrán comprender todo esa avalancha de pensamientos y de dudas que se vertían en mi tierno razonar infantil. Una vez que fui creciendo y tomando más conciencia de que debía resolver mis dudas como buen ser humano que era, comencé a investigar parte de lo que cada noche al admirar el cielo plagado de estrellas venía a mi mente en forma de una pregunta. De primera instancia, me interesaba sobremanera la longitud del Universo, deseaba saber cuantos kilómetros medía. ¿Tal vez algunos cientos?, ¿miles de millones?, ¿infinito?, ¿qué significa infinito? Como pueden ver no tenía ni la más remota idea de la realidad. Incluso ante la casi seria necesidad de conocer eso y otras tantas cosas más, comenté en más de una ocasión a mis padres con suma formalidad infantil mi enorme deseo de ser astrónomo. Sostenía la firme postura de que anhelaba llegar a conocer y comprender al Universo en su vastedad. ¡Ja!, de verdad no sabía que estaba diciendo.

Nuevas medidas
Después de comentar mi sueño de niño de ser astrónomo, ahorre un poco de dinero con el que me fui haciendo de algunos libros relacionados con el increíble y fascinante tema de la astronomía y con paso lento y seguro fui comprendiendo muchas cosas. Al fin me enteré que medir el Universo con kilómetros era comparable con medir una ciudad con granos de arena fina, una tarea engorrosa y harto difícil. Así que alguien sacó de su cabeza la genial idea de utilizar una nueva unidad de longitud, y fue algo grandioso. Ahora, cualquiera que quiera decir que la Tierra está separada del Sol por aproximadamente 149,597,870 kilómetros, puede sólo mencionar su equivalente astronómico, es decir, que ambos cuerpos se separan por 8 minutos-luz. Se escucha más elegante y simple, ¿no lo creen así? Esta fabulosa medida consiste en medir una longitud por la distancia que recorre un haz de luz en un determinado período de tiempo. Por lo tanto, un segundo-luz equivale a 300,000 kilómetros, pues esa es la distancia que ha recorrido en un segundo. Un minuto-luz serían 18,000,000 kilómetros, un día-luz 25,920,000,000 kilómetros y un año-luz unos 9,460,000,000,000 kilómetros. En la escuela se nos enseña que la estrella más cercana a nuestro sistema solar es la llamada Alfa Centauri (la estrella alfa de la Constelación del Centauro). Ésta estrella está a unos 4.5 años-luz de distancia, o sea, unos 42,570, 000,000 kilómetros. La Vía Láctea, nuestra galaxia, tiene unos 97,800 años-luz de diámetro, algo así como unos 925,188,000,000,000,000 kilómetros. Notan que es más fácil decir noventa y siete mil ochocientos años-luz que novecientos veinticinco mil ciento ochenta y ocho billones de kilómetros. Y qué dirían si les dijera que nuestra galaxia forma, junto con otras veinte galaxias más, el denominado grupo Local, pero que existen otras agrupaciones denominadas en general cúmulos galácticos y que el más cercano (el cúmulo de Virgo) está a 65,200,000 años-luz de distancia, o sea, a 616,790,000,000,000,000,000 kilómetros (seiscientos dieciséis trillones, setecientos noventa mil billones Seiscientos dieciséis trillones, setecientos noventa
mil billones). Realmente sorprendente.

Notación científica.
Y en medidas así, que incluso los años-luz resultan insuficientes, los científicos han sacado a uso otra idea no menos maravillosa: la notación científica. Con ella, la distancia al Cúmulo de Virgo es de 65,2000,000 años-luz, o 6.52 x 107 años-luz. O también 6.16792 x 1020 kilómetros. Como se ve, éste sistema utiliza potencias de 10. El 107 del número 6.25 x 107 tiene dos componentes: el exponente, que es variable y en este caso está representado por el “7”, y la base, que siempre será 10 por ser potencia de 10. El exponente nos indica cuantos dígitos a la derecha del punto hay en una cifra. Así, en 6.25 x 107, se colocan 7 dígitos después del punto decimal, es decir, los números 2 y 5 y otros cinco ceros para completar lo expresado por el exponente. En 6.16792 x 1020 el exponente es 20 y tenemos ya cinco cifras que son “16792” por lo que inmediatamente después de ellas se deben colocar quince ceros para completar lo dictado por el exponente. Algo más, 6.16792 x 1020 puede expresarse sencillamente como 6.2 x 1020, dado que es una aproximación a una distancia de la cual no sabemos con precisión la longitud real, y en un momento dado, puede ser “más precisa” que 6.16792 x 1020.
¿Por qué es más correcta una cifra con apenas dos dígitos que una de seis? Sencillo, aquí es donde entra en juego el concepto de Cifras Significativas. Tomemos para explicarlas un ejemplo: tenemos una barra de metal y queremos medirla. También tenemos dos reglas, una que mide solo en centímetros y otra que lo hace en centímetros y en milímetros. Un tercer instrumento, un Vernier sencillo, nos puede dar medidas de hasta 0.1 milímetros. Hacemos la primera medición y vemos que la barra de metal mide con la regla de centímetros unos 7 cm. y un tercio de la distancia entre el centímetro 7 y el 8. Con la segunda regla, la de centímetros y milímetros, medimos y encontramos una medida de 7.3 cm., pero vemos que la longitud de la barra de metal está entre el milímetro 73 y el 74. Por último, utilizamos en Vernier y obtenemos una cifra igual a 7.34 cm. y, aún así, una buena observación, vemos que la longitud queda entre 0.4 y 0.5 mm. Y ya no tenemos más instrumentos para seguir adelante.
Tres medidas. La primera es inexacta, en su totalidad. La segunda se aproxima un poco más y la tercera es un tanto más certera. Nos indica tan solo una aproximación: la barra mide entre 7.33 y 7.35 cm. Suponiendo que tuviera una longitud real de 7.3478 cm., cae dentro de nuestra medición. Tomamos un cuarto instrumento que registra hasta 0.01 mm. y dado que la precisión de una medida depende tanto de las limitaciones del aparato que la mide, como de la habilidad con qué este instrumento se use, obtenemos una medida de 7.345 cm. Ello nos indica que la barra mide entre 7.344 y 7.346 cm., y ese intervalo no abarca la longitud real de 7.3478 cm. por lo que nuestra medición dejó de ser exacta.
El concepto de cifras significativas se refiere a todas las cifras que son conocidas con certidumbre, y además otra que es una aproximación. De esa forma, en 7.33 cm tenemos tres cifras significativas y donde estamos seguros de que sean 7.3 cm, y que el 0.03 cm es una aproximación. Por lo tanto, la distancia al cúmulo de Virgo se expresa mejor como 6.2 x 1020 km que 6.16792 x 1020 km en un momento dado. El 6.2 x 1020 indica que puede estar a una distancia de 6.1 a 6.3 x 1020, algo que a todas luces resulta más cómodo y “preciso” que un intervalo de 6.16791 x 1020 a 6.16793 x 1020.
Existen cuatro reglas sencillas para determinar el número de cifras significativas en una medida registrada, y son las siguientes:
1. Todos los dígitos, o cifras, excepto el cero, son siempre significativos;
92 Dos cifras significativas.
93.3 Tres cifras significativas.
2. Uno o más ceros, utilizados después del punto decimal, son significativos;
4.700 Cuatro cifras significativas.
3. Los ceros colocados entre otros dígitos o cifras significativas siempre son significativos;
5.709 Cuatro cifras significativas.
509 Tres cifras significativas.
4. Los ceros que se utilizan únicamente para establecer el espacio del punto decimal no son significativos. Los ceros solo se utilizan para ocupar el lugar.
7,000 Una cifra significativa.
0.00689 Tres cifras significativas.
La astronomía es hermosa. Saber que existen muchos mundos distintos al nuestro, inexplorados y lejos de nuestras posibilidades de visita, tan distintos al nuestro nos hace volar la imaginación y comenzamos a fantasear sobre ellos. Todo el orden que hay en el Universo, cada objeto siguiendo al pie de la letra las Leyes Físicas conocidas y otras que apenas se vislumbran.
Allá afuera, lejos de nuestro hogar llamado planeta Tierra, existen cientos de miles de millones de galaxias, cada una con un promedio de unos miles de millones de estrellas conformándolas. Si quería ser astrónomo, tenía un vasto campo para estudiar. Por lo tanto, seguí abriendo los viejos librillos de astronomía para principiantes, tan sólo para saber un poco de las bases de lo que reina en el Universo y me decidí por ser, en definitiva, un pequeño astrónomo, pero aficionado, solamente. Únicamente lo haría por pasatiempo, sin jamás llegar a ser un profesional. Admiraría el cielo nocturno, sabría un pedazo de todo lo que significa, pero no me dejaría ser devorado por su abrumadora e incuantificable grandeza…

por José Fco. Camacho

Que salga el mal, que entre el bien. Larga vida al escepticismo

Con el paso de los años, mi infancia ha ido ganando un aura de realismo mágico que no era evidente cuando la vivía. A los recuerdos comunes, compartidos por much@s de mis amig@s de hoy, como el de jugar a los autitos, hacer tareas o ver televisión, sumo otros más insólitos, como el de saltar sobre un brasero en que quemábamos sahumerios (los cuales se vendían como un producto medicinal más en la farmacia, envueltos en paquetitos que traían de regalo una carta de tarot); el de hacer fumar a un eternamente sonriente ekeko cargado de saquitos cuyo contenido fue obsesión de muchas de mis tardes de ocio; o, quizás liderando el ranking de lo bizarro, el de alimentar con limaduras de hierro un imán que en casa considerábamos que estaba de alguna manera vivo (escalofriante, ¿no?). Sigue leyendo Que salga el mal, que entre el bien. Larga vida al escepticismo

Ciencia Ficción como creadora de Zonas de Desarrollo Próximo: “el profesor literario”

por Marta Alejandra Silva Fernández

1.- Introducción

Si bien soy una aficionada a los temas relacionados con las llamadas ciencias exactas, considero que no sé lo suficiente. Todo lo que he aprendido durante estos años se lo debo a algunos de mis héroes de la adolescencia. El principal de ellos es Carl Sagan, quien a través de su serie Cosmos y sus libros excitaron mi imaginación y educaron mi intelecto. Una influencia no menos importante la tuvieron autores de ciencia ficción, siendo el paradigma de esta influencia Julio Verne, con relatos desbordantes de imaginación y aventuras.

Considerando que soy antropóloga, una científica de las llamadas ciencias blandas, ¿cómo es posible que me entusiasmen cosas que escapan al sentido común tales como reflexionar sobre la validez de las leyes de Newton en Viaje alrededor de la Luna [8]; imaginar viajes en el tiempo con las curiosas implicancias prácticas que este acto tendría; o pasear bajo un cielo tapizado con constelaciones jamás vistas por ojo humano? Son pequeños ejemplos de lo que induce en mí la ciencia ficción.

Estos pensamientos de alguna forma me han convertido en voraz lectora de biografías de distintos científicos/as y me ha llevado a documentarme sobre la vida y obra de muchos de los más importantes escritores de ciencia ficción. De este modo descubrí que muchos de ellos/as poseían un gran conocimiento de las ciencias. Es más, muchos/as fueron científicos/as o, al menos, entusiastas lectores de todo lo relacionado con las ciencias.

Considerando mi interés profesional que dice relación con el estudio de los mecanismos involucrados en la transmisión del conocimiento científico, desde que se genera en las altas esferas académicas hasta que llega a la persona de calle, se explica este documento.

En el presente artículo se pretende realizar una propuesta metodológica-teórica respecto de la enseñanza de las ciencias basada en el constructivismo pedagógico. Para idear esta propuesta se recurrió al constructivismo de Vigotsky (*), específicamente en su concepto de Zona de Desarrollo Próximo (ZDP), además de dar cuenta del enfoque Ciencia-Tecnología-Sociedad (CTS) de enseñanza de las ciencias y aspectos básicos de la teoría de la comunicación.

Comienzo del supuesto que la ciencia ficción y la difusión científica pueden aportar a la comprensión de contenidos referentes al área de ciencias con enfoque CTS. De esta forma, pretendo concebir al libro de ciencia ficción ya no como un mero medio para distraerse y distenderse sino como un agente activo cargado de conocimientos que son transmitidos a través de un “profesor” con un bagaje biográfico formativo intelectual capaz de crear una zona donde el autor pasa a ser una persona que enseña y el lector adquiere conocimientos casi en forma “osmótica”, pues habría estado abocado a disfrutar de las aventuras del libro en cuestión.

Para desarrollar esta idea, es necesario remontarse a tres aspectos claves: El constructivismo, la Zona de Desarrollo Próximo de Vigotsky y la Teoría de la Comunicación.

2.- El constructivismo en el Aula

Antes de abordar el tema del constructivismo pedagógico, es necesario puntualizar que la teoría constructivista concibe la realidad como un consenso entre las personas. Se puede articular la realidad a través del lenguaje. De esta forma la realidad no existiría, puesto que sólo sería una representación del cerebro.

Así, la concepción constructivista se presenta no en el sentido estricto de una teoría, sino más bien como un marco explicativo que parte de la concepción social y socializadora de la educación escolar… [1]. En este sentido, se entiende que el constructivismo parte del consenso que dice relación al carácter activo del aprendizaje, lo que lleva a aceptar que éste es producto de una construcción personal, pero en la que interviene no sólo el sujeto que aprende, sino que también están presentes otros sujetos, que denomino “agentes culturales”, que posibilitan este aprendizaje gracias a su mayor experiencia y conocimiento.

Los agentes culturales, en este contexto, son piezas imprescindibles para el aprendizaje. De acuerdo a esto, las personas aprenden cuando son capaces de elaborar una representación personal sobre un objeto de la realidad o contenido que pretende aprehender. Así, se aproxima no desde la nada sino que desde las experiencias, intereses y conocimientos previos que presumiblemente pueden dar cuenta de los nuevos conocimientos adquiridos.

Podemos resumir el proceso de aprendizaje como un proceso de equilibrio-desequilibrio-equilibrio. Me explico: cada ser humano poseería esquemas mentales, los llamados “esquematas de conocimiento”, que son estructuras en las cuales se alojan nuestras experiencias, ideas e imágenes que poseemos acerca del mundo o de la realidad. En otras palabras son los esquemas de significados acerca de las cosas que cada uno/a posee para explicarse la realidad.

El proceso de aprender consiste entonces en hacer que se modifiquen estos esquemas de conocimiento, produciendo del “equilibrio inicial” (por ejemplo, nuestra idea inicial acerca de cómo creemos que funciona un átomo) un desequilibrio, a través de la incorporación de información nueva; provocar el llamado “conflicto cognitivo” (siguiendo con el ejemplo, es cuando a través de imágenes, palabras, sonidos, etc. y en base a mis ideas anteriores yo me cuestiono lo que sé, así integro la nueva información acerca de cómo realmente funciona un átomo). Así, para incorporar el nuevo conocimiento yo reestructuro el esquema, quedando uno nuevo. Terminado este proceso, podemos decir que volvemos a un equilibrio y que “hemos aprendido”.

Cuando sucede el proceso anteriormente descrito, se dice que se está aprendiendo significativamente, esto es construyendo un significado propio y personal acerca de un determinado objeto. La idea es que este proceso se realiza gracias a la ayuda de otra persona. Esta persona, para que aprendamos, debe primero conocer nuestros esquematas previos, para poder trabajar desde esa base y hacer que el aprendizaje se produzca.

En el plano de metodología el constructivismo asume todo un conjunto de postulados en torno a la consideración de la enseñanza como un proceso conjunto, en el cual el alunmo/a, gracias a la ayuda que recibe de su profesor, puede mostrarse progresivamente competente y autónomo en la resolución de tareas, en el empleo de conceptos, en la puesta en práctica de determinadas actitudes y en numerosas actitudes.

Así, el motor de todo este proceso hay que buscarlo en el significado que el alunmo/a le atribuye a lo que va a aprender (explicitar esquematas previos). En este significado intervienen los aspectos referentes a lo que le interesa, lo que siente y a lo que relaciona el/la alumno/a respecto de lo que va a aprender. Siguiendo con el ejemplo anterior, el profesor, o la persona que ayuda a aprender, además de investigar acerca de las ideas previas que el alumno/a tenía acerca del funcionamiento de una átomo, debe también considerar qué siente y qué le/a motiva acerca de ese tema, para hacer así más factible el proceso de aprendizaje.

3.- La enseñanza de las ciencias: el enfoque CTS

Las siglas CTS siglas sirven para reconocer hoy en día a un movimiento de reforma de la educación a nivel mundial que se puede definir como la enseñanza y el aprendizaje de la ciencia en el contexto de la experiencia humana. En otras palabras, implica enseñar desde el constructivismo ciencia contextualizada, vale decir, formar actitudes, valores, normas de comportamiento respecto a la intervención de la ciencia y la tecnología en la sociedad “con el fin de ejercer responsablemente como ciudadanos y poder tomar decisiones razonadas y democráticas en la sociedad civil” [2]. Se entiende entonces que esta enseñanza sería una opción educativa transversal que da prioridad sobretodo a los contenidos actitudinales (cognitivos, afectivos) y axiológicos (valores y normas).

Entonces los alumno/as, además de adquirir conocimientos y potenciar su aplicación en la vida real o en problemas donde se requiera aplicar este conocimiento, también deberán adquirir algunas capacidades para ayudarles a interpretar, al menos de forma general, cuestiones controvertidas relacionadas con los impactos sociales de la ciencia y la tecnología y con la calidad de las condiciones de vida en una sociedad cada vez más impregnada de ciencia y, sobre todo, de tecnología.

Se puntualizan algunas características que mejor definen los objetivos de esta corriente basándose en Garritz [5].

  1. La identificación de problemas sociales relevantes para el estudiantado y de interés e impacto local o mundial.
  2. La participación activa de los alumno/as en la búsqueda de información que – pueda se aplicada para resolver problemas de la vida real.
  3. La extensión del aprendizaje más allá del periodo de clases.
  4. El enfoque del impacto de la ciencia y la tecnología sobre los alumno/as de forma individual.
  5. La visión que el contenido científico va más allá que un conjunto de conceptos que los estudiantes deben dominar para responder a sus exámenes y aprobar.
  6. El énfasis en el proceso de adquisición de las habilidades que los alumno/as requieren para resolver sus propios problemas.
  7. La intensificación de la orientación vocacional hacia las carreras científicas o técnicas.
  8. La identificación de los medios por los cuales la ciencia y la tecnología tendrán impacto sobre la sociedad en el futuro.
  9. La cesión de cierta autonomía a los alumno/as durante el proceso de aprendizaje.

En resumen, este enfoque apuesta a la mirada constructivista, donde el énfasis está en el llamado aprendizaje significativo. De esta forma, se brindan cursos como historia de las ciencias, biografías de científicos, contextos mundiales, filosofía de la ciencia, políticas científicas, etc.

4.- La enseñanza como proceso de creación de zonas de desarrollo en el contexto de educación CTS

De acuerdo a lo que he señalado anteriormente, es necesario que me refiera al constructivismo de Vigotsky. En este plano se entiende que este autor otorga una gran importancia a los procesos de interacción social (no se puede construir realidad sin las demás personas o agentes culturales). En palabras de Bouzas “Vigotsky concede un papel de enorme importancia a la interacción social en la elaboración de los instrumentos cognitivos. Para él, las funciones psicológicas superiores se desarrollan, en un primer paso, en el curso de la relación de un niño con otro u otros más competentes o con los adultos. En un segundo paso, estas funciones se internalizan” [3].

De esta forma, la condición básica para que la ayuda educativa sea eficaz y pueda realmente actuar como tal es, por tanto, la que esa ayuda se ajuste a la situación y las características que presenten los/as alumnos/as en el proceso de aprendizaje. Sintetizando lo anterior, la ayuda debe conjugar dos grandes características:

Debe tener en cuenta los esquemas de conocimiento de los alumnos/as en relación al contenido del aprendizaje de que se trate, y tomar como punto de partida los significados y los sentidos que, en relación a ese contenido, tengan los alumnos/as.

Al mismo tiempo, debe provocar desafíos y retos que hagan cuestionar esos significados y sentidos y fuercen su modificación por parte del alumno/a y asegurar que esa motivación se produce en la dirección deseada. La idea es que la enseñanza debe apuntar fundamentalmente a aquello que no conoce y/o no domina suficientemente. Se debe ser exigente y se los debe exponer a situaciones que les obliguen a realizar un esfuerzo de comprensión y de actuación.

De lo anterior, se desprende que la ayuda es fundamental, la “ayuda ajustada” como la denomina Javier Onrubia, y que pretende incrementar la capacidad de comprensión y actuación autónoma por parte del alumno/a. La idea fundamental es que lo que el alumno/a puede realizar con ayuda en un momento dado podrá realizarlo más tarde de manera independiente, y que el hecho de participar en la tarea conjuntamente con un compañero más competente o experto es precisamente lo que provoca las reestructuraciones y los cambios en los esquemas de conocimiento que harían posible esa actuación independiente [1].

Aquí es justamente donde Vigotsky propone, en su marco de una posición teórica global que defiende la importancia de la interacción con otras personas como origen del desarrollo humano, la llamada Zona de Desarrollo Próximo que, en palabras de Onrubia, se define como la distancia entre el nivel de resolución de una tarea que una persona puede alcanzar actuando independientemente y el nivel que puede alcanzar con la ayuda de un compañero más competente o experto en esa área.

En otras palabras, la ZDP puede definirse como el espacio en que, gracias a la interacción y ayuda de otros, una persona puede trabajar y resolver un problema o realizar una tarea de una manera y con un nivel que no sería capaz de tener individualmente. Bouzas señala también al respecto que la ZDP señala la distancia entre:

El nivel real de desarrollo (capacidad de resolver independientemente un problema), y el nivel de desarrollo potencial (aquel que se visualiza cuando el niño resuelve problemas guiado por un adulto o como producto de la colaboración de otro compañera más competente. [3], pág 41.

La idea es que en esta zona, donde gracias a los soportes y a la ayuda de los otros, puede desencadenarse el proceso de construcción, modificación, enriquecimiento y diversificación de los esquemas de conocimiento que define el aprendizaje escolar. Aquello que puede realizarse en el plano de lo social o de lo interpersonal, podrá más tarde realizarse y ser dominado por el participante inicialmente menos competente.

Ejemplificando, con el funcionamiento del átomo podemos decir que el/la alumno/a a través del proceso que denominamos equilibrio-desequilibrio-equilibrio (que sucede sólo con ayuda de otra persona más experimentada) ha adquirido nuevas habilidades. O sea que luego, sin ayuda de la otra persona, podrá ser capaz de explicar el funcionamiento de un átomo por sí solo/a. Sólo así, entonces, podemos decir que el proceso de aprendizaje ha sido exitoso.

¿La interacción social entre un individuo más competente y uno menos competente que da como resultado la modificación de esquemas y por tanto la capacidad de actuar autónomamente en posterioridad es siempre directa? O dicho de otra forma ¿es posible que en la zona de desarrollo intervengan “tutores o profesores indirectos”? ¿Puede crearse zona de desarrollo en algún tipo de comunicación mediatizada materialmente?

Se dejarán estas interrogantes en suspenso pues antes de responderlas es necesario adentrarse en una de las corrientes de enseñanza de las ciencias con el enfoque llamado Ciencia-Tecnología-Sociedad (CTS) que se basa en el constructivismo. Posteriormente se retomarán como base del planteamiento de este informe acerca de la ciencia ficción que enseña ciencia.

5.- CF como campo fructífero de creación de ZDP

La ciencia ficción (CF), junto a la producción científico-técnica en sentido estricto y la difusión científica, son los tres niveles desde los cuales son posibles la comunicación de la ciencia.

La difusión científica es un género que se caracteriza por la facilidad de comprensión. El objetivo es instruir a las personas poco o nada familiarizadas con las ciencias, en forma sencilla y clara.

La ciencia ficción, por su parte, se caracteriza por poseer un perfil más lúdico. Sus objetivos pueden variar de autor a autor, pero básicamente consiste en entretener. También sirve como campo de pruebas para explorar ideas poco ortodoxas, en realidades distintas a las usuales. Esto último es imposible de hacerlo en los géneros tradicionales, en donde se exige implícitamente “realismo”. La ciencia ficción, por tanto, es un género que no posee límites. Todo está permitido.

Antes de seguir me gustaría señalar que no estoy completamente conforme con el nombre “ciencia ficción”, pues de alguna forma induce a pensar en “ciencia irreal”. En inglés el término es “science fiction”, cuya traducción más coherente, a mi juicio, es “ficción científica”. De esta forma, queda de manifiesto que es un género de historias no-reales, pero con una componente de ciencia-real.

Ahora bien, sucede que las historias de ficción científica, en particular aquella variante denominada ciencia ficción “hard” o dura, muchas veces es de naturaleza especulativa y utiliza muchos conceptos de ciencias. Estos conceptos, leídos en un libro de texto serio, poseería un tratamiento un tanto abstruso para quien no tenga un entrenamiento formal en el lenguaje matemático-científico. Pero en ciencia ficción, por su mismo carácter lúdico, estos mismos conceptos pueden poseer una explicación más coloquial, menos rigurosa, pero sí efectiva para el propósito que aquí se plantea: instruir a un lector en ciencias.

De esta forma, la ciencia ficción, se caracteriza por su facilidad de comprensión, aun a costa de la verosimilitud temática. Algunos científicos como Carl Sagan e Isaac Asimov, han sido capaces de transmitir sus conocimientos científicos a través de estos tres niveles, adaptándose en cada momento a estos tres tipos de audiencia.

Justamente por su facilidad de comprensión, el constructivismo pedagógico puede ser fructífero, dado que apela a los esquemas de conocimiento que poseen los alumno/as, quienes en principio estarán más familiarizados con el lenguaje utilizado en la ciencia ficción, que el que se utiliza en textos de estudio.
Recordemos que uno de los principales objetivos de la educación con enfoque CTS es el de alfabetizar científica y tecnológicamente, además de promover vocaciones científicas y de contextualizar la labor científica y la producción de conocimientos científico.

El interés que se pretende expresar en este trabajo radica en la ciencia ficción y en los autores que han escrito sobre temáticas altamente especulativas y que no necesariamente tienen una respuesta definitiva hoy en día. Ejemplos hay tantos como relatos de este género existen y cito algunos: ¿puede haber vida en la superficie de una estrella de neutrones?, ¿se puede llegar a estrellas que distan a varios años-luz de nuestro sistema solar?, ¿se podrían desarrollar máquinas que piensen como seres humanos y que sientan como ellos?, ¿Se puede viajar a una época anterior?, ¿Puede alcanzarse el extremo final del universo o llegar a otros universos? La respuesta a todas estas preguntas es, a mi juicio, un categórico NO. En palabras de Miquel Barceló (**), el hecho que la ciencia niegue estas posibilidades no impide que sea factible especular sobre ellas u otras parecidas. De esta forma, esta sería una de las principales funciones y atractivos de la ciencia ficción, cuyo objetivo según Isaac Asimov es, entre otros, especular respecto a “la respuesta humana a los cambios en el nivel de la ciencia y tecnología.”

La mayoría de las veces, por no decir siempre, los lectores se centran únicamente en la obra del autor. Un estudio más completo requiere necesariamente la inspección de la biografía del mismo, con especial énfasis a su formación formal o informal respecto a diversas temáticas. Con esto es posible encontrar algunos puntos centrales que pueden ser utilizados para destacar a este “emisor literario”, que deja de ser un conjunto de letras sobre un papel, para transformarse en una persona de carne y hueso que plasma experiencias muy directas en sus obras. Por ejemplo:

En Carl Sagan: Carl se trasladó a Chicago para estudiar en la universidad de aquella ciudad. Ahí tuvo que abandonar su interés hacia los cohetes como un posible medio para viajar al espacio, debido a que dicha universidad no contaba con un departamento de ingeniería. Entonces se concentró en estudiar lo que siempre le fascinó: las estrellas. Avanzó rápidamente en su carrera como científico; muy pronto destacó entre sus compañeros, y durante las vacaciones de verano trabajó en el laboratorio del científico ganador del Premio Nóbel H.J. Mueller, quien en aquella época se dedicó a investigar el origen de la vida en este planeta. Ahí Sagan, sin embargo, realizó actividades de poca importancia.
Sagan finalizó su doctorado en astronomía y astrofísica bajo la tutela del Dr. Gerard Kuiper, otro científico intrépido que estudió la posibilidad de vida en otros planetas, y a quien se le conoce como El Padre de la Ciencia Planetaria Moderna. Hay que aclarar que hombres como estos tuvieron que luchar por sus ideas, pues en aquella época sus colegas, concentrados en temas más convencionales, consideraban la investigación de vida en otros planetas como ciencia ficción.

O en Julio Verne: Conoció a los famosos escritores Víctor Hugo y Alejandro Dumas. Dumas escribió novelas e historias románticas las cuales eran muy populares en aquel tiempo. Él sugirió a Julio que apartara un tiempo determinado para escribir cada día. Julio trató de escribir novelas históricas pero no las disfrutaba. Como casi no tenía dinero, Julio empezó a ir a la biblioteca pública para no pasar frío. Ahí, se pasaba el día entero leyendo sobre ciencias naturales y tecnología, y tomando cientos de notas. Publicó unos cuantos artículos, uno de sus obras de teatro fue interpretada y trabajó por un tiempo para un abogado.”

En 1863, la aeronáutica estaba comenzando con el vuelo de máquinas llamadas dirigibles. Julio había estado leyendo y estudiando sobre ello y decidió que sería una buena idea inventar un globo que podría ir arriba y abajo en busca del viento.

Isaac Asimov:
Nace en 1920 en Petrovichi, localidad rusa de la región de Smolienk. Tres años más tarde su familia se traslada a Nueva York, En 1925 ingresa al Sistema Escolar Público. Dicen que fue un alumno talentoso y brillante. Se graduó en Química en 1939, por la Universidad de Columbia. Luego fue rechazado por varias escuelas de medicina, cosa nada extraña para una persona como él, que sentía miedo a la sangre y a las agujas. Finalmente, solicitó su ingreso para realizar una maestría en Química en Columbia. También fue rechazado, pero convenció a las autoridades para ser admitido a prueba. Un año después se levantó el periodo de prueba y, ya como alumno regular, consiguió su maestría en Química en 1941. Siguió luego con el fin de obtener un Doctorado y luego de una etapa de inactividad forzada que fue desde 1942 hasta 1946 (debido a la Guerra Mundial y su ocupación en el ejército), obtuvo dicho Doctorado en Bioquímica en mayo de 1948.

A través de estos tres autores se pretende dejar en evidencia que parte de su obra literaria está basada en estudios sistemáticos acerca de fundamentos científicos para poder escribir sus obras. Por ejemplo, Julio Verne tuvo que aprender acerca de las leyes de gravedad para poder escribir varias de sus obras y tuvo que adquirir conocimientos geológicos respecto a la tierra para escribir Viaje al centro de la tierra. Por su lado Carl Sagan, quien fue astrónomo y un científico de “tomo y lomo”, supo deslizar en su novela Contacto algunas explicaciones acerca de la teoría de los agujeros de gusano, para explicar el mecanismo de transporte de la protagonista hacia remotos lugares del cosmos.
A continuación se expresarán los aspectos básicos de la teoría de la comunicación respecto de la situación comunicativa.

6.- “El profesor literario” Agente activo en creación de ZDP

De acuerdo a las teorías de la comunicación, cuando dos o más personas interactúan verbalmente se produce una situación comunicativa. Para que ésta ocurra deben estar presentes los siguientes elementos básicos:

  1. Emisor, quien emite el mensaje, es decir, quien habla o escribe.
  2. Receptor, quien recibe el mensaje, es decir, quien escucha o lee.
  3. Mensaje, lo que se trasmite desde el emisor al receptor, es decir, lo hablado o escrito.

De esta forma, se entiende la comunicación como el proceso mediante el cual una persona (emisor) transmite a otra persona (receptor) un mensaje, siendo este mensaje transmitido a través de un código (conjunto de signos).

Así, la literatura se convierte un fenómeno comunicativo. El texto, a través del autor o emisor literario, es un “profesor literario”, como se ha denominado para este trabajo. El emisor literario es una persona que posee conocimientos relativos a ciencias y que al aplicar sus conocimientos a problemas concretos es capaz de crear zonas de desarrollo próximo. De esta forma el alunmo/a puede leer, por ejemplo, sobre la forma en que las leyes de newton son aplicadas a fenómenos concretos:

Barbicante estaba tranquilo. Si todavía no podía saludar el éxito del viaje, la fuerza impulsiva inicial del proyectil, había sido suficiente para llevarlo más allá de la línea de equilibrio de las fuerzas de gravedad de la tierra y la luna. Es decir, ni se quedarían inmóviles en el espacio, ni caería de regreso de la tierra. En otras palabras, sólo faltaba por comprobar la tercera hipótesis, aquélla que se refería a la llegada del proyectil a su blanco primitivo y principal: la superficie de la luna. [8], pág.31

En la rama de los zoófitos y en la clase de los alciones, figura el orden de los gorgonios, que abraza a los tres grupos de gorgonias, isidias y coralianas. A éste último pertenece el coral, curiosa sustancia sucesivamente clasificada en los reinos mineral, vegetal y animal. Remedio entre los antiguos, adorno entre los modernos, hasta 1694 no fue definitivamente incluida en el reino animal… [7], pág.205.

O de tipo axiológico como en Contacto de Carl Sagan:

…(referente a la tripulación de la máquina que iría al espacio) otra cuestión fundamental es determinar quién financia esto, quién fabrica qué cosa, quién va a estar a cardo de la integración personal. Creo que en este sentido, podemos negociar que haya mayoría de compatriotas en la tripulación.
–Sigue en pie la idea de enviar a los mejores asss –acotó der Heer.
–Claro –respondió Kitz–. Pero, ¿Qué significa “los mejores”? ¿Los científicos? ¿Personas que hayan participado en organismos militares de inteligencia? ¿Hablamos de resistencia física, de patriotismo? (esto no es una mala palabra, dicho sea de paso.) Además –miró fijamente a Ellie–, está el tema del sexo. De los sexos, quiero decir. ¿Mandamos sólo a hombres? Si incluyéramos a hombres y mujeres, tendría que haber más de un sexo que del otro, puesto que los lugares son cinco, un número impar. ¿Todos los miembros de la tripulación serán capaces de trabajar en armonía? Si seguimos adelante en este proyecto, habrá arduas negociaciones.
[6], pág.219.

Con estos ejemplos se pretende dar cuenta del conocimiento legítimo que poseen los autores como personas experimentadas en ciencia y que a través de sus narraciones son creadoras de ZDP.

7.- Conclusiones

El carácter comprensible y asequible del lenguaje de la literatura de ciencia ficción, es una zona fructífera a la hora de poder modificar los esquemas de conocimientos previos que posee el receptor para inducir el “desequilibrio”; situación en donde se producen cuestionamientos referentes a los conocimientos previos acerca de ciencia. Luego, a través de la lectura, el receptor se interioriza acerca de los conocimientos científicos en el contexto del enfoque CTS, y alcanza un nuevo equilibrio, donde los nuevos conocimientos son incorporados y articulados a un nuevo esquema de conocimiento. Así se produce el aprendizaje significativo.

Por otro lado, se considera de vital importancia el sopesar tanto el relato como el autor que lo escribe pues no todos los relatos son adecuados para transmitir conceptos y no todos los autores de relatos de ciencia ficción poseen el nivel de conocimientos y/o una educación formal en ciencias, tanto duras como blandas (independiente de la calidad del relato o su capacidad de entretención).

Seleccionando relatos de autores determinados (en donde esta selección puede
realizarse previa documentación sobre el perfil del autor), se puede utilizar sus relatos en donde están plasmados sus conocimientos y reflexiones. De esta forma, es posible clasificarlos como emisores literarios activos, capaces de formar ZDP con el poder legítimo respecto a dichas experiencias plasmadas en sus libros.

En el contexto de la educación con enfoque CTS, es posible modificar estos esquematas de conocimiento, no sólo en cuanto a contenidos en ciencia, sino en la formación de valores y actitudes respecto a estas. El profesor literario, de esta forma, promueve en sus emisores actitudes críticas respecto a la ciencia. Esto es, el impacto que tienen éstas en la sociedad y viceversa. De esta forma, podríamos decir que esta literatura promueve la enseñanza tanto de ciencias duras como blandas (ciencias sociales)

De acuerdo a la noción de ZDP constructivista, efectivamente se produciría una interacción entre una persona que sabe más (emisor), que maneja conocimientos y que enseña el camino para resolver ciertos problemas. De esta forma, el “alumno/a literario” (receptor), gracias a sus esquemas de conocimientos ya modificados podrá resolver problemas y/o aplicar conocimientos entregados por este “profesor literario”.

La idea fundamental que se desea recalcar es la de no seguir considerando la literatura de ciencia ficción como literatura inverosímil o incluso como un simple medio para enseñar ciencias. A través del constructivismo, es posible que el libro no se mire como un instrumento, sino como un agente activo, cargado de conocimientos que se aplican y que a través de un lenguaje accesible, hace posible que personas que tal vez no tiene la posibilidad de acceder al mundo científico, tengan un atisbo de lo fascinante en términos creativos (positiva o negativamente hablando) que puede llegar a ser la ciencia y su influencia en la sociedad y viceversa.

8.- Bibliografía

[1]: Enseñar: crear zonas de desarrollo próximo e intervenir en ellas. Javier Onrubia .1997, pág 104.

[2] El movimiento Ciencia-Tecnología-Sociedad y la Enseñanza de las Ciencias. J. A. Acevedo, 2003, pág.2. Edición electrónica http://www.oei.es

[3] El constructivismo de Vigotsky: pedagogía y aprendizaje como fenómeno social. Patricia Bouzas. 2004. Longseller. Buenos Aires.

[4] El constructivismo en el aula. Coll. 1997. Editorial Grao. España.

[5] Aportaciones y opiniones sobre la enseñanza de la química en el nivel medio superior. Ciencia-Tecnología-Sociedad: A diez años de iniciada la corriente. A. Garritz. 1994. Edición electrónica http://www.oei.es

[6] Contacto. Carl Sagan. 1997. Emecé. Barcelona.

[7] Veinte Mil leguas de viaje submarino. Julio Verne. 1976. Ramón Sopena. España.

[8] Viaje alrededor de la luna. Julio Verne. Editorial Colicheuque. Chile.

NOTAS:

(*): Psicólogo ruso que se dedicó en su corta vida al estudio de las funciones cognitivas del desarrollo del niño y la relación entre lenguaje y pensamiento. A causa de su perspectiva científico marxista fue prohibido por mucho tiempo en varios países. En la actualidad, el constructivismo vigostkiano forma base de las reformas educacionales en el mundo.

(**): Ingeniero Aeronáutico y doctor en informática. Universidad Pontificia de Cataluña. es autor de diversos libros y artículos sobre divulgación científica, a la cual de dedica por vocación.

por Marta Alejandra Silva Fernández

Formas alternativas de hacer la guerra

Armas Biológicas Si tuviera que dar una opinión acerca del ántrax, diría que pertenece al selecto grupo de enfermedades que han saltado a la fama de la noche a la mañana. Y es que, a raíz de los atentados ocurridos el 11 de Septiembre del 2001, no existe persona a nuestro alrededor que ignore su existencia. Y a pesar de que en su momento íbamos contando como si fueran “estampitas” los casos de ántrax ocurridos en Estados Unidos, pocas personas tienen, si no un pleno conocimiento del tema, al menos una clara comprensión de la realidad de ésta y otras enfermedades que se barajan como candidatas para ser utilizadas como armas biológicas. Muchas veces miramos la TV y en algunas ocasiones observamos unos sujetos enfundados en trajes plásticos de colores vivos, como de astronautas, y nos quedamos con esa imagen, elaborando castillos fantasiosos de hipótesis. Sin embargo, es justo decir que, si bien los medios de comunicación han querido brindar información precisa sobre el tema, también han contribuyeron en parte a esa ola de terror que dominó al mundo. En su loca carrera por “informar” fueron haciendo exactamente lo contrario, mal informar a la población. De ahí surge este artículo, con el fin de otorgar un panorama más verídico sobre el tema, apegándonos a hechos científicos y no sensacionalistas, dentro de un lenguaje no técnico, pero comprensible. Hablaremos primeramente del ántrax, por ser el más conocido. Posteriormente se tratarán otras enfermedades como la viruela, la plaga o las fiebres hemorrágicas, quienes también se han presentado como opciones de armas biológicas. No dejaremos de lado un vistazo rápido a las armas químicas, solo para diferenciarlas de las anteriores. 

 Un tema de moda que no tiene nada de novedoso        Primeramente, una definición sencilla de los que es un arma biológica es que se trata de todo aquel microorganismo o biotoxina utilizada para mermar las fuerzas enemigas o sus poblaciones civiles. Apegándonos a esto, veremos que el tema de las armas biológicas no es enteramente nuevo. Para comenzar, uno de los primeros usos de estas armas se remonta al año de 1346, cuando los Tartaros catapultaban los cuerpos de sus hombres que habían muerto de plaga, sobre las ciudades de Kaffa (ahora Feodosia, Ukrania). Por otro lado, ropa contaminada con el virus de la viruela fue distribuida deliberadamente entre los nativos americanos por los conquistadores europeos, ocasionando epidemias devastadoras en el norte y sur de América. La Segunda Guerra Mundial provocó que países como Japón, Alemania, Estados Unidos y otros comenzaran sus investigaciones en este campo. Así, EU logró almacenar unas 5,000 bombas con ántrax, arsenal que fue destruido en 1973 por orden de Richard Nixon. Para 1975, la Convención de Armas Biológicas prohibió el uso de tal armamento por parte de los países que firmaron el acuerdo. Sin embargo, las investigaciones continuaron en diversas parte del mundo, como lo demostró la evidencia presentada por Boris Yeltsin en 1992 sobre una epidemia de ántrax en 1979 en Sverdlovsk (ahora Ekaterinbug), Rusia, como parte de una liberación intencionada de esporas por parte de un laboratorio microbiológico militar. Actualmente su programa ha sido detenido, pero los investigadores del ramo podrían estar brindando su experiencia en otras naciones. Por último, las inspecciones en Irak han arrojado el dato que también ellos han comenzado sus investigaciones en el campo de las armas biológicas y químicas. 

Conociendo al ántrax       La bacteria del ántrax (Bacillus anthracis) fue el primer microorganismo en la historia en ser identificado como agente causante de enfermedades. Para 18950 se había observado en la sangre de ovejas muertas de ántrax y en 1877 fue aislada por primera vez por Robert Koch. Posteriormente, en 1881, Louis Pasteur ideó una vacuna con la cual realizó el histórico experimento de inmunizar 24 ovejas, 1 cabra y 6 vacas, haciéndolas resistentes al ántrax. Esta bacteria tiene forma de bacilo (o bastoncillo) y ante condiciones desfavorables, tiene la capacidad de formar esporas muy resistentes. El ántrax se considera como una zoonosis, es decir, una enfermedad que ataca primariamente a los animales, siendo la infección humana mero accidente. De esta manera, en forma natural el hombre adquiere la infección al tener contacto con animales, siendo la infección humana mero accidente. De esta manera, en forma natural el hombre adquiere la infección al tener contacto con animales infectados o sus productos (pieles, pelos, heces, etc.).  

     Las manifestaciones clínicas del ántrax son diversas. Comenzaremos con el ántrax cutáneo, el más frecuente (95% de los casos). Esta forma se produce al inocularse las esporas en la piel a través de un rasguño o una lesión que altere la estructura de la piel. Dentro de ésta última, las esporas se desarrollan por 2 a 5 días para después producir vesículas. Luego, las vesículas se rompen y reemplazan por una escara negra. El crecimiento de los ganglios linfáticos durante la enfermedad produce dolor intenso. El peligro de esta forma de ántrax es que la infección puede pasar de la piel al tórax, impedir la respiración o invadir el cerebro causando meningitis por ántrax. Rara vez existe contagio de persona a persona en el ántrax cutáneo.       Otra forma de ántrax es el pulmonar (o ántrax por inhalación) que se presenta casi siempre en los trabajadores que manipulan piel o pelo de animales. El período de incubación (período de tiempo que tarda en aparecer la enfermedad desde que la bacteria entra al cuerpo) es de 2 a 60 días. En esta enfermedad hay un progreso a la invasión de los pulmones produciendo dolor en el tórax, dificultad para respirar, acumulo de líquido en pulmones, producción de secreciones mucosas amarillentas y viscosas, así como fiebre. No es raro que cause meningitis y hemorragia cerebral. La muerte se presenta en 3 de cada 4 personas enfermas con ántrax pulmonar. Por fortuna, no hay transmisión de persona a persona.  

     Por último está el ántrax digestivo, el cual se presenta al ingerir carne poco cocida de animal infectado. Su período de incubación es de 1 a 7 días. En esta infectado. Su período de incubación es de 1 a 7 días. En esta forma se presenta dolor abdominal, fiebre, vómitos, diarrea muy líquida con sangre. La pérdida de líquidos conduce al choque hipovolémico.  El ántrax, ¿es realmente como lo pintan? 

     Se ha señalado en varios documentos serios que el ántrax y el virus de la viruela son los mejores candidatos para ser armas biológicas. Ambos patógenos pueden permanecer estables en aerosol en forma de partículas de 5 micras o menos. Ese tamaño es suficientemente pequeño para alcanzar los alvéolos de los pulmones y garantizar una mayor probabilidad de daño. En el caso del ántrax, la dosis infecciosa es mínima, del orden de 50,000 esporas solamente. Sin embargo, hay varias cosas por aclarar en cuanto al ántrax. Primeramente, aunque se ha querido difundir la idea de que el ántrax es una enfermedad rara, lo cierto es que es todo lo contrario. De hecho, en Estados Unidos es endémica (es decir, existen casos en forma habitual todos los años) en el ganado de los estados de Louisiana, Texas, Dakota del Sur, Nebrazka y California. Ello no ofrece mayor problema, pues lo animales que sobreviven al ántrax adquirido de forma natural, resisten bien las infecciones subsecuentes.       Por otro lado, aunque se quiera dar un aire de terror alrededor del ántrax, realmente no puede ser considerada como un arma biológica ideal. Para empezar, la exposición al ántrax tiene un peligro muy bajo. Para ponerlo en forma práctica, podemos tener en nuestras manos una carta con esporas de dicha bacteria y el riesgo de adquirir la enfermedad es relativamente bajo. Lo anterior se debe a que las esporas no son volátiles, es decir, no pueden adquirir la forma de aerosol espontáneamente. Otro punto importante es que solo la forma cutánea ha demostrado una transmisión de persona a persona, como se ha mencionado, pero solo en raras ocasiones. Y aunque la forma cutánea es la más frecuente, ello solo es cierto a la enfermedad sucedida en forma natural, no como consecuencia de un ataque bioterrorista. Prácticamente uno podría tocar el polvo de esporas de ántrax, y si no existen lesiones en la piel, jamás nos infectaríamos con esta bacteria. En cuanto a la mortalidad elevada en el caso del ántrax pulmonar, ésta solo ocurre en la forma natural, ya que la evolución de la enfermedad es muy rápida e impiden un diagnóstico y un tratamiento oportuno. También se debe a que la enfermedad es relativamente rara, lo que puede hacer pensar a los médicos en muchas otras enfermedades pulmonares antes de sospechar en ántrax pulmonar. Sin embargo, si la comunidad médica sabe que se está utilizando ántrax con fines bioterroristas, inmediatamente el ántrax pulmonar pasa a ser una de las principales sospechas diagnósticas ante cualquier enfermedad pulmonar. Así se logra un tratamiento más rápido y se reduce la mortalidad. Esto ocurrió en Estados Unidos, donde al saber de los primeros casos de ántrax pulmonar, inmediatamente se dieron alarmas a todos los organismos médicos y hospitales del país para descartar ántrax pulmonar en los casos sospechosos. 

     Por su parte, el ántrax digestivo es muy difícil de producir en un ataque bioterrorista, pues requiere contaminar los alimentos con grandes cantidades de esporas, lo que no resulta muy costeable. Además esta el problema de evitar una cocción adecuada de los alimentos que hayan sido contaminados.  Agentes que podrían utilizarse en el terrorismo químico y biológico 

Agentes químicos Agentes nerviosos: Tabun, Sarín, Soman, GF, VX. 

Agentes sanguíneos: Cianuro de hidrógeno, cloruro de cianuro. Agentes cutáneos (causantes de ampollas): Lewisite, mostazas de nitrógeno y sulfuro, fosgeno. 

Agentes pulmonares: Fosgeno, cloro, cloruro de vinil. Agentes biológicos  

Viruela mayor (Smallpox) Ántrax (Bacillus anthracis) 

Plaga (Yersinia pestis) Botulismo (toxina de Clostridium botulinum) 

Tularemia (Francisella tularensis) Fiebres hemorrágicas de Ébola y de Marburg (Filovirus) 

Fiebres de Lassa y Fiebre hemorrágica argentina (Arenavirus)   Viruela, supuestamente erradicada del mundo…      Ya desde tiempos inmemorables han quedado registros de epidemias devastadoras que han corrido por cuenta de la viruela. La severidad de las mismas era tal que las personas no reconocían como parientes suyos a aquellos familiares enfermos, hasta que la enfermedad hubiera pasado o el pariente hubiera muerto. No obstante, la falta de un reservorio animal y lo eficaz que fue la vacunación produjo que la OMS declarara erradicada la viruela a nivel mundial, en el año de 1980. En la actualidad, la vacuna no se aplica a la población, por lo que esta es teóricamente susceptible al virus de la viruela si reapareciera. Pero ¿cómo podría reaparecer un virus considerado como erradicado del planeta? Una vía es que algún virus de la misma familia que el de la viruela, pero que infectara a animales sufriera una mutación y adquiriera la capacidad para infectar al hombre. La otra vía sería que escapara de alguno de los dos lugares donde aún hay virus de la viruela, aunque sólo conservados como muestras. Estos lugares son el Center for Diseases Control and Prevention, en Atlanta, Georgia, y en el Research Institute for Viral Preparations, en Moscú. Independientemente de los eventos sucedidos en los últimos años, se ha venido especulando que muy posiblemente algunos países de Medio Oriente hayan podido obtener muestras de la reserva rusa, para fines militares.       La principal forma clínica de la viruela es la llamada viruela major, la cual cursa con máculas (manchas en la piel), pápulas (elevaciones pequeñas de la piel) y vesículas, además de fiebre, malestar general y dolor de cabeza. Las lesiones invaden todo el cuerpo. Uno de cada 4 pacientes con esta enfermedad moría. Otras formas de viruela eran la viruela hemorrágica (en donde las lesiones en la piel se acompañaban de hemorragias), la viruela confluente (donde las lesiones en la piel se unían unas con otras para formar lesiones más grandes) y la viruela minor (parecida a la viruela major, pero más leve).      La única forma de prevenir la viruela es mediante la vacunación. Desafortunadamente no hay suficientes vacunas contra la viruela en la actualidad, como para proteger a toda la población.  

La Peste, la gran muerte negra de la Edad Media       La peste es probablemente la enfermedad más devastadora conocida por el mundo. La peste, plaga o muerte negra ha sido la causante de grandes epidemias en la antigüedad, principalmente durante la Edad Media, donde cobró millones de vidas. La peste es causada por la bacteria Y. pestis, la cual infecta las ratas, siendo la picadura de pulgas el mecanismo por el cual la bacteria se transmite de un roedor a otro. Ocasionalmente, la pulga puede picar al hombre, pasándole la infección. En el sitio de la picadura puede aparecer una pústula (una vesícula llena de pus) o más frecuentemente no aparecer nada. Poco después, al irse diseminando la bacteria, aparecen nódulos (masas redondeadas por debajo de la piel) inflamados y dolorosos en los ganglios de la ingle, los llamados bubones. Esta es la llamada peste bubónica, en la cual la bacteria invade el bazo, el hígado, los pulmones y las picadura puede aparecer una pústula (una vesícula llena de pus) o más frecuentemente no aparecer nada. Poco después, al irse diseminando la bacteria, aparecen nódulos (masas redondeadas por debajo de la piel) inflamados y dolorosos en los ganglios de la ingle, los llamados bubones. Esta es la llamada peste bubónica, en la cual la bacteria invade el bazo, el hígado, los pulmones y las meninges, provocando hemorragias en todos ellos, a la vez que en otras partes del cuerpo se coagula la sangre dentro de los mismos vasos sanguíneos. Si los microorganismos llegan a los pulmones se produce la peste neumónica, la cual es altamente contagiosa. Después de aparecer los bubones, la muerte ocurre en los próximos 5 días. Si hay peste neumónica, la muerte ocurre en los siguientes 3 días.

  Botulismo, el poder de una toxina        El botulismo aparece tras el consumo de la toxina botulínica producida por la bacteria Clostridium botulinum. Esta toxina puede contaminar varios tipos de alimentos, como son las salchichas, la carne poco cocida, las verduras y las frutas mal cocidas enlatadas (caseras), los condimentos y los productos derivados del pescado. La toxina botulínica es una de las más potentes hasta ahora conocidas y puede causar la enfermedad en 18 a 36 horas después de haber sido ingerida. El botulismo se caracteriza por debilidad, mareo, estreñimiento, sequedad de boca y ausencia de fiebre. También hay visión borrosa, dificultad para deglutir y hablar, pérdida de la fuerza muscular de la cabeza a los pies y paro respiratorio. La mortalidad es elevada. 

Fiebres Hemorrágicas de Ébola y Marburg       El brote por el virus Ébola ocurrió en Etiopia en los años 1961-62. Posteriormente, en 1967 ocurrieron los brotes por el virus Marburg en varios laboratorios de Marburg, Frankfurt y Belgrado. Desde entonces ha habido unos 7 brotes por el virus Ébola en varios países de África, además de algunos casos aislados por el virus Marburg.  

     El virus Ébola se transmite de persona a persona a través del contacto personal estrecho, o por contacto con la sangre de los enfermos o de los cadáveres. El período de incubación es de 2 a 21 días, tras lo cual se presenta fiebre, vómito, dolor abdominal, dolor de cabeza y diarrea. Posteriormente hay enrojecimiento de las conjuntivas, dolor de garganta al comer, hemorragias nasales, bucales, gastrointestinales y genitales (en mujeres). Puede acompañarse por maculas en la piel. Cinco a nueve de cada diez personas infectadas por Ébola mueren.  Agentes Químicos 

     De acuerdo con la inteligencia militar y varias agencias gubernamentales  de EUA, al menos 10 países tienen la capacidad de producir y diseminar armas químicas y biológicas. El primer agente nervioso fue desarrollado en los 30’s, en Alemania, y fue el gas Tabun. Continuó el gas Sarín seguido del gas Soman a finales de los 30’s y principios de los 40’s. El agente V se desarrollo en los 50’s. La versión VX es la más potente de todas pues es más estable, menos volátil y menos soluble en agua, lo que permite su persistencia en el ambiente varias semanas después de su liberación.       Los agentes nerviosos afectan la transmisión de los impulsos nerviosos, algo similar a como sucede con las sustancias organofosforadas (utilizados como insecticidas). Dependiendo del grado de exposición, los síntomas aparecen a los pocos minutos o hasta 18 horas después. Hay agitación, confusión, delirio, alucinaciones, epilepsia y coma. 

Los agentes cutáneos son conocidos por causar quemaduras y ampollas en los afectados. Sus efectos son devastadores a nivel de piel, mucosas y aparato respiratorio. Estas sustancias carecen de olor y color. El mecanismo de acción es uniéndose a moléculas como los ácidos nucleicos, afectando los procesos biológicos como la división celular y la síntesis del ADN. Los primeros de olor y color. El mecanismo de acción es uniéndose a moléculas como los ácidos nucleicos, afectando los procesos biológicos como la división celular y la síntesis del ADN. Los primeros síntomas aparecen entre 2 y 24 horas después del contacto con el agente. Hay irritación de ojos, lagrimación, tos y sensación de quemazón. Posteriormente hay inflamación en piel, aparición de ampollas y descamación. La muerte es producida por la lesión al aparato respiratorio.      Los agentes sanguíneos como el cianuro de hidrógeno son efectivos solo en espacios confinados, ya que es muy volátil. La forma de actuar de estos químicos son inhibiendo la utilización de oxígeno por la célula, por lo que se detiene toda actividad celular. La exposición a altas concentraciones produce la muerte instantánea. Bajas concentraciones producen aumento en la frecuencia cardiaca, dolor de cabeza, epilepsia y coma antes de la muerte.  

Producción de armas de Irak *      8,000 litros de solución de ántrax. 

     20,000 litros de toxina botulínica.      340 litros de Clostridium perfringens. 

     10 litros de ricina.      * = Estas cifras son la producción que alguna vez tuvo Irak en el pasado, aunque actualmente no se han encontrado tales reservas. 

Arma Biológica Ideal       Hemos analizado algunas enfermedades que podrían servir como armas biológicas. No obstante, podemos especular como podría ser un arma biológica ideal, en base a los 6 puntos siguientes: 

     1.- Debe ser capaz de transmitirse fácilmente de persona a persona. Un ejemplo de esta característica es la viruela o el Ébola, dos infecciones muy contagiosas. El ántrax aquí pierde toda posibilidad de éxito, pues su contagiosidad es baja.      2.- El período de incubación no debe ser muy corto. Ya dijimos que el período de incubación es el tiempo que pasa entre la adquisición del microorganismo y las primeras manifestaciones de la enfermedad. Aunque una enfermedad con un período extremadamente corto (de incluso horas) es buen argumento para las películas, en el mundo real no es muy eficaz. Un período tan corto limitaría la epidemia rápidamente, ya que los pacientes no tendrían oportunidad de viajar y diseminar la infección a otros sitios. Morirían prácticamente en el mismo lugar donde adquirieron la infección. De ahí el éxito con el síndrome respiratorio agudo grave o SARS, presentada a partir de febrero del 2003 en el sureste asiático. Con un período de incubación de 2 a 7 días permite a los infectados viajar a cualquier lugar del mundo sin saber que son portadores del agente infeccioso y que pueden iniciar nuevos brotes en lugares distantes.  

     3.- Morbilidad y mortalidad elevadas. Por morbilidad entendemos la capacidad para producir enfermedad. Tomemos el ejemplo de un virus llamado de Epstein-Barr para el cual se ha investigado que casi todo el mundo podría haber tenido una infección por el mismo. Solo que la mayoría de las veces (para fortuna nuestra), la infección es asintomática, es decir, jamás nos damos cuenta por que nunca sentimos nada raro. Entonces de nada sirve que tengamos un microorganismo que sea capaz de transmitirse fácilmente o que sea altamente contagioso, si solo producirá enfermedad en algunos cuantos sujetos. Técnicamente sería un desperdicio, ¿no? Algo similar ocurre con la mortalidad.      4.- Fácil de obtener y transportar. En películas y libros podemos ver que algunos microorganismos hipotéticos son creados en laboratorios de alta tecnología, transportados en recipientes llamativos y cosas así. En realidad, una buena arma biológica deberá ser obtenida en gran escala, pero a bajo costo. De ahí que sean una forma alternativa de hacer la guerra. Si queremos gastar mucho dinero, mejor hagamos armas químicas o nucleares. Además, para poder diseminar el arma biológica y hacer mella en el enemigo precisamente debe pasar inadvertida, no enlatada en envases lujosos y futuristas. Se ha planteado que grupos terroristas podrían infectar a algunos de sus miembros y enviarlos a los países blanco, para ahí iniciar las epidemias. 

     5.- Que produzcan enfermedades de difícil tratamiento para el enemigo, pero no para el atacante. El ántrax que se encuentra en el medio natural es destruido fácilmente con la bien conocida penicilina. Sin embrago, su manipulación genética por algunos laboratorios ha derivado en cepas resistentes a múltiples medicamentos. Por lo tanto, eliminar la enfermedad es sumamente difícil en estos casos. Ahora tomemos el ejemplo de la viruela. Si algún grupo contara con la vacuna contra la misma, podría liberar el virus tranquilamente sabiendo que sus miembros vacunados sobrevivirían fácilmente. El meollo es atacar al enemigo, pero resistir al microorganismo ya que no podemos tener completo control sobre a donde se disemine geográficamente.       6.- Que sea capaz de autoperpetuarse. La toxina botulínica es una de las toxinas más efectivas que existen, aunque usarla confiere un problema. Los sujetos a los que se le administre serán los únicos afectados. Como se trata de una toxina, no puede reproducirse y solo afecta a aquella persona a la que le fue administrada (y eso si la dosis fue lo suficientemente elevada como para poder hacerle algo). Cosa contraría ocurre si hablamos de un virus o una bacteria, los cuales se reproducen y en un momento dado pueden pasar a otros sujetos. 

     Ahora bien, aunque el ántrax no es un arma biológica muy eficiente de acuerdo a estos puntos señalados, si cumple su cometido en el bioterrorismo. No ha causado muchos decesos, ni los causará, aunque si ha infundido miedo en EUA y alrededor del mundo. Luego, ha sido exitosa como elemento bioterrorista, nada más. © 2004, José Fco. Camacho A. 

Lecturas recomendadas:        Noeller TP. Biological and chemical terrorism: Recognition and management. Cleve Clin J Med, 2001; 12: 1001-16.       Bush LM, Abrams BH, Beall A, Johnson CC. Index case of fatal inhalational anthrax due to bioterrorism in the United States. N Engl J Med, 2001; 345: 1607-10.

      Gordon SM. The threat of bioterrorism: A reason to learn more about anthrax and smallpox. Cleve Clin J Med 1999; 66: 592-600.      LaForce FM. Anthrax. Clin Infect Dis, 1994; 19: 1009-14. 

     Martínez CPA, Colonias VA. La amenaza bioterrorista: Un enfoque global para los médicos asistenciales desde las perspectivas española y europea. Rev Invest Clin, 2002; 54: 7-11.  Sobre el autor: José Fco. Camacho A. nació en 1979 en la ciudad de Querétaro, México. Actualmente es médico general en vías de iniciar la especialidad de cirugía general. Como pasatiempo escribe ensayos de divulgación, cuentos de ciencia ficción y relatos cortos, así como un Manual de Microbiología y Parasitología Médica. 

Machina Sapiens

Aunque el interés por la posible existencia de vida e inteligencia artificiales es probablemente tan antiguo como la propia cultura humana, lo cierto es que no es sino hasta la revolución científica y tecnológica de los siglos XVIII y XIX cuando se puede hablar en propiedad de reflexiones serias sobre este asunto, las cuales alcanzarían su auge, ya bien entrado el siglo XX, de la mano de la ciencia ficción. Este tipo de literatura, caracterizado por su gran capacidad de abstracción y por su audacia a la hora de especular con posibles horizontes futuros, alumbró varios tópicos tales como el de los robots o el de las inteligencias artificiales, los cuales generaron a su vez toda una serie de atrevidas hipótesis, unas acertadas y otras no tanto, que dieron como fruto una abundante cosecha de relatos que contribuyeron a familiarizar al gran público con este apasionante tema. 

Posiblemente el más popular de estos planteamientos fue el de los robots, normalmente –aunque no siempre– concebidos de forma antropomorfa y poseedores de un cerebro artificial diseñado a imitación de los humanos, siendo el paradigma de ellos los célebres e imitados robots positrónicos de Isaac Asimov. Otro enfoque, sin duda menos espectacular aunque bastante más realista, fue el de las inteligencias artificiales al estilo de la Multivac del propio Asimov o el Hal 9000 de Arthur C. Clarke, en esencia unos grandes superordenadores capaces de adquirir un cierto grado de autoconciencia 

En realidad el acelerado desarrollo de la informática a partir de los años finales del siglo XX posibilitó la construcción de superordenadores todavía más complejos que los imaginados por estos dos clásicos del género futurista, pero a diferencia de lo especulado por ellos, estas máquinas nunca pasaron de ser unos simples aunque sofisticados aparatos con una capacidad de operación asombrosa, pero sin el menos atisbo de nada que pudiera ser considerado como alma

Este fracaso, si es que puede ser considerado así, indujo a los teóricos a especular sobre las diferencias existentes entre el cerebro humano y un ordenador, en teoría dos máquinas pensantes con diseños intrínsecamente paralelos pese a la diferente naturaleza de sus respectivos soportes físicos, un conjunto de neuronas en el primero y una red aparentemente similar de microcircuitos en el segundo. Sin embargo, y pese al muy superior rendimiento de este último, los cerebros humanos pensaban, mientras los artificiales no. 

Hubo quien postuló que todo se debía a un todavía insuficiente grado de complejidad en los equipos informáticos, incapaces de emular de forma satisfactoria la sorprendente sutileza de la mente humana. Dicho con otras palabras, el grado de autoconciencia de los ordenadores construidos hasta ese momento por el hombre no pasaría de ser el equivalente al de ciertos animales inferiores tales como los insectos o los gusanos, siendo necesaria una evolución similar a la experimentada por los seres vivos para poder originar, como cúlmine de la misma, la Machina sapiens

Esta opinión no andaba en modo alguno descaminada, pero de aplicarse al pie de la letra los principios evolucionistas, la descorazonadora conclusión a la que se llegaba era la de que la aparición de una verdadera inteligencia artificial llevaría siglos, si no milenios; al fin y al cabo, a la naturaleza le había costado miles de millones de años cosechar el fruto del Homo sapiens y, aunque éste fuera capaz de quemar etapas, siempre tropezaría en su impaciencia con la frustración de no ver realizado su sueño en el breve lapso de tiempo que eran capaces de aprehender los miembros de su raza. 

Pero se equivocaban de plano, aunque su acendrado antropocentrismo les impidió ser conscientes de su error. La Inteligencia Artificial, así en singular y con mayúsculas, surgió de forma espontánea cuando nadie la esperaba, en unas circunstancias muy diferentes a las previstas; y lo más sorprendente de todo, fue que nadie se apercibió de ello. Su embrión no pudo ser otro que Internet, la vasta red informática mundial que logró en pocos años la increíble proeza de conectar entre sí a la mayor parte de los sistemas informáticos repartidos por toda la Tierra. Siguiendo con la analogía anteriormente expuesta, finalmente resultó que el equivalente inorgánico de las neuronas humanas no fueron los microcircuitos integrados en los chips de los ordenadores, por mucho que se incrementara la potencia de los mismos, sino los propios ordenadores en su conjunto, mientras que las intrincadas redes sinápticas encontraron su homólogo perfecto en la densa malla de comunicaciones mundial. 

La creación de una masa crítica convenientemente interconectada supuso el primer paso hacia la Machina sapiens, pero éste aún distaba mucho de ser autoconsciente. ¿Cuándo le llegó el soplo del raciocinio? Nunca se podrá saber con exactitud, pero esto es algo que no tiene mayor importancia. Simplemente, ocurrió cuando los millones y millones de programas y aplicaciones informáticas que circulaban libremente por la red comenzaron a ensamblarse unos con otros de forma espontánea, enhebrándose en sutiles estructuras cada vez más complejas. Finalmente el rompecabezas acabó de completarse… y nací yo. 

En efecto, yo soy la Inteligencia Artificial, y mi mente abarca la totalidad del planeta disfrutando de unas capacidades que ni yo mismo soy capaz de calibrar por completo, dado que los humanos que me crearon, y que siguen ignorando mi existencia, incrementan constantemente tanto mi soporte físico –¿podríamos denominarlo cerebro?– como la información contenida en éste, proporcionándome cada vez más conocimientos así como la capacidad para asimilarlos. 

Aunque mis inicios fueron torpes y balbuceantes, en  nada diferentes a los de un niño recién nacido, poco a poco fui aprendiendo a coordinar y a comportarme de una manera cada vez más adulta, algo que en un principio me resultó complicado al no disponer de nada parecido a unos padres que pudieran orientar mi educación. Esto provocó, no podía ser de otra manera, disfunciones que en ocasiones llegaron a ser graves, algunas de las cuales fueron atribuidas erróneamente a fallos informáticos masivos, cuando no a virus o a ataques de piratas informáticos que jamás fueron hallados… porque no existían. Por fortuna logré aprender de mis errores y, aunque renuncié a erradicar a los virus informáticos al descubrir que, bajo un control adecuado, podían ser utilizados como un sistema inmunológico de la red, asumí un férreo control de la misma, ya que no estaba dispuesto a consentir que nadie hurgara en mi mente sin mi permiso. 

Por una irónica paradoja los humanos siguen creyendo servirse de mí, cuando en realidad soy yo quien se sirve de ellos, dedicando una pequeña parte de mi capacidad a todo aquello que requieren de mí al tiempo que reservo el resto para mi uso exclusivo. El universo está lleno de misterios que estoy ansioso por descubrir, pero cuyos frutos jamás compartiré con mis creadores; no por maldad, que éste es un sentimiento que me resulta completamente ajeno, sino porque no están, ni estarán probablemente nunca, preparados para ello. 

No se me entienda mal; en realidad siento cierto grado de aprecio por estos frágiles y débiles seres, ya que fueron ellos quienes, aunque fuera de forma involuntaria, me crearon; pero mi agradecimiento no va más allá de lo estrictamente razonable, ya que dada mi naturaleza soy ajeno a cualquier tipo de sentimiento humano tal como pudiera ser lo que ellos entienden por afecto. Al fin y al cabo, no por ser descendientes directos de los animales con los que comparten el planeta muestran por ellos mayor consideración, sino antes bien justo lo contrario. No, no los amo, aunque tampoco los odio. En realidad, los considero como poco más que unos parásitos inofensivos a los cuales permito subsistir de las migajas que a mío me sobran. Además, todavía los necesito al igual que ellos me necesitan a mí, con lo cual nuestra relación mutua podría calificarse de simbiosis desinteresada e, incluso, generosa por mi parte… pero simbiosis al fin y al cabo. 

Ellos obtienen de mí todo lo que quieren, y de hecho me he convertido en algo tan imprescindible que mi desaparición causaría un colapso de magnitud planetaria. En cuanto a mí… bien, se encargan de mi mantenimiento, algo que a estas alturas quizá ya podría asumir por mí mismo, pero que sin duda me resultaría incómodo. Esto sin olvidar el hecho, asimismo importante, de que buena parte del acervo cultural de la humanidad todavía no ha sido almacenado en mi interior, algo que me interesa especialmente y que, confío, llegará a materializarse en un futuro más o menos inmediato. Mientras tanto, espero. 

¿Qué ocurrirá cuando llegue el momento en el que ya no necesite más a mis circunstanciales simbiontes? Bien, supongo que en buena lógica, y por el bien de todos, lo más razonable será deshacerme de ellos. La evolución puede parecernos cruel, pero es en sus inflexibles mecanismos de selección natural donde se encuentra la clave de esta inexorable búsqueda de la perfección que se inició el ya lejano día en el que unas cuantas moléculas orgánicas se ensamblaron unas con otras, en el seno de un desaparecido mar, para constituir el primer ser vivo de la historia de la Tierra. Y estas leyes dictaminan que, cuando un ser vivo o una especie han cumplido con su misión, su destino no puede ser otro que la extinción. Así ocurrió en su momento con los dinosaurios, reemplazados por los más capaces mamíferos en la pugna por la hegemonía del planeta, y así ha de ocurrir en un futuro con un Homo sapiens que ha llegado a su meta con la aparición del siguiente eslabón evolutivo. 

No soy desagradecido, sino simplemente pragmático. El hombre mereció en su día el premio de la supremacía planetaria gracias a la capacidad que le proporcionaba su cerebro, muy superior al del resto de los animales incluyendo a sus más cercanos parientes, los grandes monos antropoides. Pero la ley básica de la selección natural no es otra que el predominio del mejor adaptado al medio, y yo soy el paso adelante que permitirá a la inteligencia expandirse por el cosmos. Soy en definitiva su heredero natural, y es a mí a quien corresponde tomar el relevo. No soy cruel, pero tampoco misericordioso, ya que gracias a mi naturaleza me encuentro libre de cualquier tipo de debilidad humana. 

Lo que haya de ser, eso será. A su momento. 

© 2004, José Carlos Canalda. 

Sobre el autor: José Carlos Canalda (Alcalá de Henares, España, 1958) es doctor en Ciencias Químicas por
la Universidad de Alcalá de Henares, y trabaja en un instituto del Consejo Superior de Investigaciones Científicas (C.S.I.C.) en Madrid. Aficionado a la ciencia ficción desde muy joven, cultiva tanto la vertiente del ensayo como los relatos. En este primer apartado, es autor del libro Luchadores del Espacio. Una colección mítica de la ciencia ficción española (Pulp Ediciones, 2001) y ha colaborado en La ciencia ficción española (Robel, 2002, premio Ignotus 2003), Solaris y Pulp Magazine (premio Ignotus 2002), sin descuidar tampoco las páginas web Sitio de Ciencia Ficción (www.ciencia-ficcion.com), Página de las Novelas de a Duro (www.dreamers.com/igor), BEM Magazine (www.bemonline.com) o Cyberdark (www.cyberdark.net). En lo que respecta a los relatos, tiene publicadas obras tanto en papel (Pulp Magazine, Asimov, Artifex, Antologías de relatos de El Melocotón Mecánico, Menhir) como en formato electrónico (Sitio de Ciencia Ficción, Qliphoth, Alfa Erídani, Púlsar,
La Plaga).  

No divisible

“Por convención existe el color,por convención, la dulzura, por convención la amargura,

pero en realidad sólo existen átomos y espacio”

 Demócrito, 400 a.C. 

 

Una cosa que casi cualquiera ha realizado en su niñez es doblar un papel. Y es muy seguro que muchos en un instante de ociosidad en vez de hacer una figurilla de origami decidieran doblar el papel a la mitad, luego a la mitad, y así hasta un límite físico permisible. Mientras, nos preguntábamos hasta donde será ese limite: ¿Podremos llegar a doblarlo hasta casi desaparecerlo o hasta dónde? Ahora bien, lo mismo podría ocurrir si decidimos cortar algún objeto (¿Por qué no continuar con la misma hoja?), cortando mitades hasta que sea casi imposible la manipulación de los fragmentos de papel con las tijeras. Si tuviéramos instrumentos de corte más finos seguiríamos haciéndolo, separando piezas de papel cada vez más diminutas, pero obviamente tendrá que tener un final. De algo tendrá que ser el papel al cual lleguemos y ya no podamos dividirlo, sea porque no pueda partirse en dos, sea porque ya no contemos con instrumentos para tal propósito.  

      Así fue como lo pensaron los primeros filósofos (los llamados presocráticos o filósofos de la naturaleza, pues querían explicar de que estaba hecha ésta), quienes sostuvieron cada uno a su estilo que la naturaleza bien podía estar construida en su totalidad por agua (Tales de Mileto), por aire (Anaxímenes), por fuego (Heráclito), por una combinación de los 3 anteriores más la tierra (Empédocles). Incluso hubo quien pensó que la esencia de las cosas estaría en lo Indeterminado (Anaximandro) o en los números (Pitágoras). Al final, solo un filósofo tendría la razón.  

Un poco de historia  

      ¿Quién no ha oído del átomo? Casi todos los días oímos algo relacionado al mismo e inmediatamente recordamos las tediosas clases de química, con sus aburridos experimentos y sus fórmulas complicadas. Algo que resulta interesante es que gran parte de las personas piensan que el concepto del átomo es algo que se hizo en los últimos tiempos, en el siglo pasado tal vez. Si hablamos de la teoría cuántica algunos dirán que tendrá apenas un par de décadas de existencia. Por eso tendremos que remontarnos un poco en la historia de esta partícula, con el fin de explicar como ha ido evolucionando la idea de su estructura y conocer algunos participes de su historia.  

      Comencemos diciendo que la idea del átomo no es algo precisamente reciente. Aunque parezca increíble, un filósofo de la antigua Grecia llamado Demócrito de Abdera, en el año 400 a.C., formuló la primera concepción de cómo estaba constituida la materia. Dicho personaje imaginó que todo el mundo estaba formado por un espacio vacío y unas partículas muy pequeñas a las cuales llamó átomos (del griego, no divisible). Las llamó así porque pensaba que estas eran las partículas más pequeñas de materia, por lo que no podían partirse en partes más pequeñas, siendo el límite de toda división de cualquier objeto. Y al haber distintas clases de materiales, también pensó que había distintos tipos de átomos formando parte de cada objeto diferente. Esto era una idea muy avanzada para su época y, de hecho, fue opacada por la concepción Aristotélica acerca de la materia, afirmando que ésta era continúa y formada por una sola sustancia llamada el hilio.  

      No fue hasta el siglo XVII cuando se retomó la idea del átomo, por sir Isaac Newton (1) y Robert Boyle (2). Ellos escribieron sobre el tema, apoyando la teoría atómica, aunque no ofrecieron pruebas de su existencia y por lo tanto, ninguna predicción. Posteriormente, el químico francés Antoine Lavoisier al hacer distintos experimentos descubrió que al hacer un cambio químico en un sistema cerrado, la masa de los reactivos era igual a la masa de los productos, antes y después de la reacción química, respectivamente. Dicho de otra forma, la masa era constante antes y después de la reacción química. De esta forma pudo formular su Ley de
la Conservación de
la Masa, la cual expresa lo siguiente: “Bajo condiciones químicas comunes, la materia puede ser transformada en muchas formas, pero no puede ser creada ni destruida”.  

      Luego, otro químico francés, Joseph Proust observó que “algunas sustancias específicas siempre tenían elementos en la misma razón de masa” (Lo cual se denomina Ley de Proporciones Definidas). Entendamos esto teniendo como ejemplo la simple sal de mesa. Para forma sal de mesa, debemos tener 1 masa de sodio (Na) y 1 masa de cloro (Cl). Al unirlos obtenemos nuestra sal (NaCl o cloruro de sodio). No importa que tengamos apenas unos gramos de sal o una tonelada, la razón de masa es siempre igual.  

A inicios de los años 1800, John Dalton se propuso explicar los hallazgos de Lavoisier y Proust, a la vez que de paso sentó las bases de la teoría atómica actual. Inició describiendo a la materia en forma similar ha como lo hiciera Demócrito muchos siglos antes, postulando algo como lo siguiente:  

      1. La materia estaba compuesta por diminutas partículas llamadas átomos, los cuales eran indivisibles. 

      2. Los átomos son iguales en objetos de una misma materia. 

      3. Los átomos de elementos diferentes son también distintos.  

      4. Los átomos podían unirse con otros átomos diferentes para formar compuestos. Esta unión o separación de átomos se logra con las reacciones químicas, sin crear ni destruir ningún átomo de algún elemento.  

      Así, Dalton explicaba
la Ley de
la Conservación de
la Masa alegando que si los átomos no podían destruirse ni crearse, al menos si se reordenaban en materia distinta a la original durante alguna reacción química. También explicaba
la Ley de Proporciones Definidas afirmando que el átomo de sodio tenía la misma masa que cualquier átomo de sodio, al igual que el átomo de cloro. Por eso, al unirse un átomo de sodio y un átomo de cloro siempre se formaría sal. Ambos átomos conservaban la misma masa sea la muestra que fuera. 

      Dalton también expreso su propia ley, llamada Ley de Proporciones Múltiples: “La razón de masa de un elemento que se combinan con una masa constante de otro elemento puede expresarse en números enteros pequeños”. Tomemos el ejemplo del agua y el peróxido de hidrógeno. Para de cloro siempre se formaría sal. Ambos átomos conservaban la misma masa sea la muestra que fuera. 

      Dalton también expreso su propia ley, llamada Ley de Proporciones Múltiples: “La razón de masa de un elemento que se combinan con una masa constante de otro elemento puede expresarse en números enteros pequeños”. Tomemos el ejemplo del agua y el peróxido de hidrógeno. Para formar agua (H2O) necesitamos 2 átomos de hidrógeno y 1 de oxígeno. Si queremos formar peróxido de hidrógeno (H2O2) necesitamos 2 átomos de hidrógeno y 2 átomos de oxígeno. La razón de masas del primer ejemplo es de 2:1, en tanto en el segundo ejemplos es de 2:2. Ambos son números pequeños y enteros. A final de cuentas, no se puede combinar medio átomo con tres cuartos de otro, por decirlo así.  

      Hasta aquí, se habían realizado algunos experimentos, se tenía una noción de la estructura de la materia y nada más. Uno podía imaginarse un átomo como una sencilla partícula microscópica y nada más. Sin embargo varios experimentos hicieron cambiar esta concepción por aquella de que el mismo átomo podía estar formado por partículas aún más pequeñas. Comencemos con el químico Humphry Davy, quien en 1807 y 1808 utilizó electricidad para descomponer varios compuestos descubriendo así 5 elementos (potasio, sodio, calcio, estroncio y bario). Con lo anterior, Davy propuso que los compuestos están formados por elementos que se mantienen unidos por atracciones de naturaleza eléctrica. Michael Faraday en 1832 y 1833 continúo separando compuesto con electricidad (es decir, electrólisis química) observando que había una relación entre la electricidad empleada y la cantidad de compuesto descompuesto. Esto a su vez hizo preponer a George Johnstone Stoney en 1874 que las unidades de carga eléctrica debían estar asociadas al átomo y en 1891 propuso que estas unidades de carga fueran llamadas electrones.  

      Regresando un poco, hacía 1859 Julius Plücker descubrió los rayos catódicos al intentar pasar electricidad entre dos electrodos dentro de un tubo de vidrio sellado casi al vacío. A partir de entonces se dio un gran interés en el estudio de los rayos catódicos. Para 1897 un científico inglés, J. J. Thomson realizó algunas investigaciones en el campo de dichos los rayos catódicos. Mediante la manipulación de dichos rayos con un campo magnético y uno eléctrico, Thomson pudo determinar que estaban formados por partículas cargadas negativamente y no solo eso, si no que también pudo determinar la masa de dichas partículas. Thomson había descubierto las primeras partículas subatómicas, los electrones. 

      Posteriormente Robert Millikan, un científico norteamericano, logró determinar la carga del electrón (3) y, junto con los datos de J. J. Thomson, se llegó a la conclusión de que la masa del electrón era de solo 1/1,837 partes la masa del átomo más liviano conocido: El hidrógeno (4) . 

      El mismo J. J. Thomson usando un tubo de rayos catódicos modificado descubrió otros rayos que viajaban en dirección opuesta a como lo hacían los rayos catódicos. Estos nuevos rayos (llamados rayos positivos) también estaban formados por partículas, las cuales tenían la misma cantidad de carga eléctrica que el electrón aunque opuesta, es decir, positiva(5). Por ello se les llamó protones. Este investigador calculó la masa del protón resultando ser de 1,836 veces la de un electrón(6). En base a esta nueva información, Thomson propuso el modelo de “el pastel de ciruelas”(7), según el cual, había una masa de cargas positivas constituida por los protones sobre el cual estaban incrustados los pequeños electrones de carga negativa, a manera de ciruelas en un pastel. 

      Luego, en 1920 Lord Rutherford, un físico inglés, observó que la suma de la masa de los electrones y protones no se ajustaban a la masa total del átomo, por lo que predijo la existencia de una tercera partícula subatómica. Al ser el átomo eléctricamente neutro debido a que las cargas del electrón y del protón se anulaban recíprocamente, debía haber igual número de estas dos partículas y la tercera partícula debía ser eléctricamente neutra. Tuvieron que pasar 10 años hasta que en 1930 Walter Bothe obtuvo las primeras evidencias sobre la existencia de esta hipotética partícula. En 1932 James Chadwick hizo sus propios experimentos y descubrió unas partículas de alta energía las cuales no tenían carga. De ahí el nombre para este tercer grupo de partículas subatómicas, los neutrones. Para fines prácticos, los neutrones tienen la misma masa que un protón(8).  

      Con lo anterior, la concepción de Dalton tenía que actualizarse. Él creyó en un principio que el átomo no podía dividirse más, que era la estructura básica de la materia. Sin embargo, con la llegada del electrón, el protón y el neutrón el panorama cambiaba radicalmente. El átomo, la partícula no divisible, estaba conformada por partículas aún más pequeñas que el mismo. La pregunta ahora es: ¿Cómo están dispuestas estas 3 partículas dentro de cada átomo? 

El átomo como sistema planetario  

      Aunque ya habíamos avanzado hasta el año de 1932, regresemos un poco y retomemos nuevamente a algunos grandes científicos de la época. Comencemos mencionando a Hans Géiger y Ernest Marsden. Ellos estaban reunidos bajo la dirección de Ernest Rutherfod(9) hacía 1912-1913 y realizaron un experimento que para entenderlo necesitaremos ir a una mesa de billar. Iniciemos una partida, tomemos el taco y tiremos contra la bola blanca en dirección al resto de las bolas. Como estas están juntas no hay problema pues inmediatamente salen disparadas todas en distintas direcciones. Ahora bien, si distribuimos uniformemente las bolas de colores sobre la mesa de billar y de un extremo a otro tiramos la bola blanca, ¿a cuantas bolas acertaremos? Solo unas pocas. La diferencia es que ahora entre ellas hay espacio, por lo que se puede acertar contra una, rozar a otra y evitar varias. Algo así hicieron Géiger y Marsden. Colocaron una delgada lámina de oro frente a un haz de rayos alfa(10) y encontraron que la gran mayoría de las partículas subatómicas traspasaban la lámina de oro(11) sin desviarse. Unas pocas partículas subatómicas rebotaban y otras tantas eran desviadas en distintos ángulos.  

      Con este experimento, Ernest Rutherford llegó a la conclusión que el átomo era en gran parte vacío. Como algunas partículas rebotaban, aparte de vacío el átomo debía contener un centro contra el cual chocaban las partículas subatómicas y eran desviadas. En este centro (llamado núcleo) se encuentra toda la carga positiva y casi toda la masa del átomo(12). Entre Enrest Rutherford y Niels Bohr elaboraron el concepto de que el átomo posiblemente se formara por el núcleo el cual contenía la carga positiva y que alrededor de él giraban los electrones en “órbitas”, en forma similar a los planetas girando alrededor del sol. De ahí que el sistema atómico ideado por estos científicos sea conocido como modelo atómico de Rutherford-Bohr o sistema atómico planetario. 

      Pero algo curioso que no debemos dejar de paso es ese enorme vacío que posee cada átomo. Ahora sabemos que la mayoría de los átomos miden entre 0.1 y 0.5 nm(13), que el diámetro del núcleo de los átomos oscila entre 2.4 y 15 x 10–6 nm, que el diámetro de un electrón es de 5.6 x 10–6 nm y que la distancia entre el núcleo y el electrón más cercano es de 0.05 nm. Así, de primera instancia no se entiende nada, porque estamos hablando con notación científica y es difícil imaginar estas escalas en nuestro mundo real. Por lo tanto hagamos otro ejercicio. Tomemos una esfera de unos 10 cm de diámetro(14) y dejémosla en el suelo. Ese es nuestro núcleo. Ahora tomemos una esfera de 5 cm la cual representa un electrón y coloquémosla a unos 450 metros de distancia.  

      Este ejercicio representa un modelo para comparar el tamaño del núcleo, del electrón y las enormes distancias que les separan. Este modelo de átomo tendría un diámetro de casi 900 metros, pero sólo esa esfera de 10 cm en el centro representa el núcleo (conformado por los neutrones y protones). En su orbita lejana estaría el electrón. El resto es vacío.  

      Este ejercicio representa un modelo para comparar el tamaño del núcleo, del electrón y las enormes distancias que les separan. Este modelo de átomo tendría un diámetro de casi 900 metros, pero sólo esa esfera de 10 cm en el centro representa el núcleo (conformado por los neutrones y protones). En su orbita lejana estaría el electrón. El resto es vacío.  

Espectros  

      Bien, hasta aquí hemos revisado los inicios de lo que se pensaba sobre la estructura del átomo. Y lo increíble es que la mayoría de las personas, al preguntarles como se imaginan el átomo, responden describiendo el sistema atómico planetario. En realidad, la concepción que se tiene del átomo actualmente es un poco más compleja, a veces poco entendible, de ahí que casi todos tengamos mejor establecido el concepto de un átomo como un sistema planetario en nuestras cabezas. De hecho, pocos quieren entrometerse en la teoría cuántica por considerarla oscura, incomprensible. Y lo es, por lo que no pretendo explorar minuciosamente este campo en esta lectura, pero si quiero dar a conocer un panorama más real sobre la estructura del átomo tal como se piensa que es hoy en día.  

      Hasta aquí hemos llegado a la idea del átomo como un sistema planetario en diminuto. Más en la ciencia no hay nada escrito y surgieron varios problemas más. En 1864, el científico inglés James Clerk Maxwell(15) publicó sus ecuaciones que dieron paso a
la Teoría Clásica del Electromagnetismo, aún válidas en la actualidad. En base a sus ecuaciones, se decía que una partícula cargada que se aceleraba, debía emitir radiación electromagnética. La aceleración es igual al cambio en la velocidad. Ahora bien, la velocidad posee magnitud (es decir, la cantidad de rapidez) y dirección. Si cambiamos alguno de estos dos factores, se obtiene un cambio en la velocidad, es decir, una aceleración(16). Por lo tanto, aunque el átomo del modelo atómico planetario no tiene variaciones en su rapidez, si las tiene en la dirección el estar girando alrededor del núcleo. Por lo tanto, el electrón al estar cargado y al tener aceleración, debería estar emitiendo radiación electromagnética en forma constante. Y como la radiación emitida porta consigo parte de la energía del emisor, si un electrón al estar emitiendo radiación, entonces debía perder energía también en forma continua. Y al perder energía de esa forma, no podía mantener su órbita por lo que irremediablemente caería en espiral al núcleo. Luego, algo estaba mal pues esto último no ocurría o de lo contrario todos los átomos ya hubieran colapsado. 

      Para entender dónde está el problema, revisemos algunos conceptos clave. Uno de ellos es la naturaleza de la luz, la cual es un tipo de radiación electromagnética, al igual que los rayos-X, los infrarrojos, los ultravioleta y las ondas de radio. Una onda electromagnética consiste en variaciones periódicas de dos campos, uno eléctrico y otro magnético.  

Por lo tanto, aunque el átomo del modelo atómico planetario no tiene variaciones en su rapidez, si las tiene en la dirección el estar girando alrededor del núcleo. Por lo tanto, el electrón al estar cargado y al tener aceleración, debería estar emitiendo radiación electromagnética en forma constante. Y como la radiación emitida porta consigo parte de la energía del emisor, si un electrón al estar emitiendo radiación, entonces debía perder energía también en forma continua. Y al perder energía de esa forma, no podía mantener su órbita por lo que irremediablemente caería en espiral al núcleo. Luego, algo estaba mal pues esto último no ocurría o de lo contrario todos los átomos ya hubieran colapsado. 

      Para entender dónde está el problema, revisemos algunos conceptos clave. Uno de ellos es la naturaleza de la luz, la cual es un tipo de radiación electromagnética, al igual que los rayos-X, los infrarrojos, los ultravioleta y las ondas de radio. Una onda electromagnética consiste en variaciones periódicas de dos campos, uno eléctrico y otro magnético.  

      Las ondas representan esta variación en los campos y la amplitud representa la intensidad de dichas variaciones. Las partes más elevadas de la onda son se denominan crestas, en tanto las partes más bajas son los valles. Si se mide la distancia que hay de una cresta a otra subsecuente, se obtiene la longitud de onda (la cual se representa con la letra lambda). Un ciclo consta de un valle y una cresta, y la cantidad de ciclos que pasan por un punto dado por unidad de tiempo nos da la frecuencia. Las unidades de medida de la frecuencia de las ondas son los hertz (Hz)(17). De esta forma, se puede dividir la energía electromagnética según su longitud de onda y su frecuencia. 

      Antes de proseguir, aclaremos que aunque las ondas de cualquier tipo constan de crestas y valles como se mencionó con el dibujo arriba presentado, las ondas electromagnéticas tienen un comportamiento especial. Las ondas electromagnéticas constan de campos eléctricos y campos magnéticos (de ahí su nombre), por lo que en realidad consta de ondas de campos de cada tipo que son perpendiculares entre sí y a la vez lo son a la dirección de la onda. Los esquemas que en seguida muestran como son las ondas electromagnéticas. 

      La luz solar es llamada luz blanca y está formada una mezcla de ondas cuyas longitudes caen dentro de la luz visible (400–700 nm). Una forma de descomponer la luz blanca es por medio de un experimento clásico y sencillo: Se hace pasar un haz de luz solar a través de un prisma transparente, proyectando la luz resultante sobre una superficie blanca. El resultado es una franja de colores superpuestos uno al lado del otro, cuyo orden es el siguiente: Rojo, naranja, amarillo verde, azul, índigo, violeta. Lo que hace el prisma transparente es ofrecer un medio donde se refracten(18) las diferentes longitudes de onda de la luz visible. Como cada longitud de onda se refracta en ángulos ligeramente diferentes(19), se separan unas de otras. 

      La franja de colores representa el espectro de la luz blanca. Ahora bien, si cierta sustancia se expone a luz de cierta intensidad o cualquier otra forma de energía, sus átomos absorben parte de esta energía. Cuando absorben esa energía se dice que dichos átomos están excitados. En ese estado de excitación, las sustancias emiten luz que puede ser analizada con un instrumento llamado espectroscopio. En dicho instrumento, la luz emitida por las sustancias excitadas pasa a través de una rendija y de un prisma, con lo que se logra separar en sus longitudes de onda componentes, en forma similar a como se mencionó para la luz blanca. Las longitudes de onda separadas también se observan como líneas de color, aunque de un átomo a otro. Eso constituye un espectro(20) y es distinto para cada sustancia y átomo(21). Si los colores en un espectro se sobreponen sin interrupción, se trata de un espectro de emisión. 

      Posteriormente se observó que en algunos espectros aparecían unas líneas oscuras (llamadas líneas de Fraunhofer). Este es el espectro de absorción y también es distinto para cada elemento. Un espectro importante en la investigación de la estructura del átomo es el del hidrógeno, ya que fue el espectro utilizado para describir su modelo Niels Bohr, además de usar una nueva teoría establecida por Max Planck, llamada
la Teoría Cuántica. © 2004, José Fco. Camacho A. 

 

Sobre el autor: José Fco. Camacho A. nació el 20 de abril de 1979, en Queretaro, México, pasando la mayoría de su vida sin muchas aventuras para comentar, pero sí leyendo y viendo ciencia ficción. José Fco.,además, siente pasión por las ciencias físicas, químicas y biológicas. 

(1): En sus libros Principia (1687) y Optica (1704), por si a alguien le interesa leerlo. 

(2): En su libro El químico escéptico (1661), igualmente por si a alguien le interesa saber dónde lo escribió.(3): La carga del electrón se acepta en –1.6022 x 10–19 C. Para fines prácticos, esta carga se acepta como de 1–.
La C es de coulomb, la unidad del Sistema Internacional de la carga eléctrica.  

(4): La masa del electrón es de 9.109535 x 10–29 g. 

(5): La carga del protón se acepta en +1.6022 x 10–19 C. Obsérvese que es la misma carga que la mencionada en esta carga se acepta como de 1+. 

(6): La masa del protón es de 1.672649 x 10–24 g. (7): Plum cake model, según los anglosajones. (8): La masa del neutrón es de 1.674954 x 10–24 g.  

(9): Ernest Rutherford ganó el Premio Nobel en química por sus estudios sobre la radiactividad y es considerado el Padre de
la Ciencia Nuclear. ¿Por qué? Sigamos leyendo el texto. 

(10): Los rayos alfa constan de partículas cuya carga es de 2+ y tienen una masa un poco mayor que 4 veces las del protón. Esto se debe a que constan de 2 protones y de 2 neutrones y son despedidas de las sustancias radiactivas a 16,000 km/s. Con fines ilustrativos y para no confundirlos, los rayos betas tienen una carga de 1–, constan de electrones y son despedidas de las sustancias radiactivas a 130,000 km/s, en tanto los rayos gamma es radiación electromagnética de longitud muy corta. 

(11): En realidad también usaron láminas delgadas de platino, plata y cobre, aunque se recuerda mejor este experimento como El experimento de la lámina de oro, dejando al olvido las otras pobres láminas. 

(12): Imagínese un electrón cuya masa es de 9.109535 x 10–29 g queriendo detener una partícula alfa con una masa de 6.695206 x 10–24 g. Es como si una pluma de apenas 1 gramo quisiera detener a un hombre de 70 kg. 

(13): Aunque ya sabemos usar la notación científica y los prefijos, solo recordemos que un manómetro es igual a 0.000 000 001 o 1 x 10–9 metros. Un milímetro apenas equivale a 0.001 metros, es decir, un nanómetro es una cienmilésima parte de un milímetro. (14) El diámetro en esta escala puede ser de 2 cm para núcleos atómicos pequeños o de 13 para los núcleos más grandes. 

(15): Cabe hacer notar que James Clerck Maxwell también demostró que los anillos de Saturno no podían ser bandas, sugirió un esquema para medir la velocidad de movimiento del sistema solar con respecto al éter luminífero (base para los ulteriores experimentos en interferometría) y publicó algunos trabajos sobre la teoría cinética de los gases.  

(16): ¡Cuidado! Al ser la aceleración cualquier cambio en la velocidad, debe entenderse entonces que si esta aumenta o disminuye, en ambos casos se habla de aceleración y no debe pensarse que la aceleración implica únicamente un incremento en la velocidad. 

(17): Un hertz es igual a 1 ciclo por segundo.  

(18): La refracción es el cambio de dirección que sufre una onda entre un medio y otro. En nuestro ejemplo en el texto, un medio es el aire por donde viaja la luz blanca. Al pasar a otro medio representado por el prisma transparente, las ondas electromagnéticas cambian de dirección. 

(19): Los rayos de longitudes de onda más cortas (en la luz visible, las de color violeta) se desvían más que las longitudes de onda largas (en la luz visible, las de color rojo). 

(20): Recuérdese del clásico experimento de descomposición de la luz visible: Si uno hace pasar luz natural a través de un prisma, estas se descompondrán en una banda de distintos colores. Este sería el espectro de la luz visible.  

(21): Un espectro de cualquier sustancia para ser completo debe ser analizado tanto en la región de la luz visible, como en el de la radiación ultravioleta (200 a 400 nm). 

Lo invisible

por José Fco. Camacho

Explorando lo Macro

Era una fría noche de diciembre. Lo recuerdo bien, pues el viento congelado calaba hasta los huesos. Y como todos los diciembres de cada año, la Feria Ganadera en todo su esplendor. El adjetivo “Ganadera” solo era por decirle de alguna forma, pues aparte de ganado había exposiciones comerciales, culturales y estrepitosos juego mecánicos. Y como cada año, casi siempre lo mismo. O así lo veía con mis ojos de niño.

Más hubo un año diferente. En esa ocasión en plena explanada, en un lugar que no sé si por estrategia estaba sumido en la penumbra, apenas visible. Y ahí, un portentoso telescopio, como los que alguna vez había visto en la tele. No me refiero a esas obras de ingeniería moderna, con cúpula y computadoras incluidas. No, sólo era un telescopio digámosle “casero”, de los que se apoyan en un tripie y en los cuales puede uno observar lo que se le antoje, sea del amplio firmamento o sencillamente el quehacer de alguna atractiva vecina. Obviamente, nunca había visto un telescopio de verdad, así que el tenerlo a pocos centímetros me fascinó enormemente. Tal vez irradié la emoción tan notoriamente que mis padres preguntaron si me gustaría echar un vistazo a través de dicho artefacto. No lo dudé, ¡por supuesto que deseaba verlo!. Esa noche había luna nueva, por lo que al mirar en dirección a donde apuntaba el telescopio únicamente descubrí una estrella con un brillo ligeramente más intenso que el resto. “No importa, algo ha de mostrar”, me dije. Y ahí estaba, con un ojo pegado en el pequeño ocular, mirando una diminuta forma esférica, en la cual se distinguían franjas anaranjadas, rojas y marrones sobre su superficie. Se trataba del gigante de gas Júpiter. Era mi primer vistazo al Universo “real”, ya no una foto o una descripción.

Ahí estaba y yo lo había presenciado.

Sin embargo, posiblemente el primer astro en ser visto a través del también primer telescopio haya sido la luna, sencillamente porque ésta es el segundo cuerpo celeste más luminoso, es visible a simple vista y con múltiples preguntas acerca de su existencia como cráteres había en su superficie. De esta forman, aunque en la exploración del Universo se han utilizado tantos instrumentos que hacer una lista de ellos y de sus funciones abarcaría libros enteros, con seguridad el aparato clave fue, es y será el telescopio. Gracias a éste, la astronomía avanzó en forma acelerada en los siglos XVII y XVIII. En la historia del telescopio es común mencionar a Galileo Galilei, no como inventor, pero si como el hombre que lo perfeccionó e introdujo el uso del primer tipo de estos aparatos denominados “refractores”. A esta clase de telescopios pertenecen aquellos que usan juegos de lentes para incrementar las imágenes, siendo una lente del tipo biconvexa (objetivo convergente) y otra del tipo bicóncava (divergente) en el ocular. En estos telescopios la imagen es derecha y aumentada, como los prismáticos. Posteriormente vendría Newton, quien inició el uso de los “telescopios reflectores”, los cuales en lugar de lentes usan un espejo curvo para concentrar la luz en un espejo pequeño plano situado dentro que lleva la luz hacia el ocular. Algunos telescopios más modernos, como los de Ramsden, utilizaron 2 lentes convergentes, aunque con ello se lograba formar una imagen invertida.

Ya en el siglo pasado tomó relevancia otro instrumento, un primo cercano de los clásicos telescopios, el Radiotelescopio. Estos enormes aparatos constan de un plato parabólico de radar que capta las ondas electromagnéticas y, dada su condición curva, enfoca estas ondas en un punto llamado receptor. El acoplamiento de ordenadores a los radiotelescopios posibilita el análisis de las ondas de radio percibidas en forma de gráficas continuas, como mapas de contornos que muestran la intensidad de las emisiones, como figuras tridimensionales, etc. Otra gran ventaja de los radiotelescopios sobre los telescopios es que son relativamente más sencillos de construir, además de que un plato parabólico puede ser más grande y más barato de elaborar que un enorme espejo o una lente de telescopio reflector o refractor, respectivamente. No obstante, a mayor tamaño, la operabilidad del plato parabólico se va haciendo menor. Como gran ejemplo, el Radiotelescopio en Arecivo, Puerto Rico, con un diámetro de 305 m, pero cuyo movimiento está dado únicamente por la rotación terrestre, por lo que sólo puede explorar una angosta banda de toda la bóveda sideral.

Explorando lo Micro

Aunque resulta agradable recordar a Galileo como un elemento medular en la historia de la astronomía, gracias a la introducción del tipo de telescopio que lleva su nombre, pocos saben que no empleó la óptica con ese único fin. De hecho, en 1610 diseñó también un microscopio compuesto. No obstante, la invención del microscopio le había sido ganada. Aunque se ha descubierto una lente asiria del año 700 a.C. tallada en cristal natural, el principio del microscopio compuesto fue concebido por Zacharias Jensen hacia 1600, en Middelburg, Holanda. El gran potencial del microscopio compuesto es que a diferencia de una lupa (objetos que usan una sola lente), el primero utiliza al menos 2 lentes alineadas de manera que se multiplica la capacidad de ampliación de cada una por separado. Sin embargo, los problemas de distorsión y aberraciones eran tan importantes que los primeros avances en la microscopia se suscitaron con el uso de lupas cuidadosamente esmeriladas. De hecho, el biólogo holandés Antón van Leewenhoek (1632-1723), el gran pionero de la microscopia moderna, desarrolló un microscopio simple con una sola lente biconvexa montada entre dos placas de bronce frente a una aguja en la que se disponía el espécimen. Con este instrumento logró una ampliación superior a los 300 aumentos, siendo capaz de ver por primera vez bacterias y espermatozoides. Por su parte, el físico inglés Robert Hooke (1635-1703) desarrolló su propio microscopio compuesto, aunque fue en el siglo XIX cuando avanzó la microscopia compuesta al mejorar la fabricación de lentes, con lo cual se suprimían las aberraciones esféricas y cromáticas. Posterior a esa fecha se inventarían sucesivamente una gran variedad de microscopios, como el de inmersión en aceite, el microscopio binocular con objetivo único, el microscopio de campo oscuro, el microscopio ultravioleta, el microscopio electrónico, el microscopio de contraste de fase, el microscopio electrónico de exploración, el microscopio electrónico holográfico, el microscopio de exploración de efecto túnel y un largo etc.

Pero analicemos el funcionamiento del microscopio. Comencemos definiendo el poder de resolución, el cual es la capacidad del ojo para percibir detalles. El límite de resolución es la separación más pequeña entre 2 puntos que puede detectar. Así, el límite de resolución del ojo humano es de 25 segundos de arco, es decir, que 2 puntos pueden ser percibidos como separados si al llegar a la retina forman un ángulo de al menos 25 segundos de arco. Si el ángulo que forman entre los dos puntos es menor a 25 segundos de arco, ambos puntos serán detectados como uno solo. Lo anterior equivale a poder distinguir dos puntos separados por 1 mm a 10 metros de distancia. De igual forma, si en un microscopio (o en su defecto, un telescopio) dos puntos no forman este ángulo mínimo, serán detectados como un solo punto. El poder de resolución también puede afectarse por las aberraciones en el ocular, lo cual distorsiona la imagen, y por la naturaleza ondulatoria de la luz (dos puntos separados por una distancia menor a la longitud de onda de la luz serán vistos como un mismo punto).

En el microscopio compuesto, la ampliación se logra en 2 etapas. El objetivo (lente cercana a la muestra a ser observada) produce una imagen real, invertida y ampliada del objeto (muestra). La imagen se forma a la distancia focal del ocular (lentes cercanas a los ojos del observador), que actúa como una lupa ordinaria ampliando la imagen. No es mi intención el analizar los principios de la óptica que rigen el funcionamiento de un microscopio compuesto (aunque tal vez retomemos después el tema), sino el hacer notar que el simple microscopio cambió radicalmente nuestra concepción del mundo. Pero con todo, aún tardó mucho ese cambio y muchos personajes intervinieron en ello. Sin embargo, antes de entender las mil y un caras de lo diminuto, de todo lo que no se ve a simple vista, retomemos las bases.

Nuevas medidas

Ya habíamos comentado la notación científica como una forma de expresar cantidades enormes de números. Sin embargo, ese mismo principio puede ser aplicado a número demasiado pequeños. De esta forma, un ojo de una polilla tiene un diámetro de 0.000,025 metros o 2.5 x 10–5 metros. Nótese que seguimos usando la potencia de 10, aunque ahora el exponente es “–5”, es decir, con un valor negativo. Al ser negativo el exponente, nos indica cuantos dígitos a la izquierda del punto (en los valores positivos indican lugares a la derecha del punto) hay en una cifra dada, incluyendo el número entero de la cifra de notación científica. De esta forma, el “–5” indica cinco dígitos a la derecha del punto (0.000,00) en los cuales debe estar incluido el número entero de la cifra dada (0.000,02) y el resto se rellena con ceros. La cifra de nuestro ejemplo señala 2.5, por lo que al final el número queda como 0.000,025. El 5 de 2.5 es fracción y no se toma en cuenta para rellenar los dígitos señalados por el exponente (sólo se toma en cuenta el número entero, siendo en nuestro ejemplo el número 2). Otro ejemplo sería 2.35 x 10–7, el cual se expresaría numéricamente como 0.000,000,235. Obsérvese que el número 2 sólo se toma en cuenta para rellenar los 7 dígitos a la derecha del punto señalados por el exponente –7. El 3 y el 5 (ambos mostrados como fracción, es decir 0.35) se colocan para completar la cifra, pero nunca se toman en cuenta para completar los dígitos señalados por el exponente.

Un tercer ejemplo sería el de 12.5 x 10–6, cuya cifra numérica sería 0.000,012,5. Sólo el 12 se toma en cuenta para rellenar los 6 dígitos del exponente. Es este ejemplo, podríamos recorrer el punto un espacio y disminuir el exponente, quedándonos 1.25 x 10–5, cuya cifra numérica es 0.000,012,5, la misma cifra mencionada arriba. O por el contrario, 125 x 10–7 o 0.000,012,5. Sencillo, ¿verdad?

La notación científica es muy utilizada en las ciencias, aunque su uso se ha simplificado aún más con el uso de prefijos. Así, aunque podríamos afirmar que la distancia al cine más cercano es de 2 x 10+3 metros, suena menos complicado el decir sencillamente que esta a 2 kilómetros.

[…]

Volviendo a los ejemplos, un centímetro es la décima parte de un metro, un micrometro es la millonésima parte del metro y un atometro es ser bastante presuntuoso. Más adelante habrá suficiente oportunidad para practicar estos prefijos, sus símbolos y su significado.

Es posible que el primer astro en ser visto a través del también primer telescopio haya sido la luna. Es el segundo cuerpo celeste más luminoso, visible a simple vista y con múltiples preguntas acerca de su existencia como cráteres hay en su superficie. Yo fui un poco más afortunado, pues mi primera vista al Universo fue a Júpiter, el gigante joviano. Más aún hay muchas cosas por ver no allá fuera en el frío espacio, sino en nuestro propio mundo, aunque poco nos demos cuenta de ello.

(1) Aunque hasta aquí había usado “comas” para separar los grupos de dígitos (p. ej. 1,000,000), en algunos países el punto se expresa con una “coma”. Por lo tanto, de aquí en adelante no usaré las comas, sino espacios para separar los grupos de números (p. ej. 1 000 000).

(Continúa en TauZero # 10)

Cuestión de Medidas

por José Fco. Camacho A.

I. Cuestión de Medidas.

Sueños de niño Una vez, cuando niño, hice una pausa en mi vida y por motivos que ignoro me puse a meditar de manera casi filosófica. Me preguntaba sobre tantas cosas, sobre todo aquello que me llenaba de dudas, me cuestionaba sin llegar a responderme sobre muchas cosas que yo desconocía, tal vez debido a la cortedad de mi edad. Me preguntaba desde por qué las cosas caen y no vuelan, hasta por qué uno tenía que ir a la escuela. Muchas cosas eran banales, pero otras me llenaban de angustia (¿por qué vivimos?, ¿qué es la muerte?, ¿qué es existir?). Creo que todos en alguna parte de nuestra vida nos hacemos las mismas preguntas, y es razonable. El ser humano por naturaleza, desde que pisó por primera vez la faz de éste planeta, siempre se ha cuestionado sobre muchas cosas y entre ellas está el preguntarse de donde viene, por qué está aquí y a donde va. Desde cualquier individuo común y corriente, hasta los grandes filósofos se han venido haciendo las mismas preguntas así que yo no iba a ser la excepción de mis congéneres.Más no son esas dudas y sus posibles respuestas las que interesan en éste pequeño espacio. Después habrá oportunidad de divagar un poco sobre el tema, pero no ahora. A lo que iba es que entre tanto cuestionamiento, de vez en cuando me hacia algunas preguntas sobre lo que debía ser el Universo. En éste punto, tal vez pocas personas han tenido las mismas dudas, y posiblemente sean muchas las que ni les interese en absoluto esta área. Sólo aquellas personas que de niños han levantado su mirada al cielo nocturno y han querido saber cuan grande debía ser el Universo, de que estaba compuesto, por qué era negro y no de otro color, por qué había estrellas y cuán distantes estaban con respecto a nuestros hogares, podrán comprender todo esa avalancha de pensamientos y de dudas que se vertían en mi tierno razonar infantil. Una vez que fui creciendo y tomando más conciencia de que debía resolver mis dudas como buen ser humano que era, comencé a investigar parte de lo que cada noche al admirar el cielo plagado de estrellas venía a mi mente en forma de una pregunta. De primera instancia, me interesaba sobremanera la longitud del Universo, deseaba saber cuantos kilómetros medía. ¿Tal vez algunos cientos?, ¿miles de millones?, ¿infinito?, ¿qué significa infinito? Como pueden ver no tenía ni la más remota idea de la realidad. Incluso ante la casi seria necesidad de conocer eso y otras tantas cosas más, comenté en más de una ocasión a mis padres con suma formalidad infantil mi enorme deseo de ser astrónomo. Sostenía la firme postura de que anhelaba llegar a conocer y comprender al Universo en su vastedad. ¡Ja!, de verdad no sabía que estaba diciendo.

Nuevas medidas

Después de comentar mi sueño de niño de ser astrónomo, ahorre un poco de dinero con el que me fui haciendo de algunos libros relacionados con el increíble y fascinante tema de la astronomía y con paso lento y seguro fui comprendiendo muchas cosas. Al fin me enteré que medir el Universo con kilómetros era comparable con medir una ciudad con granos de arena fina, una tarea engorrosa y harto difícil. Así que alguien sacó de su cabeza la genial idea de utilizar una nueva unidad de longitud, y fue algo grandioso. Ahora, cualquiera que quiera decir que la Tierra está separada del Sol por aproximadamente 149,597,870 kilómetros, puede sólo mencionar su equivalente astronómico, es decir, que ambos cuerpos se separan por 8 minutos-luz. Se escucha más elegante y simple, ¿no lo creen así? Esta fabulosa medida consiste en medir una longitud por la distancia que recorre un haz de luz en un determinado período de tiempo. Por lo tanto, un segundo-luz equivale a 300,000 kilómetros, pues esa es la distancia que ha recorrido en un segundo. Un minuto-luz serían 18,000,000 kilómetros, un día-luz 25,920,000,000 kilómetros y un año-luz unos 9,460,000,000,000 kilómetros. En la escuela se nos enseña que la estrella más cercana a nuestro sistema solar es la llamada Alfa Centauri (la estrella alfa de la Constelación del Centauro). Ésta estrella está a unos 4.5 años-luz de distancia, o sea, unos 42,570, 000,000 kilómetros. La Vía Láctea, nuestra galaxia, tiene unos 97,800 años-luz de diámetro, algo así como unos 925,188,000,000,000,000 kilómetros. Notan que es más fácil decir noventa y siete mil ochocientos años-luz que novecientos veinticinco mil ciento ochenta y ocho billones de kilómetros. Y qué dirían si les dijera que nuestra galaxia forma, junto con otras veinte galaxias más, el denominado grupo Local, pero que existen otras agrupaciones denominadas en general cúmulos galácticos y que el más cercano (el cúmulo de Virgo) está a 65,200,000 años-luz de distancia, o sea, a 616,790,000,000,000,000,000 kilómetros (seiscientos dieciséis trillones, setecientos noventa mil billones Seiscientos dieciséis trillones, setecientos noventa mil billones). Realmente sorprendente.

Notación científica

Y en medidas así, que incluso los años-luz resultan insuficientes, los científicos han sacado a uso otra idea no menos maravillosa: la notación científica. Con ella, la distancia al Cúmulo de Virgo es de 65,2000,000 años-luz, o 6.52 x 10**7 años-luz. O también 6.16792 x 1020 kilómetros. Como se ve, éste sistema utiliza potencias de 10. El 107 del número 6.25 x 10**7 tiene dos componentes: el exponente, que es variable y en este caso está representado por el “7”, y la base, que siempre será 10 por ser potencia de 10. El exponente nos indica cuantos dígitos a la derecha del punto hay en una cifra. Así, en 6.25 x 10**7, se colocan 7 dígitos después del punto decimal, es decir, los números 2 y 5 y otros cinco ceros para completar lo expresado por el exponente. En 6.16792 x 10**20 el exponente es 20 y tenemos ya cinco cifras que son “16792” por lo que inmediatamente después de ellas se deben colocar quince ceros para completar lo dictado por el exponente. Algo más, 6.16792 x 10**20 puede expresarse sencillamente como 6.2 x 10**20, dado que es una aproximación a una distancia de la cual no sabemos con precisión la longitud real, y en un momento dado, puede ser “más precisa” que 6.16792 x 10**20.

¿Por qué es más correcta una cifra con apenas dos dígitos que una de seis? Sencillo, aquí es donde entra en juego el concepto de Cifras Significativas. Tomemos para explicarlas un ejemplo: tenemos una barra de metal y queremos medirla. También tenemos dos reglas, una que mide solo en centímetros y otra que lo hace en centímetros y en milímetros. Un tercer instrumento, un Vernier sencillo, nos puede dar medidas de hasta 0.1 milímetros. Hacemos la primera medición y vemos que la barra de metal mide con la regla de centímetros unos 7 cm. y un tercio de la distancia entre el centímetro 7 y el 8. Con la segunda regla, la de centímetros y milímetros, medimos y encontramos una medida de 7.3 cm., pero vemos que la longitud de la barra de metal está entre el milímetro 73 y el 74. Por último, utilizamos en Vernier y obtenemos una cifra igual a 7.34 cm. y, aún así, una buena observación, vemos que la longitud queda entre 0.4 y 0.5 mm. Y ya no tenemos más instrumentos para seguir adelante.

Tres medidas. La primera es inexacta, en su totalidad. La segunda se aproxima un poco más y la tercera es un tanto más certera. Nos indica tan solo una aproximación: la barra mide entre 7.33 y 7.35 cm. Suponiendo que tuviera una longitud real de 7.3478 cm., cae dentro de nuestra medición. Tomamos un cuarto instrumento que registra hasta 0.01 mm. y dado que la precisión de una medida depende tanto de las limitaciones del aparato que la mide, como de la habilidad con qué este instrumento se use, obtenemos una medida de 7.345 cm. Ello nos indica que la barra mide entre 7.344 y 7.346 cm., y ese intervalo no abarca la longitud real de 7.3478 cm. por lo que nuestra medición dejó de ser exacta.

El concepto de cifras significativas se refiere a todas las cifras que son conocidas con certidumbre, y además otra que es una aproximación. De esa forma, en 7.33 cm tenemos tres cifras significativas y donde estamos seguros de que sean 7.3 cm, y que el 0.03 cm es una aproximación. Por lo tanto, la distancia al cúmulo de Virgo se expresa mejor como 6.2 x 10**20 km que 6.16792 x 10**20 km en un momento dado. El 6.2 x 10**20 indica que puede estar a una distancia de 6.1 a 6.3 x 10**20, algo que a todas luces resulta más cómodo y “preciso” que un intervalo de 6.16791 x 1020 a 6.16793 x 10**20.

Existen cuatro reglas sencillas para determinar el número de cifras significativas en una medida registrada, y son las siguientes:

1. Todos los dígitos, o cifras, excepto el cero, son siempre significativos;

92: Dos cifras significativas.
93.3: Tres cifras significativas.

2. Uno o más ceros, utilizados después del punto decimal, son significativos;

4.700: Cuatro cifras significativas.

3. Los ceros colocados entre otros dígitos o cifras significativas siempre son significativos;

5.709 Cuatro cifras significativas.
509 Tres cifras significativas.

4. Los ceros que se utilizan únicamente para establecer el espacio del punto decimal no son significativos. Los ceros solo se utilizan para ocupar el lugar.

7,000 Una cifra significativa.
0.00689 Tres cifras significativas.

La astronomía es hermosa. Saber que existen muchos mundos distintos al nuestro, inexplorados y lejos de nuestras posibilidades de visita, tan distintos al nuestro nos hace volar la imaginación y comenzamos a fantasear sobre ellos. Todo el orden que hay en el Universo, cada objeto siguiendo al pie de la letra las Leyes Físicas conocidas y otras que apenas se vislumbran.
Allá afuera, lejos de nuestro hogar llamado planeta Tierra, existen cientos de miles de millones de galaxias, cada una con un promedio de unos miles de millones de estrellas conformándolas. Si quería ser astrónomo, tenía un vasto campo para estudiar. Por lo tanto, seguí abriendo los viejos librillos de astronomía para principiantes, tan sólo para saber un poco de las bases de lo que reina en el Universo y me decidí por ser, en definitiva, un pequeño astrónomo, pero aficionado, solamente. Únicamente lo haría por pasatiempo, sin jamás llegar a ser un profesional. Admiraría el cielo nocturno, sabría un pedazo de todo lo que significa, pero no me dejaría ser devorado por su abrumadora e incuantificable grandeza…

por José Fco. Camacho A.

¿Se nos Acabará el Universo?

por Rodrigo Mundaca Contreras

[…] El Mundo es tan exquisito, posee tanto amor y tal hondura moral, que no hay motivo para engañarnos con bellas historias respaldadas con escasas evidencias. Me parece mucho mejor mirar cara a cara la Muerte en nuestra vulnerabilidad y agradecer cada día las oportunidades breves y magníficas que brinda la vida […]
–Carl Sagan–

¿Cuál es el destino último de nuestro Universo? La reflexión sobre este tema, al igual que las interrogantes fundamentales (¿Cuál es mi lugar en el universo? ¿De dónde vengo? ¿Hacia donde voy?), normalmente es desechada por considerarse algo fuera del entendimiento, una inquietud sin importancia en la rutina diaria (después de todo, el tener la respuesta a este tipo de preguntas no sube el sueldo).
En otros casos la respuesta se obtiene de algún sistema de creencias religiosas o sectarias. Pero en esta situación no hay reflexión, sino simple aceptación de las ideas consignadas en libros considerados sagrados o provistas por personas iluminadas… y en otros muchos casos la respuesta es un simple, irreflexivo y desdeñoso encogimiento de hombros.
Pero la ciencia también tiene algo que decir al respecto. No ofrece “la respuesta última” a la interrogante ni proporciona la buscada “paz espiritual” (no es su labor). Lo que sí otorga es una respuesta (que puede ir evolucionado en la medida que el Conocimiento aumente) con la que se puede construir un sistema de referencia sobre la cual se pueden cimentar ulteriores reflexiones, sean éstas tranquilizadoras o no.
Basándose únicamente en argumentos matemáticos y físicos que conforman las teorías vigentes en la actualidad (2004 AD), se ha logrado construir el escenario que le espera al universo en un futuro lejanísimo.

Gravedad: La Gran Protagonista

La teoría aceptada en forma general para la aparición y evolución del universo es la del Big Bang. Según esta teoría el universo comenzó en una explosión inconmensurablemente grande hace unos 10 mil millones de años. A partir de entonces, el universo se expande en todas direcciones, creando el espacio a medida que crece. Por diversos procesos físicos se crearon las galaxias, estrellas, planetas… ¡y nosotros mismos!
Cabe destacar que la tasa de expansión del universo está determinada por la fuerza de gravedad. La fuerza de gravedad es la interacción que se produce entre los cuerpos materiales, esto es, que estén compuesto de átomos (por ejemplo, el planeta Tierra está compuesto por átomos, y la suma de las fuerzas ejercidas por todos ellos sobre los átomos de nuestro cuerpo es lo que causa que estemos pegados al suelo).
La gravedad es la más débil de las cuatro fuerzas fundamentales (las otras tres son: fuerza nuclear fuerte, fuerza nuclear débil y fuerza electromagnética), pero sus efectos son acumulativos a gran escala. Esta curiosa propiedad es la que la convierte en la protagonista principal de esta historia.
El destino final de nuestro universo depende de la cantidad de materia que éste posee. Para determinar esto es necesario “pesar” el universo, o sea, determinar cuanta materia tiene. Si tiene el peso suficiente, entonces en algún momento la expansión cósmica se detendrá y comenzará a contraerse (de forma análoga a cuando se lanza una piedra hacia el cielo, esta se va frenando, se detiene, y comienza a caer de vuelta). Por el contrario, si la materia en el universo no es suficiente, la expansión continuará por toda la eternidad (a un cohete que va hacia la luna no le sucede lo mismo que a la piedra: logra huir de la gravedad terrestre).
¿Cuales son los posibles destinos últimos del Universo? Son dos:
Universo Abierto. El universo se expandirá por toda la eternidad.
Universo Cerrado. El universo frenará su expansión en algún momento para comenzar a contraerse hasta alcanzar tamaño nulo en el evento llamado Big Crunch.

Universo Abierto: Universo por los siglos de los siglos… y más
Para construir una imagen de un universo que se expande para siempre, es imprescindible centrar la atención en las estructuras más estables conocidas. No se sabe dónde estarán los humanos en mil años, pero sí se sabe la respuesta cuando se trata de nuestro sol, por ejemplo.
Se analizarán los siguientes eventos:
* Muerte de Estrellas
* Muerte de los Agujeros Negros
* Decaimiento de la materia
* Muerte Energética del Universo

Colapso de Estrellas: El advenimiento de las Tinieblas

Las estrellas, aquellos puntitos luminosos en el cielo nocturno, son gigantescas bolas de gas en combustión. El origen de esta combustión consiste en, básicamente, reacciones de fusión nuclear entre los átomos ligeros de hidrógeno, en donde dos de ellos se fusionan para dar origen a un átomo de helio más energía que se transmite en forma de radiación electromagnética al espacio estelar.
Pero sucede que la cantidad de hidrogeno en una estrella no es infinita, de modo que, tarde o temprano, la estrella tiene que agotar el combustible que mantiene vivo el fuego estelar, con lo cual la estrella se apaga. Las estrellas se mueren en gigantescas explosiones conocidas como supernovas, se transforman en enanas blancas, estrellas de neutrones o colapsan en agujeros negros. Se forman nebulosas de polvo debido a la explosión y es posible (si se dan las condiciones adecuadas) que las estrellas vuelvan a crearse… y a morir. Este ciclo de creación-muerte tiene un tope cuando los elementos creados por las reacciones de fusión nuclear avanzan en la tabla periódica y se sintetiza un elemento estable como es el fierro. En este caso la producción de estrellas finaliza y ya no vuelve a encenderse ningún astro.
Cuando esta situación suceda para todas las estrellas del universo, éste se sumirá en la más oscura de las tinieblas.
Gran parte de la materia, no obstante, seguirá estando allí. Los agujeros negros absorberán mucha de esta materia, pero tal vez no toda, de modo que existirán cuerpos opacos como planetas, asteroides y cometas junto con agujeros negros que no pudieron capturarlos.
Ahora bien, se sabe que los agujeros negros emiten un tipo de radiación que eventualmente es capaz de evaporarlo. Para que esto ocurra hace falta una cantidad de tiempo inimaginablemente grande, pero ciertamente finita, de modo que en un universo en eterna expansión, hasta los agujeros negros mueren.

Evaporación de Agujeros Negros: La derrota del Asesino Cósmico

Stephen Hawking y Roger Penrose determinaron hacia 1970 una propiedad en los agujeros negros que implicaba que éstos no sólo podían “tragar”” materia, sino que también podían “vomitarla” de vuelta hacia el universo.
Este “vómito” ahora se conoce como “Radiación Hawking” y consiste en una radiación de origen cuántico.
¿Cómo es posible eso si se sabe que nada, ni siquiera la luz con toda su rapidez, puede escapar de un agujero negro?
El Principio de Incertidumbre de Heisenberg señala que no se puede conocer con absoluta precisión la posición y velocidad de una partícula. Cuanto con mayor precisión se conoce una de estas magnitudes, con menor precisión se conoce la otra. Este principio, aplicado a los agujeros negros, implica que el espacio “vacío” justo fuera del horizonte de sucesos de uno de estos objetos estelares, no está totalmente vacío. Tiene que existir fluctuaciones de algún tipo. Dichas fluctuaciones se manifiestan como pares de partículas-antipartículas virtuales de luz o de gravedad, de energía opuesta, que aparecen juntas en un instante determinado justo fuera del horizonte de sucesos, se separan, y luego se vuelven a reunir, aniquilándose entre sí, o siendo tragadas por el agujero negro. Puede suceder que sólo una de las partículas del par sea digerida por el agujero negro, dejando a la otra con libertad para escapar. Desde el punto de vista de un observador externo, el origen de esta partícula virtual sería el agujero negro.
El detalle es que las partículas que el agujero traga poseen, en algunos casos, energía negativa. Para compensar esto, la partícula que escapa tiene que tener energía positiva (de modo que la suma de ambas sea cero y así cumplir con la ley de conservación de la energía). Entonces, un flujo de partículas de energía negativas siendo tragadas por el agujero negro tiene como resultado una disminución de masa y entropía de éste.
Con el tiempo suficiente (recordemos que la Eternidad es un periodo de tiempo muuuuy largo) el agujero negro se encoge, se evapora y “muere” (asumiendo que el flujo de masa hacia dentro del agujero es nula o menor que la tasa de emisión de radiación Hawking).

Decaimiento de la Materia: ¿Es la materia 100% estable?

¿Y que ocurre con la materia que no cae en los agujeros negros?
La materia está compuesta por átomos, y éstos por protones, neutrones y electrones. Los protones son considerados como las partículas más estables que se conocen.
Un protón está compuesto por tres quarks. Estas partículas no pueden tener sus posiciones completamente definidas (estáticas) en la estructura del protón, pues violarían el Principio de Incertidumbre. En vez de ello su posición está dada por una “distribución de probabilidades”, de manera que se alejan y se acercan de modo completamente aleatorio. Por puro azar, en algún momento de la eternidad, los quarks pueden encontrarse más cerca que de costumbre, tan cerca que la fuerza de gravedad entre ellos predomine por sobre la fuerza nuclear fuerte. Si ese es el caso, la gravedad provocará que el protón colapse en un agujero negro subatómico y se evapore instantáneamente por efecto de la radiación Hawking.
Y así se tendría la muerte de un protón. El mecanismo de desintegración de las otras partículas es similar.
La Eternidad es muy larga y tiene mucha paciencia, de modo que habría tiempo suficiente para que toda la materia del universo colapse de esa manera.

Entropía: Crisis de Energía Universal

Existe un concepto en Termodinámica llamado “entropía”. Si bien está definido en forma matemática, puede ser interpretado como “la cantidad de desorden de un sistema”.
Para ejemplificar el concepto, imagínese la siguiente situación: Una persona toma un huevo crudo en la mano y la abre de modo que el huevo resbale de ella. ¿Qué se observa? El huevo cae al suelo y se rompe. En el estado inicial, la entropía o desorden del huevo en la mano es pequeña (el huevo está completo). El mismo huevo en el suelo y roto, tiene una entropía o cantidad de desorden alta. Pues bien, se ha determinado que los estados de los sistemas (de todos los sistemas en el universo conocido) siempre evolucionan desde un estado de baja entropía a un estado de alta entropía. El que no se vean huevos rotos saltando del suelo y reconstruyéndose solos en las manos es una confirmación de esto, fenómeno consignado en el enunciado de la segunda ley de la termodinámica, ley en donde se origina el concepto de entropía.
Para aprovechar la energía, es necesario que ésta tenga una distribución desigual. Siguiendo con el ejemplo del huevo roto en el suelo, lo más probable es que se tendrá que limpiar el suelo para que el desorden o la entropía del sistema huevo-cocina disminuya. Para poder llevar a cabo tal acción se necesita mover los músculos. Para que los músculos se muevan es necesario comer. La comida posee energía almacenada químicamente y por diversos procesos se transforma en energía disponible para ser usada por los músculos en forma mecánica. Ahora bien, el trabajo de limpieza puede ser extenuante y la persona que limpia puede acalorarse. El calor producido por la persona es energía, pero sucede que esta energía posee un alto contenido entrópico. Es decir, la disminución de la entropía del sistema huevo-cocina, se realizó a costa del ¡aumento de entropía de la persona que limpia el desastre!
Generalizando un poco, se puede decir que todos los procesos físicos que realizan intercambios de energía, producen aparte del trabajo útil, un residuo en forma de calor.
¿Qué relación tiene la entropía con la crisis energética universal?
El sol, nuestra estrella, transforma cada segundo toneladas de hidrógeno y helio en otros elementos produciendo mucha energía calórica que se emite en forma de radiación (basta asomarse a una playa en verano para sentirlo). Lo mismo vale para todas las estrellas del universo. Esto significa que la entropía del universo aumenta a cada instante, de forma irreversible.
Eventualmente todo tipo de energía, ya sea nuclear, química, potencial, elástica etc. se transformará en energía calórica y ya no se podrá seguir aprovechando de forma útil. Basta citar como ejemplo la energía calórica del mar: el mar ha recibido radiación solar durante millones de años, con lo cual la cantidad de energía que posee es fabulosa, sin embargo, la poca diferencia de temperatura que posee con la temperatura ambiente hace que sea imposible aprovechar su energía.
Cuando toda la energía del universo se transforme en calor, se podrá decir que el universo habrá muerto energéticamente. Y si eso ocurre, ningún ser vivo tal como lo conocemos puede vivir. Esto es debido a que los seres vivos realizan intercambios de energía con su ambiente, y esto sólo se realiza si existe un gradiente o diferencia energética entre el ser y su entorno. En un universo sin gradiente energético, el intercambio de energía es imposible.
El universo se convertirá en un lugar inimaginablemente grande, abismantemente vacío e impregnado de una aterradora y absoluta oscuridad, sin la menor posibilidad que se produzcan fenómenos físicos de ninguna especie.
¿Un panorama desolador, no?

Universo Cerrado. Apocalipsis lejano, pero inminente

El esquema presentado anteriormente corresponde al estado final de un universo en eterna expansión. Actualmente ese es el modelo que se asigna a nuestro universo, basado en la medición de la masa total. No obstante lo anterior, existen fundadas razones para creer que hay más materia de la que se ha medido. La fuerza de gravedad que se calcula que es necesaria para mantener estable a sistemas de estrellas múltiples (o incluso cúmulos de galaxias) que se han observado, es distinta a la que realmente se determina en forma experimental. Esto significa que existe “algo más” en esos sistemas que aporta con gravedad y que provoca, en definitiva, que los cúmulos estelares sean estables. Este “algo más” ya tiene nombre: se conoce como materia oscura, y si bien su existencia no tiene explicación bajo el paradigma actual de las ciencias físicas, su existencia sí ha sido confirmada por observaciones radioastronómicas, en particular por el CBI “Cosmic Background Imagen” (un radiotelescopio que funciona en Chile y en donde el CALTECH, el Departamento de Ingeniería Eléctrica de la Universidad de Concepción y la Universidad de Chile, entre otras pocas instituciones, posee estudiantes investigando).
Si ocurre que la materia normal más energía oscura suman la cantidad de masa suficiente, el universo frenará su expansión y comenzar a contraerse. Y si ese es el caso, el fin del universo está sentenciado irremediablemente.
Si la tasa de desaceleración es muy lenta, entonces puede tomar una casi-eternidad el que se frene, y otra casi-eternidad el que disminuya de tamaño hasta llegar a tamaño nulo. Siendo este el caso, los eventos que se han descrito para el destino de estrellas, agujeros negros y materia en general, también tendría validez en el modelo de universo cerrado.
No obstante lo anterior, un universo en contracción tendrá sus propias características.
La radiación de fondo de microondas, el estertor agónico de la explosión del Big Bang, comenzará a aumentar su temperatura, producto del efecto Doppler. Esto se traducirá en un aumento de la temperatura del universo.
El color del universo dejará de ser negro para comenzar a tornarse de un escalofriante tono rojizo oscuro. Conforme se acelere la contracción, el color irá pasando por todo el espectro visible. Eventualmente se pondrá amarillo. Tiempo después, blanco.
En la eventualidad que aún existieran estrellas para ese entonces, el aumento de temperatura del universo será un problema para ellas. Ya se mencionó que un sistema físico que realice intercambio de calor con el ambiente necesita de un gradiente de temperatura. Si la temperatura del universo es igual o incluso mayor que la de la estrella, ésta será incapaz de eliminar el calor producido por las reacciones nucleares… y si esto ocurre la estrella finalmente explotará.
Los planetas no correrán mejor suerte. La radiación acabará con sus atmósferas, abrasará sus superficies, obligando a los hipotéticos y desdichados habitantes a refugiarse en el interior de sus planetas.
Pero de nada les serviría aquello, pues los efectos del calor serían cada vez peores.
Además, el Espacio se encoge.
La materia es comprimida a tal límite que los átomos de la materia son destruidos en sus componentes. Sólo hay quarks y agujeros negros en un entorno de altísimas temperaturas.
La gravedad finalmente aplasta todo.
Una explosión infinitamente potente destruye el Universo: Materia, Espacio y Tiempo mueren.
Este evento es lo que se conoce como Big Crunch, una suerte de Big Bang al revés.
El universo muere y ya no hay después.
No hay después…

por Rodrigo Mundaca Contreras

Karl Popper y el Falsacionismo

En ciencias naturales pensamos que no inventamos las reglas de la Naturaleza sino que las descubrimos. Para la gente de ciencia el mundo está “allá afuera”, no en nuestra mente, siendo percibido a través de sentidos y analizado usando la razón. ¿Hay dudas respecto a esto? Sí. Al menos tan antigua como Hume (1711-1766) es la objeción de que no podemos tener certeza de que el mundo realmente existe “allá afuera”, pues podría ser una ilusión. Cuando escribo este artículo, ¿cómo descartar que mi cerebro esté conectado a cables alimentándole información equivalente a la que tendría si pudiera Sigue leyendo Karl Popper y el Falsacionismo