La tierra vista desde el espacio
La exploración del Espacio nos ha permitido conocer mejor el Universo pero, sobre todo, nos ha dado la oportunidad de saber más sobre nuestro planeta. La contemplación de la Tierra en la distancia ha abierto horizontes de alcance impredecible para la investigación geográfica.
La observación de la Tierra desde el Espacio ha cambiado la forma de mirar el planeta de la noche a la mañana. Más aún, nos ofrece la oportunidad de ver nuestro mundo con una mirada nueva. Antes, nuestra imagen de la Tierra en su conjunto provenía de dibujos y globos terráqueos que, por supuesto, en nada se parecían a lo que ahora podemos ver. En los globos terráqueos se suprime el mar de nubes que de forma constante rodea la Tierra y se colocan fronteras con trazo firme. El color de océanos y mares, tan desigual por su profundidad, movimiento y temperatura, se transforma en un azul uniforme. Se dibujan miles de islas en el Pacífico, cuyo diminuto tamaño apenas las hacer perceptibles desde el Espacio. La cartografía miente, pero curiosamente ésa es para nosotros su principal virtud, porque la visión de la Tierra que nos devuelven los satélites, además de emocionante y bella, es difícil de interpretar.
Unos pocos seres humanos han visto la Tierra como una esfera. De los más de cuatrocientos astronautas que han salido al Espacio Exterior, sólo los que fueron en las misiones lunares tuvieron esa visión de conjunto, los demás apenas se han separado del planeta para alcanzar a ver su curvatura: que no es poco. La visión de la Tierra, en parte o en su conjunto, no es una experiencia de orden intelectual, o no es principalmente una experiencia que aporte nuevos conocimientos, es de otro tipo, es de orden emocional. El astronauta Rusell L. Chweikart la compara, a escala gigante, a la contemplación de las colinas y los valles que se extienden en la distancia después de haber conquistado la cima de una montaña acompañado de ardillas y pinos… “para mí –comenta Rusell– aquello fue como abrazar al planeta y toda la vida que hay en él… y, como las ardillas y los pinos, el planeta me devolvió el abrazo”.
Oleg Makarov escuchó las grabaciones de las comunicaciones que los cosmonautas establecen en las misiones y comprobó que apenas hablan; bastan cinco o siete segundos para expresar las ideas más complicadas. Pero cuando la Tierra aparece por primera vez ante sus ojos, las explosiones emocionales provocaban intensos comentarios, “de promedio –comenta Oleg–cuarenta y dos segundos”. El propio Oleg, por su parte, en una misión espacial tuvo el encargo de fotografiar el corredor que va desde el Mar Negro hasta el Pamir para comprobar si merecía la pena tomar fotografías espectrales.
“Inconscientemente –comenta–, uno busca las rayas habituales en los mapas, los paralelos y los meridianos, y resulta extraño no verlas en ese mapa viviente. Pero los colores que se eligieron para los mapas físicos son casi absolutamente fieles a la realidad: el tinte rojizo del Sáhara, el amarillo de los desiertos de Asia central, el azul zafiro de los océanos. Tan sólo desde el Espacio puede saberse que nuestro planeta debería llamarse Agua antes que Tierra, porque sólo hay en él algunas manchas insulares de sequedad en las que halla un sitio para vivir las personas, los animales terrestres y los pájaros… Repentinamente, uno experimenta la sensación, jamás vivida antes, de ser un habitante de la Tierra”.
Edgar Mitchell, tras su viaje en el Apolo 14, en febrero de 1971 y su estancia de un día y medio en nuestro satélite, comentaría: “fuimos a la Luna como técnicos; volvimos de ella como humanistas”. Es, quizá, uno de los astronautas a los que más ha influido en su vida posterior la visión de la Tierra y del Cosmos: “Me hizo verme a mí mismo y me catapultó fuera del ego. Empecé a verme dentro de un todo, y entendí que el ego es una fachada. Lo único que importa es cómo encaja uno en el esquema mayor. Se vuelve importante lo que uno puede hacerpor la naturaleza, no lo que puede hacer por uno”. Un año después fundaría el Instituto de Ciencias Noéticas.
El príncipe saudí Sultan Bin Salman que viajó en una misión internacional del Discovery comenta que “en el curso del primer día, todos señalábamos nuestros países. El tercero o cuarto día, señalábamos nuestros continentes. Al llegar el quinto día, tan sólo teníamos conciencia de una Tierra única”. Por su parte, Richard W. Underwood dice haber visto todas las fotografías tomadas por los astronautas desde el Espacio. “Antes de la fotografía espacial –señala Richard– un viajero que cruzase la Tierra andando, en coche o incluso en avión, era como una mosca caminando sobre la Gioconda en el Louvre. Sería difícil apreciar de ese modo la belleza y el genio de la obra de Leonardo. Hay que retroceder tres metros para apreciar esa obra maestra. Eso ocurre en el Espacio. Hay que retroceder cien o más kilómetros para ver esa obra maestra que es nuestro planeta”.
Los primeros lanzamientos portando cámaras fotográficas fuera de la atmósfera terrestre, es decir por encima de los 100 km, utilizaron las V-2 capturadas a los alemanes. En 1947 varias V-2 fueron modificadas por los militares norteamericanos para “fotografiar las nubes” desde 110-165 km de altitud sobre Nuevo México (EE.UU.). En octubre de ese mismo año los soviéticos lanzaron su primer misil balístico intercontinental (LRBR) basados igualmente en los cohetes alemanes A4 (V-2). Las imágenes tomadas por los estadounidenses apenas permitían distinguir la superficie terrestre, pero mostraron su indudable utilidad para los estudios climáticos. Por ese motivo, entre otros, el primer diseño de nave espacial del programa Mercury no tenía ventanas. Underwood ha escenificado los argumentos para que finalmente la tuviesen: “Los más reticentes decían que el ser humano tenía que disponer de una ventana, porque si no se volvería loco. Los otros, en cambio, opinaban que una ventana sería muy perjudicial para la integridad de la nave, desde un punto de vista estructural. Ganaron la partida las ventanas. Ahí se dio la primera oportunidad de colocar una cámara en una nave espacial tripulada. Los adversarios decían que las cámaras son grandes y que había poco sitio en la nave. Las cámaras pesan mucho y los ingenieros se preocupaban hasta por fracciones de gramo. Las cámaras podían dificultar la tarea de los astronautas. Los diferentes elementos de la cámara ‘consumirían gas’ y los haría enfermar, o incluso podrían morir. ‘Fuera las cámaras’. Los astronautas nos salvaron, querían guardar un recuerdo fotográfico del viaje y no tan solo la expresión de su memoria. Los astronautas ganaron, gracias a Dios. Las astronautas han tomado decenas de millares de fotografías de su hogar planetario. Yo las he visto todas –afirmaba en 1988–”.
Es en este punto inicial donde la observación de la Tierra desde el Espacio se divide entre sus aplicaciones militares y civiles. Los militares norteamericanos encadenarían desde 1960 una sucesión de programas espía de observación de la Tierra (oficialmente satélites de reconocimiento), mientras que la administración civil iría descubriendo, con las limitaciones impuestas por los militares, nuevas formas de observación y estudio desde el Espacio valiéndose de las cámaras que fueron llevando los astronautas y sacando todo el partido a imágenes sin gran precisión pero tomadas en diferentes bandas del espectro electromagnético, que constituye la base de la teledetección.
LA OBSERVACIóN DE LA TIERRA CON FINES MILITARES: LOS SATéLITES ESPíA
El primer programa de espionaje espacial se conoce con el nombre “secreto” de CORONA y se desarrolló para seguir la producción y emplazamientos de los misiles soviéticos. La naturaleza jurídica del Espacio aéreo alcanzaba hasta los 100 km, e impedía a los aviones sobrevolar sin permiso sobre los estados, pero nada se decía del Espacio Exterior, por lo que los satélites se vieron como una forma de adquisición de información sobre áreas de otra forma inaccesibles. En 1958, el presidente Eisenhower aprobó dicho programa con el objetivo de que la CIA y la Fuerza Aérea desarrollaran conjuntamente satélites para fotografiar la Tierra desde el Espacio. Pero en ese momento de la carrera espacial, ni las naves llevaban ventanas ni los astronautas podían llevar cámara, porque, sencillamente, no había ni astronautas ni cosmonautas. Tampoco existían aún sensores que pudiesen recoger la información y transmitirla a Tierra. Los problemas que tuvieron que solucionar los ingenieros para colocar una cámara fotográfica en el Espacio con suficiente resolución, sin que nadie la manejase y recuperar la película con las fotografías tomadas fue una auténtica odisea.
Los primeros intentos, iniciados en enero de 1959, fracasaron. En agosto 1960 fue derribado el U-2 pilotado por Gary Powers dando al traste con los vuelos espía americanos sobre territorio soviético. Por supuesto la administración norteamericana negó en repetidas ocasiones que el avión estuviese en misiones de reconocimiento, argumentando una involuntaria desviación de la trayectoria, hasta que los soviéticos presentaron contundentes pruebas ante la opinión pública: los reconocimientos espías con aviones tuvieron que suprimirse de inmediato. Ciento diez días después, y tras más de una decena de intentos fallidos, se obtuvieron las primeras fotografías espaciales desde los satélites CORONA. La óptica de las cámaras se llevó al límite de la refracción de la luz, pero lo más complicado era que una vez tomadas las fotografías, el preciado tesoro debía de eyectarse y ser recogido, en pleno vuelo, por aviones especialmente modificados que utilizaban una barra con ganchos tipo “trapecio” para agarrar el paracaídas en vuelo; y antes de que los rusos se adelantaran. Finalmente, al intento decimo cuarto, al que se denominó KH-1 (KeyHole), se pudo capturar el paracaídas con una cápsula conteniendo 9 kilos de película fotográfica. El material recogido abarcaba una cobertura mayor que la obtenida en conjunto por los 24 vuelos anteriores del U-2 y sirvió para desmentir las afirmaciones efectuadas por John F. Kennedy en 1958 en su carrera hacia la Casa Blanca sobre la desproporción entre el arsenal de misiles soviéticos y norteamericano, conocido como “missile gap”, dando con ello inicio de la inteligencia espacial.
Las primeras imágenes no permitían a los fotointérpretes distinguir detalles para ciertos objetivos, por lo que las series sucesivas fueron mejorando progresivamente en todos los aspectos. Las imágenes se tomaban en torno al los 160 km de altitud y a velocidades superiores a los 27.000 km/h, y se llegaron a distinguir objetos inferiores a dos metros de extensión. De los 145 lanzamientos realizados hasta 1972 en que se canceló el proyecto sustituyéndose por otros más sofisticados y todavía secretos, 120 cumplieron sus objetivos. La órbita tan baja utilizada, hacía posible su destrucción por los soviéticos sin necesidad de armas nucleares, pues dada la velocidad de desplazamiento, un impacto sería sufriente para su destrucción. Pero en lugar de esta alternativa, los soviéticos decidieron poner en marcha su propio sistema de reconocimiento, lo que permitió un mutuo seguimiento del desarrollo armamentístico. Qué duda cabe de que sin la verificación del control armamentístico propiciada por estos sistemas de reconocimiento la guerra fría hubiese sido radicalmente diferente. Parte de las innovaciones conseguidas en las cámaras se utilizarían en las misiones orbitales lunares del programa Apolo.
La Administración Clinton desclasificó el 22 de febrero de 1995 todo el programa de espionaje y puso a disposición pública las fotografías tomadas por los satélites Corona, accesibles actualmente desde Internet. éstas han terminado siendo una fuente fundamental de información para diversas disciplinas, como la arqueología en países próximos a la antigua Unión Soviética. En Siria, por ejemplo, donde los cambios en el mundo rural de los últimos años han terminado desdibujando sobre el territorio estructuras antiguas, se han podido encontrar restos de hace 130.000 años en la villa de Rúmiele, al noreste de Alepo, en la margen derecha del río Eufrates, gracias a estas fotografías.
Los nuevos satélites de reconocimiento diversificaron las tomas a otras bandas del espectro, hicieron más rápida la obtención de las imágenes y mejoraron sus sistemas de seguridad. Los más recientes, se rumorea, son similares al Hubble, pero mirando hacia la Tierra, con suficiente combustible para cambiar su órbita y con un espejo de “4 metros”, según se cree, en lugar de 2,4 de aquel, más que suficientes para obtener, no indicios de la materia oscura del Universo, como el Hubble, sino de la misma naturaleza humana.
LA OBSERVACIóN DE LA TIERRA CON FINES CIVILES
En 1956 un informe titulado Spacecraft in Geographical Research de la Academia de Ciencias Americana propuso ya la utilización de los satélites para las investigaciones geográficas. No sería hasta las vistas que los astronautas tenían en las órbitas bajas desde los primeros satélites tripulados (Vostok, Voskhod, Mercury y Gemini) que se vio toda la potencialidad que esta técnica tenía para la Geografía: se les llamó entones a los artefactos que transportaban las cámaras satélites geográficos.
Los primeros sensores americanos llevados en una nave espacial que proporcionaban imágenes a vista de pájaro sin llevar películas fotográficas se hicieron para observar la nubes y estudiar el clima. Por su parte, los soviéticos centraron gran parte de sus objetivos en la exploración del Espacio Ultraterrestre. Curiosamente, la Tierra se consideraba suficientemente conocida en aquellos momentos. Los planes para su estudio no empezarían hasta mediados de los sesenta, en gran medida estimulados por las más de 1.100 fotografías tomadas por los astronautas en las misiones tripuladas Mercury (1961-1963) y Gemini (1965-1966), planificadas para posibilitar la llegada del hombre a la Luna con el programa Apolo.
Para sorpresa general, las dudas sobre las posibilidades de utilizar imágenes tomadas desde el Espacio se disiparon con las primeras fotografías de la Tierra tomadas por John Glenn desde la ventana de la Gemini en su primer vuelo orbital. Todo se hizo de forma un tanto improvisada: antes del despegue se adquirió en una tienda local una cámara Minolta Asco Autoset de 35 mm, que fue modificada para hacer más fácil su utilización con el traje presurizado. Otros astronautas en posteriores vuelos llevaron cámaras de gran formato, como la Hasselblad 70mm. Los intentos de interpretación manual de estas primeras imágenes por científicos familiarizados con la física básica y el espectro electromagnético les llevaron a la idea de que dicha información era digna de estudio sistemático mediante análisis cuantitativos. La sorprendente claridad y detalle que ofrecían entusiasmó igualmente los geólogos y, lo más importante, al público.
Las estaciones espaciales puestas en órbita por americanos y soviéticos desde 1973 se convertirían en laboratorios de pruebas para instrumentos cada vez más perfeccionados. Desde 1973 el Skylab, la primera estación espacial norteamericana, fue utilizada para probar el Paquete Experimental de Recursos Terrestres (EREP) y el Spacelab haría pruebas con la Cámara Métrica y la Cámara de Formato Largo.
Pero uno de los grandes avances de la tecnología espacial en la toma de imágenes se produjo con la invención de los sensores. En 1969, Willard S. Boyle y George E. Smith, de los laboratorios Bell, inventaron los dispositivos de carga acoplada (CCD, por sus siglas en Inglés) que vinieron a sustituir, aunque no definitivamente, a las películas fotográficas. Inicialmente no tenían mucha resolución, como sabemos por las cámaras de fotografía digitales actuales que utilizan sensores similares, pero tenían dos cualidades importantes para su utilización en el estudio de la Tierra desde el Espacio: transformaban la energía recibida en números, lo que permitía su almacenamiento y su transmisión periódica mediante antenas estratégicamente colocadas en el paso del satélite; y al discriminar en bandas el espectro en formato digital, abrían las puertas para conocer, mediante su procesamiento con ordenadores, el comportamiento y la extensión de las diversas coberturas de la superficie terrestre y en especial de la vegetación, de la que se podía saber, por ejemplo, el vigor de su desarrollo por el comportamiento que ofrecía en cada banda.
Para aprovechar todas estas cualidades, los norteamericanos empezaron a estudiar, a principios de los sesenta, el lanzamiento de un satélite con un sensor multiespectral para estudios geográficos y medioambientales. El proyecto no se materializaría hasta 1972 por los desacuerdos entre los distintos departamentos estatales con interés en que el sensor se ajustase a cada necesidad, y con los militares presionando para que las imágenes no pusieran en peligro la seguridad nacional con su uso. Los satélites, finalmente denominados Landsat, contienen la serie histórica más importantes de imágenes espaciales. Esta continuidad está permitiendo estudios comparativos de los cambios producidos en el territorio en los últimos 35 años. Los tres primeros de la serie captaban 70 metros por píxel, que han pasado a los 12,5 actuales con el Landsat 7.
En 1986 Francia pondría en órbita su satélite Spot con varias mejoras fundamentales para el estudio de la Tierra, que obligaron a los norteamericanos a replantearse su política de observación. Entre estas mejoras destacan tres: la mayor resolución espacial, con 10 metros por píxel –actualmente 2,5 en el Spot 5–, la posibilidad de girar el sensor permitiendo un seguimiento temporal mayor, de tres días sobre los 16 que tarda Landsat en pasar sobre el mismo punto, y la obtención de imágenes estereoscópicas, lo que posibilitaba la visión del territorio en tres dimensiones.
La importancia de disponer de este tipo de imágenes para conocer la evolución de los cultivos, motivó que otros países invirtiesen fuertes sumas en tener recursos propios, como fue, entre otros, el caso de la India, que mejoró con sus IRS la resolución del píxel a 6 metros.
Otras innovaciones vinieron de la mano de la Agencia Espacial Europea, que en lugar de continuar con los sensores que sólo recibían lo que los objetos emitían, o sensores pasivos, apostó por desarrollar sensores radar o activos, permitiendo observar la Tierra independientemente de las condiciones atmosféricas y de la luminosidad de los objetos. Esta técnica tardó tiempo en conquistarse para el Espacio por los requerimientos de energía que supone la emisión, pero tras las primeras pruebas realizadas en 1978 con el satélite Seasat y en los transbordadores espaciales, en 1991 se montaría sobre el ERS1 (European Remote Sensing Satellite), hoy día sustituido por el más conocido Envisat, que con sus diez sensores de observación es el satélite para los estudios medioambientales más importante en órbita.
En los últimos años las cosas están cambiando muy deprisa y en todos los aspectos posibles: la tendencia es, en lugar de lanzar un satélite se lanzan constelaciones del mismo satélite miniaturizado o nanoturizado, lo que permitirá en adelante un seguimiento casi diario de los acontecimientos terrestres; en lugar de en unas pocas bandas del espectro, se toman imágenes en muchas, son los sensores hiperespectrales que con sus entre decenas de bandas captan las firmas espectrales de los objetos terrestres posibilitando clasificaciones de extrema precisión; además, las imágenes se toman en varios ángulos, lo que permite conocer las perturbaciones que se producen con la dispersión atmosférica y los ángulos de incidencia solar. En fin, que lo mejor está por llegar.
.José Antonio Rodriguez-Esteban