Betelgeuse

Esta noche estuve contemplando a la estrella Betelgeuse durante un rato. Queda al sureste y desde la terraza de mi casa se veía por encima de un pino. Se ubica en lo que se dice que es el hombro izquierdo de Orión.

Es una estrella que siempre me ha fascinado, como Aldebarán que estaba más alta y se veía más brillante.

Betelgeuse empezó a languidecer a finales de 2019, lo cual preocupó mucho a los astrónomos, hasta que en febrero de 2020 inició la recuperación y hoy ya posee un brillo apreciable. Esas variaciones del tinte le ocurren cada cuatrocientos años. Esta vez se ha podido saber que se deben a que del núcleo de la estrella surge una erupción de masa que cubre parte de la superficie. Algunos pensaban que el oscurecimiento anunciaba una próxima extinción, pero no fue así.

Es una estrella enorme, como mil veces más grande que el Sol y pertenece al grupo de las supergigantes rojas. La vida de estas estrellas, que tienen mucha masa, es relativamente corta: unos ocho millones de años en el caso de Betelgeuse, que ya es una anciana débil a la que se le acerca el final de la existencia. Seguramente no durará más de cien mil años. Acabará sus días con una gran explosión, una supernova, que podrá apreciarse desde la Tierra, incluso de día, y que no nos afectará porque se encuentra a una distancia de 642,5 años luz: muy lejos.

Pero hay otro dato curioso relacionado con Betelegeuse y es que se desplaza a una velocidad de unos 30 kilómetros por segundo —es decir, muy deprisa— y dentro de unos doce mil quinientos años, si es que no ha expirado, se estampará contra una nube de materia dispersa que la tiene justo en los morros y no parece que pueda hacer nada para evitarlo. En la foto superior puede verse cómo se curva ese polvo estelar debido al impacto del flujo de rayos cósmicos que emite Betelgeuse.

Esta noche, mientras contemplaba a Betelgeuse y Aldebarán vino a mi cabeza un pensamiento recurrente: que las luces que veía de la primera habían partido de la estrella en una época en la que aquí gobernaba Pedro IV de Aragón, El Ceremonioso, mientras que lo que podía ver de la segunda —que está a 66,5 años luz— ocurrió en la época de Franco. De entre las estrellas que podemos observar a simple vista, las hay que están a poco más de cuatro años luz y otras que nos separa de ellas una distancia igual a la que recorre la luz en dieciséis mil años. Echar una ojeada por el firmamento es como pasearse por la historia, ves, simultáneamente, cosas que han ocurrido en un amplio abanico temporal. Es algo que siempre que lo pienso no deja de desconcertarme.

Los primeros serán los híbridos

El proceso de certificación de un avión eléctrico es bastante más laborioso de lo que la mayoría de los emprendedores embarcados en este tipo de desarrollos podía imaginar. EASA (European Union Aviation Safety Agency) o la FAA (Federal Aviation Administration), son los organismos europeo y estadounidense, respectivamente, responsables de expedir el correspondiente documento que autoriza al avión a volar de forma regular. En estos casos se encuentran ante un auténtico vacío de experiencia, lo que obliga a los solicitantes a llevar a cabo numerosos estudios y pruebas para demostrar la seguridad con la que operarán sus aeronaves. Son procesos cuya duración puede extenderse no menos de cuatro o cinco años, desde el momento en el que el aspirante cuenta con un prototipo listo para volar.

El primer avión eléctrico certificado por EASA, en el año 2020, fue el Velis-Electro, un pequeño biplaza de entrenamiento de la empresa eslovena Pipistrel, fundada por Ivo Boscarol en 1989. En la actualidad ya se han producido más de cien unidades de este modelo y es, sin ninguna duda, el precursor de la aviación eléctrica a nivel global. Boscarol, un entusiasta del vuelo a vela, empezó a fabricar planeadores equipados con pequeños motores eléctricos en la década de 1990 cuando en su país, entonces parte de la antigua Yugoslavia, no estaba permitido el vuelo a pilotos privados. Con la ayuda de ingenieros como Tine Tomazic, Pipistrel logró montar prototipos de aviones que ganaron retos de vuelo ecológicos organizados por la NASA, como el Taurus G-4. Y después de un largo proceso de análisis y discusión con todas las partes interesadas logró certificar el Velis-Electro. Este aeroplano, con una velocidad de crucero de 100 kilómetros por hora, es un magnífico entrenador, pero tiene unas prestaciones muy limitadas para proporcionar servicios comerciales de transporte aéreo. La firma estadounidense Textron, consciente del valor tecnológico del pequeño fabricante, adquirió Pipistrel en marzo de 2022.

Los aeroplanos eléctricos que utilizan exclusivamente baterías, incluso de pequeño tamaño, debido a la escasa densidad energética de los actuales acumuladores, plantean serias dificultades a la hora de prestar servicios en rutas comerciales. Con la exigencia de disponer de energía para realizar esperas en el aeropuerto de destino, de no menos de treinta minutos, el alcance máximo de estas aeronaves se reduce drásticamente. Eviation anunció hace años que su avión eléctrico Alice serviría rutas de unos mil kilómetros; en la actualidad parece improbable que sea capaz de operar entre poblaciones que disten más de 400 kilómetros y la fecha de su certificación sigue aplazándose.

Los aeroplanos eléctricos, alimentados por pilas de combustible de hidrógeno podrían alargar el alcance de los que llevan exclusivamente baterías, sobre todo si se utiliza hidrógeno líquido, criogénico, en vez de gas a presión. Esta es la línea de desarrollo adoptada por la empresa alemana H2FLY con su demostrador HY4. Pero este tipo de aeronaves, cuya certificación no se espera hasta finales de la presente década, permitiría incrementar el alcance máximo de los aviones hasta los 500 o 600 kilómetros, pero difícilmente los superará, al menos con la tecnología actual.

Para muchos, el camino práctico más viable a corto y medio plazo para la electrificación del transporte aéreo pasa por los aviones híbridos. Una línea de actuación que siguen la empresa norteamericana Ampaire y la europea VoltAero. La primera pretende desarrollar una planta de potencia híbrida, con motor eléctrico y motor térmico, para el Cessna Caravan. La segunda quiere hacerlo con aeronaves especialmente diseñadas para volar con sus plantas de potencia. Los híbridos eléctricos mejoran el consumo, con respecto a los aeroplanos exclusivamente térmicos, porque se equipan con motores térmicos que solo aportan la potencia necesaria durante el vuelo de crucero, despegan con la ayuda de un motor eléctrico y batería y el conjunto total pesa menos que si se configurasen con un motor térmico de mayor potencia, lo cual se traduce en menor consumo durante el vuelo completo.

VoltAero es una empresa que fundó Jean Botti, después de trabajar en EADS como director de tecnología y que durante los últimos años ha desarrollado una planta de potencia híbrida con la que ya ha efectuado numerosas pruebas de vuelo, desde 2020, en un prototipo denominado Cassio 1. La compañía pretende desarrollar una familia de aeronaves equipadas con plantas de potencia híbridas. La más pequeña se montará en un avión, Cassio 330, con capacidad para transportar 5 personas, con una hélice de empuje en la parte posterior del fuselaje, donde se ubicará la planta de potencia que contará con un motor térmico (165 kw), otro eléctrico (180 kw) y una batería con 41,5 kwh de capacidad.  El avión, con 1930 kg de peso máximo de despegue y una carga de pago de 630 kg, tendrá una velocidad máxima de crucero de 333 km/h y un alcance de 1300 kilómetros. Se espera que la certificación en Europa de este avión se complete en la segunda mitad de 2024.

Muchos expertos dudan de que los aeroplanos eléctricos con baterías lleguen a constituir nunca una opción válida para el transporte aéreo de pasajeros y carga —salvo los eVTOL, de despegue y aterrizaje vertical—, los que obtienen la energía de pilas de combustible alimentadas con hidrógeno líquido podrían ser una opción a finales de la presente década, en distancias cortas, y quizá el camino más práctico para la reducción de emisiones con aviones eléctricos lo marquen los híbridos.

La aviación del año 2023

Después de un complicado trienio, desde 2020 cuando el COVID 19 puso a todas las empresas de aviación del mundo al borde de la quiebra, la organización internacional de líneas aéreas IATA vaticina que 2023 será el año en que la industria del transporte aéreo volverá a generar beneficios. Eurocontrol advierte que el tráfico de este año no retornará a lo que se suele denominar como la nueva normalidad, sino que para eso será necesario esperar a 2024 o 2025.

El repunte de contagios en China y el bloqueo del cielo ruso, obligará a que se mantengan las restricciones de tráfico y de rutas entre el norte de Europa y América y Asia, al menos durante un periodo de tiempo cuyo fin no es fácil de vislumbrar.

La industria también se ha visto afectada por la carencia de personal cualificado, sobre todo pilotos, ya que durante los años de pandemia se produjo un aumento en los retiros y una merma en la generación de nuevos profesionales; es un problema cuya solución puede demorarse una década.

Los accidentes de dos aviones Boeing 737 MAX en 2019 hicieron que la Federal Aviation Administration (FAA) extremase la regulación sobre asuntos relacionados con la seguridad, que afectan al fabricante norteamericano y que han contribuido al retraso de entregas, en 2022, de aeronaves de los modelos 787 y 737 de la clase 7 y 10. Además, la falta de materiales y los problemas de transporte en la cadena de distribución, han contribuido a su vez a que la puesta en servicio de nuevos aviones acumule retrasos que se extenderán durante 2023.

No está previsto que Airbus o Boeing pongan en servicio a lo largo de este año ninguno de sus nuevos aviones, por lo que la atención en lo referente a este capítulo la atrapará el avión chino COMAC C919, nacido para competir con los Boeing 737 y Airbus A320, aunque la actual situación de su país de origen hará que sus primeros vuelos comerciales puedan sufrir algunos retrasos.

Y con respecto a los aviones eléctricos de despegue y aterrizaje vertical (e-VTOL) del pujante mercado UAM (urban air mobility), tampoco se prevé que inicien sus servicios antes de 2024. Los centenares de proyectos de este tipo de aeronaves que hay en todo el mundo nos ofrecerán avances, retrocesos, algún descarrilamiento y quizá noticias de nuevos proyectos. Al menos yo, seguiré esperando al autobús aéreo de cincuenta o sesenta plazas, eléctrico, aterrizaje y despegue vertical, 300 kilómetros por hora de velocidad de crucero y hasta 400 kilómetros de alcance; alguien lo hará porque la tecnología de los UAM sirve igual para este invento.

Todo el mundo espera que las aerolíneas incrementen durante 2023 el uso de los biocombustibles (sutainable aviation fuel, SAF), mezclado con queroseno de origen fósil, aunque la progresión del consumo de estos productos parece a todas luces muy exigüa, para cumplir con los objetivos medioambientales que se ha marcado la industria del transporte aéreo.

Vistas así las cosas del mundo de la aviación para el 2023, resultan poco excitantes, pero ya se encargará la realidad de aportar inesperados acontecimientos que las revitalicen, esperemos que para bien.

Los accidentes aéreos que cambiaron la aviación comercial

Breve historia de la aviación comercial (4)

Los accidentes aéreos que cambiaron la aviación comercial

El primer accidente de la historia de la aviación se produjo en Fort Myer, Washington, cuando uno de los inventores del aeroplano moderno, Orville Wright, efectuaba los primeros vuelos públicos en Estados Unidos para demostrar al Gobierno de su país que la aeronave que le acababan de vender cumplía con los requisitos estipulados. Orville debía probar que el aparato era capaz de transportar un pasajero para lo que tuvo que volar con otras personas. Una de ellas fue el teniente Tom Selfridge, con quién realizó un corto vuelo el 17 de septiembre de 1908. A Orville le costó despegar y cuando describía un círculo sobre el aeródromo, a una altura de unos 30 metros, escuchó algunos golpes secos y perdió el control del avión. Cayó en picado. Selfridge murió en el accidente y a Orville le quedaron secuelas durante el resto de su vida. Daba la casualidad que Selfridge había trabajado con Graham Bell en el desarrollo de un aeroplano y los Wright opinaban que les habían plagiado los sistemas de control. A Orville le desagradaba la idea de volar con Selfridge y su hermano Wilbur, que entonces se encontraba en Europa haciendo también vuelos de demostración, enseguida pensó que el accidente se debió a que Orville, en circunstancias de incomodidad personal, no habría sido capaz de mantener el nivel de concentración necesario para el vuelo. En realidad no fue así, sino que el problema lo originó, al romperse, una hélice defectuosa. Pero resulta muy ilustrativo que Wilbur enseguida relacionara el accidente con una causa que, muchos años más tarde, los expertos en seguridad aérea la catalogarían en el apartado de factores humanos, un capítulo que, con el tiempo, fue el que acumularía la mayor parte de accidentes aéreos.

Durante muchos años los aviones fueron medios de transporte poco seguros. Al principio eran pequeños y se construían de madera y tela. Cuando se estrellaban su estructura, flexible, se rompía en múltiples pedazos y era capaz de absorber gran cantidad de energía, lo que amortiguaba el golpe y aminoraba el daño que sufrían los pilotos. El francés Louis Blériot y muchos de sus colegas franceses se distinguieron por su habilidad para salir ilesos de múltiples accidentes. A pesar de todo, la lista de pilotos que perdieron la vida durante aquellos años es muy larga. Conforme los aviones de madera crecieron de tamaño y su velocidad se incrementó los accidentes aéreos pasaron a ocupar la primera página de los periódicos. Uno de los más famosos de los primeros años de la aviación comercial fue el que ocurrió con un avión de la TWA, el 31 de marzo de 1931, cerca de Bazaar, Kansas. Perecieron todos los ocupantes y la noticia se difundió con rapidez porque una de las víctimas fue el famoso entrenador del equipo de fútbol de la Universidad de Notre Dame: Knute Rockne. Hasta el mismo presidente de Estados Unidos, Herbert Hoover, declaró que la muerte del entrenador era una pérdida nacional. El avión era un Fokker F.10A, de madera laminada, un material susceptible de verse afectado por los efectos nocivos de la humedad. Aquel accidente aceleró la introducción de las aleaciones de aluminio con que ya empezaban a construirse las nuevas aeronaves y supuso el fin de los aviones vegetales. Donald Douglas demostró que los aviones con dos motores eran más seguros que los que llevaban tres. En la segunda mitad de la década de 1930 los grandes trimotores de Fokker, Ford y Junkers, dieron paso a aviones metálicos con dos motores como el Douglas DC-3.

Después de la II Guerra Mundial, el transporte aéreo comercial empezó a crecer con rapidez en todo el mundo y los aviones de hélice se sustituyeron por reactores. El primer vuelo de un reactor comercial lo hizo el 2 de mayo de 1952, un Comet bautizado con el nombre de Yoke Peter de la aerolínea británica BOAC, fabricado por De Havilland, que despegó en Londres y después de efectuar cinco escalas aterrizó en Johannesburgo. Aquel año, unas 30 000 personas volaron en reactores de la BOAC, entre ellas la reina Isabel y la princesa Margarita del Reino Unido. Una nueva época había nacido para la aviación comercial y el fabricante británico De Havilland asumió el liderazgo industrial. Sin embargo, dos años más tarde, el 8 de abril de 1954, el Yoke Peter se deshizo en miles de pedazos cuando sobrevolaba la isla de Elba, después de despegar de Roma. Los 21 ocupantes del avión murieron. De Havilland detuvo la fabricación del Comet y la BOAC los dejó en tierra. Los expertos centraron la investigación del accidente en los efectos que sobre la estructura del avión producen los ciclos de presurización y despresurización de la cabina. Cuando la cabina en la que se realizaban los ensayos alcanzó 3057 ciclos, el 24 de junio, se abrió una grieta en el fuselaje desde la esquina de una ventanilla. De Havilland tuvo que introducir modificaciones en la estructura del Comet, hacer las ventanillas redondas en vez de rectangulares y efectuar los correspondientes ensayos antes de que a estos aviones la autoridad aeronáutica les otorgara el correspondiente certificado. Boeing con el B 707 y Douglas con su DC-8 tomaron la delantera y De Havilland se limitó a pasar a la historia como el primer fabricante de aviones de pasaje a reacción y no tuvo ningún éxito comercial. La industria acumuló una gran cantidad de información acerca del efecto de los ciclos de presurización sobre la estructura de las aeronaves y las inspecciones y actuaciones necesarias para evitar el crecimiento de las grietas.

Los efectos de la compresión y descompresión de la cabina sobre la estructura de las aeronaves continuaron causando problemas a la aviación comercial durante bastantes años. Uno de los accidentes más insólitos que alguien pueda imaginar se produjo el 28 de abril de 1988 en un Boeing 737, de la compañía Aloha, que volaba de la isla de Ilo a Honolulú, en Hawái. El piloto acababa de estabilizar la aeronave a 21 000 pies cuando los pasajeros de las primeras filas contemplaron atónitos cómo un trozo del techo de la parte izquierda se desprendió. La descompresión succionó a una de las azafatas y desencadenó un torbellino de papeles y objetos revueltos al tiempo que saltaban las máscaras de oxígeno. El comandante se percató de que a sus espaldas había desaparecido la puerta de la cabina y arriba se divisaba un extraño cielo azul. Mientras la abertura continuaba succionando toda clase de enseres y más trozos del fuselaje a la vez que se agrandaba, el comandante realizó un fuerte picado para perder altura y efectuó un aterrizaje de emergencia en el aeropuerto de Maui donde fueron atendidos sesenta y cinco heridos. No hubo que lamentar más víctimas mortales que la de la azafata. La investigación del accidente determinó que la causa fue análoga a la que más de treinta años antes había afectado a los Comet: grietas producidas por lo que se conoce como “fatiga del metal”. El desgraciado final de este avión hizo que se mejorasen los procedimientos de mantenimiento para la detección temprana de este tipo de grietas.

Los accidentes de los Comet no ayudaron a evitar que la gente continuara con la idea de que volar era una actividad peligrosa, sobre todo en condiciones meteorológicas adversas y que los motores de las aeronaves se estropeaban con mucha frecuencia, pero que dos aviones podían colisionar en el aire no parecía preocuparle a nadie. El 30 de junio de 1956 ocurrió algo que haría cambiar de opinión a la mayoría de las personas. Ese día el Lockheed Super Constellation del vuelo TWA 2 despegó de Los Angeles con destino a Kansas City pocos minutos antes de que lo hiciera el Douglas DC-7 de United Airlines, del vuelo 718, que se dirigía a Chicago. Noventa minutos después los dos aviones sobrevolaban el Cañon del Colorado a 21 000 pies de altitud en el interior de una nube. El piloto de United vio al Super Constellation e intentó esquivarlo, pero su ala izquierda golpeó la cola del avión de TWA. Ambos perdieron el control y los 128 pasajeros y tripulantes que ocupaban las aeronaves murieron en el accidente. El desastre conmocionó a la opinión pública estadounidense porque se extendió la creencia de que se habría evitado con un sistema de control de tráfico aéreo en tierra más eficiente. El debate propició la creación de la Federal Aviation Agency en 1958 (FAA, más tarde reemplazada por la Federal Administration Agency), a la que el gobierno norteamericano confirió la autoridad necesaria para gestionar el espacio aéreo y recibió más de doscientos millones de dólares con el fin de que desplegara equipos de radar y comunicaciones en todo el país.

El accidente de junio de 1956 sobre el Cañón del Colorado, extendió a nivel global la convicción de que la seguridad de la navegación aérea exigía la creación de una autoridad aeronáutica civil, así como de organismos competentes y especializados en la gestión del tráfico aéreo y el establecimiento de normas y procedimientos operativos, junto con la instalación de equipos de ayuda al control del tráfico y la navegación aérea, a nivel nacional. Casi todos los países en los que la aviación comercial empezaba a tomar cierta importancia abordaron programas para gestionar sus espacios aéreos.

El 31 de agosto de 1986 un pequeño avión privado colisionó en el aire con un DC-9 de la aerolínea Aeroméxico en el área terminal de Los Angeles. El accidente causó la muerte de 82 personas. A partir de entonces, las autoridades aeronáuticas obligaron a que los aviones pequeños también estuvieran equipados con transpondedores que facilitasen su identificación a los controladores y se introdujo un sistema a bordo de las aeronaves comerciales, independiente del control de tierra, denominado Traffic Alert and Collision Avoidance System (TCAS), para evitar las colisiones entre aviones en el aire.  

Los sistemas de control de tráfico aéreo y el TCAS permitieron reducir drásticamente las colisiones de aeronaves en vuelo, aunque no desaparecieron por completo.  El accidente más trágico de la historia de la aviación motivado por un choque de aviones en el aire, en el que murieron 349 personas, lo protagonizaron, en 1996, un avión de Kazakhstan Airlines y otro de Saudi Arabian Airlines en Charkhi Dadri. En la tripulación del avión kazakhstaní únicamente el radio era capaz de comunicarse en inglés y ni siquiera disponía de un panel de instrumentos, sino que observaba los de los pilotos por encima de sus hombros. Con turbulencia y en un banco de nubes, el avión descendió mil pies por debajo de la altitud asignada por los controladores, de 15 000 pies. Los problemas de comunicación de la aeronave con el centro de control y entre sus tripulantes fueron las principales causas del accidente.

Muchos pilotos que se incorporaban a la aviación civil durante las décadas de 1960 y 1970, procedían de las Fuerzas Aéreas. La cultura y el estilo de trabajo en las cabinas de los aviones se inspiraba en principios de corte militar. En muchas ocasiones el capitán, o el comandante, actuaba con cierta prepotencia y el resto de la tripulación no se atrevía a contradecirle y si lo hacía procuraba no incomodarle. La forma de trabajo en la cabina de vuelo no facilitaba una comunicación fluida y útil entre sus miembros y del análisis de algunos accidentes, se llegó a la conclusión de que estas deficiencias habían contribuido a que se produjera la catástrofe. Quizá, la gota que colmó el vaso fue el accidente del 28 de diciembre de 1978 en Portland, Oregon, en el que la tripulación del Douglas DC-8 del vuelo de United 173, cuando se aproximaba al aeropuerto con 181 pasajeros a bordo, constató que el tren de aterrizaje no funcionaba correctamente. El avión se mantuvo en vuelo durante una hora, en un circuito de espera, para tratar de resolver el problema, pero todo ese tiempo únicamente sirvió para empeorar las cosas: la aeronave llegó a consumir el combustible de sus depósitos hasta el punto de verse obligada a iniciar un aterrizaje de emergencia y se estrelló poco antes de llegar a la cabecera de la pista, al agotarse el keroseno. Diez personas perdieron la vida. Los investigadores llegaron a la conclusión de que la principal causa del accidente fue la mala comunicación y la pésima coordinación entre los miembros de la tripulación. El mecánico de a bordo informó sobre la falta de combustible, pero ni el comandante se percató de las advertencias de su tripulante o no les otorgó la importancia que tenían, ni el mecánico supo hacerle ver a la tripulación la trascendencia de sus observaciones.  A partir de entonces, la NASA impulsó la introducción de otra forma de relacionarse la tripulación en la cabina basada en la gestión de los recursos disponibles (Cockpit Resource Management, CRM). La implantación de estos nuevos conceptos pretendía que el comandante actuara como un líder capaz de obtener lo mejor de cada uno de los miembros de su equipo y facilitase la comunicación entre todos ellos. En particular, el comandante debería responsabilizarse de repartir, entre su tripulación, el trabajo de comprobar el buen funcionamiento de todos los sistemas y equipos del avión durante el vuelo.

Los esfuerzos de la aviación comercial para mejorar los aspectos que afectan a la seguridad del vuelo y están relacionados con factores humanos, han conseguido que los accidentes de este tipo se reduzcan de forma progresiva. Fallos en la comunicación entre los tripulantes de cabina o entre las aeronaves y los centros de control de tráfico aéreo, han sido la causa de los accidentes más graves de la historia de la aviación. Uno de los peores accidentes de la historia de la aviación comercial, en el que perdieron la vida 583 personas, se produjo en el aeropuerto de Los Rodeos (Tenerife Norte) el 27 de marzo de 1977, al colisionar dos Boeing 747 en la pista de despegue. El siniestro se produjo porque el comandante del vuelo de KLM intentó despegar sin haber recibido la pertinente autorización.

El combustible que lleva un avión de transporte comercial en el momento del despegue puede suponer un veinticinco por ciento de su peso total. Una carga altamente inflamable capaz de provocar incendios destructivos. Cualquier fuego a bordo es muy peligroso. El 2 de junio de 1983, a 33 000 pies de altura, del lavabo del DC-9 de Air Canada, que volaba de Dallas a Toronto, empezó a salir humo negro que en poco tiempo invadió toda la cabina de pasajeros. El piloto efectuó un aterrizaje de emergencia en Cincinnati, con humo que apenas le permitía ver el tablero de instrumentos. Un minuto después de abrir las puertas, una llamarada envolvió la cabina: 23 pasajeros murieron y 18 pudieron escapar junto con la tripulación. No se llegó a saber nunca la razón por la que se produjo el incendio. Aquel accidente hizo que los aviones se equiparan, en lo sucesivo, con detectores de fuego en los lavabos y extintores automáticos. A partir de 1988, todos los aviones comerciales se fabricaron con materiales en sus interiores más resistentes al fuego. Algunos años más tarde, en 1996, otro accidente, en este caso de un DC-9 de ValueJet, cerca de Miami, fue el detonante para que las medidas de prevención de incendios adoptadas en la cabina se extendieran a las bodegas de carga y se establecieran procedimientos para el transporte de mercancías peligrosas a bordo de las aeronaves. El avión transportaba generadores químicos de oxígeno y 110 personas murieron cuando uno de ellos se activó accidentalmente y desencadenó un incendio en la aeronave. Ese mismo año de 1996, el 17 de julio, un Boeing 747 de TWA que acababa de despegar de Nueva York, con 230 personas a bordo, explotó en el aire. No hubo supervivientes. Una chispa originada por un corto circuito incendió uno de los tanques de combustible. Este accidente motivó algunos cambios de diseño para evitar descargas eléctricas cerca de los depósitos y Boeing desarrolló un sistema para inyectar nitrógeno, un gas inerte, en los tanques de combustible.

A mediados de la década de 1990 los aviones comerciales empezaron a llevar un radar en el morro diseñado para detectar turbulencias y cizalladuras atmosféricas, es decir, abruptas ráfagas descendentes o microrráfagas. El fenómeno se conocía desde el año 1966, cuando un Boeing 707 de BOAC fue literalmente destruido en pleno vuelo por una fuerte turbulencia en Gotemba, una ciudad japonesa ubicada a unos cincuenta kilómetros al norte de Tokío. Entonces, los expertos no sabían explicarlo y empezaron a considerar muy seriamente los efectos de las corrientes de montaña y las cizalladuras. En 1975 el profesor Tatsuya Fugita, de la universidad de Chicago, dio un paso de gigante en el esclarecimiento de estos fenómenos al reconstruir, con imágenes de satélite, la estructura de la nube que derribó al Boeing 727 de la compañía Eastern, cuando se encontraba a media milla de la cabecera de pista, en Nueva York. Fugita caracterizó las microrráfagas: corrientes de aire descendentes muy violentas que alcanzan velocidades de 145 millas por hora y no se ven, duran entre dos y tres minutos y chocan contra el suelo en un punto desde donde se reparte el aire en todas las direcciones. Sin embargo, la decisión de dotar a las aeronaves con equipos para detectar estas turbulencias la aceleró el accidente que sufrió un Lockheed L-1011 de la aerolínea Delta que se dirigía al aeropuerto de Dallas, el 2 de agosto de 1985. El avión se desplomó sobre el terreno una milla antes de alcanzar la cabecera de pista. Una fuerte ráfaga descendente hizo que perdiera velocidad de manera repentina. De las 163 personas que iban a bordo, 134 perdieron la vida. Durante siete años la NASA y la FAA realizaron investigaciones para diseñar equipos de tierra y a bordo que permitieran detectar las microrráfagas y evitar, en lo sucesivo, la ocurrencia de accidentes motivados por estos fenómenos atmosféricos.

En la década de 1980 Airbus revolucionó el transporte aéreo comercial con su nuevo avión Airbus A320 que, entre otras muchas innovaciones, incorporaba el sistema de control que se conoce como fly-by-wire. La verdadera innovación no consistía tanto en que los movimientos de control del piloto sobre los mandos se transmitieran a los planos aerodinámicos a través de señales eléctricas, sino que el ordenador de a bordo las interpretara y no permitiese que el piloto efectuase maniobras que, según el fabricante, situaban a la aeronave en unas condiciones de vuelo que no garantizaban su integridad. La frontera entre lo que puede y no puede soportar un avión no tiene unos límites tan precisos y en circunstancias críticas, quizá el juicio del piloto resulte más oportuno que el del ordenador, un razonamiento que ha dado pie a muchos debates públicos. El inicio de estas discusiones quizá se produjo cuando el 26 de junio de 1988, uno de los primeros aviones A320 de Airbus se desplomó cerca del aeropuerto de Habsheim en Mulhouse, mientras realizaba un vuelo de demostración a baja altura, con 136 personas a bordo. Afortunadamente, tan solo tres personas fallecieron en aquel accidente. El debate de si el accidente se podía haber evitado con un avión en el que el piloto hubiese tenido la posibilidad de incrementar un poco más el ángulo de ataque, o si, en ese hipotético avión, las consecuencias hubieran sido mucho peores porque el aparato en vez de arrastrarse sobre las copas de los árboles se habría desplomado al entrar en pérdida, estuvo en boca de muchos expertos. Sin embargo, los investigadores del accidente obviaron este debate y la mayoría de las recomendaciones que hicieron poco tuvo que ver con el avión y mucho con la conveniencia de preparar con mayor rigor los vuelos de demostración.

Uno de los accidentes aéreos que ha causado mayor estupor en la opinión pública fue el del Boeing 777 del vuelo MH370 de Malasya Airlines del 8 de marzo de 2014. La aeronave, que volaba de Kuala Lumpur a Beijing, desapareció de los radares y presumiblemente se dirigió hacia el sur con 239 personas a bordo, hasta que agotó el combustible y cayó al mar. Todo son especulaciones ya que el avión no se ha podido encontrar. Este accidente hizo que la Organización de Aviación Civil Internacional (OACI) diese el mandato a las aerolíneas de que las aeronaves se equipasen con medios para notificar, de forma automática, su posición a los sistemas de control de tierra en todos los tramos del vuelo. De otra parte, los fabricantes de aeronaves empezaron a desarrollar cajas negras que se eyectan si el aparato se sumerge en el agua.

La cuestión de la gestión automatizada del vuelo resucitaría con fuerza años más tarde a raíz de otro accidente. El 1 de junio de 2009, el Airbus A330-300 de Air France que volaba de Río de Janeiro a París penetró un área tormentosa. A 38 000 pies de altitud el avión entró en pérdida y cayó al océano. De la aeronave aparecieron algunos restos, pero las 228 personas que iban a bordo desaparecieron. Tuvieron que transcurrir dos años antes de que se rescataran los restos de las víctimas, parte del avión y las cajas negras. Los investigadores concluyeron que el hielo que se formó en los tubos de Pitot averió los instrumentos, lo que a su vez desencadenó una serie de fallos en el sistema de navegación, también que los pilotos no fueron capaces de recuperar el control de la aeronave debido a su excesiva confianza en los sistemas de navegación automática y que su falta de práctica en el vuelo manual les impidió resolver la situación. En los aviones comerciales modernos las tripulaciones están habituadas a navegar con pilotos automáticos y para que la aeronave cambie de nivel de vuelo o el rumbo, les basta con girar unos botones. Este accidente puso de manifiesto la necesidad de que los programas de entrenamiento de las tripulaciones otorgaran mayor importancia al vuelo manual.

Cada vez más, los ordenadores de a bordo o sistemas automáticos actúan también sobre los planos aerodinámicos de control del avión sin que el piloto lo advierta, a veces para mejorar el confort de los pasajeros, pero también por otras razones que luego explicaré.  Los accidentes de los vuelos de United 585 y USAir 427, en 1991 y 1994 respectivamente, abrieron una larga investigación que enfrentaría a los principales protagonistas del sistema de transporte aéreo en Estados Unidos. En ambos casos la aeronave era un Boeing 737 que perdió el control cayendo a tierra cuando se aproximaba al aeropuerto causando la muerte de todos sus ocupantes: 25 en el avión de United y 132 en el de USAir. Tras una polémica, ardua y costosa investigación, la FAA estableció una conexión entre los dos accidentes y el 13 de septiembre de 2000 hizo público que Boeing debería rediseñar el sistema de control del timón de dirección del B-737 e incorporar los cambios en los 3400 aparatos de este modelo que operaban en las líneas aéreas de todo el mundo. El coste de la operación se estimó en unos 200 millones de dólares. Boeing negó que el programa pretendiese remediar un problema que afectaba a la seguridad; aquellas actuaciones las consideró como mejoras. Sin embargo, muchos expertos opinan que el fallo del amortiguador de guiñada —un sistema que actúa sobre el timón de dirección para corregir, sin que el piloto intervenga, un molesto balanceo (balanceo del holandés) que se induce cuando el avión gira ligeramente sobre su eje vertical— fue el principal causante del accidente.

Si los supuestos fallos de los mecanismos automáticos de corrección del llamado balanceo del holandés originaron los accidentes de los vuelos de United 585 y USAir 427, la intervención de otro sistema automático de control en el Boeing 737 MAX, denominado MACS (Maneuvering Characteristics Augmentation System) para ajustar el ángulo de ataque en determinadas situaciones, dio pie a que se produjeran dos trágicos accidentes en 2018 y 2019, cuyas consecuencias no se han limitado a introducir modificaciones en los equipos, sino también en el modo de certificarlos y el estilo de dirección del fabricante Boeing. Todo empezó el 29 de octubre de 2018 cuando un Boeing 737 MAX de Lion Air, en Yakarta, se precipitó al mar y sus 189 ocupantes perdieron la vida. Pocos meses después, el 10 de marzo de 2019, otro Boeing 737 MAX de Ethiopian cayó a tierra nada más despegar de Adís Abeba causando la muerte de las 157 personas que iban a bordo. Todo apuntaba a que los pilotos no pudieron impedir que el avión saliera de un indeseable picado, a pesar de los esfuerzos que hicieron para conseguirlo. Pronto se llegó a la conclusión de que la avería del sensor del ángulo de ataque del avión que lee el MACS tenía mucho que ver con el accidente. El MACS solamente actúa en vuelo manual y con los flaps fuera, por lo que la pregunta que cualquiera puede hacerse es ¿por qué es necesario el MACS? Resulta que, en esas condiciones de vuelo, con elevados ángulos de ataque, debido al tamaño y posición del motor, el MAX se comportaría de forma distinta a sus parientes de la familia de aviones 737 de Boeing. Con el MACS pasa a ser uno más de ellos, porque este sistema, de forma automática, reajusta la fuerza en los mandos para que así sea y nivela los planos de control para corregir el ángulo de ataque.

La intervención de sistemas automáticos en el control del avión, superponiendo sus actuaciones sobre las del piloto, por supuestos motivos de seguridad, confort e incluso comerciales, ha complicado la determinación de las causas de algunos accidentes. La complejidad de estos análisis hace que de ellos se deriven conclusiones que van más allá de la necesidad de mejorar o cambiar el diseño de algunos equipos o la comunicación y el entrenamiento de las tripulaciones, sino que afectan a los procesos que sigue la autoridad aeronáutica para la certificación y hasta la cultura empresarial de los fabricantes. En el caso del MCAS, tanto la FAA como Boeing han sido objeto de críticas por la opinión pública. La primera por excesiva complacencia a la hora de certificar el sistema y la segunda por anteponer sus intereses comerciales a la seguridad del vuelo.

Desde el principio, la aviación comercial ha hecho un uso muy constructivo de los accidentes, analizando sus causas e introduciendo cambios en el sistema para que no se repitieran. Las medidas correctivas, con la ayuda de la tecnología, han permitido que los accidentes aéreos sigan disminuyendo, año tras año, en términos absolutos y relativos. En poco más de cien años de existencia el modo de transporte aéreo ha pasado de ser el más inseguro, al más seguro de todos ellos. Según la National Transportation Safety Board (NTSB) de Estados Unidos, la tasa de muertes por cada 100 millones de millas viajadas es de 0,01 para la aviación, muy inferior a la del ferrocarril: 0,04.

Las alas de las tijeretas

Las tijeretas son pequeños insectos inofensivos cuyas alas tienen unas propiedades extraordinarias que han suscitado un creciente interés en la comunidad científica y tecnológica. El sistema que utilizan para plegar y desplegar sus alas es un claro referente para cualquier fabricante de aparatos de geometría variable.

Cuando las tijeretas no vuelan sus alas están plegadas. Sin apenas hacer fuerza y con gran rapidez son capaces de desplegar las alas, vuelan y cuando ya no las necesitan, con la misma velocidad y economía energética, las recogen. Del estudio de las alas desplegadas se deduce que su forma no se ha podido conseguir siguiendo una secuencia papirofléxica como en un ejercicio de origami en el que se desdobla papel que es plano y rígido. Las delgadas varillas que limitan los elementos de la superficie de las alas deben estirarse o encogerse y someterse a torsiones durante el despliegue para alcanzar el estado final y lo mismo ocurre cuando se pliegan. Esto quiere decir que en el plegado y desplegado hay varillas que liberan energía, en tanto que otras la absorben hasta que se llega al final del proceso. Pero la tijereta no hace ningún esfuerzo mientras las alas pasan de un estado a otro ya que su estructura tan solo es estable en esos dos estados. Una pequeña variación de la geometría desde la posición de equilibrio (plegado o desplegado) desencadena la secuencia que llevará al ala a la otra posición de equilibrio (desplegado o plegado). No es necesaria la aplicación de ninguna fuerza para mantener el ala en las posiciones estables. En un trabajo conjunto, las universidades de Purdue y Zurich, han modelizado en 4D los movimientos de plegado y desplegado de las alas de las tijeretas.

Este tipo de estructuras, con dos o más configuraciones geométricas estables, tiene interés para la fabricación de objetos que habitualmente guardamos plegados como una tienda de campaña, un paraguas o un stent (aparato que se usa en medicina para corregir estrechamientos en los vasos sanguíneos). Si somos capaces de construirlos con una estructura similar a la de las alas de la tijereta, nos bastaría aplicar una pequeña fuerza para abrirlos o cerrarlos. Incluso hay gente que piensa que servirían también en aplicaciones aeronáuticas para resolver problemas que plantean los aviones de geometría variable.

La forma idónea de un ala, desde un punto de vista aerodinámico, depende del tipo de vuelo que realice el avión. Cambiar su forma en todo momento para adoptar la más eficiente, en función de las características del vuelo, es el objetivo de las alas de geometría variable. Desde hace muchos años se han construido prototipos de avión, sobre todo militares, con alas de estas características. Durante los últimos cinco años tanto NASA como la Unión Europea han financiado proyectos civiles de investigación para el desarrollo de alas de geometría variable. Este año, Airbus ha hecho pruebas en un avión demostrador, C 295 FTB2, con una configuración de ala con geometría semi-variable (semi-morphing) y el próximo año pretende experimentar con un Cessna Citation VII el funcionamiento de un ala de geometría variable automática.   

Sin embargo, los trabajos de desarrollo en el campo aeronáutico para la construcción de aeronaves de geometría variable no parecen inspirarse en las alas de las tijeretas. Las aves son grandes expertas en variar la forma del cuerpo y las alas para optimizar el vuelo y tampoco utilizan estructuras biestables. Todo apunta a que el empleo de esta tecnología en voladores de cierto peso no es factible, pero es sorprendente la variedad de recursos que emplea la naturaleza para adaptarse al medio y lo mucho que podemos aprender de su larguísima experiencia.

Primera entrega del avión chino C919, diseñado para romper el duopolio Boeing-Airbus

China Eastern ha recibido el primer avión C919 de la empresa china Comac, diseñado para competir con el Airbus A320 y el Boeing 737. El avión empezará a volar en rutas comerciales a principios de 2023.

El pasado mes de septiembre la autoridad aeronáutica china otorgó el certificado de aeronavegabilidad al C919, lo que supuso un hito en la historia de la industria aeroespacial del país. El avión, producido en China, está equipado con motores CFM (consorcio de las empresas General Electric y Snecma) y sistemas de control de Collins Aerospace.

El aspecto de este avión es muy parecido al de un Boeing 737-800. Pesa en vacío 42,1 toneladas frente a las 41,4 del avión norteamericano y en la versión más compacta puede transportar hasta 168 pasajeros, ocho más que el Boeing. Quizá la diferencia más importante es que el C919 tiene un alcance máximo de 4075 kilómetros mientras que 737-800 llega hasta los 5436 kilómetros. La diferencia se debe a la mayor capacidad de los depósitos de combustible del avión estadounidense.

El desarrollo del C919 ha sufrido importantes retrasos y su coste ha sobrepasado con creces el presupuesto inicial, pero Comac cuenta en la actualidad con una cartera de pedidos de 815 unidades procedentes de 28 clientes, casi todos de empresas de aquel país en cuyo accionariado figura el propio Gobierno, aunque General Electric Capital Services también se incluye entre ellos con 10 órdenes en firme y 10 opciones.

El C919 llega al mercado en un momento de profunda crisis del transporte aéreo en China debido al covid 19.

El último Boeing-747

El último Boeing-747 abandona la factoría de Everett en Seattle. Con esta aeronave, Boeing pone punto final a uno de los modelos de avión más emblemáticos de la historia del transporte aéreo. El aparato se entregará a la compañía carguera Atlas Air, a principios de 2023.

Durante cincuenta y seis años Boeing ha fabricado el 747, los últimos en versión carguera, aunque aún quedan diecisiete unidades operativas de pasaje. La crisis del coronavirus aceleró el final de los grandes aviones de cuatro motores, pero los 747 cargueros continuarán prestando servicios durante muchos años.

El Jesús del Gran Poder: de la India a La Habana

Dos semanas después de que Lindbergh cruzara el Atlántico, el 4 de junio de 1927, Levine y Chamberlin despegaron de Nueva York y 43 horas más tarde aterrizaron en Eisleben, Alemania. Los norteamericanos lograron batir el récord de distancia que durante apenas quince días estuvo en posesión de Lindbergh. En Berlín fueron recibidos por el presidente alemán Hindenburg mientras la prensa nazi trataba de ocultar la presencia del judío Levine.

Era la época de los grandes viajes en avión que en España había inaugurado Ramón Franco con su vuelo a Argentina, el 22 de enero de 1926 y los pilotos Iglesias y Jiménez convencieron al jefe del Servicio del Aire español, coronel Kindelán, para que pusiera a su disposición un avión con el que pudieran superar el récord mundial de distancia de 6290 kilómetros de Chamberlin y Levine.

El 30 de abril de 1928, la reina Victoria Eugenia de Battenberg, bautizó el histórico avión con el nombre de Jesús del Gran Poder, en Tablada, la base aérea de Sevilla. Era un Breguet 19 G.R., construido por la empresa Construcciones Aeronáuticas con un motor Hispano Suiza de 600 caballos. A la ceremonia no pudieron faltar el arzobispo de Sevilla, monseñor Ilundain, y el mismísimo rey de España, don Alfonso XIII, muy interesado por las cuestiones aeronáuticas que, después de que la reina estrellara una botella de vino español de la casa Domeq contra el buje de la hélice, subió a la cabina a inspeccionar el avión. A su majestad, todos los asuntos relacionados con la aviación le interesaban mucho.

Durante el bautizo del avión Ignacio Jiménez y Francisco Iglesias Brage tuvieron oportunidad de explicarle al rey las características del avión, aunque quizá no se extenderían tanto en los detalles de la misión que pensaban llevar a cabo. Habían tratado de convencer a Kindelán de que su destino debía ser La Habana, en Cuba. Los promotores del vuelo aún tenían en mente la hazaña de Ramón Franco con el Plus Ultra, que dos años antes había volado de Palos a Buenos Aires.  Los lazos históricos y culturales de España con cualquier país latinoamericano no tenían nada que ver con los de otros países asiáticos que era el destino favorito de Kindelán. Al coronel le parecía una aventura arriesgada, hasta la temeridad, un vuelo sobre el Atlántico hacia el oeste, con los vientos en contra y un inmenso océano debajo de sus pilotos, cuya duración excedería las cuarenta horas. El mando aeronáutico español autorizó la misión de Iglesias y Jiménez, batir el récord mundial de recorrido, pero con un vuelo hacia el este, cuyo destino final estuviera en Djash, Charbar, Karachi o Khort, ciudades cuya distancia ortodrómica a Tablada era suficiente para superar el logro de Chamberlin y Levine. Sin embargo, Iglesias y Jiménez tenían otros planes que no podían compartir aquel día con el rey.

Muy pronto, todo el mundo, con la salvedad del mando en el Servicio del Aire, supo que, aunque el destino oficial del Jesús del Gran Poder era la India, en realidad iba a volar a Cuba. El periódico El Excelsior, de la Habana, se ocupaba con mucha frecuencia del avión y sus tripulantes, el embajador de Cuba en España, García Coli, seguía muy de cerca los preparativos de la expedición. El padre Gutiérrez, director del Observatorio Astronómico del Colegio de Belén en la Habana, envió a los pilotos cartas de navegación y el capitán Gaspar de la empresa Construcciones Aeronáuticas S.A. se trasladó a la Habana “por razones familiares” para preparar la logística de la llegada de los españoles. Incluso en la base aérea de Tablada, en el estudio de los tripulantes, siempre había mapas de la ruta cubana y uno de la travesía a la India que se desplegaba, en contadas ocasiones, para ocultar el otro. Todo el mundo sabía que el Jesús del Gran Poder volaría a la Habana, todo el mundo, menos el coronel Kindelán y el mando del Servicio Aéreo.

El 9 de mayo las condiciones meteorológicas resultaban favorables para dirigirse a cualquiera de los dos destinos. Iglesias y Jiménez eran muy tradicionales y fueron a despedirse del arzobispo, también oyeron misa en Nuestra Señora de la Antigua, la misma iglesia en que lo hizo Cristóbal Colón antes de zarpar rumbo a América. Creían en la medicina moderna y a la hora de cenar no se olvidaron del bismuto y el tanino para beneficiarse de sus efectos astringentes, muy convenientes en un vuelo de más de cuarenta horas, sin váter a bordo.

El 10 de mayo la niebla impidió que los pilotos despegaran, pero el día 11 a las seis de la madrugada el Jesús del Gran Poder inició la rodadura de un vuelo que algunos pensaban que se dirigía a la India y otros a Cuba. La visibilidad de unos 200 metros no impidió que acudieran curiosos y que muchos coches aparcaran flanqueando la pista de despegue. Durante la rodadura el avión se desvió ligeramente a la derecha y con el ala rozó una camioneta. Jiménez, para evitar un desastre mayor, cortó gases y logró detener al avión que sufrió ligeros desperfectos que habría que reparar antes de iniciar el vuelo.

La aeronave estaba siendo revisada en el hangar cuando el teniente coronel Brakembury, jefe de la base, se acercó para supervisar el trabajo de los mecánicos. Pudo comprobar que en la cabina solamente había mapas del Atlántico y de las Antillas y que en los cuadernos de a bordo la navegación astronómica únicamente se había preparado para la ruta de Sevilla a la Habana. Quizá pensó que debería fusilar a los pilotos allí mismo, pero obró con prudencia y el teniente coronel puso al corriente a Kindelán de sus hallazgos.

Cuando el Jefe de la Aeronáutica tuvo noticia de lo que había ocurrido hizo que Iglesias y Jiménez se presentaran ante el capitán general de Sevilla, don Carlos de Borbón. Recibieron una fuerte reprimenda y en presencia de sus superiores tuvieron que hacer la promesa firme de que cuando el avión se reparase y la misión se pudiera restablecer tomarían el rumbo que se les había ordenado: la India.

El 29 de mayo de 1928, a las once y media de la mañana, el Jesús del Gran Poder despegó de Tablada rumbo hacia Gibraltar dando un rodeo para salir por el Mediterráneo ya que no podía remontar la cordillera Penibética, luego se dirigieron hacia el cabo de Gata. De allí enfilaron a su destino que era Nassiryha, una población en Mesopotamia cerca del Éufrates.

No tuvieron suerte porque cuando entraron en Asia Menor, por Alepo, les esperaba una tormenta de arena que les acompañó unos 1000 kilómetros. Al cabo de varias horas de vuelo, el motor acusó la ingesta del árido y las válvulas del bloque izquierdo se averiaron. Jiménez e Iglesias se vieron obligados a improvisar un aterrizaje forzoso después de veintiocho horas de vuelo y recorrer una distancia de 5100 kilómetros.

La repatriación del Jesús del Gran Poder se hizo más larga de lo previsible. Los españoles y el avión fueron apresados por un grupo de beduinos. Pilotos y soldados de la Royal Air Force (RAF) del Reino Unido los rescataron. Entonces, la Hispano Suiza, por error, envió las piezas de repuesto a Japón. Todas estas incidencias hicieron que la estancia de Iglesias y Jiménez en el desierto, como huéspedes del Imperio Británico de Ultramar, se prolongara durante más de tres meses.

El 11 de septiembre el Jesús del Gran Poder emprendió el vuelo desde Basora a Constantinopla donde hizo escala y de allí se trasladó a Barcelona. Pero, mientras tanto, dos italianos, Ferrarin y del Petre consiguieron volar de Montecelio, una ciudad que hoy forma parte de la metrópoli romana, a una playa de Touros en Brasil, con lo que acreditaron un recorrido ante la Fédération Aéronautique Internationale (FAI) de 7188 kilómetros.  Su avión, un Savoia Marchetti  S-74, se dañó al aterrizar en la playa y tuvo que ser trasladado a Río de Janeiro en barco donde fue donado al Estado brasileño. Las celebraciones en Río duraron semanas y en un vuelo de demostración, el 11 de agosto, Ferrarin y del Petre tuvieron un accidente. Del Petre murió a consecuencia de las heridas, cinco días después.

Cuando Jiménez e Iglesias llegaron a España, trataron por todos los medios de convencer a Kindelán de que el próximo vuelo se hiciera en dirección oeste. Kindelán mantuvo con firmeza su oposición a un vuelo a Cuba. La alternativa sería una trayectoria similar a la que habían seguido Ferrarin y del Petre, por el Atlántico Sur, lo cual disminuía considerablemente el tiempo de vuelo sobre el océano y contaba con la ventaja de que los vientos podían ser favorables durante gran parte del trayecto.

Poco a poco, los pilotos y el Servicio Aéreo definirían una misión con un recorrido de más de 20 000 kilómetros en el que se visitarían unos dieciocho países latinoamericanos. La idea de conseguir batir el récord de distancia recorrida se desvanecería en favor de una operación de contenido político.

El domingo 24 de marzo de 1929, a las 17 horas y 35 minutos el Jesús del Gran Poder volvía a despegar de Tablada. Esta vez, todos sabían que se dirigiría hacia el oeste. Era domingo de Ramos y cuando sobrevoló Sevilla dio una pasada sobre la iglesia de San Lorenzo, donde se venera al Jesús que le había dado su nombre. Después de cuarenta y tres horas y cincuenta minutos de vuelo aterrizó en el aeropuerto de Cassamary en Brasil, a unos 50 kilómetros de Bahía. Había recorrido una distancia, medida por la ortodrómica, de 6550 kilómetros. No batieron ningún récord, pero ese ya no era el objetivo principal de la gira. Les esperaban fiestas, agasajos, recepciones, discursos, telegramas de felicitación y muchas horas de vuelo. Hicieron una larga gira hasta llegar a La Habana donde El Excelsior, el periódico de don Manuel Aznar, los recibió con una tirada de 100 000 ejemplares. Querían seguir a Washington y Nueva York, pero Kindelán pensó que era suficiente y el buque de la Armada Almirante Cervera se trajo a los tripulantes y al avión a Cádiz, donde llegaron el 7 de junio de 1929. La fiesta terminó en Madrid, el 8 de junio, con la presencia del presidente del Gobierno, general Primo de Rivera, los infantes de España y el jefe del Servicio Aéreo: el coronel Alfredo Kindelán.

Aún tendrían que pasar cuatro años para otros pilotos españoles, Mariano Barberán y Joaquín Collar, batieran el récord mundial de distancia con otro avión Breguet, el Cuatro Vientos; fue el vuelo con el que tantas veces habían soñado Iglesias y Jiménez: de Sevilla a Camagüey, en Cuba. Dio la casualidad de que Francisco Iglesias recibió a sus compatriotas en la ciudad caribeña donde se hallaba de paso por razones profesionales. Y tuvo la oportunidad de despedirse de ellos cuando despegaron de La Habana rumbo a la Ciudad de México, un destino que jamás alcanzaron.

Asteroides

El jueves 19 de noviembre de 2022 Robert Weyrk fotografió la estela luminosa que dejaba un pequeño asteroide mientras caía cerca del lago Ontario, en Canadá. El objeto celeste mediría algo así como un metro de diámetro. La irrupción de un asteroide de estas características en nuestra atmósfera no es un hecho excepcional: suele ocurrir cada dos semanas. Quizá lo extraordinario fue que desde hacía un par de horas la comunidad de astrónomos, que sigue los asteroides que orbitan en las proximidades de la Tierra, sabía que impactaría nuestro planeta en un punto situado entre el lago Erie y el lago Ontario, en Canadá. Según la Agencia Europea del Espacio (ESA) este es el sexto asteroide para el que los astrónomos, después de la detección, han sido capaces de predecir el lugar del impacto.

Dos meses antes de la llegada a la Tierra del asteroide 2022 WJ1, que así se llama el que fotografió Weyrk, la NASA logró desviar la trayectoria de otro asteroide, Dimorfos, al hacer que una de sus naves espaciales (DART) impactara contra el cuerpo celeste.

Son dos buenas noticias, en esta época de malas noticias: saber que somos capaces de predecir y hasta modificar las órbitas de asteroides peligrosos para la vida en la Tierra.

Imagino que durante los próximos meses seguiremos recibiendo noticias de asteroides que han detectado nuestros astrónomos y el lugar en el que estimaban que iban a caer que esperamos que coincida con el sitio en que se han estrellado. Serán rocas de alrededor de un metro de diámetro, las más pequeñas no las van a ver y más grandes suponemos que ya las han detectado, están bajo control, y sabemos que pasarán lejos.

De los asteroides más grandecitos, que están bajo control, el que nos va a dar un poco la lata se llama Apofis, un asteroide bautizado con el nombre del dios de los egipcios que gobernaba el caos. Descubierto en 2004, se prevé que pasará a unos 36000 kilómetros de la Tierra el 13 de abril de 2029. Eso es muy cerca: la distancia a la que orbitan los satélites geoestacionarios. Las últimas previsiones de los expertos apuntan a que Apofis no colisionará con nuestro planeta en los próximos cien años, pero en otros cálculos que se hicieron antes esa posibilidad no parecía tan remota. Este asteroide tiene un diámetro de 350 metros por lo que un impacto con la Tierra sería localmente desastroso, pero distaría mucho de alcanzar la magnitud de una catástrofe global como la que acabó con los dinosaurios hace 65 millones de años; aquél asteroide medía alrededor de quince kilómetros. Apofis podría organizar un resplandor como el asteroide que alcanzó el río Tunguska en la meseta siberiana el 30 de junio de 1908: el cielo de Londres se iluminó de pronto en plena noche y el ruido se escuchó en toda Rusia. Asoló una zona boscosa de más de dos mil kilómetros cuadrados.

Así es que, aunque Stephen Hawking decía que lo más probable es que la humanidad desaparezca debido al choque de un asteroide con la Tierra, parece que no será así.

La navegación aérea

Breve historia de la aviación comercial (3)

La navegación aérea

En abril de 1915 el capitán J.M. Furnival, en Inglaterra, escuchó la voz del mayor Prince desde su avión: «Si me oyes ahora, será la primera vez que unas palabras se han comunicado a un avión en vuelo». Furnival las escuchó y los aviones empezaron a recibir señales desde tierra gracias a la radio.

Después de la I Guerra Mundial los aviones solían transportar correo y se orientaban con las líneas de ferrocarril, carreteras y la orografía. My pronto se empezaron a dibujar marcas en las terrazas o sobre los tejados de algunas casas con flechas que indicaban la dirección y distancia a determinados lugares o el nombre del emplazamiento. En Estados Unidos, en 1926, el Congreso encargó a varias organizaciones el despliegue de marcas para ayudar a los navegantes aéreos de todo el país, con el objetivo de que, al menos, cada quince millas hubiera alguna señalización. Cuando estalló la II Guerra Mundial la nación contaba con unas trece mil marcas.

El correo aéreo se transportaba día y noche. En marzo de 1926, cuatro aviones D.H.4 del servicio postal cruzaron Estados Unidos de Nueva York a San Francisco en 33 horas y 20 minutos. Para facilitar los vuelos nocturnos los aeródromos se señalizaban con hogueras alineadas en los lados de la pista de aterrizaje y las rutas se marcaban con fuegos espaciados cierta distancia a lo largo del trayecto. Estos fuegos se sustituirían por faros rotatorios, separados unas diez millas, más próximos en zonas de montaña y más alejados en las llanuras. Las pistas de aterrizaje se iluminaron con luces. Sin embargo, la lluvia y las nubes impedían que los pilotos pudieran orientarse con las luces y la falta de visibilidad dejaba con demasiada frecuencia las sacas de correo en tierra.

A finales de los años 1920 empezaron a utilizarse radiobalizas omnidireccionales: simples estaciones de radio que emitían señales de baja o media frecuencia en todas las direcciones, en inglés estaciones NDB (Non directional beacon). Desde el avión podían detectarse con un receptor de radio sencillo y mediante un instrumento relativamente simple, ADF (Automatic Directional Finder), era posible determinar la dirección de la que procedían. Con un poco de viento lateral, navegar exclusivamente con estas ayudas era peligroso porque, aunque el morro del avión apuntara siempre a la radiobaliza, la aeronave describía una trayectoria curva con el consiguiente peligro de entrar en una zona montañosa o en la que hubiera otros obstáculos.

En Gran Bretaña, el Gobierno estableció en 1922 los procedimientos para determinar la posición de las aeronaves, desde tierra, con el empleo de radiogoniómetros. Consiguieron hacerlo con una exactitud de un par de millas, tardaban menos de dos minutos y el Gobierno decidió, a partir de esa fecha, organizar el control del tráfico aéreo de esta forma.

Con los radiofaros resultaba difícil seguir una trayectoria y cuando la empresa automovilística Ford decidió fabricar aviones y lanzó al mercado su legendario trimotor metálico, en 1927, empezó a utilizar un revolucionario sistema de guiado para las aeronaves. El invento era originalmente alemán, pero el ingeniero de Ford, Eugene S. Donovan, lo perfeccionó. En un principio funcionaba con dos antenas girada una, noventa grados con respecto a la otra, ambas con diagramas de radiación en forma de ocho. Una antena transmitía en morse la letra A (punto y raya) y la otra la letra N (raya y punto). Cuando la aeronave volaba hacia las antenas por un radial equidistante a las dos, el piloto recibía ambas señales a la vez de forma que escuchaba una raya continua: un tono. Si se desviaba a un lado solamente escuchaba una letra, la A o la N. El piloto, con un simple receptor y unos auriculares, era capaz de mantenerse en la ruta corrigiendo el rumbo del avión para oír el tono; las letras le indicaban el sentido de la rectificación. Si el volumen de la señal aumentaba el piloto sabía que iba hacia la estación, de lo contrario, se alejaba. Los dos primeros equipos se instalaron en los aeropuertos de Lansing en Chicago y Dearborn en Michigan. La Ford efectuó numerosos vuelos cargueros entre los dos aeródromos y el sistema funcionó bien. En Estados Unidos, el Bureau of Air Commerce perfeccionó el invento con cuatro antenas, que transmitían haces frontales de unos 90 grados de apertura, situadas en los vértices de un cuadrado y llegó a desplegar unas 400 instalaciones denominadas Radio Range, o Four Course Radio Ranges, en todo el país. Las estaciones transmitían en código morse, cada 30 segundos, dos letras a modo de identificador. Cada estación definía cuatro aerovías que podían enlazarse con otras estaciones para formar así los caminos por los que circulaban las aeronaves. Durante el periodo de entre guerras los cielos se cubrieron de aerovías invisibles señalizadas con equipos radioeléctricos que facilitaron el desarrollo del transporte aéreo comercial. El uso de estos sistemas se extendió por todo el mundo y no empezó a decaer hasta después de la II Guerra Mundial y desaparecieron por completo en 1970. Con el Radio Range nació el vuelo instrumental que, a diferencia del vuelo visual, se caracteriza porque la navegación se hace gracias al uso de un conjunto de dispositivos que permiten volar sin visibilidad.

Además de las radioayudas terrestres para el trazado de aerovías, el vuelo instrumental requiere de un equipamiento a bordo capaz de indicarle al piloto cual es la actitud del avión en todo momento. Sin referencias visuales fijas en tierra, el piloto no puede discernir si la aeronave está inclinada hacia un lado, desciende o sube, con el morro apuntando a tierra o al cielo. Los instrumentos giroscópicos, con sus discos que giran a unas siete mil revoluciones por minuto y tienden a mantener fijo el plano de rotación, permiten establecer una referencia con respecto a la cual es posible medir las desviaciones. El estadounidense Lawrence Sperry desempeñó un papel fundamental como introductor de mecanismos de pilotaje automático en las aeronaves. Su padre, Elmer, fue junto con el alemán Anschütz Kaempfe el autor del compás giroscópico y está considerado como el principal inventor de los sistemas giroscópicos de navegación automática en vehículos móviles. Lawrence aplicó las ideas de su progenitor a los aviones y tan pronto como en 1914 ganó el Concours de la Securité en Aéroplane que se celebró en París, en el que demostró cómo sus aparatos controlaban un avión que volaba a baja altura sobre el río Sena delante de los jueces, mientras su ayudante, el mecánico francés Chacin, y él, se paseaban por las alas.

A finales de la década de los años 1920 la tecnología de instrumentación y ayudas a la navegación permitía que las aeronaves pudiesen volar razonablemente bien sin apenas visibilidad, aunque no todas las aeronaves de entonces estaban equipadas para hacerlo, ni sus pilotos poseían la cualificación necesaria y tanto los instrumentos de a bordo como los equipos terrestres adolecían de importantes deficiencias. En particular, las tormentas eléctricas afectaban mucho al Radio Range. Y había una gran disparidad de equipamiento a bordo de las aeronaves.

En 1929, la ciudad de St. Louis contrató a un piloto y mecánico, Archie W. League, para que controlara el creciente tráfico aéreo de su aeropuerto. Se instaló en el aeródromo con una silla y protegido con un parasol utilizaba dos banderas para informar a los aviones: una roja para que esperasen y otra a cuadros para que entraran. Al año siguiente, en 1930, el aeropuerto de Cleveland fue el primero en abrir una sala con equipos de radio para comunicarse con los aviones y en los cinco años siguientes unas veinte ciudades estadounidenses hicieron lo mismo.

A finales de 1935, un consorcio formado por las principales aerolíneas norteamericanas, para evitar que se produjeran colisiones entre aeronaves en vuelo, organizó el primer centro de control de tráfico, para las aerovías definidas por los Radio Range, que se instaló en Newark (Nueva Jersey). A este centro, donde se marcaba la posición de cada avión sobre un mapa o en una pizarra, se añadieron otros dos más, en Cleveland y Chicago. Desde los mismos, los controladores no se comunicaban directamente con las aeronaves, sino que pasaban, vía telefónica, a las torres de control o a las estaciones Radio Range, las instrucciones para que estas las transmitieran por radio a los aviones. En 1936, el Departamento de Comercio de Estados Unidos se hizo cargo de los tres centros de control.

En vuelos transoceánicos de larga duración las aeronaves no podían contar con estaciones radioeléctricas terrestres, a lo largo de la mayor parte de la ruta, y los pilotos se vieron obligados a utilizar otros recursos. El más simple era la navegación a la estima: a partir de una posición inicial conocida y manteniendo el rumbo se mide el tiempo, la velocidad y la deriva de la aeronave, para determinar la nueva posición. Existían aparatos para evaluar la deriva, el ángulo que forma la velocidad real del avión con respecto al rumbo que sigue (derivómetros), y otros incluso para determinar la velocidad del avión con respecto a tierra, pero todos ellos eran difíciles de manejar y no excesivamente precisos. Los aviadores en sus vuelos oceánicos, a partir de la década de los años 1930 y hasta después de la II Guerra Mundial se situarían igual que los marinos, con los astros. Para ello utilizaban sextantes, denominados de precisión, porque desde una cierta elevación es difícil determinar la línea del horizonte, imprescindible para medir la altura de un astro con el sextante. El portugués Gago Coutinho fue el inventor de este tipo de sextante de precisión, que utilizaba una burbuja como referente en vez de la línea del horizonte, y que probó con éxito en su vuelo a través del Atlántico Sur con Sacadura Cabral, en 1922. El piloto español, Ramón Franco fue el primero en cruzar este océano, en 1926, y también llevaba a bordo un sextante, aunque fue el radiogoniómetro la ayuda que le permitió culminar con éxito el vuelo.

Durante la II Guerra Mundial se desarrollaron los sistemas de navegación y radioayudas que permitieron a la aviación comercial extender una amplia red de aerovías a nivel global y navegar con seguridad por todos los cielos del planeta durante un largo periodo tiempo, hasta mediados de la década de 1990 cuando se inició la navegación por satélite.

La navegación inercial, las radioayudas para la navegación VOR y DME, los sistemas de ayuda al aterrizaje ILS, los sistemas de navegación hiperbólica como el LORAN, el RADAR primario y el radar secundario junto con nuevos equipos de comunicación de voz en las frecuencias VHF y HF, formaron el núcleo del equipamiento con el que se organizó la navegación aérea de los aviones comerciales desde el final de la II Guerra Mundial hasta el año 1994. A lo largo de esos años, la gestión global del tráfico aéreo se organizó mediante centros de control en tierra que asumieron la responsabilidad de garantizar la separación entre aeronaves y modular la secuencia de llegadas y salidas a los aeropuertos para evitar la congestión del espacio aéreo. A partir de 1970, con la irrupción de la electrónica digital y los ordenadores, los sistemas de comunicaciones de datos con las aeronaves como el Aircraft Communications Addressing and Reporting System” (ACARS) y entre los centros de control a través de la red Aeronautical Fixed Telecommunication Network (AFTN), el proceso de la información de los planes de vuelo de las aeronaves y la facilidad de acceso a la información necesaria para el vuelo y su distribución, permitieron la implantación de un robusto sistema de apoyo a la aviación comercial, en la década de los años 1980, que se extendió por todo el mundo. El espacio aéreo global se parceló en pequeños sectores, con la salvedad de la navegación oceánica donde se mantuvo el concepto de rutas, a los que se le asignaron controladores para ordenar el tráfico y garantizar la separación entre aeronaves. La tecnología desarrollada durante la guerra, perfeccionada en la era digital, alumbró el sistema de comunicaciones, navegación y vigilancia (CNS) que hizo posible el espectacular crecimiento del tráfico aéreo durante la segunda mitad del siglo XX.

El equipo de Von Braun en Alemania, durante la II Guerra Mundial y en Estados Unidos el Instrumentation Laboratory del MIT, Northrop, y Autonetics financiados por la Fuerza Aérea, a partir de 1940, desarrollaron dispositivos con giróscopos y acelerómetros para determinar la posición de misiles. Esta tecnología de navegación inercial, durante mucho tiempo se restringió al ámbito militar, pero a finales de los años 1960 se incorporó a la navegación espacial y a la aviación comercial: los aviones Boeing 747 y Vickers VC-10 fueron los primeros en utilizarla.

Las radioayudas con las que se ha construido la extensa red de aerovías por la que navegan los aviones en nuestro planeta son el VOR (Very High Frequency Omnidirectional Range, que empezó a desarrollarse en el Washington Institute of Technology en 1937) y el DME (Distance Measuring Equipment, inventado en Australia por James Gerrand de la Commonwealth Scientific and Industrial Research Organization). El VOR permite volar hacia o desde el equipo por un radial y el DME facilita la distancia de la aeronave a la radioayuda. Con un VOR y un DME, juntos, en un conjunto de emplazamientos clave, se forman nodos que enlazan aerovías por las que los aviones circulan y siguiéndolas son capaces de volar instrumentalmente entre dos aeropuertos cualesquiera, siempre y cuando las distancias entre nodos no sean muy grandes ya que el alcance de éstas radioayudas está limitado en la práctica a unas 130 millas, lo que impide su uso en la navegación oceánica. Los VOR y los DME sustituyeron a los Radio Range.

Si el DME y el VOR desempeñaron un papel muy importante en el diseño de aerovías y la navegación aérea instrumental durante la segunda mitad del siglo XX y los radares en la organización del control de tráfico aéreo, la aproximación a los aeropuertos y el aterrizaje final, sin visibilidad, fue posible gracias a otra radio ayuda: el ILS (Instrumental Landing System). Esta radioayuda empezó a desarrollarse en 1929, pero la primera vez que un avión de pasajeros de un vuelo regular aterrizó auxiliado de un ILS fue el 26 de enero de 1938, en Pittsburgh, cuando un Boeing 247-D de Pennsylvania-Central Airlines tomó tierra con una impresionante nevada. OACI homologó los ILS en 1949. Del ILS existen tres categorías con subcategorías en la categoría III en función de la precisión del aparato, y si está certificado para la máxima (Categoría IIIc) el piloto puede aterrizar sin visibilidad, mientras que en las inferiores se requiere cierta visibilidad. Es habitual que la indicación del ILS de la trayectoria que debe seguir el piloto, durante la aproximación, se presente en el horizonte artificial: dos barras perpendiculares que se cruzan en el centro del instrumento cuando el avión sigue la senda de descenso.

También hubo otros sistemas radioeléctricos de navegación hiperbólica que permitían a la aeronave determinar su posición a partir de las diferencias de fase de la señal que recibía de, al menos, dos estaciones. Estos equipos, como el LORAN y el DECCA o el CHAYKA de la Unión Soviética, se introdujeron también después de la II Guerra Mundial. El LORAN se desarrolló durante la II Guerra Mundial en Estados Unidos a partir del sistema británico GEE inventado por Robert Dippy, que trabajaba en el laboratorio de Robert Watson-Watts, para facilitar la navegación nocturna. Con la producción masiva de semiconductores a mediados de la década de 1970 los receptores del tipo LORAN se abarataron y el uso de esta ayuda se extendió mucho, sobre todo en las zonas donde no existía cobertura VOR/DME. A partir de los años 1990, con la introducción del GPS, la navegación hiperbólica dejó de utilizarse de forma progresiva, primero en 2010 en Estados Unidos y en 2015 se cerraron las últimas estaciones que daban cobertura en Europa.

El RADAR primario (Radio Detection and Ranging) lo desarrolló con gran secreto en el Reino Unido Robert Watson-Watts a lo largo de 1935. En 1937 se montaron tres estaciones en Inglaterra, a las que se añadirían diecisiete más, en el sur y el este de la costa (Chain Home) para detectar aviones enemigos y dirigir a los propios en sus misiones. El radar primario determina la posición de un avión midiendo el tiempo que tarda la señal en alcanzarlo y regresar después de reflejarse en el blanco. El radar secundario inicialmente surgió para determinar si un avión era amigo o enemigo (IFF). Las primeras patentes de este tipo de radar pertenecen también a Robert Watson-Watts. En 1940, otro ingeniero británico, Freddie Williams, sugirió que este radar secundario utilizara una frecuencia distinta al primario. Los sistemas de radar secundario que se emplean en el control de tráfico aéreo civil transmiten pulsos, en frecuencias distintas a las del radar primario (interrogaciones), y el avión responde con otros pulsos que contienen información útil para los controladores. Mientras que el radar primario indica la presencia de una aeronave en el espacio aéreo, en el lugar donde se encuentra y no necesita que el avión lleve ningún equipamiento especial, el radar secundario aporta, además de la posición, información específica transmitida por la aeronave y sí requiere que el avión esté dotado con un equipo denominado transpondedor. En Estados Unidos el uso de los radares secundarios para el control de tráfico aéreo civil se empezó a extender en 1960, poco después de que se creara la Federal Aviation Administration (FAA) y a raíz de un accidente sobre la ciudad de Nueva York, en 1960. Con el radar secundario los controladores podían identificar las aeronaves a las que se les asignaba un código. Se adoptaron códigos para situaciones de emergencia e incluso se reservó uno para que el piloto notificara un secuestro (3100 inicialmente); además el radar secundario también permite la transmisión de la altitud del avión (modo C) y posteriormente se definió el modo S, para que la comunicación del radar secundario se pudiese hacer selectiva (el equipo de tierra interroga a una aeronave) y el ADS-B, para que los aviones retransmitieran su posición (GPS).

El 16 de febrero de 1994, la FAA certificó el Garmin GPS 155 para su uso en vuelo sin visibilidad (IFR). Ese día la empresa de Gary Burrell y Min Kao (Garmin) marcó un importante hito en la historia de la navegación aérea. Los satélites del Global Positioning System (GPS) de Estados Unidos se desplegaron con el objetivo prioritario de atender las necesidades de las Fuerzas Armadas del país y la señal civil se alteraba de forma intencionada, para reducir la precisión con la que los receptores comerciales se situaban mediante la triangulación de satélites de la constelación GPS. Además, el Gobierno de Estados Unidos se reservaba el derecho de interrumpir el servicio, sin previo aviso y en cualquier momento. Para facilitar el uso del GPS en aplicaciones de navegación aérea, se introdujo, en 1994, el Wide Area Augmentation System (WAAS). Este sistema de aumentación envía, también desde un satélite, señales de corrección para los receptores terrestres y de aviso de falta de disponibilidad del GPS, en caso necesario. En principio el ámbito geográfico de operación del WAAS se limitaba a Estados Unidos, aunque posteriormente ha incrementado el área de cobertura a Canadá y México. Gracias al sistema de aumentación, a partir de 1994, los receptores baratos GPS permitieron, sobre todo a las pequeñas aeronaves comerciales, navegar y efectuar en los aeródromos aproximaciones, con un nivel de precisión similar al que ofrece el ILS de Categoria I, en Estados Unidos.

La revolución que representó la navegación aérea por satélite se extendió por todo el mundo. En 2011 OACI certificó el sistema de aumentación por satélite europeo European Geostationary Navigation Overlay System (EGNOS) que, inicialmente a partir de la señal GPS, con satélites geoestacionarios cubre el continente europeo y proporciona servicios similares al WAAS en la región europea. EGNOS ha firmado acuerdos para extender sus servicios en otras áreas geográficas y en diferentes partes del planeta han aparecido y se están desplegando nuevos sistemas de aumentación. Además del GPS estadounidense, las naciones han desplegado otros sistemas globales de navegación por satélite —Navigation Satellite System (GNSS). El ruso GLONASS, el europeo GALILEO y el chino BeiDou, estos tres con cobertura global y también hay otros que tan solo tienen cobertura regional (India y Japón). Existen acuerdos entre los propietarios de los sistemas, tanto de navegación por satélite como de aumentación, para facilitar la navegación aérea en las distintas partes del mundo con receptores compatibles.

El proyecto para la construcción de GALILEO se lanzó oficialmente en el año 2003, aunque las conversaciones entre los promotores empezaron en 1999, y la constelación inició las operaciones en 2016. Desde el principio la Unión Europea planteó que el sistema sería de libre acceso para el uso civil, con una señal de gran precisión y un servicio garantizado. Estados Unidos cambió la política con respecto a GPS, en el año 2000 se dejó de perturbar la señal civil y a partir de 2007 los nuevos satélites de la constelación ya no incluían esa capacidad. En el futuro, GPS III y GALILEO serán interoperables, facilitarán la redundancia y mejorarán la precisión.

En cualquier caso, el modo tradicional de navegación aérea por las aerovías, de un punto de la carta señalizado con la presencia de radioayudas, a otro análogo, se ha sustituido en muchos casos por una navegación directa entre dos puntos, lo que permite acortar distancias o agilizar el tráfico aéreo. Esto se conoce como Navegación de Área (RNAV). Hay varios tipos de navegación de área, en función de la precisión (RNAV-10, por ejemplo, implica una precisión de 10 millas en la posición de la aeronave, el 95% de las veces). Pero la precisión no es el único elemento importante, sino también la capacidad del sistema para advertir al navegante de si funciona correctamente o no el equipo, así como la fiabilidad, de modo que el concepto de navegación RNAV se revisó para incluir estos otros parámetros en lo que se denomina navegación de precisión RNP. Cualquier persona que se interese un poco por estos aspectos de la navegación aérea, debe disponerse a ingerir una auténtica ensalada de acrónimos que por lo general suelen añadir más confusión que claridad al asunto.

En realidad, lo que ocurre es que la navegación aérea, cada vez más, se apoya en instrumentos que toman señales de múltiples ayudas, espaciales o terrestres, que a su vez colaboran entre ellas y que permiten a la aeronave volar una trayectoria en cuatro dimensiones (posición y tiempo) con un nivel de precisión y fiabilidad prestablecido. Al navegante, la complejidad tecnológica le aporta una extraordinaria simplicidad para ejecutar el vuelo.

Vistas las cosas desde esta perspectiva, a lo largo del siglo XXI la navegación aérea por satélite podría desplazar por completo el viejo sistema cuya tecnología nació en la II Guerra Mundial, pero quizá no sea exactamente así. Las señales de los satélites son débiles, se pueden interferir fácilmente y son muy sensibles a cambios en las condiciones de la ionosfera, además la tecnología actual dispone de otras alternativas.