Archivo para la categoría ‘Actualidad’

CAREM 25: PRIMERA CENTRAL NUCLEAR 100% ARGENTINA

Daniel Arias

El recipiente de presión del CAREM dentro de su contención

En una Argentina donde los ahorros se fondean en departamentos, un agujero en la tierra sólo es novedad cuando, trágicamente, se derrumba el edificio adjunto. Pero la excavación que motiva esta nota da más bien para celebrar: está en Lima, provincia de Buenos Aires, al lado de las centrales nucleoeléctricas Atucha I y II, y albergará los cimientos de una unidad mucho más pequeña pero conceptualmente mucho más avanzada: el CAREM 25. El prototipo estará terminado en 2014, y podría entrar en línea en 2015.

La decisión de construir esta planta marca como ninguna el fin de una paradoja criolla: entre los años ’80 y ’90, la Argentina logró volverse el más respetado exportador mundial de pequeños reactores “de investigación”, término genérico que incluye desde laboratorios de nuevos materiales a unidades escuela para formar ingenieros, químicos y físicos nucleares, y fábricas de radioisótopos de uso médico por otra parte. Los reactores de investigación hacen de todo, salvo algo tan elemental como fabricar electricidad. Esa es tarea exclusiva de las centrales.

¿Cómo se comparan ambos mercados? En una década típica, en el mundo se venden 4 o 5 reactores de investigación, por precios entre 200 o 300 millones de miles de dólares según su complejidad. Las centrales arrancan más arriba: salen miles de millones por unidad, hay 432 operando, se están construyendo 44 (mayoritariamente en Asia), y Yukiya Amano, director general del Organismo Internacional de Energía Atómica, dice que pese al accidente de Fukushima, y por pura necesidad, para 2030 se vienen entre 190 y 350 nuevas.

El CAREM sería una muy pequeña puerta de entrada a este Coliseo. Pero para un gladiador que se las trae.

Desde 1987, la Argentina –en general a través de INVAP- le vendió reactores a Perú, a Argelia, a Egipto y Australia. Siempre por calidad de oferta, jamás por precio, en general logró demoler a la competencia canadiense, francesa, japonesa, coreana, rusa y estadounidense. En 2009 les ganó de nuevo “en cancha de ellos” cuando se llevó la licitación del reactor Pallas en Holanda, pero justo a tiempo para que el gobierno holandés se quedara sin dinero para la obra.

Lejos de tanta gloria, de fronteras para adentro, olvidada u hostigada por muy distintos y sucesivos gobiernos entre 1982 y 2005, la institución madre, la Comisión Nacional de Energía Atómica (CNEA), moría en una Siberia de obras paradas “ad aeternum” y elencos humanos que se iban desintegrando de puro viejos, sin reposición. Su obra emblemática de esta época fue la central Atucha II, de 750 megavatios, diseñada por la Siemens de Alemania, completada por Nucleoeléctrica Argentina SA (NA-SA) este año, con veinticuatro años de demora y sin los alemanes (que se auto-eliminaron del escenario nuclear).

En este cuadro, la construcción del CAREM es un milagro de tercer grado, porque desde su presentación en congresos en 1984, la idea soportó un ninguneo triple: por un lado, la indiferencia de la clase política argentina hacia el conocimiento complejo, por otro, la hostilidad post-Chernobyl de más de un cuadro partidario hacia lo atómico en particular, y por último, el escepticismo aún más específico de los gurués energéticos ochentistas hacia las centrales chicas.

Si se sumaran las capacidades instaladas de ambas Atuchas más la de la central nuclear cordobesa de Embalse, entre las tres podrían iluminar a casi 7 millones de Argentinos, mientras que el pequeño CAREM 25 abastecerá a  sólo 100 mil. Y es que no vino a resolver ninguna crisis energética. Está para otra cosa: será el “showroom” global argentino en un asunto que se está poniendo de moda: las minicentrales nucleares con “seguridad inherente”. La Argentina pudo convertirse en exportador mundial de reactores sólo cuando construyó el modesto RA-6, de Bariloche, y algunos países chicos lo examinaron de arriba abajo y dijeron “¡Quiero!”. Y luego siguieron países grandes.

A partir de 2015 y con el CAREM en línea, empieza la movida nacional para exportar centrales. El viento de cola, recesión y todo, lo pone el planeta: por un número de causas más poderosas que las meramente financieras (entre ellas, 7000 millones de humanos atrapados entre el recalentamiento global y el agotamiento del petróleo barato) hoy las minicentrales nucleares son “hot” (ver recuadro). Se organizan congresos internacionales al respecto, y Rusia ya construyó una flotante, el barco Lermontov, de 100 megavatios, para dar potencia a costas remotas. Y va por once barcos-central más.

Viejos y nuevos problemas

Debido a su simplicidad minimalista, en los años de vacas más flacas del Programa Nuclear Argentino (1982 a 2005), el CAREM fue despertando fanatismos ingenieriles. En su tránsito desde la CNEA a la empresa rionegrina INVAP, y luego, por ley nacional 26.566, de regreso de Bariloche a la CNEA, el proyecto fue reclutando una guardia pretoriana de ingenieros, físicos y decisores quienes, a lo largo de 27 años, peso a peso y contra viento y marea, apostaron y aportaron a esta idea no sólo miles de horas/hombre de diseños y rediseños, sino –y esto hace diferencia- en la construcción y testeo de modelos físicos de todos sus combustibles, sistemas y subsistemas. Hasta se construyó un prototipo del prototipo, un minúsculo reactor nuclear (el RA-8) en Pilcaniyeu, Río Negro, únicamente para ensayar los combustibles del futuro CAREM. Paradójicamente, el CAREM hoy sólo es un agujero en el suelo, pero ya ha sido probado. Y una vez construído, volverá a pasar un año entero de pruebas “en frío”, sin combustible nuclear, sistema por sistema.

Hubo próceres sin busto que se jugaron fama y prestigio durante la etapa adversa, como el lamentado Dan Beninson, presidente de la CNEA entre 1998 y 1999 y antes presidente de la Comisión Internacional de Protección Radiológica. Por supuesto, no podían faltar Conrado Varotto, creador de INVAP y luego de la actual Comisión Nacional de Actividades Espaciales (CONAE), y Héctor Otheguy, actual CEO de INVAP. Y la lista sigue: decenas de expertos de ambos sexos que ganaron canas o perdieron el pelo por este concepto, y sin mayores esperanzas de ver la luz al final del túnel.

La excavación de los cimientos y el presupuesto de 2012 ya “abrochado” indican que el túnel quedó atrás, y ahora los problemas son otros. Para la presidenta de CNEA, la doctora Norma Boero, vienen de dos tipos: por una parte, durante su largo exilio institucional, la CNEA se quedó casi sin generación intermedia. Hoy los elencos se componen de sexagenarios que saben “un vagón” y de treintañeros brillantes, pero poco acostumbrados a trabajar en equipo. Por otra parte, hay que atajar a las multinacionales que ofrecen fortunas por llevarse la tecnología del CAREM a casa (“Despreocúpense, argentinos, les construimos el aparato y no ponen un centavo”). Se les contesta con amabilidad que, con tanto valor ya agregado aquí y cierta expectativa mundial por el producto, hoy tenemos tanta necesidad de socios como de un agujero en la cabeza. No siempre fue así (ver recuadro).

Tras una exposición internacional, un ingeniero de la KAERI, el poderoso organismo atómico de Corea del Sur (que emplea 35.000 personas, 10 veces más que todo nuestro programa nuclear sumado), observó: “¡Qué parecido que es al SMART nuestro!”. Se le contestó que sí, efectivamente, muy parecido, ya que el de ellos se copió del CAREM. Si la imitación es el mejor homenaje, el CAREM –desgraciadamente- ha sido muy homenajeado. Lo que no tienen el SMART, o el IRIS (un homenaje estadounidense), u otros diseños “CAREM-like” (así se los llama) rusos, japoneses, chinos y suecos son casi tres décadas de empecinado desarrollo y testeo físico de cada componente. Lo único que le sobra a la centralita criolla, tan minimalista, son competidores. Habrá carrera, y fuerte, pero este país larga en la “pole position”.

“Si afuera apostaron a que no lo hacíamos, no los culpo. Pero se van a dar una sorpresa”, gruñe, feliz, José Boado Magan, gerente de este proyecto en la CNEA. Boado pasó en dos años de dirigir 11 personas a 150 especialistas, a los que se suman otros 150 expertos de otras gerencias. Hoy se lo ve vigilante, en medio de la polvareda de obra, con sus enormes brazos en jarras, entre un ir y venir de camiones, topadoras, grúas. El sitio empieza a respirar ese aire de caos organizado de los proyectos de ingeniería.

El segundo CAREM, a construirse en Formosa, tal vez llegue a 150 megavatios (el consumo de 600.000 argentinos) y arroje luz sobre cuál será la potencia ideal para la fabricación en serie. La filosofía de seguridad pasiva (el núcleo se refrigera solo, sin bombas de agua) impone límites de tamaño que habrá que investigar. Pero después del accidente de Fukushima, hay un nuevo mercado mundial capaz de aceptarlos e incluso desearlos.

Y “aquí en casa”, el CAREM no mejorará mucho la escasez de electricidad, pero en un par de décadas, sí podría hacerlo con el perfil de país. Cuando lleguen pedidos, el Programa Nuclear deberá generar y capacitar a nuevos proveedores, obligará a las universidades a reclutar ingenieros y a especializarlos, y abrirá miles de puestos de trabajo industrial exquisitamente calificado.

El CAREM no es una joya de la abuela: es de los nietos. Como dijo otro prócer de la CNEA, el ya jubilado Carlos Aráoz, “Aquí el negocio nuclear es de tecnología. No pasa por iluminar lamparitas, sino empresas y cerebros. El problema es que para entender eso hacen falta cerebros”.

RECUADRO UNO: LA LÓGICA DE LO CHICO

El razonamiento energético en materia de energía se ha vuelto más sofisticado que en los ochenta. Para los gurúes de aquellos años, a menor potencia instalada en una planta de generación, más cara debía resultar su electricidad. Y el Primer Mundo, donde la potencia instalada de la central nuclear tipo pasó de los 600 a los 900, y de ahí a los 1200 y hasta 1600 megavatios en tres décadas (todo para abaratar el kilovatio/hora nuclear), parecía darles la razón.

Pero a los partidarios del gigantismo se les escapó la tortuga por varios lados:

  • Cada vez más lastrados de sistemas activos de seguridad, los aparatos grandes vieron escalar su costo inicial de 1500 U$ en los ’80 a 6000 U$ y más y más (por kilovatio instalado).
  • No todos los países son desarrollados. Y los que no lo son, andan cortos de plata y de tendidos eléctricos, y las megacentrales les resultan tan asequibles y prácticas como al lector tipo un camión de doble acoplado para hacer las compras.
  • CAREM es el acrónimo de “Central Argentina de Elementos Modulares”. Es una unidad chica capaz de acoplarse modularmente en conjuntos mayores que compartan servicios, como quien le suma pilas a una lámparita. Con lo que produce el primer CAREM, se va pagando el segundo, y luego el tercero, etcétera. Se accede a la economía de escala de a poco.
  • La fabricación en serie de componentes –como demostró Henry Ford hace ya un siglo- abarata todo.
  • Los países con territorios gigantes (y la Argentina es el 9no del planeta) suelen necesitar “oasis eléctricos” en sitios alejados de las líneas de alta tensión, especialmente en desiertos o islas donde hay proyectos mineros y/o una necesidad imperiosa de desalinizar agua subterránea o de mar.
  • Por su seguridad “inherente”, o “básicamente pasiva”, el CAREM debería estar al menos 20 veces menos expuesto a accidentes del núcleo que sus equivalentes grandes de última generación, y esto porque el núcleo se refrigera solo, sin bombas, por convección.
  • El argumento de jaque mate: este primer prototipo sale con un 70% de componentes nacionales y 100% de ingeniería local. La Argentina se lo puede vender a medio planeta sin reclamos judiciales por infringir patentes o propiedad tecnológica.

RECUADRO 2: DOS PAÍSES QUE CASI COMPRAN

La situación de “vedette” del proyecto CAREM es enteramente nueva. En 1986, en pleno apagón nuclear criollo, cuando no se le decía no a un salvavidas externo, el parlamento turco en pleno votó colocar 180 millones de dólares en un CAREM en suelo propio, si la Argentina hacía lo mismo y transfería la tecnología. Y luego, a producir en serie y exportar “miti-miti”, ellos y nosotros, a 20 países potencialmente compradores.

La negociación la fogoneó el embajador Adolfo Saracho, y tan bien que el presidente de la TAEK, la Comisión de Energía Atómica de Turquía, vino repetidamente a la Reina del Plata para cerrar trato, pero a partir de julio de1988 se encontró con un nuevo presidente argentino y la negociación –para sorpresa de nadie aquí, pero sí de los turcos allá- abortó.

En 2001, con las vacas nucleares criollas aún más macilentas, la multinacional japonesa Hitachi vino también a ver si se llevaba el proyecto. No lo hizo. Vistas las cosas desde la perspectiva actual, no deja de ser afortunado.

RECUADRO 3: MAYOR SEGURIDAD A MENOR         PRECIO

De esta centralita minimalista, lo que gana el corazón de un ingeniero es su elegancia y simplicidad conceptual, justamente la base de su seguridad “inherente”, que califica al sistema como “de tercera generación plus”.

El CAREM es un PWR, “Pressured Water Reactor”, es decir que se refrigera con un circuito primario de agua liviana. Pero su diferencia básica con el PWR tipo es que en el CAREM el agua circula por su núcleo sin necesidad de bombeo, inevitablemente, por convección: al calentarse el agua en el fondo del recipiente de presión, baja de densidad y sube, fin de la historia. Pura física.

Eliminadas las bombas (que se pueden romper y necesitan otras de “back-up”) se elimina también la necesidad de la electricidad de red para tales bombas (lo que fracasó en Fukushima, por el terremoto que volteó las líneas eléctricas). De yapa, se elimina los varios generadores de back-up para energizar las bombas, en caso de apagón nacional. En las centrales de Fukushima (plagadas de errores de diseño), tales generadores estaban a pie de planta, en sitio inundable y el tsunami los dejó knock-out.

Si se compara el diseño “tercera generación plus” de un CAREM con otros reactores de agua presurizada de 2da generación, como las Atuchas, se notan más simplificaciones que aumentan la seguridad. No hay presurizadores para impedir que el agua (calentada a 340 grados) hierva: el reactor se autopresuriza a 150 atmósferas. Tanta presión vuelve vulnerable de pinchadura toda cañería que salga del sistema de enfriamiento primario rumbo a los generadores de vapor, pero el CAREM no las tiene. Los propios generadores de vapor están metidos adentro del primario, en el sitio más blindado del sistema: el recipiente, una super-olla de presión de acero forjado de 11 metros de alto, con paredes de 20 centímetros de espesor.

Todo esto ya ahorró un montón de dinero y dificulta bastante el peor accidente factible de ocurrir en un PWR, que es una pérdida de refrigerante del primario (o LOCA, “Loss of Coolant Accident”). Pero las simplificaciones siguen: ¿cómo se refrigera el núcleo en caso de un LOCA? Muy sencillo: en lugar de inyectarle agua con bombas, ésta simplemente le cae encima, por gravedad, desde un depósito enorme en lo alto. No hace falta que nadie dé la orden. El CAREM se puede atender solo, sin personal, durante las primeras 36 horas de una emergencia grave.

El CAREM es uno de más de doce propuestas ingenieriles en danza en todo el mundo para aumentar la seguridad radiológica bajando los costos, en lugar de incrementándolos, lo que obliga a cambiar de ingeniería. Lo que cierra bien, cuando se compara el pequeño reactor criollo con algunas de tales propuestas, llamadas de 4ta generación, es que el CAREM está basado en tecnología probadísima durante décadas, como la refrigeración con agua, en lugar de sales derretidas, o helio, o sodio, o plomo líquido.

El CAREM no corre el peligro de ser demasiado avanzado para su época. No es revolucionario: es evolucionista.

PETRÓLEO VERDE

PETRÓLEO VERDE

COMBUSTIBLES HECHOS DE ALGAS: FALTA MUCHO PARA QUE LLEGUEN

Cyanotech Hawaii  Ponds SpirPonds'10-014

Epígrafe: estos piletones de cultivo de algas tipo “racetrack” están en Hawaii y pertenecen a Cyanotech, una firma americana dedicada al mercado farmacológico y alimentario.

Daniel E. Arias

“¿Biodiesel de algas? Sí, a la larga lo vamos a usar. Pero antes hay que bajar los costos de producción unas diez veces. No es pavada”, resume el doctor John Benemann, una de las grandes autoridades mundiales en cultivos de microalgas.

De habla aporteñada por haber vivido de joven en la Argentina, Benemann se doctoró en los ’70 en la Universidad de California en Berkeley, trabajó para el Departamento de Energía de los Estados Unidos y tiene 40 años de experiencia científica y de negocios en este tipo de cultivos. El experto cree que (sic) “hoy se están publicando tantas macanas y bolazos que el asunto puede caer en el descrédito. Y eso sería trágico, porque necesitamos con urgencia que esta tecnología madure”.

Benemann fue el invitado estrella de una jornada sobre biocombustibles de microalgas organizada por la Fundación Innova-T, agencia de vinculación tecnológica del Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET). Sucedió el 15 de noviembre en la Sociedad Científica Argentina, hubo representantes de YPF, del Ministerio de Agricultura, Ganadería y Pesca, del Instituto Nacional de Tecnología Agropecuaria (INTA), de Agua y Saneamientos Argentinos Sociedad Anónima (AySA), de la Universidad Nacional de Australia, y de expertos en ecología marina y de costas, de biología, fisiología y biotecnología de microalgas, así como de ecología de agua dulce de las universidadades nacionales de Buenos Aires (UBA), del Sur (UNS)  y de Luján (UNL).

Desde 1970, los biocombustibles de microalgas cultivadas en aguas dulces, marinas o cloacales son la gran promesa eco-energética. Por definición, son libres de “efecto invernadero” y por uso de la tierra, no compiten con la producción de alimentos. Empero, como sucede también con la fusión nuclear, a la tecnología siempre le falta algo para volverse competitiva.

En condiciones ideales, la producción de aceites de algunas especies de microalgas es hasta 100 veces superior a la de la soja, medida por hectárea y por año (sic). “Como referencia –dice el doctor Javier Fernández Velasco, de la Universidad de Luján- para hacer funcionar todos los motores diesel de la Argentina alcanzaría con algo más de 300.000 hectáreas de piletones abiertos de cultivo de tipo ‘racetrack’ (pista de carreras), con circulación activa de agua”.

Pero en términos de clima, de suelos, de aguas y de costo de oportunidad del terreno, las condiciones ideales no abundan. El ingeniero Mishka Talent, de la Universidad Nacional de Australia, mostró, con un sistema de información geográfico (SIG) que su país resulta privilegiado en lugares planos, áridos, vacíos, bien insolados, cálidos y lindantes con costa marina, perfectos para microalgas de agua salada. Descartando tierras pobladas, atribuídas a decenas de otros usos, o con pendiente o demasiado secas, Talent se queda con sólo el 1,4% de la superficie nacional. Lo interesante según su estudio es que, incluso explotada con la imperfecta tecnología actual, en esa área Australia podría producir 12 veces su consumo actual de gasoil, que es idéntico al de Argentina.

Ahora Talent se dispone a desarrollar un SIG para indagar el potencial de la Argentina, comparativamente más fría y con menor desarrollo costero que Australia, pero donde no faltan agua salada ni tierra vacía.

Los malditos números

AgriLife2

Epígrafe: el “alga semilla” se inyecta en los piletones de cultivo experimental. La instalación es de Texas Agrilife, una firma que mueve dinero de la General Atomics, y también del Departamento de Defensa de los Estados Unidos y de su Fuerza Aérea.


La producción a escala comercial de una tonelada de biomasa seca de la microalga más barata hoy tiene un piso de 5000 dólares. En cambio, una tonelada de soja cuesta sólo 500 dólares. A 2200 dólares el barril de biodiesel, las microalgas todavía no logran competir con la soja como fuente de energía, y están mucho más lejos aún de hacerlo con el petróleo.

Según Benemann, eso se debe a varios cuellos de botella biológicos, sociales y tecnológicos que falta atravesar: hay que subir la eficiencia de la fotosíntesis de las algas y bajar los costos de cosechar microorganismos flotantes a media agua, con los que no sirven las máquinas ni las sustancias precipitantes. Pero además, las grandes áreas despobladas donde se instale el cultivo deben ser –contradictoriamente- contiguas a megaindustrias capaces de suministrar mucho dióxido de carbono para hacerlo burbujear en los piletones, y así potenciar la fotosíntesis.

La maldad de las cosas inutiliza para el cultivo de microalgas una enorme parte del país. La Patagonia, por ejemplo, tiene enormes campos vacíos con agua subterránea salada (ideal para las especies marinas) y algunas turbinas de gas de ciclos combinados capaces de suministrar dióxido de carbono. Pero la falta de horas de luz y los fríos invernales bajarían mucho la fotosíntesis, y volverían muy improductiva la fase fría del año, si la idea son los piletones tipo “racetrack” a cielo abierto. El país de las altas temperaturas viene con sus propios problemas: el NOA no tiene suficiente agua, el NEA tiene pocas fuentes de CO2, y en la Pampa Húmeda, donde están todos los recursos y las mínimas invernales no son tan severas, la tierra vale una barbaridad, sea de uso agronómico o tejido urbano.

Incluso en las mejores condiciones imaginables, además de encontrar sitios apropiados, hay que lidiar con dificultades específicamente agronómicas. Y eso porque aunque no parezca, esto es agricultura intensivísima: las algas de cultivo tienen que competir exitosamente con otras improductivas (el equivalente de las malezas), se debe impedir que sean comidas por la microfauna natural (el equivalente de las plagas), son difíciles de cosechar sin usar precipitantes caros, y sigue una larga serie de etcéteras.

Si esta tecnología no se masificó, no es por una megaconspiración mundial de las petroleras, sino porque además de luchar contra la maldad de las cosas, hay que hacerlo contra los malditos números.

En el estado actual del negocio, seguramente los grandes cultivadores mundiales de cepas de los géneros Spirulina, Chlorella, Dunaliella y Haematococcus seguirán trabajando para nichos riquísimos de mercado: el uso de las microalgas como alimentos especiales para humanos o como forrajes caros. Algunas xantinas (pigmentos algales rojos) son compradas por los criaderos de peces hasta por 2000 dólares el kilo, y la demanda china parece insaciable. Pero de producir “specialties” de alta gama a fabricar algo tan básico como la energía hay un camino larguísimo, y no se ve el final.

Pero se ve el principio.

Además de energía, la humanidad necesita comida, el producto número uno de la Argentina. Y la producción de comida ES contaminante, tanto como la de energía, y usa masivamente recursos finitos.

Las megalópolis costeras son como máquinas químicas que transforman los fertilizantes agropecuarios usados para producir alimentos en aguas negras, contaminación de napas, estuarial y/o marina. El tratamiento con microalgas de aguas negras permitiría atrapar parte de los 1600 millones de dólares anuales que gasta hoy la Pampa Húmeda en nitratos y fosfatos, para devolverlos a la tierra. Y las ciudades ribereñas de la región minimizarían su impacto hídrico.

Estas movidas tienen un problema: debe pensarse a lo grande. Para gestionar con microalgas los 56 metros cúbicos por segundo de aguas negras a cargo de AySA, harían falta 1500 hectáreas de tierras disponibles, casi tres veces la extensión de la Reserva Ecológica de Costanera Sur. Y aún así, económica y ecológicamente, esto podría ser un buen negocio, si se suman todos los beneficios: la minimización del impacto hídrico del área metropolitana, más la recuperación de fertilizantes para el campo, más una pequeña fabricación de un biocombustible “pobre”: el biogas.

Pero ¿competirán alguna las microalgas contra el petróleo? La respuesta correcta es problablemente “sí, alguna vez”. Pero el crudo Brent tal vez tenga que llegar a 800 o 900 dólares el barril para que la maquinita del capitalismo empiece a pensar seriamente en esta fuente alternativa de biodiesel, y ponga dinero en serio para terminar de desarrollarla.

Una cosa es segura: los precios del petróleo seguirán subiendo, aunque jamás incorporen los daños inherentes a su producción y quemado, y lo harán fundamentalmente porque cada vez es más profundo y escaso. Y a todo esto, la Tierra tiene 7500 millones de humanos que quieren tanto comestibles como combustibles, y están cada vez más dispuestos a enfrentar políticamente el recalentamiento global.

“Como fuente de energía- dice el doctor Augusto García, de Fundación Innova-T- las microalgas no son inevitables. Pero sí son un futuro probable, y una tecnología de cultivo que a la Argentina le conviene empezar a investigar por su cuenta”.

DESCIFRANDO FUKUSHIMA

DESCIFRANDO FUKUSHIMA

GE-MK-1

Daniel E. Arias

Mi primer balance del accidente nuclear de Fukushima, Japón: enorme impacto mediático global, impacto económico alto a escala nacional, e impacto radiológico muy variopinto y difuso, restringido al mar y la tierra de ocho prefecturas, un arco de 45 kilómetros de ancho tendido a entre 30 y 50 kilómetros hacia el nor-noroeste de la planta siniestrada.

Lo verdaderamente feo: hay 130.000 desplazados de sus casas en el radio de 20 kilómetros, y 70.000 más entre los 20 y los 30 a los que se les recomienda no salir de ellas.  A eso, súmese la destrucción -decretada por el gobierno- de todo alimento obtenido en tierras que registren más de 550 kilobecquerels de radioactividad por metro cuadrado. O la imposibilidad -fijada por los consumidores- de vender la producción hortícola de Fukushima, por “denominación de origen” y sin importar su estado radiológico real, que puede ser inocuo. Para los pequeños productores rurales de esas zonas interurbanas de la sobrepoblada llanura costera de Sendai, una trama que un argentino no lograría llamar adecuadamente “campo” o “ciudad”, este accidente es pasar de la autonomía a depender “sine die” de la caridad pública.

La contaminación del mar indica que los 400 “liquidadores” de Fukushima siguen eligiendo a cada rato por el mal menor:  al menos una parte de los casi 40 metros cúbicos por hora de agua inyectada en los reactores siniestrados y que evitan su fusión, de tanto en tanto lograrán infiltrarse hasta el mar. Esto sucedió, se remedió y es probable que a lo largo de los años se repita. Lo que se coló al mar desde reactor 2, a través de una trinchera de cableado inundada y afortundamente ya sellada, podía irradiar a un hipotético buzo con una dosis de 1000 milisievert por hora (con entre 300 y 500 da para morirse en horas).  Pero por un asunto tan físicamente sencillo como el factor de dilución, no había contaminación radiológica ecológica o sanitariamente significativa en el mar aledaño. Habrá que monitorear la pesca costera regional durante años, que perderá puestos de trabajo. Pero quienes preanunciaban a Godzilla estaban simplemente macaneando.

En cuanto a los liquidadores, que los medios suelen llamar “samurais” cuando no “kamikazes”, por ahora trabajan de un modo bastante más cauteloso que lo que sugieren tales títulos: al 31 de marzo 21 de ellos habían absorbido dosis superiores a los 100 milisievert, y ninguno por ahora llegó a los 250 fijados como techo tolerable para esta contingencia.

Dicho esto, 100 milisievert en unos pocos días de trabajo no es poco. Resulta lo que absorbe un hipotético viajero ultrafrecuente que vuele 2500 veces entre Londres y Nueva York. O, para medirlo en términos de fuentes naturales, ya que la Tierra es un planeta débilmente radioactivo, 100 milisievert es lo que absorbería otro ser hipotético (un hippie, quizás) que acampara 10 meses seguidos en la playa de arenas negras (rocas en torio) del balneario brasileño de Guaraparí.

Contrario a lo que circuló en la segunda semana del accidente, ningún “liquidador” absorbió entre 2 y 3 sievert por gorra (se habría muerto en minutos u horas). Y es que un sievert es una barbaridad: equivale a un joule de energía absorbido en forma efectiva por cada kilogramo de tejido viviente. Por eso en radioprotección se suele trabajar más con la milésima parte (el milisievert) o la millonésima (el microsievert).

Como amenaza ambiental, cada radioisótopo tiene su propia historia. El yodo 131, con una vida media de 8 días, “se va solo” bastante rápido: probablemente ya casi no puede afectar a una población vecina que, por obra del gobierno nacional, había bloqueado sus glándulas tiroides tomando pastillas de yodo no radioactivo. Queda por ver qué pasa con la contaminación por cesio 137, cuya vida media es más larga (30 años) y que no tiene glándulas, órganos o sistemas favoritos como blanco químicamente protegible. En la segunda semana se midieron trazas de plutonio 239 en el suelo adentro de la planta, y aunque sea poco alarma mucho por su química parecida a la del calcio (se fija en hueso), su larga vida media (240.000 años) y su origen: sólo puede venir de combustible nuclear gastado o en uso, y eso significa roturas de consideración en los sucesivos sistemas de aislamiento “en profundidad” que aislan tales objetos. Reconstruir tales aislamientos, “empaquetar” las centrales dadas de baja en el equivalente de “tupperwares” gigantes, unos adentro de otros, será tarea de una generación y pagadera con cheque en blanco.

Pero hay que poner las cosas en su lugar. La mayor parte de los desempleados y “homeless” del evento de Sendai no son radiológicos: son geológicos, víctimas de ciudades y campos arrasados con minucia por el peor combo terremoto y tsunami en 140 años de mediciones directas, y si se confía en mediciones indirectas, de los últimos 1000 años.  Contra lo que difunde la TV, la tragedia humana en Japón parece, en lo central, un asunto de la tectónica de placas, y el accidente nuclear de Fukushima fue sólo una nota al pie.

Reconstruir la infraestructura, la trama urbana y productiva arrasada por el mar podría venir con una factura total de 300 mil millones de dólares, y la cuenta de ahogados por las riadas o aplastados por la edificación va acercándose a 30.000, incluyendo los desaparecidos.  Contra eso, no hay ningún muerto por causas radiológicas (todavía).

Dicho esto, antes de elogiar al paso el manejo prácticamente de manual de la catástrofe por el gobierno japonés, para luego cargar contra la propietaria privada de la planta (TEPCO) y sus proveedores estadounidenses (General Electric), prefiero atenuar los daños causados por algunos de mis colegas y su márketing de terror. Fukushima es un accidente mucho menor que Chernobyl. La física, el diseño de planta, el sentido común y la evidencia radiológica muestran que son distintos.

¿Qué falló en Fukushima?

Sencillamente falló el diseño de la central General Electric Mk1 (GEMk1), y además lo hizo en forma anunciada. Entre 1972 y 1986, al menos tres popes de la Nuclear Regulatory Commission (NRC) de los Estados Unidos hablaron pestes de este modelo de planta, por sus múltiples cicaterías y ahorritos en seguridad pasiva. Uno de ellos, Harold Denton, dijo que el GEMk1 tiene un 90% de chances de “fundir núcleo” en caso de pérdida de refrigeración. En los años ’60, nuestra Comisión Nacional de Energía Atómica de la Argentina (CNEA) rechazó este diseño a libro cerrado. De hecho, la GE sólo logró licenciar esta planta “at home” (hay 23 unidades en EEUU), Japón (8) y España (1).

Dicho esto, el GEMk1 es incomparablemente más seguro que el RBMK soviético accidentado en Chernobyl, sin duda la peor planta nucleoeléctrica de la historia, jamás vendida fuera de la “Cortina de Hierro”. Hay que tener hambre de rating (y una fobia proporcional a la lectura de planos) para no sacar las diferencias de un vistazo. Son enormes.

Las causas por las que en cambio sí se rompieron los reactores 1,2 y 3 de Fukushima están a la vista: en todos se paró el bombeo del circuito de refrigeración, con lo que se dispararon otros eventos en cadena: aunque cayeron las barras “de enclavamiento” que absorben neutrones y apagan la reacción nuclear, el tremendo calor residual fue calentando los combustibles hasta derretirlos parcialmente. En ese proceso, las vainas de circaloy (aleación de circonio) que encapsulan los combustibles se volvieron catalíticas,  “crackearon” el vapor de agua y liberaron vaharadas de hidrógeno. Éste gas explotó al combinarse con oxígeno atmosférico e hizo volar como petardos los edificios externos.

Dentro de esos frágiles edificios la presión de vapor y/o las voladuras de hidrógeno parecen haber roto estructuras mucho más robustas y que se suponía invencibles. Yendo de afuera hacia adentro, cada edificio alberga una “contención”, una carcaza de grueso hormigón blindado que a su vez encierra otra de chapa acero, que a su vez encierra el recipiente de presión (una olla gigante de acero forjado), y ésta a su vez encierra el combustible. La contención y el recipiente son las dos barreras de seguridad pasiva redundante más importantes de toda la central, y en Fukushima –como vaticinó Harold Denton- parte de ese sistema de cajas adentro de cajas adentro de cajas falló.

¿Por qué lo hizo? Por amarratería. Para bajar costos de construcción, la contención del GEMk1 tiene la forma de una botella de Chianti, culona en la base y estrecha arriba, con un desarrollo volumétrico mucho menor que la típica esfera que envuelve normalmente los reactores de tipo PWR.

Si las cosas se ponen feas en un PWR, la geometría y la física indican que la esfera acomoda mucho más volumen de vapor a igual presión, y resiste mejor una explosión interna de hidrógeno.

Pero esto no sólo es una teoría: en 1981 “fundió núcleo” una PWR hoy famosa, la central estadounidense de Three Mile Island, y entre el recipiente y la contención atajaron no sólo un bruto pico de presión de vapor sino una posterior explosión de hidrógeno. El edificio externo (también más robusto), lejos de desintegrarse, no se enteró. Hubo que sellarlo herméticamente y el dueño de la central perdió como cuatro mil millones de dólares de fierros. Pero pasadas la alarma y la evacuación, los vecinos pudieron volver a sus casas sin que nadie se hubiera contaminado, o lo haya hecho desde entonces.

Dicho sea de paso, Atucha I y Embalse, las dos centrales argentinas en línea, son PWRs, de robustez y precio mucho mayores que el GEMk1, y se van acercando al término de su vida útil sin novedades.

Todo al revés

Si la refrigeración es el primer sistema de seguridad activa de una central, ¿por qué fracasó tan fácilmente en las Fukushimas 1, 2 y 3? Nuevamente, tacañerías de fabricante y ninguna adecuación a condiciones locales por parte del cliente.

Toda central consume cantidades prodigiosas de electricidad en refrigerarse el núcleo haciendo circular agua a través del mismo, y el bombeo se alimenta no de la producción eléctrica de la central, sino de la toda la de red eléctrica nacional o regional (tener múltiples proveedores es más seguro).

Cuando la red eléctrica en Fukushima se cayó por el terremoto, se activaron los motores diesel de “back-up” de las tres centrales en actividad para mover sus respectivas bombas de refrigeración: ése es su primer mecanismo de seguridad activa. Pero el maremoto llegó al toque del sismo y arrasó los tanques de gasoil de tales motores auxiliares, ubicados –increíblemente- al pie de la central, en su punto más bajo. Eso, en el país donde se inventó la palabra “tsunami”.

Parados los diesel por falta de combustible, sólo quedaban como fuentes eléctricas de tercera instancia unos macilentos bancos de baterías, que dieron para media hora de refrigeración de emergencia hasta agotarse… y eso era todo. Allí se terminaban los sistemas redundantes y en profundidad para garantizar el enfriamiento. Muertas las baterías, empezó, imparable, la gran recalentada.

Atucha II, que tal vez se inaugure este año, además de una doble contención esférica de acero inoxidable y hormigón, amén de un edificio externo robusto, tiene tres generadores diesel de back-up para refrigerar el primario. Es caro, pero para que Atucha II recaliente tiene que fallar la red y además, uno tras otro, tres motores al hilo. No es imposible. Sí es muy poco probable.

Se me incendió la pileta

Fukushima tiene el dudoso honor de inaugurar otro tipo de accidente nuclear que, en este caso, parece de peor pronóstico que el derretimiento del núcleo: el incendio de los combustibles gastados, ya retirados del núcleo.

Diseñados para la reacción nuclear, los combustibles son (valga la contradicción) casi incombustibles en el sentido químico, porque están hechos de una aleación y una cerámica muy termorresistentes: el circaloy se banca 1500 grados antes de licuarse, y la cerámica 2800. Una vez que cumplieron su ciclo en el reactor, se ponen en lento enfriamiento en piletones con agua circulante, porque tanto térmica como radiológicamente están muy calientes.

Pero otra de las aberraciones de diseño del GEMk1 es que esos piletones se ubicaron adentro del edificio de la central, de modo que si hay un problema radiológico en el reactor, el piletón se vuelve inaccesible por proximidad, y viceversa. Pero no sólo está cada piletón en compañía peligrosa, sino también en el sitio más alto de cada edificio, es decir el lugar más zarandeado por los terremotos. Y ese diseño se aceptó sin chirridos en el país con mayor sismicidad del planeta, casi la patria (además) del concepto organizativo de calidad total.

Allí en lo alto, los combustibles tienen también mayores chances tienen de quedar en seco si los piletones se rajan, y es todo un lío subir con agua en caso de siniestro, máxime sin electricidad y en un ambiente radiológicamente hostil. Quedan para la historia les imágenes de helicópteros de las Fuerzas de Autodefensa del Japón tratando de embocar algo de agua en los piletones, con poco éxito porque debían volar alto por la radiación, y el viento dispersaba la descarga.

En contrapartida, en las centrales argentinas (todas en zonas poco sísmicas), los piletones están a nivel del suelo y en edificios bien apartados del reactor, donde no se compliquen en forma cruzada.

Una vez fuera total o parcialmente del agua, los combustibles de Fukushima 1,2, 3 y 4 se recalentaron, empezaron a emitir rayos gamma y X, y el circaloy al rojo se puso a “crackear” el agua remanente o la que tiraban los bomberos, a vomitar hidrógeno en nubarrones, y éstos a incendiarse o deflagrar. Así se llega a la originalidad absoluta de Fukushima 4: el reactor en sí estaba frío y vacío, parado en mantenimiento, pero el edificio se hizo puré igual por las explosiones y llamaradas en los piletones de su coronamiento.

A tanta berretada de diseño añádase otra de operación: los piletones estaban sobrecargados, mucho más de lo que admite su mal diseño. Y así pasó que los de los reactores 5 y 6, también parados, la semana pasada tuvieron episodios de recalentamiento del agua que le helaron el alma a más de uno. Por suerte, el estado japonés está peleando esta batalla con una seriedad mucho mayor que la que tuvo TEPCO a la hora de comprar, operar y controlar sus fierros.

Y es que en plan de ganar el Prode el lunes, para impedir el notable desastre de Fukushima, y si había que asumir los defectos de diseño de lo que compró TEPCO, alcanzaba con poco: un terraplén perimetral anti-tsunami un par de  metros más alto, o poner los generadores de emergencia arriba y los piletones a nivel de tierra. Nada muy tecnológico.

Y aquí es donde invierto 180 grados la marcha y empiezo a hablar bien de estos reactores tan baratos que los argentinos supimos NO conseguir. Y es que los voy a comparar con el verdadero cuco nuclear, el RBMK soviético.

Ingeniería de terror

Ignalina_model

La Unión Soviética, pese a sus proezas aeroespaciales y tecnológicas, vivió durante décadas de exportar crudo, como el más medioeval emirato o la república más bananera. Promediando los ’70 y con el petróleo e ingresos a la baja, debió multiplicar sus exportaciones de hidrocarburos estrangulando su consumo doméstico. Y para calmar el hambre de energía de industrias y ciudades, licenció masivamente el reactor nucleoeléctrico RBMK de 1000 megavatios, de los que construyó 12.

Carente de recipiente de presión, desprovisto de contención, “moderado” no con agua sino con grafito incendiable, aquejado por diseño con un “coeficiente de vacío positivo” (en criollo, una hiperreactividad que te la cuento), el RBMK era el equivalente de un camión de 18 ruedas con mucho motor, varias toneladas de trinitroglicerina como carga y cero frenos. Tenía una única virtud: en dólares de 1986, se compraba por sólo 200 el kilovatio instalado (cuando Atucha I habría costado al menos 1.800 en aquel año, con la mitad de esa inversión hundida en sistemas de seguridad). Lo barato sale caro, y lo baratísimo, no hablemos.

En la madrugada del 24 de abril de 1986 la unidad 4 de la central de Chernobyl, Ucrania, en el curso de un experimento descerebrado que buscaba entender los límites de las pobres capacidades de control del RBMK, se desbocó y pasó en segundos de una potencia bajísima a miles de veces su máxima de diseño.

La deformación termomecánica del núcleo fue inmediata e impidió su enclavamiento  (es decir su apagado por caida de barras absorbentes de neutrones). Junto con la potencia, la temperatura, presión y generación de hidrógeno subieron entonces en rampa, así como el pánico entre los operadores, y en minutos nomás el vapor voló la tapa del reactor y perforó el techo. El aire entró rugiendo a las tripas del artefacto, hizo estallar el hidrógeno acumulado, y el calor encendió el grafito.

El grafito es carbono puro: arde genial. Centenares de miles de toneladas de carbono salpimentado de plutonio 239, cesio 137 y yodo 131 crepitaron libremente durante una semana, inyectaron –con toda la potencia convectiva del incendio por debajo- un total de 6,7 toneladas de materiales radioactivos en la atmósfera y mataron en pocas semanas de enfermedad aguda de radiación a decenas de bomberos. Los humos y polvos se desparramaron libres por el continente europeo en cantidades tóxicas y subtóxicas, y finalmente, ya muy diluídos, por todo el hemisferio norte. Y todo eso, en la escala INES de accidentes nucleares, da el grado máximo: 7. La dosis de radiación individual promedio en la población soviética parece haber sido baja, 0,13 milisievert por gorra. Pero en lo que hoy son las repúblicas independientes de Ucrania, Belarús y Lituania las cifras fueron mucho mayores.

La historia oficial respecto del asunto, 25 años después, le sigue echando la culpa a los operadores: el camionero estaba borracho. Sí, claro, como una cuba, pero el camión cargaba explosivos y no tenía frenos. Digamos mejor que en 25 años nadie se atrevió a decirle a los rusos que cierren de una vez los 11 RBMK que heredaron de la Unión Soviética. Y es que paga más hacerse el burro que darle órdenes a quien no obedece sugerencias extranjeras, y los rusos no lo hacen desde épocas del zar Pedro el Grande.

Todavía se discute la cantidad de muertos a lo largo de tantos kilómetros y años:  ¿habrán sido 40.000, como predijo Valeri Legasov, el mayor experto soviético en radioprotección, antes de suicidarse en 1988? ¿O 9.000, como sugieren un cuarto de siglo más tarde arduos cruzamientos estadísticos del Organismo Internacional de Energía Atómica (OIEA), El Comité de las Naciones Unidas para los Efectos de la Radiación (UNSCEAR) y las repúblicas de Belarús, Liuania, Ucrania y la Federación Rusa? Como sea, durante toda la primera semana del accidente, el periodismo más “naif” y/o amarillento del planeta anunció Chernobyles en Fukushima, sin mayor idea de las diferencias de ingeniería y materiales, o de emisión de gases y polvos.

Vulneradas como parecen las contenciones y recipientes de presión en Fukushima, parecen haber impedido un desparrame libre y masivo de radionucleídos en los reactores 1,2 y 3. En Chernobyl no existían tales defensas pasivas, el sistema de enclavamiento no tenía modo de sobreponerse a una rampa de potencia, y el reactor era volátil por diseño. Y si se trata de llevar contaminantes a distancia, los intermitentes fogonazos de hidrógeno de Fukushima no tienen, por suerte, la potencia térmica de un vasto fuego de grafito debajo, como el que garantiza un RBMK.

Confundir Atucha con Fukushima o Fukushima con Chernobyl evidencia estupidez técnica o astucia política, según quién hable. Pero es mal periodismo.

Venta de terror al paso

Fukushima_I_NPP_1975_Aerial

En la semana inicial del desastre, hubo mucho vacío de información real: la OIEA y el gobierno japonés hablaban con medio día de retraso sobre una situación que cambiaba en horas, y TEPCO, la corporación dueña de Fukushima, ha perfeccionado durante décadas el mutismo y las malas prácticas. No iba a volverse de pronto la gran comunicadora… y no lo hizo.

La Unión Europea vio entonces servido el negocio de pegarle en simultánea a japoneses y americanos (sus competidores más poderosos en el mercado de centrales nucleares). De modo que la Autoridad Regulatoria Europea describió lo de Fukushima como “apocalíptico”, y le otorgó un grado 6 en la escala INES. Eso es un punto menos que Chernobyl, y conceptualmente, una mentira.

Ante la falta de una primera línea científica creíble, a los medios la truculencia se les hizo negocio de rating y compitieron por decir la gansada más grande. Hoy los mismos tipos que vaticinaban un tendal de muertos por irradiación informan, sin sonrojarse, que si uno tomara durante todo un año leche contaminada con cesio 137 del reactor, proveniente de la vecina municipalidad de Kawamata, absorbería la misma dosis de radiación que un paciente que se hace una tomografía de tórax.

Europa jugará un tiempo a parar la pelota atómica, pero en verdad es la dueña de la misma: tiene la mayor empresa de ingeniería nuclear del mundo (Areva), nada de hidrocarburos y pocas ganas de batirse militarmente para asegurárselos. Habrá gran gritería de ecologistas, Alemania cerrará algunas centrales (y comprará electricidad nuclear francesa), pero en casa nadie quiere apagones. Y afuera hay un planeta entero sin grandes opciones energéticas y dispuesto a comprar sólo buena tecnología.

Estados Unidos, en contrapartida, dejó que su industria nuclear se detuviera en los ’70 debido a sus sobrecostos, y en parte por ello hoy se volvió titular ya demasiados frentes de guerra en países petroleros, así como del peor derrame de crudo de la historia, el de la British Petroleum. También tiene 23 reactores GEMk1 en territorio propio cuya licencia deberá repensar bastante, invendibles de aquí en más.

Oriente todo, con China y Japón a la cabeza, seguirán MUY nucleares como mal menor, porque las opciones son menos empleo industrial o más efecto invernadero, y los costos humanos, económicos, sociales y sanitarios en ambos casos son malos. En los países asiáticos la demanda de potencia es brutal y generalmente no hay excedentes regionales de electricidad, lo que descarta la alternativa fácil de calmar a los ecologistas parando algunas centrales nucleoeléctricas propias y comprarle corriente al vecino.

Lo que nos trae al punto de partida. En medio del tsunami y en el país más preparado del mundo para ello, ciudades enteras de la costa noroccidental de la isla de Honshu entraron en estado plástico: pendiente arriba por las calles rugían negros Niágaras salados, mientras los barcos encallaban en azoteas y los edificios, arrancados, se embestían entre sí al garete o naufragaban. Así murieron tal vez 30.000 personas por causas resueltamente no radiológicas. La cifra final tardará en saberse.

Con por ahora un grado 5 en la escala INES, el accidente nuclear de Fukushima es un hecho tremendo, pero mucho menos que los ocasionados por la tectónica de placas. Sin embargo, la central se robó los titulares. De mala ingeniería no habla nadie, como si todos los reactores fueran iguales. Insultando la inteligencia del público, toda vez que los noticieros vuelven con noticias sobre ahogados en sus casas o aplastados por mampostería, mandan imágenes enlatadas –y ya muy fiambres- no del terremoto o del tsunami, sino de la planta nucleoléctrica.

Con mucha peor leche que la de Kawamata, ya se está aprovechando el terror nuclear “made in Japan” para atacar al programa nuclear argentino. Se lo hace cuando se está atreviendo a inaugurar Atucha II, completada sin auxilio europeo, cuando nuestro país logró dominar el mercado mundial de pequeños reactores para fabricar radioisótopos médicos, y cuando empieza a construir su primera central nucleoeléctrica 100% argentina, el CAREM.

La Argentina se ha vuelto marginalmente incómoda y competidora en el mercado nuclear.  A nadie le extrañe que en nombre del más puro y desinteresado ecologismo, ahora le vayan a arrimar de patadas por querer acercarse al área rival. Pero con 60 años de experiencia bastante impecable en este asunto, era hora de que nuestro país cruzara de una vez el mediocampo.

Lo está haciendo.

POR UN PELITO

Querido Cacho: hablando en plan planetario (la modestia no es lo mío), vos y yo nos acabamos de salvar “por un pelito” de un desastre grosso. El lunes 2 de marzo el asteroide 2009DD45 (una piedra de unos 40 metros de diámetro) pasó como un tiro a 60.000 kilómetros de altura sobre el sudeste del Pacífico. Faltó poco para que la historia fuera otra: tal vez no lo estaría escribiendo yo, tal vez no la estarías leyendo vos, según su sitio de entrada a la atmósfera, si se hubiera desviado alguito nomás en su órbita. De modo que aprovechemos que esta vez no mató a naides y tratemos de entender otros finales posibles.

Lo primero es que esto fue un “close call”, como dicen los gringos. La distancia entre la luna y la Tierra anda alrededor entre los 380.000 y 400.000 kilómetros, de modo que esta roca ‘e Mandinga pasó casi a un séptimo de esa unidad de medida: es como una una bala de FAL que nos traspasa la gorra sin llegar tocarnos el pelo.

Lo segundo es ver lo impredecible del casi encontronazo. Al 2009DD45 –demasiado chiquito para detectarlo lejos, digamos más allá de la órbita de Marte- se lo empezó a monitorear con alguna preocupación desde el viernes 27 de febrero, pero no se esperaba en absoluto que se acercara tanto. Al ser de masa relativamente baja, estos asteroides chicos cambian de trayectoria con mucha facilidad debido a cualquier e impredecible tironcito gravitatorio de alguna otra cosa que no vimos. Vos calculabas que iba a pasar lejos, y mirá qué sorpresa.

Dijo al respecto Rob McNaught, del observatorio australiano de Siding Spring: «Ningún objeto de ese tamaño o mayor ha sido observado nunca tan cerca de la Tierra». En 2002 hubo otro pasaje cercano y de un objeto mayor que el 2009DD45, pero al doble de distancia, 120.000 km. Me jugaría el pelo que me queda que McNaught estas noches ha venido durmiendo a puro clonazepam.

Lo tercero es imaginarse qué podría haber pasado si la trayectoria elíptica de esta cosa hubiera variado algunas décimas de grado hacia el lado incorrecto, es decir hacia mí, Cacho, yo que soy tan bueno, o hacia vos que tantos goles metiste en los amistosos de fin de semana, o hacia el Sr. Pu Yi que es chino, pero en este momento visita Indonesia.

El 2009DD45 es una piedrita de tamaño parecido al meteorito que el 20 de junio de 1908 hizo pomada 2150 kilómetros cuadrados de bosque de la taiga siberiana en Tunguska, cerca del río Podkamennaya, unos 1000 kilómetros más al norte del lago Baikal, un sitio entonces –y aún hoy- casi deshabitado, salvo por unos pocos cazadores dispersos de la etnia Tungus. De modo que si el 2 de marzo hubiera pegado en algún lugar de nuestro planeta, podríamos suponer eventos termomecánicos similares, aunque con muchas variaciones posibles.

Éstas dependerían del ángulo de caída y de la composición química del objeto: los asteroides rocosos son algo más livianos que los metálicos (de hierro-níquel) y pueden interactuar con la atmósfera de modo diferente. Pero Cacho, Tito, Pepe, Lulú, amigos del alma, aunque la peor opción es un asteroide metálico, si hay que comerse una cosa del tamaño de un edificio de 12 pisos no hay ninguna fórmula demasiado buena para la salud. Salvo la distancia. Pero ni siquiera eso te pone a salvo de un tsunami, si vivís en una costa vulnerable y la cosa es lo suficientemente densa como para llegar más o menos intacta a la superficie del mar.

TUNGUSKA EN PERSPECTIVA COMPARADA

El Tunguska –un nombre realmente más elegante que 2009DD45- no llegó a tocar el suelo, salvo como lluvia de micropartículas cristalinas muy ricas en níquel e iridio. Tunguska atravesó todas las regiones insustanciales donde la alta atmósfera se deslinda del espacio interplanetario sin enterarse siquiera de que existían, y por ende entró sin mayor frenado por rozamiento, con un ángulo de unos 45 grados respecto de la horizontal del suelo donde hizo su gran show. Cuando llegó a la tropopausa (12 kilómetros de altura, allí donde termina la poco densa estratósfera y empieza la mucho más espesa tropósfera) todavía venía algo más de 14 kilómetros por segundo.

Si le suponemos a Tunguska una forma más o menos esférica y una densidad rocosa común y corriente, de digamos 5 gramos por centímetro cuadrado, hablamos de un chiche de casi 1400 toneladas (casi 6 Jumbo Jets cargados al taco). En plan de comparar velocidades, el tiro de un fusil FAL anda por los 0,75 kilómetros por segundo cuando sale del cañón, de modo que el Tunguska venía casi 19 veces más apurado. A esa velocidad y en aire más denso, sus materiales alcanzaron casi instantáneamente una temperatura 2800 grados, se fragmentaron en el menos tres grandes masas y éstas se vaporizaron a velocidades supersónicas. En otras palabras, BUM. Gran onda de choque.

Transformado en una bola en expansión de gases ionizados, líquidos incandescentes y algunos millones de piedritas al rojo blanco, Tunguska siguió cayendo en oblicua, precedido por su onda de choque. Una reconstrucción por computadora de los Sandia National Laboratories publicada por Nat Geo en agosto de 2008 supone que el proceso explosivo se prolongó 13,5 segundos, y que a 3,5 kilómetros de la superficie la roca ya prácticamente había desaparecido como tal.

Si así fueron las cosas, Tunguska no le pegó al suelo sino que más bien lo ametralló con microgotas de lava y lo embistió como un chorro de gas supersónico y muy caliente. Pero el suelo siberiano ya había sido vapuleado antes por una onda de choque que elevó instantáneamente la presión a 10 atmósferas y arrancó del piso, con raíz y todo, unos 80 millones de abetos y otros árboles, que quedaron regados como palitos chinos.

Todavía se discute si el lago Cheko, una cavidad baja de unos 400 metros de diámetro por unos 50 de fondo, hoy llenada por la napa freática, es o no una suerte de forma difusa de cráter de impacto formado por algún pedazo más denso que se negó a vaporizarse o fragmentarse. Está muy alineado con la dirección de la caída.

Detrás de la onda de choque llegó una ráfaga huracanada centrífuga y de muy alta temperatura, que se abrió en abanico desde el centro de la explosión, y que alcanzó unos 180 kilómetros por hora. Esa brutal circulación de aire debe haber apantallado un multitudinario incendio disperso empezado unos segundos antes, creado por el “flash” de luz visible e infrarroja con que la explosión aérea iluminó la zona. Ese relámpago de energía radiante habrá encendido miles de focos de fuego independientes en forma instantánea, y el huracán posterior los unió y transformó en una “tormenta de fuego”.

Siberia es un sitio frío, donde la putrefacción vegetal y la regeneración de bosque son asuntos lentísimos, de modo que allí en Tunguska, un siglo más tarde, las cosas siguen más o menos como entonces. Vista desde arriba, el área allanada tiene la forma de las alas de una mariposa, y la dirección centrífuga de los gases durante la explosión aérea está muy bien indicada por el abanico de direcciones en que cayeron los 80 millones de árboles allanados.

Tunguska supuso una liberación de energía termomecánica equivalente a la de una bomba nuclear de 17 megatones, es decir 1700 veces más potente que la que explotó a 660 metros sobre el suelo de Hiroshima el 6 de agosto de 1945, y que mató a más de 200.000 personas. Pero en 2007 el astrofísico Agustín Sánchez Lavega, especialista en mecánica planetaria de la Universidad del País Vasco, en España, recalculó las cosas y publicó en Nature que la explosión sólo equivalió a la de un “caño” atómico de 3 megatones, es decir apenas 300 Hiroshimas.

Si la gente se acuerda de Hiroshima y se olvidó totalmente del asunto de Tunguska es porque no sucedió 4 horas y media antes. Efectivamente, Tunguska está más o menos en la latitud (60 grados y medio Norte) de San Petersburgo, sólo que la ciudad de marras está 4 husos horarios corrida hacia el Oeste. No queremos acusar al asteroide de propósitos políticos, pero si se adelantaba un poco, San Petersburgo habría desaparecido del mapa y la historia de la Revolución Rusa habría sido muy distinta. ¿Habría habido Revolución Rusa, con los bolcheviques y el zar y su policía transformados casi instantáneamente en gas o carbón?

La onda de presión fue detectada hasta en Londres, la sísmica hasta en Irlanda, y la nube de polvo que contaminó la estratósfera del norte de Eurasia brillaba tanto que, por ejemplo, pasados cuatro días tras el fenómeno, los parisinos podían salir a las calles y leer el diario de noche debido a la luminosidad del cielo. En Rusia hubo gente derribada de sus caballos, caballos derribados de sus patas, se rompieron ventanas a 400 kilómetros de distancia del hipocentro de la explosión, se oyó el estruendo a 1000 kilómetros, y el maquinista del Tren Transiberiano detuvo la formación, porque las vías y la locomotora parecían estar bailando por la onda sísmica.

La otra gran diferencia entre el evento Tunguska y el bombardeo de Hiroshima es que la bomba Tall Boy era atómica, un arma, y como tal estaba diseñada para hacer el mayor daño posible con una liberación de energía relativamente baja (si se la compara con la del asteroide). Su “flash” provocó una intensa iluminación de neutrones, fotones gamma y X, es decir radiación ionizante, y la vaporización del núcleo de uranio muy enriquecido contaminó los hollines aerotransportados del hongo atómico con materiales altamente radioactivos, los llevó hasta la tropopausa, y luego una lluvia color negro hizo caer toda esa porquería irradiada sobre los sobrevivientes.

En Hiroshima la gente aledaña al hipocentro (el terreno ubicado verticalmente bajo la explosión) se vaporizó por el fogonazo, y la alejada a entre centenares de metros y algunos kilómetros se quemó sin remedio, se irradió en dosis letales y fue muriendo de deshidratación o enfermedad aguda de radiación en los días subsiguientes. Otra parte pereció casi de inmediato aplastada por el derrumbe de la edificación causado por la onda de choque (modesta, si se la compara con la de Tunguska), o embestida por o contra objetos por los vientos centrífugos de unos 400 kilómetros por hora que generó la expansión de la bola de fuego, y luego por los vientos centrípetos, y de velocidad similar, creada por el efecto aspirante del alto vacío reinante en la base del hongo atómico. Es que los gases ultracalientes, al expandirse, pierden densidad, ascienden a gran velocidad y la base de la columna térmica ascendente se vuelve una aspiradora.

Sin embargo, la mayor parte de la población japonesa que murió aquel día lo hizo cuando los focos de incendio se unificaron en un asunto meteorológico llamado “tormenta de fuego”. Es un fenómeno natural que ocurre con algunos incendios forestales mayúsculos. Aquí lo conocemos bien. En la tormenta de fuego forestal contigua a Villa La Angostura de 1997, los árboles estallaban como petardos debido a la vaporización instantánea de su savia, y algunos se quemaron con raíces y todo: quedó el calco en negativo de las mismas bajo tierra, a más de diez metros de profundidad.

En 1944, la aviación aliada logró por primera vez recrear artificialmente este fenómeno natural, típico de algunos grandes incendios forestales, al bombardear durante tres días y noches seguidas la ciudad alemana de Dresden con bombas de fósforo blanco. En una tormenta de fuego, sea natural o antrópica, forestal o urbana, la columna de gases incandescentes que asciende desde el centro del incendio se comporta como un hongo atómico autoalimentado: genera una presión bajísima, que aspira muchas toneladas por segundo de aire fresco y bien oxigenado desde la periferia a la base del fuego. En suma, el incendio actúa como el fuelle de una fragua y debido a las temperaturas en la superficie –mayores de 1000 grados- entra en “feedback positivo”, se alimenta a sí mismo con entusiasmo creciente, y logra quemar incluso algunos materiales de ingeniería considerados incombustibles, a condición de que contengan carbono. En Dresden e Hiroshima se derritieron metales, vidrio y adoquines. Las tormentas de fuego se apagan solas, cuando agotaron todo lo quemable, o cuando llueve, y tiene que llover a baldes.

En Tunguska hubo fogonazo, onda de choque, huracanes, incluso la clásica nube en forma de hongo y una tormenta de fuego de órdago, pero –y esto es esperable- no parece haber habido efectos radioactivos inmediatos, o por precipitación. Sin embargo, la expedición militar que tardíamente visitó la zona, dirigida en 1921 por el coronel Leonid Kulik, recogió entre los más o menos 900 testimonios de testigos presenciales de la etnia Tungus la versión –entonces inexplicable- de que muchos sobrevivientes iniciales perecieron pocos días después de la explosión de enfermedades nunca vistas.

Si se piensa en Hiroshima: ¿puede haber sido enfermedad aguda de radiación? ¿Las temperaturas de la explosión aérea pueden haber sido tan altas como para generar al menos un flash de fotones X, las más “frías” entre las radiaciones ionizantes? No parece probable. Tampoco expediciones posteriores han registrado en la zona una radiación de fondo mayor que la normal en el resto de Siberia, ni “materiales calientes”. Tunguska, resumiendo, no fue una bomba ni la explosión de un plato volador, como sugirió en Argentina el imaginativo coronel de artillería zarista Alexander Kazanzew. Fue un asteroide. Y bien chiquito, de 40 metros más o menos.

Por ahora, como ves, Cacho, cuando nos ponemos en plan bomba, somos más letales para nosotros mismos que los asteroides chicos, y es mucho decir. En suma, si te dan la opción Tunguska o Hiroshima, agarrá viaje con Tunguska: aunque la explosión libere 300 veces más energía, es un fenómeno natural más inocente y si pasás los primeros momentos sin quemarte o ser hecho puré, vas a quedar menos peor. Pero si te dan la opción Tunguska o el 2009DD45, que nos pifió por apenas 60.000 kilómetros y no salió casi en ningún diario, agarrá el último.

¿CÓMO LA SEGUIMOS?

Inevitables reflexiones, oh hermanos y cofrades. Imaginemos que Tunguska no hubiera caído en Tunguska y tampoco en San Petersburgo cuatro horas y media antes, sino siete horas antes y unos nueve grados y medio más al sur, sobre Londres, capital entonces del mayor imperio de la Tierra. La historia humana hubiera sido tan inimaginablemente distinta que si yo y ustedes existiéramos, oh cofrades y hermanos, de puro emperrados en nacer, nomás, quizás estaríamos leyendo esta página en alemán. Y las Malvinas serían argentinas. Y la Argentina, no sé de quién.

La segunda reflexión es estadística: los animalitos al estilo Tunguska (o sus imitadores fracasados, como 2009DD45) suelen golpear la Tierra con una frecuencia de alrededor de uno por siglo. Que el lunes 2 de marzo nos hayamos salvado de un despelote magnífico no quiere decir que ahora tengamos tengamos otro siglo entero de tranquilidad asteroidal garantizada, porque las estadísticas… son estadísticas, promedios que consideran una casuística enorme. En alta resolución, admiten fluctuaciones enormes. Dicho de otro modo: podrían caernos tres Tunguskas todos juntos ahora mismo, mientras escribo estas pavadas. O dentro de mil años.

Lo tercero es que los Tunguskas de 40 metros vienen de varios sabores: alguno podría caer en un ángulo más perpendicular, o estar formado por materiales más metálicos, densos y resistentes a la vaporización explosiva, y entonces sí hacer impacto sobre el suelo. Amén del flor de cráter in situ, el asunto podría desatar efectos sísmicos a distancia mucho mayores que los de 1908 y, con la ayuda invalorable de una tormenta de fuego para inyectar sólidos hasta la estratósfera, podría causar mermas de la absorción solar a escala planetaria. No un “invierno cósmico”, pero sí un año más frío de lo normal.

Tercero, que por lo que ahora sabemos del funcionamiento gravitatorio del sistema solar, estamos en una galería de tiro, parados al lado del blanco más codiciado, que es el Sol. Por su ubicación en el ringside, los planetas rocosos interiores (Mercurio, Venus, la Tierra y Marte) se ligan todos los porrazos imaginables de toda la basura extraplanetaria situada más allá de la órbita marciana. Entre que se formó el sistema solar, hace 4500 millones de años, y los planetas rocosos interiores se consolidaron, todos ellos, incluído el nuestro, sufrieron algún impacto masivo que estuvo a punto de partirlos en dos, incluída la Tierra.

Hay tres grandes repositorios de esta basura, en ningún caso administrados por el CEAMSE (un alivio). En primer lugar el cinturón asteroidal, y muchísimo más lejos, en órbita muy transplutoniana, en los extramuros mismos del sistema solar, el cinturón de Oort y luego la nube de Kuyper. Desde esos dos sitios más lejanos, llenos de témpanos de hielo polvoriento, más o menos cada 30 millón de años nos cae algo mucho más peligroso que un asteroide, por su velocidad e imposibilidad de detección temprana: un cometa.

Aquí en la Tierra, donde tenemos el lujo de albergar una biosfera, los efectos del constante ametrallamiento asteroidal y el más raro cometario son borrados sistemáticamente por la acción conjunta de la erosión, la sedimentación y el crecimiento de plantas. ¿Qué argentino sabe, acaso, que sólo en nuestro territorio continental tenemos al menos tres cráteres de impacto mayores de 8 kilómetros de diámetro? En muchos casos, ni siquiera la población local parada encima.

Pero Cacho, mirá la Luna. ¿La estás viendo? Por empezar, ya nació en circunstancias que llamaríamos por lo menos jodidas, hace unos 4000 millones de años, cuando alguna cosa más o menos del tamaño de Marte, que hemos bautizado Thera, le pegó a la Tierra y le arrancó un buen pedazo de corteza y manto, que quedó en órbita como un anillo al estilo de los de Saturno, y luego se fue condensando y compactando en eso a que le cantan los poetas.

Así como no tuvo un nacimiento tranquilo, la Luna siguió con una vida que otra que una mujer golpeada: mírenla, ahí, toda acribillada de decenas de miles de cráteres de impacto que quedaron para la eternidad, indelebles. Pero no es para reirse, Cacho, porque nosotros la venimos pasando no mucho mejor, sólo que la biosfera –y en ella incluyo a la atmósfera- nos protege de las piedritas, y aunque no lo haga de las piedrotas, nos suministra una formidable ingeniería erosiva, sedimentaria y biológica que enmascara, al menos cosméticamente, los efectos de cada gran mamporro cósmico.

Los asteroides potencialmente “malos”, cuyas órbitas cruzan la de la Tierra son clasificados como NEOs (Near Earth Objects), y por ahora se han inventariado unos mil que habría que tener bajo la lupa. Para 2029 esperamos el paso cercano de uno mucho mayor que este anecdótico 2009DD45. Hablo de un “mostro” de 140 metros, lo suficientemente grande como para haber sido detectado en 2004, tener nombre propio (Apofis lo bautizaron, quevacé), y causar estragos interesantes. Se estima una primer pasadita cercana, “de amigos”, para 2029, y luego –ya enganchado Apofis gravitacionalmente con nuestro planeta- una segunda visita tal vez menos amigable para el 2036.

Las pasaditas “de amigos” son como el “¿Estudiás o trabajás? ¿Siempre venís aquí?”: atracción (en este caso gravitatoria) mediante, pueden anunciar reencuentros más íntimos. Por eso el criterio de los pocos observatorios de alarma temprana, como el Pan-STARRS de Maui, Hawaii, es que es potencialmente nefasto todo bicho de 140 metros o más que haya pasado o vaya a pasar a 7,4 millones o menos de kilómetros de la órbita terrestre.

Si Apofis nos revisita en 2036 y yo todavía sigo vivo y me acuerdo de algo, recuérdenme que en 2009 escribí que esta piedra es buena candidata para un desvío “de ingeniería”, o por voladura atómica. En el primer caso, Cacho, vos aprovechás la baja masa de Apofis y le mandás una sonda más bien pesada, que se acople gravitacionalmente con esta roca. Y luego la sonda enciende sus cohetes, y a una velocidad bajísima, sin separarse de Apofis, lo va traccionando gravitacionalmente hasta desviarlo de su curso de impacto. Chau, y no vuelvas.

Hay otras variaciones de estos enfoques minimalistas, casi persuasivos. Pero si fallan, como plan B dentro de un programa de defensa escalonado en profundidad, mirá, vas y le tirás una de esas cabezas nucleares “de explosión lateral” que el experto en armas ruso Vadim Simonenko diseñó en los años ’70. El las quería para poner en un torpedo y hacer desaparecer toda junta una flota estadounidense, qué tal. Lo frustró el fin de la Guerra Fría (la anterior, no la que se viene). Haceme caso, vos hablá con Simonenko, que la sabe lunga de explosiones nucleares asimétricas. El cohete para llegar con esa carga hasta las proximidades del asteroide se lo pedís a mi amigo Obama, White House, que tiene la mayor flota militar de cohetes al cuete (porque no los puede usar para nada) del planeta. Vos preguntá la dirección en Washington y tocale timbre. De parte de Daniel, decile.

Un flash nuclear asimétrico desde cierta distancia, como el que emitiría una bombita atómica a la Simonenko, causaría la ablación explosiva de muchos metros cúbicos de roca en el lado así “iluminado” de Apofis. El asteroide se volvería brevemente un cohete: la eyección lateral de gases volatilizados de su propia sustancia lo impulsaría, por eso de la acción y reacción, hacia una órbita menos peligrosa… tal vez. Ya estamos dentro del rango de medidas medio desesperadas.

Si ésta fracasa, la opción C, mucho menos sofisticada, sería entrar en plan Rambo y darle de lleno al fucking asteroide con una cabeza termonuclear convencional muy potente, como ésa de 50 megatones que los russkis testearon en Novaya Zemlya en 1961. Pero el peligro es que si muchos fragmentos grandes de Apofis conservan la trayectoria original, aquí abajo estaríamos cambiando un balazo del .44 magnum por un escopetazo calibre 12. La mayoría de los fragmentos impactaría sobre los mares y causaría tsunamis globales que olvidate del de 2004. En suma, el método Rambo no da para entusiasmarse. Por supuesto, peor es quedarse piola, estilo dinosaurio esperanzado.

En realidad, estos impactos son no sólo rutina en la historia de los planetas, sino la propia historia de los mismos: se construyeron por la caída de cosas sobre más cosas, lo que se llama un proceso de acreción. Pero quedan muchas cosas todavía por caer.

El mensaje un tanto amargo que nos manda 2009DD45 es que este proceso de acreción puede haberse vuelto mucho más lento, pero nadie dice que haya terminado. Si Apofis vuelve en 2036 en mal plan y no tenemos nada con qué tirarle, Cacho, Tota, mis amigos del alma, no dejen de leer mi emocionado comentario en la ocasión. Seguramente en el infierno también hay blogs.

Daniel Arias

TARTAGAL DA PARA HABLAR

Nuevamente bajó con barro y troncos el río Tartagal y esta vez se llevó o anegó un tercio de la ciudad, y el gobierno salteño –el PJ, desde hace 22 años- dice que no es culpa de los desmontes que vive autorizando a cuatro manos: ¿será entonces de los tartagaleños, que vienen a construir una urbe justo donde pasa el barro? El gobierno nacional, también del PJ, estuvo “pisando la pelota” de la ley de bosques durante dos años para que no se reglamentara y aplicara, pero va todavía un poco más lejos: ahora critica severamente los desmontes. Posibilitados, en fin, porque la ley estuvo parada. Por el gobierno nacional, entiéndase.

El río Tartagal es el menos culpable: antes no hacía estas cosas. Típico curso de montaña, tiene ondas de crecida bruscas cuando llueve en la alta cuenca. Pero la diferencia entre el “siempre” y el “ahora” es doble: en la última década y media se estuvieron haciendo talas ilegales en laderas altas, que tienen relictos de yunga (selva subtropical de altura). Aunque ahí arriba, en las divisorias de agua, la masa forestal degradada por la pérdida de los árboles más altos del dosel resiste como puede, las picadas por las que se extraen los troncos (a tractor o con bueyes) se transforman en ríos turbulentos con la primer lluvia severa.

A eso hay que añadir que aguas abajo, en los terrenos planos con monte, éste es pasado por la topadora para sembrar soja. Para el dueño es casi una operación inmobiliaria: cuando deja de ser “campo bruto” (en la particular visión de la culta burguesía local), el valor de la hectárea sube un 50%. Por último aparecen fondos de capitales a veces ni siquiera radicados en el país ni dedicados a la agricultura, con algún teléfono en la city porteña, que se alzan con 50 o 60.000 hectáreas de un saque, las “desembrutecen” a topadora, y luego ven qué hacen. El ordenamiento territorial ya no se decide ni siquiera en la capital salteña (donde sólo se ponen sellos de “aprobado”), sino en los mercados de commodities de Chicago y Shanghai. Donde cuánta gente muera o pierda su casa en Tartagal no es siquiera un dato.

Es elemental que, al no estar sujeta por raíces profundas, la tierra en pendiente se lava, en un proceso erosivo nada lento de su capa fértil, que se vuelve furibundo cuando las lluvias son bravas. Cuando son bravas, el terreno, que antes absorbía agua como una esponja y lo liberaba lentamente, ahora resulta impermeable y el agua llovida baja a pleno caudal por las quebradas con enorme energía cinética: arrastra lodo y piedras y desarraiga árboles. Fue un “mix” de todo eso lo que arrancó de sus pilares un robusto puente ferroviario de vigas de acero que estuvo allí casi todo el siglo XX, lo enclavó aguas abajo, lo rellenó de materiales de arrastre hasta volverlo un dique sólido, e inundó la ciudad.

GRAN DESMONTADOR, GRAN ARBUSTIZADOR

Si se le da tiempo, el gobernador Juan Manuel Urtubey le ganará a su antecesor Juan Carlos Romero el título de Gran Desmontador del NOA: cuando en diciembre de 2008 la legislatura salteña aprobó localmente la nueva ley de ordenamiento territorial, presentó un mapa en el que se autorizaba la tala de 1 millón de hectáreas adicional. Urtubey vetó el mapa –con lo que la ley es inaplicable- y entre tanto prepara uno con entre 1,8 y 2,5 millones de hectáreas, y tiene legisladores que ya hablan de 5 millones. Incluso en su versión más benigna, ésta es una ley permisiva: si antes el límite de pendiente para cultivar era del 10%, esta ley autoriza el 15%, es decir en plena serranía. Por menos que eso ya hubo aludes en Orán y Vespucio, ciudades que nunca los tuvieron. Noemí Cruz, coordinadora de Greenpeace en el NOA, menciona que Facundo Urtubey, hermano del gobernador, tiene una empresa de desmontes. Bueno, nadie dice que sólo se deba ganar plata en Shanghai.

Cuando el PJ más ranciamente conservador del país, el salteño, autoriza desmontes, suele ampararse en que condena a bosques de poco valor biológico, bastante degradados en su biodiversidad. Por supuesto, tiene razón: degradados en primer lugar, por un siglo y monedas de tala selectiva de los mejores árboles y luego por la invasión de ganado en los claros que liquidó los renovales, y también el pastizal. Puede añadirse, como nota al pie, que la mayor parte de estos daños sucedió últimamente durante los 22 años de administración del PJ. Es decir, cuando la soja entró a la región por el este, su sector más húmedo, y se fue corriendo hacia el oeste semiárido sin más límite que el costo del flete en camión para salir al mundo por el río Paraná.

Pero el Chaco es un ecosistema menos perdonavidas que la Pampa Húmeda, cuando se mete la pata con la receta agropecuaria, y la tierra se vuelve más vengativa de los desmanejos cuanto más occidental y larga estación seca. Si se deja la tierra sin cobertura vegetal y sin celulosa en el suelo la mayor parte del año, como sucede con la soja monocultivada, la estación lluviosa va destruyendo la capa fértil. Y si entonces se la abandona empobrecida por la merma de rindes, y hecha un peladal, sobreviene la arbustización.

Es lo que ya sucedió durante el siglo anterior debido a dos causas distints: la sobretala y el sobrepastoreo. Ante la falta de incendios espontáneos de pastizal que quemen los arbustos leguminosos pinchudos (talas, churquis, vinales, espinillos), o de grandes árboles que les ocupen la tierra, el arbustal –antes una nota al pie en el inventario vegetal del paisaje- pasa al frente e invade todo, y forma el equivalente botánico del alambrado de púas. Gracias a la vista gorda –y francamente idiota- de gobernadores, presidentes y legisladores, la Argentina hoy tiene el récord mundial de tierras arbustizadas: 60 millones de hectáreas según el Dr. Enrique Bucher, de la Universidad de Córdoba. Es como sumar Holanda y Bélgica.

Como la economía arbustizada pasa de la vaca y el quebracho, que algo dejan, al chivo y la fabricación de carbón, que no dan un mango y perpetúan el daño, el paisaje humano también se deteriora: la juventud, desesperada por la improductividad de su pago, huye a las villamiserias. Detrás deja un infierno y adelante le espera otro peor.

Sin embargo, aún el peor y más envilecido arbustal, y máxime en pendiente, rinde un servicio ecológico a quienes viven y cultivan algo más abajo: impide la erosión lenta e insidiosa, y también la rápida y catastrófica. Hasta que lo arrancan.

DE TODO SE VUELVE… SI SE QUIERE

La tierra arbustizada es recuperable. Hay muchos líderes comunitarios en el NOA con tierras, abolengo y además currículum, en lugar de prontuario. Uno de ellos ha sido el Dr. Carlos Saravia, de la Fundación Salta para el Desarrollo del Chaco, que junto con el mencionado Bucher y el Dr. José María Chani, de la Fundación Enrique Lillo de Tucumán, armó un plan de manejo exitoso en las 10.000 hectáreas de la Estación Biológica Los Colorados. Tuvo tanto éxito que en 1989 el asunto fue publicado como “leading case” por el semanario científico inglés New Scientist.

El sistema es ingenioso porque usa lo que hay en el terreno, sin un centavo de insumos externos y no requiere de inversiones sino de mera voluntad política. Se parte de cercar los peladales donde antes había pasto durante dos o tres años, para que el banco natural de semillas enterrado en el suelo desnudo eclosione y retapice el lugar. Luego ese pastizal recuperado se deja pastar en ciclos de ocho meses con cuatro de descanso en lo peor de la estación seca (el Chaco es de clima muy monzónico), mientras para compensar el bajo valor calórico de las gramíneas nativas y tener un “plan B” en caso de sequía se acopian las vainas o chauchas llenas de proteína y grasa del arbustal (eso es obligar al enemigo a trabajar contra sí mismo).

Pero el cercado no sólo permite la regeneración del pastizal, sino también del bosque. La especie de bandera del mismo, la más valiosa en aplicaciones estructurales por su increíble dureza y resistencia a la putrefacción, el quebracho colorado (Schinopsis quebracho), tarda entre 50 y 80 años en crecer, da semillas sólo 3 veces por década; y tras siglo y medio de paliza casi no queda. El poco quebracho colorado que crece aún y se salva de vacas y chivos es transformado en carbón no bien alcanza talla de arbusto, lo que equivale a comerse como hamburguesas un toro gran campeón de La Rural.

El cercado estricto permitió que el quebrachal volviera a formarse en Los Colorados, como base de regreso del monumental bosque original que en la década de 1930 le valió a la desolación de Santiago del Estero el título (hoy increíble) de “El país de la selva”, un libro de Ricardo Rojas casi inevitable en la vieja escuela primaria pública argentina de los años ’60. Al quebrachal se lo puede talar cada 50 años en forma selectiva, habiendo asegurado su reproducción, y se dejan para carbón los árboles de fuste más torcido (y de genética inferior), con un corte cada 20 años.

El modelo de paisaje chaqueño original, con islas de bosque alternado con pastizales que emerge en Los Colorados vale no sólo porque permite una ganadería y una actividad maderera cautelosas, muy “gasoleras”, que fijan población juvenil. Vale porque además da las bases para utilizar la fauna de modo sustentable con la cría de lagartos overos (de cueros de mucho valor), amén de la caza y el ecoturismo. Y éste es el único momento en el que estado pone plata: para recibir turismo, hay que educar a la población. Cosa difícil cuando los gobiernos conservadores del NOA tienen el mismo entusiasmo por la educación popular que los patos por la munición. Y por lo mismo.

En un país como la Argentina, cuyo tercer renglón de exportación es vender paisajes intactos, los 1,6 millones de hectáreas de llanura chaqueña son hasta ahora la gran Cenicienta impresentable, por la arbustización y la pobreza y el descalabro social y humano que la acompañan. “Vos dame un modelo de explotación sustentable del ecosistema chaqueño, que pueda seguir en pie de aquí a un siglo, y nos sentamos a conversar. Pero lo que sucede ahora es de terror”, dice el ecólogo Jorge Adámoli, de la Universidad de Buenos Aires, consultor internacional que a diferencia de las ONG como Greenpeace, es conocido por sus posiciones industrialistas y productivistas.

Como modelo de manejo, Los Colorados tarda en alcanzar la rentabilidad y ésta es menos gloriosa que talando y plantando soja. Pero cuesta menos cuando uno toma las externalidades del segundo modelo: pérdida insidiosa y/o brutal de la capa fértil, deslaves, destrucción de ciudades e infraestructura, expulsión de jóvenes (la nueva agricultura ultramecanizada casi no produce trabajo), y finalmente, el peor destino final: la aridez en el peor caso, la arbustización en el menos peor.

Ahora que a la luz de la seca histórica de 2008/9 los climatólogos hablan de que el cambio climático nos prepara un ciclo de disminución de precipitaciones, luego de treinta años inusualmente húmedos, se da la posibilidad de que los capitales golondrina que se instalaron “para sojear” se vayan al demonio tras dos o tres cosechas malas, y libren la tierra desmontada a un recrudecimiento de arbustal.

Por ahora, lo que suceda en Los Colorados al mix de caciques de unidad básica, gobernadores de topadora, presidentas distraídas y operadores chinos les interesa tanto como lo que sucedió y volverá a suceder en Tartagal. La tragedia humana es un problema ecológico que es, a su vez, en el fondo, político.

Daniel E. Arias

SON LAS ALGAS, IDIOTA

Quiero subrayar la ignorancia vertiginosa que trasuntan las declaraciones del ministro de Justicia argentino, Aníbal Fernández, según el cual la mancha verdiblanca que surgió en el río Uruguay, justo frente a la planta de la pastera Botnia, “son sólo algas”. Justamente, el problema son las algas. Es facilísimo pudrir un río con algas. Y máxime uno como el Uruguay en su curso inferior. Lo único que se necesita es fertilizarlo un poco con nitratos, fosfatos y materia orgánica, que la pastera de marras inyecta al agua en dosis muy superiores a las de cualquier ciudad ribereña.

Las pasteras son fábricas de enorme complejidad, que pueden emitir una cantidad y diversidad apabullante de efluentes contaminantes, tanto gaseosos como líquidos, algunos verdaderamente temibles incluso en cantidades muy pequeñas. No es forzoso que las pasteras deban contaminar: pueden hacerlo mucho, poco, poquito o casi nada, de acuerdo a cuánta plata quieran patinarse los accionistas en mitigación de impacto sobre el medio ambiente.

En su movilización, la gente de Gualeguaychú ha puesto en la mira algunos ecotóxicos perfectos, los que resultan terribles incluso en cantidades muy pequeñas, como las dioxinas, cancerígenos de altísima persistencia en el medio ambiente. Pero por ahora –de creerle al doctor Enrique Martínez, del INTI, un tipo de credenciales impecables a cargo de una institución científicamente confiable- Botnia no está por matar a nadie con las dioxinas. O con los furanos. Con los malos olores, está enfermando a algunos.

Lo que el episodio de las algas verdes muestra, sin embargo, es que sí puede matar un buen tramo de río con una explosión de algas en el agua… si se la deja. Aparentemente Fernández no tiene nada contra las algas, lo que sin duda los finlandeses tomarán como un guiño para ocasionar nuevas manchas en el río sin mayor temor a la justicia argentina. Seguramente con eso ahorran bastante plata en tratamiento de efluentes.

El asunto es bastante sencillo: para transformar un árbol en pasta de papel, hay que sacarle toda la celulosa que se pueda y desechar el resto, una verdadera parva de materia orgánica cuyo componente más abundante es la lignina. Ese efluente es –si se le quitan algunos ecotóxicos- un abono orgánico ideal: tiene montones de carbono, y cantidades excelentes de nitratos y fosfatos. Si el Uruguay es –todavía- un río de aguas relativamente claras, “un cielo azul que se mueve”, en lugar de un río verde y lleno de algas, o marrón negro debido a las bacterias y con olor a cadaver, es porque naturalmente tiene una carga muy baja tanto de carbono orgánico como de nitratos y fosfatos.

No podría ser de otro modo: en su curso alto y medio, el Uruguay es, más que un río de llanura, el mayor río de montaña del mundo: entre Yapeyú y Salto Grande tiene más de 160 cataratas y “correderas” (es decir, rápidos), lo que quiere decir dos cosas: primero, que fluye sobre un lecho de roca estéril, que le aporta muy pocos minerales y materia orgánica, lo que es un cuello de botella enorme para el crecimiento de algas, sean unicelulares o más complejas. Segundo, que con tanta mezcla violenta con el aire, el agua está muy oxigenada. Por lo primero, el río no tiene mayor alimento para bacterias aeróbicas que descompongan las algas muertas. Por lo segundo, su alto contenido de oxígeno resulta un medio intolerable para las bacterias anaeróbicas.

Ahora Ud. acaba de entender por qué éste es un río tan lindo.

La enorme cantidad de saltos y correderas limitó también la navegabilidad del río, e históricamente conspiró contra el crecimiento de grandes ciudades-puerto en sus orillas (gran diferencia con el Paraná, en ese sentido). Eso salvó al Uruguay –hasta el momento- de recibir grandes aportes cloacales, es decir carbono orgánico, nitratos y fosfatos.

Pero ahora llegó Botnia, que no necesita matar a nadie con dioxinas para pudrir el río. Con una inyección diaria de 60 kilos de fosfatos y 600 de nitratos, alcanza para fertilizar las aguas y llenarlas de algas microscópicas verdes, en sí más inocentes que Lassie. O de organismos fotosintéticos más primitivos, las cianobacterias, llamadas también algas azules, y bastante tóxicas.

Aunque no hubiera cianobacterias en la mancha frente a Botnia y sólo inocentes algas verdes, el problema es que millones de Lassies te dejan la vereda hecha una asco, pese a la simpatía que a uno pueda inspirarle la simpática perrita collie. Y trillones de algas verdes pueden hacer lo propio cuando se mueren aguas abajo: se vuelven el alimento de muchos billones más de bacterias aeróbicas, que las descomponen. Pero si el agua está lo suficientemente fertilizada y llena de algas verdes, en días de calor, las bacterias aeróbicas pueden llegar a ser tantas y tener su metabolismo tan acelerado que se consuman ellas solas todo el oxígeno del agua.

Entonces ésta se pondrá marrón o negra, olerá a podrido, y todos los peces se morirán, la avifauna costera desaparecerá, y todos los turistas se irán a buscar mejores playas. Dejar que eso suceda y que el río Uruguay siga el destino del Riachuelo parece bastante imbécil, como política, en un país en el cual la industria turística ya es la tercera fuente de recaudación de divisas, y es el caso de la Argentina. Se le podría decir al Uruguay que Botnia no tiene derecho a hiperfertilizar el río y llenarlo de algas. Que si produce tanta materia orgánica como efluente, la procese de otro modo y ésta se use como abono en tierras que necesiten todos esos nitratos y fosfatos y carbono orgánico. No faltan.

Es probable que con Botnia solamente no alcance para transformar al Uruguay en el Riachuelo. Habrá que ver qué pasa cuando se instale Enso Störa, una fábrica mucho mayor, en el Río Negro, aguas interiores del Uruguay que, lamentablemente, desembocan… ejem… en el río Uruguay.

Lo que sí resulta claro es que la movilización tremebunda de la gente de Gualeguaychú enterró, tal vez para siempre, la probable radicación de hasta ocho pasteras, una al lado de la otra, sobre el Uruguay, y del lado uruguayo.

Gracias al ruido que generó Gualeguaychú, la española ENCE decidió mudarse a orillas del Plata, cerca de Colonia, y seguramente terminarán pagando el pato los balnearios situados al este de su caño de descarga, con mayor cantidad de días de playa cerrada al público por mareas rojas, que en el verano de 2004 llegaron a ser 18, y todavía no había pasteras a tiro de la corriente de vaguada. Hablo de Montevideo, de Piriápólis, de Punta… Otras pasteras se instalarán directamente sobre la costa atlántica uruguaya, bien al norte de Punta. Como modelo de desarrollo, tantas pasteras seguramente le ocasionarán varios problemas a nuestro país vecino: son todas industrias en manos ajenas, de poquísima generación de puestos de trabajo calificados, y a futuro se darán de palos con la marca “Uruguay natural”.

Entre tanto, mirar el tremendo manchón verde frente a Botnia, tan delator como la sábana mojada de un chico incontinente, y decir “son sólo algas” y encogerse de hombros, es algo que no debería permitirse a un ministro de justicia. Al menos a uno argentino.

Si yo tuviera ese cargo, consultaría la importancia real del asunto de las algas con algún biólogo amigo. No hace falta un premio Nóbel en impacto ambiental (que por otra parte no existen): un simple estudiante de biología o ingeniería sanitaria de segundo o tercer año alcanzan.

DANIEL ARIAS

CÓMO LIGAR GRATIS UN RÍO Y TRES REPRESAS.


Una medida de la que no habla nadie podría ahorrar tanta electricidad como la que producen las represas Nihuil I, II y III sobre el Atuel.

La bruta disparada del precio de la electricidad quizás obligue a cierta Argentina que vive en las nubes a derrocharla menos, pero no nos sacará de vivir al borde del apagón. La recesión importada que Wall Street nos obsequió generosamente (a nosotros y al resto del planeta) quizás baje la demanda eléctrica argentina, pero es de cajón que también va a frenar la construcción de nuevas centrales. Y seguiremos en el horno. Pero una medida de la que no habla nadie, y que al estado no le haría gastar un centavo, podría producir un excedente eléctrico anual equivalente al lo que entregan las represas Nihuil I, II y III sobre el Atuel, un impetuoso río mendocino de montaña.

Bastaría un decreto de CK que imponga el control por parte del INTI (Instituto Nacional de Tecnología Industrial) de los sistemas de “stand-by” de electrodomésticos y equipos de oficina. Por su mal diseño, casi todos los que se ven en la Argentina despilfarran electricidad francamente a la marchanta.

Vos, argentino de clase media, tenés en tu casa varios electrodomésticos de esos que se “apagan y sólo queda prendida una luz roja testigo, o eso te dijeron, je, je. El nombre de ese sistema es “stand-by”, o “apagado en espera”, y asegura un prendido instantáneo a toque de botón. Ya prácticamente no hay televisores que tengan un botón de apagado real. El fabricante se ahorra ponerlo, y si no estás mirándolo, sólo te queda la opción de dejarlo en stand-by. Y te vas tan tranquilo, creyéndolo apagado.

El doctor Gustavo Bianchi, químico, especialista en materiales y energía, ex investigador de la Comisión Nacional de Energía Atómica, ex jefe de desarrollo de varias petroleras (incluída YPF), hoy desarrollador de tecnología para varias empresas de ingeniería, sugiere que tu televisor tal vez no está tan apagado.

Como referencia, Bianchi dice que un electrodoméstico en Europa sólo puede consumir 1 kilovatio por hora en stand-by, pero en la Argentina, aunque no lo creas, el estado jamás reguló nada al respecto. Y el resultado son, por ejemplo, algunos minicomponentes chinos que consumen 36 kilovatios/hora prendidos… y 30 apagados. Nunca la apalabra “apagado” mintió tanto. Es un cuento chino.

Mientras el argentino tipo y su esposa laburan duramente (entre otras cosas, para pagar las nuevas tarifas eléctricas) y en tanto los chicos están en el colegio, en la casa vacía hay computadoras, televisores, equipos de audio, DVDs, horno a microondas y otros aparatos presuntamente apagados. Pero caramba, resulta que no estaban tan apagados, y generan un gasto de electricidad increíble. Y al cuete. ¿De cuánto?

Mirá, el Instituto Catalán de Energía calcula que la familia barcelonesa promedio, que vive en un departamento de 90 metros cuadrados, incluso con esos electrodomésticos tan ahorrativos que impone la legislación europea, gasta en “modo de espera” el 4% de su consumo eléctrico total.

Aquí es todo bastante peor, y el consumo de un aparato “apagado en espera” durante 22 horas puede llegar a ser mucho mayor que el de ese mismo equipo las 2 o 3 horas en que está efectivamente prendido. Tal cual.

Según cálculos de Bianchi, el departamento tipo del argentino tipo, con un televisor CTR, una video, un decodificador, un audio a minicomponentes, una computadora con monitor de 17 pulgadas y una impresora, todos ellos puestos “en espera” y sin ser usados, puede gastar la friolera de 570 kilovatios/hora anuales sólo en prender esas lucecitas rojas que dicen “aquí estoy”, y calentar inútilmente sus carcasas, y el aire encima de sus carcasas. Estamos hablando de 47,5 kilovatios/hora por mes, ¿sí?

Para entender el impacto del dato sobre tu vida práctica, si tenés un heladera con freezer y un par de aires acondicionados y venías gastando muy tranquilo unos 952,5 kilovatios/hora por mes, el maldito “stand-by” de la tele, el deco, la video, la compu y la impresora hoy te hace pasar arriba de la cifra mágica de 1000 por mes, y Edenor, Edesur o quien sea te hacen puré con las tarifas.

Una oficina muy precaria, una verdadera porquería de oficina, con apenas dos computadoras, dos monitores, una impresora y un plotter, puede gastar casi 320 kilovatios/hora por año en “stand” by, sin siquiera trabajar. Bueno, la recesión global está logrando que muchas oficinas así no trabajen en absoluto. Pero es interesante saber que paradas y todo siguen recaudando para Edenor, Edesur… o quien sea.

A la hora de las cuentas, medio millón de casas y medio millón de oficinas chicas como la descripta gastan en “stand by” casi 890 mil megavatios/hora por año. Que, agarrate Catalina, viene a ser toda la producción anual de las centrales hidroeléctricas mendocinas Nihuil I, II y III, sobre el mencionado río Atuel.

Por supuesto, tenemos mucho más de un millón de casas y oficinas gastando electricidad inútilmente “en espera”, y sin siquiera saberlo sus dueños, y sin que el estado se entere. Mucho más de dos millones. Seguro que más de tres. ¿Cuántas tenemos? Esto requeriría una mayor investigación de datos del INDEC. Que haré en otra ocasión.

Entre tanto, habría que examinar con más seriedad el programa de ahorro de energía y discriminar el trigo de la (perdón por la inevitable disemia) paja. Es una imbecilidad brillante poner al país durante la temporada cálida en el uso horario de las islas Azores, como si la Argentina estuviera en el medio del Atlántico. Como ya sucedió en el pasado, ir tan a contramano de los ritmos circadianos naturales en algunas provincias cordilleranas y patagónicas que caen dentro del huso horario de Chile genera mayor consumo y además problemas de tipo biomédico en la población. Y eso porque no se puede vivir tan a contramano del reloj biológico humano, que está “seteado” por el sol. Esto ya es tan “vox populi” que lo saben hasta los gobernadores, y varios se han rebelado (con toda la razón) y ya tenemos al país en división horaria, otra idiotez.

Sería bárbaro, en cambio, apagar de noche las luces de los edificios públicos y la cartelería publicitaria. Sería estupendo evitar el football nocturno, y ni hablemos de regular el alumbrado público municipal, de modo que las luminarias estén bien diseñadas e iluminen el suelo, hacia abajo, y no las nubes o la humedad troposférica, para darnos esos cielos rojizos que hoy techan nuestras noctámbulas megalópolis argentinas. Sería lindo volver a tener cielos negros y ver las estrellas de noche, en lugar de cuando nos llega la cuenta de la luz.

Está muy bien distribuir lámparas de bajo consumo domiciliario. Es genial prohibir la venta de las viejas lámparas de filamento de tungsteno incandescente. Después de todo, representan una tecnología prodigiosamente ineficiente que Thomas Alva Edison desarrolló hace más de 130 años, y que transforma la electricidad básicamente en luz infrarroja, o radiación térmica (totalmente inútil a los fines de iluminación), y de yapa da un pequeñísimo porcentaje de luz visible, que es lo que usamos para ver. Eso está bárbaro, vamos CK todavía.

Y aunque vos, lector, me odies, está bien que la electricidad salga cara. Porque particularmente aquí en la Argentina, se genera con gas que se nos acabó hace rato y petróleo que estamos importando desde 2008, a un precio económico y ecológico muy alto que hasta hoy se escamoteaban por arte de subsidio. Pero siempre llega el día en que estos costos ya no se los puede ocultar más. Y los tarifazos. Que hoy, como llovido sobre mojado, nos caen en medio de una recesión.

Pero dentro de lo poco espectacular aunque redituable a largo plazo, a la presidenta CK le alcanzaría sencillamente con decretar que el INTI certifique que los aparatos domésticos y de oficina autorizados a venderse en la Argentina tengan un consumo en stand-by que no exceda el permitido según normas europeas.

Dicho de otro modo: si excedés el 4% en stand-by, llevate tu equipo y a llorar a Beijing, o la capital sudasiática que corresponda. Y no me importa si el equipo se armó aquí, en una de esas maquiladoras patagónicas donde el valor agregado local consiste en pegarle a un aparato extranjero la estampilla que dice “Made in Argentina”. Fuera con ese artefacto. Aquí no se vende. Normas europeas, y a otra cosa.

Ningún gobierno debería pestañear siquiera para imponer una medida tan ínfima, contra la que casi nadie va a protestar, y si lo hace, estará solamente gastando energía suya, no nuestra, porque ¿quién lo va a escuchar? Una medida tan chiquita como ponerle el gancho a un decreto, pero a la larga, tan buena para todo el país.

Es que hoy en día, muy a diferencia de cuando yo era chico (eso fue hace mucho), los electrodomésticos rara vez duran una década. Se los reemplaza mucho antes, entre otras cosas, porque están deliberadamente diseñados para romperse rápido. Y los equipos de oficina tienen una obsolesencia aún más rápida.

De modo que si la presidenta CK lee mi artículo y por una vez decide hacerme caso –no lo hace jamás-, el ahorro de consumo obtenido, a medida que los aparatos derrochones vayan siendo reemplazados por otros ahorrativos, equivaldría a que a la Argentina le regalaran cada dos o tres años todo un río como el Atuel, con sus tres diques construídos, sus embalses llenos, sus centrales hidroeléctricas funcionando, y las líneas de alta tensión ya tendidas y distribuyendo corriente por todo el país. Ah, y sin deberle por ello un gomán al Banco Mundial, sus consultoras y sus empresas de ingeniería.

Pucha, como regalos, los he visto peores.

DANIEL ARIAS

BUENOS AIRES PIERDE SUS PLAYAS

Las playas bonaerenses más cercanas a Buenos Aires, tan desaforadamente anchas allá por 1950, ¿seguirán existiendo en el 2050? Entre el calentamiento global, que está acelerando la suba del nivel marino, y las políticas municipales de uso de este recurso, la respuesta es: no.

El caso de libro es el Partido de la Costa.

Este hiper-municipio une en una ringla los balnearios viejos y nuevos del litoral noreste de la provincia: San Clemente, Las Toninas, Santa Teresita, Mar del Tuyú, San Bernardo y Mar de Ajó, donde la fiebre de hiperconstrucción se volvió letal y alteró la pulseada entre sedimentación y erosión que estabilizan la playa a favor de la erosión. Las playas fueron adelgazando…

Entre 1992 y 1993 hubo sudestadas catastróficas: el mar saltó por encima del exiguo relicto playero y entró en estampida por las ciudades, rompiendo casas, destrozando calles y pulverizando negocios. Pasada la racha, la playa, que normalmente asume el perfil de un lomo de burro entre la pendiente hacia el mar y la pendiente hacia la base de los médanos, quedó chata, al ras del oleaje, mojada siempre, incluso en marea baja. No había un metro de arena seca donde tirarse a tomar sol.

Poco amigos de perder publicidad, en general no abundaron sobre esto. Pero lo recuerda bien el doctor Jorge Codignotto, geólogo especializado en morfología de costas de la Facultad de Ciencias Exactas de la UBA e investigador independiente del Consejo Nacional de Investigaciones Científicas y Técnicas (Conicet).

Y anuncia cosas por venir, según el doctor Vicente Barros, climatólogo de la carrera de Ciencias de la Atmósfera de la Universidad de Buenos Aires: “Antes de los ’70, había una media de 2,5 sudestadas severas por año. Ahora son 7, porque debido al cambio climático, de aquí a fin de siglo no sólo tendremos el mar entre 60 centímetros y un metro más alto en todo el mundo, sino que se desplazó unos 200 kilómetros hacia el norte el “ciclón” o centro emisor de este tipo de vientos”. Dicho de otro modo: ahora el anticiclón pega de frente.

El vientito sudoeste de todos los días es “pro-playa”: provoca olas que traen arena desde el fondo marino hacia la costa, y trabajan a favor de la sedimentación. Pero una sudestada machaza viene con olas de dos metros, montadas además sobre una “marea de tormenta” que levanta el mar otro par de metros más, como tirándolo de los pelos. Y este oleaje es totalmente “anti-playa”, erosivo: las olas penetran la costa en profundidad, y en su turbulento retroceso se llevan millones de toneladas de playa mar adentro.

El asunto es qué hacen entonces los representantes del pueblo y administradores de este recurso: ¿son sedimentarios o erosivos? Descúbralo a continuación.


El idiotario básico


Sigue la guía básica del perfecto destructor de playas. Por razones de espacio, aquí sólo se enuncian los tres principios básicos y un cuarto opcional.


Primeramente: nunca se olvide de que la playa debe ser la fuente de arena de la industria de la construcción. Codignotto calcula que el 90% de la construcción de la ciudad de Bahía Blanca se hizo con la arena de la cercana playa de Monte Hermoso. Y esos monoblocs playeros al estilo Berlín Oriental, tan bonitos, que se ven en el Municipio de la Costa, requieren de mucha arena. La playa, que se arregle. A fecha de hoy hay un solo intendente acusado por robo de arena, y en realidad se lo acusó de tantas otras cosas que quedó como nota al pie.


Segundo, que no haya diferencia entre playa y red de calles, como si la playa fuera una calle más. Dixit Codignotto, esto fue norma en todo el litoral arenoso al norte de Punta Médanos, y barrió enteramente con la primer línea de dunas, repositorio natural de arena de la playa, y segundo escalón de defensa de la ciudad ante las tormentas”. Haga como los genios inmobiliarios y municipales que arrasaron las dunas de Pinamar para crear una avenida costanera. Saque esos médanos de porquería que no lo dejan ver el mar. Y entonces verá como el mar viene hacia Ud.


Tercero: diseñe las calles en cuadrícula y asfáltelas bien. Las meandrosas calles de arena de Gessell, Pinamar o Cariló absorben agua de lluvia. Las calles rectas, asfaltadas, impermeables, en pendiente y que cortan la playa en ángulo recto, en cambio, forman raudales perfectos, Niágaras instantáneos. No hacen falta grandes lluvias para excaven grandes cárcavas en la playa, y arreen la arena mar adentro. Cada calle de Santa Teresita que intercepta la playa en ángulo recto, logra expulsar 10 toneladas de arena mar adentro –es decir un camión bien cargado- con cualquier modesta lluvia de 15 milímetros. Es lo que muestra la primera imagen aérea de Santa Teresita, una ciudad trazada y crecida como para quedarse sin playa en absoluto, y a punto de lograrlo.


Si con estos tres consejos Ud. logró transformar una playa de 100 metros de ancho en otra de 20 en menos de un cuarto de siglo y el turista ABC1 ya no pinta ni en foto, porque se le fue a Brasil o a Uruguay o a cualquier lugar donde Ud. no sea intendente, hay método otro infalible para completar su trabajo: siembre espigones. Para las constructoras es otro negocio redondo, resulta un buen modo de crear nuevos impuestos y además, se muestra obra: “Estamos salvando la playa, canejo”.

Estamos salvando a las constructoras, tal vez. La playa bonaerense tipo reacciona ante los espigones volviéndose discontinua e intransitable. Debido al vientito sudoeste, confiablemente pro-sedimentario, en la pared sur del espigón se amontona un triangulo de arena fuertemente escarpado. Pero a la misma altura del espigón, en su pared norte, ya no hay sedimentación de arena y Ud. ahí mira un pozo de dos o tres metros de fondo. El resultado total es una ringla de “pocket beaches”, playas de bolsillo, encerradas entre defensas de hormigón armado como no las construyó ni Rommel cuando hizo la Muralla Atlántica. Bellísimo. Miramar y Mar del Plata son ejemplos de libros de texto.

Pero a esta altura de las cosas le pueden parar el carro. Ya hay antecedentes. “En 1993 el Municipio rechazó un plan de construir una línea de decenas de espigones al estilo de los de esos balnearios, recuerda el biólogo José Dadón, investigador del Conicet, “un programa de 16 millones de dólares diseñado por empresas de construcción, ingenieros hidráulicos de la provincia, concejales y ningún geólogo en sedimentos”.

Quien pinchó este salvavidas de hormigón armado fue el ingeniero en costas holandés y argentino José Loschacov, invitado entonces como asesor del Municipio. Y usó argumentos que le presento a continuación:


¿Por qué nace o muere la playa?


Las playas bonaerenses existen gracias a un poco mentado mecanismo de transporte de arena: la “corriente de deriva”.

La cosa empieza cuando las olas aportan a la costa conchilla y roca pulverizadas oriundas del fondo marino. El grano de arena así ingresado al innumerable catálogo de nuestras playas queda un tiempo allí, en la berma litoral. Si es fino, el viento lo arrastra hasta un médano, donde se queda hasta que la primera sudestada fuerte obliga al médano a devolverle material a la playa, y el subsiguiente temporal se lleva parte de la playa al fondo somero del mar.

Hasta ahí, el grano hizo un viaje de ida y vuelta al mar en perpendicular a la costa. Pero como el oleaje viene casi siempre con una componente sureste debido al viento, cuando ese grano, algo más gastado, reingresa por tercera vez a la playa, “desembarca” un poco más al norte. Es lo que se ve en la imagen aérea de Santa Teresita: ahí Ud. ve la dirección general de los trenes de olas, y en el relicto de playa que queda, ve marcada la trayectoria zigzagueante de la arena en su camino hacia el noroeste.

Repítase el ciclo “n” veces, y se verá cómo un grano grueso de arena que inicia su profesión playera bastante grueso en Bahía Blanca puede terminar miles de años más tarde (muy adelgazado por tanto camino zigzagueante de mar a tierra y viceversa) en Punta Rasa, al norte de San Clemente. La “corriente costera de deriva” vuelve así a las playas bonaerenses una especie de larguísima cinta transportadora de arena, con dirección general hacia el norte. Que es adonde la arena es más fina y bonita, porque llega más gastada y molida.

Un bosque implantado para fijar médanos interrumpe un poco el componente eólico de esta cadena, algo que muestra que es imposible mejorar un paisaje sin empeorarlo también un poco. En fin, habría que ser idiota para quejarse de los bosques que han vuelto habitable y visitable la antaño árida costa marítima porteña, pero otro asunto son los edificios de departamentos. Un frente de consorcios altos “con vista al mar”, construídos cuadradamente sobre la playa, eso es desastre en fija. Al norte de esa barrera, la playa se queda inmediatamente sin arena de la de reposición eólica. Allí se corta un eslabón de la corriente de deriva.

Si Ud., como intendente progresista (y algo amigo de las constructoras) además eliminó la línea de médanos para hacer una avenida costanera, la playa ahora queda como una cuenta corriente de arena a la que de pronto le falta el “back-up” de una caja de ahorro, o de unos buenos plazos fijos. Dos o tres retiros fuertes, y te quedás sin fondos. Los retiros fuertes se llaman sudestadas severas, y ya le conté que cada vez son más en cantidad y gravedad.

Las imbecilidades municipales obran sobre un único componente de la corriente de deriva: el sedimentario. Literalmente, lo liquidan. Pero el componente erosivo de la corriente de deriva sigue trabajando, y está cada vez más activo debido al cambio climático: el mar sube.

El asunto es que a fuerza de hacer calles en cuadrícula, pavimentarlas, y permitir construcciones cuyo factor de ocupación de cada terreno (el famoso FOT) terminan sepultando los balnearios bajo asfalto y cemento, se logran tres cosas:


a) La playa desaparece, pero el balneario sigue adelante como puede con la vida nocturna. Un dealer, ahí.


b) El tejido urbano resultante se parece tanto al del conurbano porteño que el turismo ABC1 abandona el lugar.


c) Desaparece el agua potable.


Brindar con agua mineral


Esto último merece una explicación aparte: las costas medanosas bonaerenses tienen pequeños acuíferos de agua dulce, que se recargan constantemente con las lluvias, que en general superan los 1000 milímetros anuales. La recarga es fácil, porque la arena es MUY permeable.

Bajo las arenas del balneario y la playa, este acuífero necesita bastante presión para no ser desplazado por otra masa de agua contenida en la arena y con la que generalmente se topetea pero no se mezcla: la marina, que es salada. Si el acuífero costero pierde presión, empieza a ser desplazado y empujado tierra adentro por el “frente” de agua marina. Y entonces las canillas de la ciudad, alimentadas por pozos municipales, de pronto empiezan a escupir agua salada.

¿Ud. conoce mejor modo de despresurizar un acuífero dulce que ponerle encima una tapa impermeable, de modo que la lluvia no se pueda infiltrar y recargarlo? Lo lograron plenamente en sitios como San Clemente, ciudad tan de cemento y asfalto que ahora debe traer el agua potable desde tierra adentro, por cañería y a través de muchos kilómetros de distancia.

Pero el crecimiento urbano desmedido tiene más modos de estropear los acuíferos costeros, a través de los pozos ciegos. Los intendentes son rapidísimos para permitir construcción en altura y de alta densidad, pero hábleles de hacer redes cloacales y conectarlas a plantas de tratamiento de efluentes líquidos, y se ponen lentísimos. ¿Ud. vio alguna planta de tratamiento en algún lado del litoral bonaerense?

El resultado es que incluso en sitios “paquetes” y que vienen escapándole a la impermeabilización inmobiliaria, como Cariló, el agua de pozo –la que sale por las canillas- tiene un contenido bacteriológico que mejor no veas. Ahora si lo que Ud. toma es agua “potable” de la red de Costa del Este, otro sitio finolis, se entera quiera que no, porque se va a pescar una diarrea heroica por coliformes. Ahí se vive de agua envasada.

¿Empieza a ver el cuadro completo? Lo invito a sacar conclusiones.

En 1993 el Municipio de la Costa le dijo que no a las constructoras y sus espigones, pero no se atrevió a la solución heroica que ofrecía el doctor Federico Islas, Director del Centro de Geología de Costas de la Universidad de Mar del Plata. El especialista propuso que en los balnearios más amenazados se arrancaran las primeras manzanas de edificación costera (glups) y se suplantaran reconstruyendo artificialmente la vieja línea de médanos.

A fecha de hoy, esa salida drástica sigue careciendo de campeones que la defiendan. Si no surge alguno, con el cambio climático operando en contra, los sitios con gran sobreconstrucción costera como San Clemente y Santa Teresita, cuyas playas ya prácticamente desaparecen solas cada invierno, están condenados. Van a ser ciudades fantasma, y con frentes demolidos por el mar.

El 29 de noviembre de 2006, el gobernador Felipe Solá inauguró el fin de la complacencia bovina de la Provincia frente a las tropelías municipales, y sacó el decreto 3202 para reglamentar la ley Nro. 12.257. Los médanos se vuelven intocables (donde todavía quedan), las urbanizaciones nuevas deben limitar el tamaño de sus frentes marítimos, los FOT nuevos son bajos para tratar de que los nuevos emprendimientos no superen los 60 habitantes por hectárea, queda prohibido construir nada sobre los médanos que no sean pasarelas flotantes, y detrás de los médanos hacia tierra adentro hay que alejar la construcción entre 30 y 50 metros de la línea de base, según el caso… etc.

Mi sensación es que, en los balnearios ya existentes, Solá cerró el establo cuando ya el caballo se había escapado. Pero tal vez la reglamentación de la ley frene un poco las bestialidades nuevas que se tratarán de perpetrar en los decrecientes espacios despoblados.

Daniel Arias


Cohete Tronador: escalera argentina al cielo

Hace dos meses la Argentina, cuya población cree que dejó atrás toda pretensión de construir cohetes en 1990, se sorprendió de saber que en 2008 había lanzado, sin mayor ruido mediático y exitosamente un par de cohetes experimentales de diseño propio, el Tronador I y el II.

Y va por más: la Comisión Nacional de Actividades Espaciales, motor de este desarrollo, quiere hacer más vehículos de potencia siempre creciente hasta que en 2012 se llegue a un Tronador 2.2 de casi 20 metros de altura y más de 57 toneladas de peso, una bestia capaz de inyectar en órbita un satélite de 200 kilos a unos 500 kilómetros sobre la Tierra. Cuando esto suceda –y probablemente sucederá-, seremos el octavo país del mundo en tener capacidad propia de satelización, y un posible competidor en el mercado de la puesta en órbita.

Siguiendo tradiciones de su director, el Dr. Conrado Varotto, la CONAE no hizo mayor secreto del asunto Tronador, pero no avisó a los medios. La cosa se supo mucho más tarde en el curso de un taller para 35 sorprendidos periodistas científicos organizado por el Ministerio de Ciencia de Córdoba en el Centro Espacial de la CONAE en Falda del Carmen; donde tratamos el tema el doctor José Astigueta, por parte de la CONAE, y luego yo como periodista independiente invitado. La Voz del Interior sacó el asunto en tapa, al día siguiente lo hizo La Nación, y durante dos o tres días fue un tema nacional.

Es que ésta es la historia de un triunfo de la voluntad, esas cosas que en la Argentina suceden más bien poco. Si hoy, cuando este desarrollo está sucediendo, cuesta creerlo, hace una década, cuando todavía el país era esclavo del –valga la contradicción- pensamiento menemista, era impensable.

Sin embargo, la idea de que la Argentina volviera a tener una escalera propia al cielo nació en lo más hondo de ese período llamado el “Apocalipsis cholulo”. En 1998 Varotto se sometió a que yo lo reporteara por parte de la entonces llamada revista XXI –con la misma alegría con la que uno va al dentista– y le pregunté sobre su proyecto de cohete, que entonces no se llamaba Tronador sino VENG (Vehículo Espacial de Nueva Generación). El diálogo se dio así:

–¿Qué va a tener de avanzado el VENG?

– Todo. El sistema de propulsión, el de guiado, los materiales. Todo.

–Clarín habló de combustible líquido. ¿No será hidrógeno, verdad? ¿O se trata de hidrocarburos almacenables a temperatura ambiente?

–No descartamos nada. Es todo lo que te voy a decir.

–¿Y el sistema de guiado?

–No te pienso decir nada. Va a ser avanzado. Punto.

–¿Y los materiales? ¿Plásticos compuestos? ¿Metales reforzados? ¿Cerámicas especiales?

–Nada. No te voy a decir absolutamente nada, Arias.

Y así quedaron las cosas.

Vale volver a insistir: esto fue publicado en 1998, con una industria nacional arrasada, el país ya reconvertido a sultanato sojero con vista a la City porteña, el programa nuclear desmantelado por tres gobiernos al hilo (Alfonsín, Menem y más Menem), el programa aeronáutico destruído y entregado a la Lockheed Martin, los sistemas educativo y científico en sus máximos históricos de inopia, disgregación e inefectividad. ¿Quién lo iba a creer?

Peor aún, el doctor Conrado “Franco” Varotto, quien decía sin dudar que iba a construir un cohete, estaba al frente de la primer agencia espacial del mundo hecha para NO hacer un cohete. En efecto, la primera misión de la CONAE fue sustituir decorativamente a la vieja Comisión Nacional de Investigaciones Espaciales (CNIE). Aquel organismo de la Fuerza Aérea tenía tres décadas de experiencia en cohetería de combustibles sólidos, y fue clausurado –las instalaciones casi fueron dinamitadas– en uno de aquellos ataques de relaciones carnales del canciller Guido Di Tella. Y eso porque la CNIE se había atrevido a desarrollar los misiles Cóndor I y II.

LLEGAN UN ZORRO Y UN FIERRERO.

Nacida la CONAE bajo tan malos signos, reconozco que a lo sumo yo esperaba que se dedicara a la decoración interior de congresos con posters satelitales. Nunca habría creído que tendría suficiente cabeza y cintura como para romper el molde criollo de “la ciencia por la ciencia misma”, y disciplinara las fuerzas dispersas del sistema nacional de investigación tras un proyecto estratégico y útil, un “fierro” concreto que le diera competitividad al país y dejara know-how en ingeniería. Y sin embargo, sucedió. Sólo que muy de a poco y sin levantar polvareda.

La historia sucedió así. Uno de los primeros administradores de CONAE, el astrónomo Jorge Sahade, desempolvó el proyecto de satélite científico SAC-B (un detector de grandes fuentes explosivas cósmicas de rayos X), viejo proyecto alfonsinista. Obviamente, La Embajada –que había presionado desde 1983 por el desmantelamiento total del proyecto Cóndor de la CNIE- no tenía nada en contra de este aparato, que no le daba pie a la Argentina ni siquiera para volverse un jugador marginal en el mercado de la observación de la superficie terrestre.

Pero Sahade era un zorro viejo: hizo construir el tal aparato por INVAP, la firma barilochense de tecnología nuclear, último bastión del know-how atómico del país, que en aquel momento se desangraba por dos tajos terminales en yugular y carótida: el doctor Carlos Menem, siguiendo lo iniciado por el doctor Raúl Alfonsín, había hundido a la CNEA (primer mercado de INVAP) y luego Di Tella le había cerrado el acceso a Medio Oriente (su segundo mercado).

El SAC-B, y luego el C, contribuyeron a salvar a la única firma de alta ingeniería del país. Ésta ya sabía hacer reactores, pero el diseño y construcción de ambos satélites le significaron algo más de 15 millones de dólares, lo que en momentos de apuro terminal le permitieron evitar el cierre. Pero de yapa, aprendió arquitectura de satélites. Hoy INVAP avanzó de tal modo en ese nuevo negocio que además de estar construyendo y diseñando tres aparatos gigantes para la CONAE (al SAC-D Aquarius, y los SAOCOM I Y II), de paso y cañazo recibió contratos para armar dos satélites de comunicaciones (los más complejos de todos, a 200 millones de dólares por pieza) para la firma AR-SAT.

Entre tanto, la CONAE se dispone a construir “en casa” (es decir en Falda del Carmen) su línea satelital compacta, la de los satélites SARE. La capacitación total dejada en el país es simplemente enorme. Es para sacarse el sombrero. Y se ignora, pero sucedió.

Cuando se fue Sahade entró a la CONAE Varotto, fundador de Invap, director del proyecto de enriquecimiento de uranio de Pilcaniyeu de la CNEA, el hombre decisivo en la exportación de los primeros reactores nucleares argentinos a Perú y Argelia. Varotto hizo lanzar al espacio el SAC-B heredado de su predecesor y se encogió de hombros cuando el satélite murió en órbita por falla del cohete experimental que nos habían endilgado los Estados Unidos, el Pegasus XL.

“El Petiso”, nombre casi oficial de Varotto, a esa altura de su carrera ya un “fierrero” legendario, se encogió de hombros, porque tiene otro tipo de cabeza. En oposición a la ciencia dispersa típica de la Argentina, lo de Varotto son los grandes proyectos estratégicos, audaces, aplicados, concretísimos y terminados. Entró, husmeó y “dio vuelta” a la CONAE: la puso a mirar para abajo. Desde su llegada, en pleno menemismo, toda la línea de satélites planificada por la casa (SAC, SAOCOM y SARE) se diseña para observar la Tierra y generar información de utilidad directa para la economía, las empresas y el gobierno.

Cómo hizo Varotto para venderle al gobierno más vendepatria que recuerda la historia argentina un proyecto tan a contrapelo de su filosofía, es un misterio. Pero lo hizo.

¿VAMOS AL ESPACIO A DEDO?

Con su satélite SAC-C, Varotto inventó además dos cosas rarísimas: cómo ir al espacio “a dedo” y “en vaquita”. Con las tres novedosas cámaras que le puso a bordo (diseño by INVAP), Varotto le vendió el SAC-C a la NASA como un posible generador complementario de información óptica sobre agricultura y medio ambiente, capaz de funcionar en red con los satélites yankis Landsat 7, Eos y Terra.

Convencida, la NASA “se puso” con el lanzamiento (12 millones de dólares gratis, qué tal). Simultáneamente, para embretar a más países en el SAC-C y diluir costos para la Argentina, Varotto logró que no sólo los Estados Unidos sino también Italia, Francia y Dinamarca pusieran sensores a bordo de la plataforma. Y con esta “vaquita satelital” creó uno de los aparatos orbitales más complejos de la historia: tiene once sensores a bordo, cuando la media en la industria es de dos y gracias. En INVAP, donde maldecían en japonés cada vez que “El Petiso” se llegaba con un nuevo país-socio y sus sensores, se volvieron locos para empaquetar tantas cosas en 480 kilos de satélite, y que todas funcionaran sin interferirse entre sí.

En lo político y organizativo, a la CONAE hoy le viene al pelo formar parte de la Cancillería (lugar donde la puso Di Tella para tenerla vigilada), porque su abordaje del modo de ir al espacio (en vaquita y a dedo) depende mucho de la diplomacia argentina. Es más, se ha vuelto una rama nueva de la misma. No es lo mismo –como lo descubrió Cristina Kirchner- irse al norte de África a fomentar comercio bilateral con esa región cuando uno ya tiene vendidos un par de reactores nucleares en la zona, y además puede ofrecer satélites. Y en la posición de país respetable en este rubro nos colocó el SAC-C. Lanzado a fines de 2000, este multisatélite ya ha durado tres años más de lo esperable; debe estar bien hecho. Si los satélites fueran autos, éste es un Mercedes Benz o un Volvo.

Tras semejante seguidilla de goles, cuesta, o más bien duele volver mentalmente a 1998, cuando Varotto anunció el cohete VENG (hoy Tronador). El SAC-B había fallado, el SAC-C no existía y había que tener la fé de un santo para pensar que alguna vez se construiría. A la CONAE no la conocía ni su madre y, ventanas afuera de la agencia, reinaban unas relaciones carnales que otra que el Kama-Sutra. Y Varotto, en semejante año, hablando de hacer un cohete argentino. Mi artículo en XXI lo leyó muy poca gente y no lo creyó nadie. A duras penas, yo. Y algunos otros que sabemos que El Petiso rara vez habla al cuete, incluso hablando de cuetes.

Hoy estamos en otro mundo. La primera novedad es que la CONAE ya hizo tres de esos cohetes Tronador. La segunda es que funcionaron. Y la tercera es que se vienen más, uno en 2009, otro en 2010, otro más en 2011 y el que probablemente termine siendo nuestro “jeep” espacial multipropósito: el Tronador 2.2, en 2012.

La Argentina viene subiendo cosas a órbita desde 1998, pero ya no tendrá que llegar ahí a dedo.

UN CUÉTE NADA MILICO

Los cohetes pueden usar combustibles sólidos o líquidos. Los militares aman los primeros: son livianos, portátiles y se disparan a toque de botón. Como contra, una vez encendidos no se pueden apagar, de modo que lo único controlable es la dirección, pero el tiempo de vuelo y el alcance o altura máximas vienen “preseteados”. En plan de una puesta en órbita de precisión, los cohetes sólidos tienen entonces las mismas desventajas que un hacha para la neurocirugía. Nacido como misil militar y por ende más cerca del hacha que del bisturí, el Cóndor II tampoco era un buen hacha, es decir un buen misil: poco preciso por la falta de un buen sistema de guiado, no le podía pegar a nada. Esto no significa, a mi entender, que abortar el proyecto haya sido bueno para el país.

Los cohetes de combustible líquido, a diferencia de los sólidos, se pueden encender y apagar a voluntad: son muy controlables. En revancha, como misiles resultan bastante inútiles. Eso lo descubrió Saddam Hussein en 1991: sus Scud soviéticos eran pulverizados a bombazos en tierra en las dos o tres horas que tomaba irlos cargando –con los dedos cruzados– de líquidos altamente volátiles, tóxicos e inflamables como la hidracina. Aún subidos en camiones que los dispersaron por todo Irak, ocho de cada diez Scud de Hussein fueron “embocados” en tierra sin llegar al disparo.

En realidad, los últimos misiles líquidos de la historia que tuvieron cierto éxito militar fueron también los primeros: las bombas voladoras V-2 de Werner Von Braun en el ’44 y el ‘45. Pero el propio Von Braun, tras una seguidilla de explosiones en torre de lanzamiento durante el desarrollo de este arma, decía que el secreto estaba en volver la V-2 un poco más peligrosa en el sitio de aterrizaje que en el de disparo.

Los Tronadores tienen propelentes líquidos almacenables a temperatura ambiente (hidracina como combustible y ácido nítrico como oxidante): nada nuevo bajo el sol. Hay otras mezclas líquidas, las criogénicas (hidrógeno líquido enfriado a 271 grados bajo cero, y oxígeno líquido, a 160) que dan mucha mayor potencia por kilo de combustible y oxidante, pero le quedan muy lejos a la industria y la tecnología locales. Y es que la idea de la CONAE es la de tener un cohete nack & pop, 100% argentino, un fierro “cincuentoso” por los líquidos que quema, pero muy moderno por electrónica y materiales, algo que se pueda construir sin que naides nos deje en tierra al negarnos algún componente crítico importado. Y si ésa es la idea, cierra por todos lados.

El Tronador 2.2 está, además, muy pensado en relación a la próxima moda satelital. En materia de observación terrestre, en lugar de pocos aparatos que andan cerca de la tonelada de peso o arriba, se empieza ver es que es mejor tener varios satélites mucho más livianos, sencillos y sin tanto sistema duplicado, sin tanto back-up. ¿Y por qué? Porque cuando muchos minisatélites funcionan en red, el dueño multiplica la capacidad de observación: mientras duren, ven más y mejor y con más frecuencia dos aparatitos que uno solo grande. Y si se te cuelga uno, te queda el otro. Así nace conceptualmente la línea de satélites livianos SARE de la CONAE, que andarán por los 200 kilos la pieza. Y el Tronador en su versión 2.2, el que Varotto quiere lanzar en 2012, está pensado a medida para la tarea

Dicho todo esto, se entiende que cuando la CONAE lanzó sus Tronadores T1, T1b y VS-30 con combustibles líquidos, el mensaje no expresado de su organismo rector, la Cancillería, es bastante claro: “Boys, estamos en la industria de la puesta en órbita. Y sin pisar ninguna delgada línea roja, ¿ok?”.

En esto de no ofender a los países condoricidas se llega a la exageración. Cuando en junio del año pasado y mayo del corriente se lanzaron los Tronador I y IB desde las inmediaciones de la Base Naval de Puerto Belgrano, La Embajada (sí, ésa) figuraba en la lista de invitados. La segunda vez, ni se calentaron en venir. No somos una preocupación.

En el interín, en diciembre de 2007, se ensayó desde Natal, Brasil, un “combo” argento-brasuca: un Tronador líquido montado como segunda etapa sobre una primera brasileña de combustible sólido. Los brasileños usaron el dúo para mandar una carga científica a una altura suborbital de 140 kilómetros, y la CONAE aprovechó para testear los sistemas de guiado y control de la etapa líquida. Destaco el asunto, porque es uno de los pocos campos en que los brasileños, en general remisos a meterse en asuntos espaciales con la Argentina, nos tienen que tratar como a iguales, les guste o no.

Y es que ellos están muy lejos de tener la vaca atada. El desarrollo de cohetes líquidos tiene sus yeites: en 2003 un VLS brasileño estalló en la base de Alcántara al momento del lanzamiento y mató a 23 miembros del programa espacial de nuestros vecinos. Cosas que pasan en este tipo de emprendimientos. El que no quiera pagar el precio del algún accidente –y esto es mejor decirlo ahora- tiene la opción es hacer la plancha y quedarse afuera de la industria, como comprador bobo.

Y no vale la pena serlo porque la Argentina resulta, quiera o no, un sitio espacial, y no porque haya puesto a Gardel en la Luna sino por ser el octavo país del mundo en superficie, y también una economía muy agrícola, y de paso también uno de los países más proclives del planeta a catástrofes naturales, y como remate, el dueño de una población escasa, cuya pésima distribución genera grandes vacíos geográficos de información. Para enterarse de en qué anda su agricultura o cuál es el contenido de humedad de sus suelos, o qué bosque se está por incendiar, y dónde y cuánto, la Argentina necesita de información generada por satélites propios, cuyo tiempo de uso esté disponible al toque y que no haya que andar mangueando a otros países.

Eso explica por qué hay que tener satélites propios, ok. ¿Pero cohetes también? Miremos las cuentas. Alquilar lanzadores de otros países anda por los 12 millones de dólares el viaje, y eso si se consigue pasaje, que puede haber demoras de años. En contraposición, como dijo el doctor “Pepe” Astigueta, a cargo del proyecto Tronador, el desarrollo completo desde el primer prototipo flaquito suborbital de 2007 hasta el monstruo 2.2, capaz de satelizar 200 kilos de 2012, costará 4 millones de dólares.

¿Es negocio?

Es negocio.

Daniel E. Arias