Archivo para la categoría ‘Educación’

CAREM 25: PRIMERA CENTRAL NUCLEAR 100% ARGENTINA

Daniel Arias

El recipiente de presión del CAREM dentro de su contención

En una Argentina donde los ahorros se fondean en departamentos, un agujero en la tierra sólo es novedad cuando, trágicamente, se derrumba el edificio adjunto. Pero la excavación que motiva esta nota da más bien para celebrar: está en Lima, provincia de Buenos Aires, al lado de las centrales nucleoeléctricas Atucha I y II, y albergará los cimientos de una unidad mucho más pequeña pero conceptualmente mucho más avanzada: el CAREM 25. El prototipo estará terminado en 2014, y podría entrar en línea en 2015.

La decisión de construir esta planta marca como ninguna el fin de una paradoja criolla: entre los años ’80 y ’90, la Argentina logró volverse el más respetado exportador mundial de pequeños reactores “de investigación”, término genérico que incluye desde laboratorios de nuevos materiales a unidades escuela para formar ingenieros, químicos y físicos nucleares, y fábricas de radioisótopos de uso médico por otra parte. Los reactores de investigación hacen de todo, salvo algo tan elemental como fabricar electricidad. Esa es tarea exclusiva de las centrales.

¿Cómo se comparan ambos mercados? En una década típica, en el mundo se venden 4 o 5 reactores de investigación, por precios entre 200 o 300 millones de miles de dólares según su complejidad. Las centrales arrancan más arriba: salen miles de millones por unidad, hay 432 operando, se están construyendo 44 (mayoritariamente en Asia), y Yukiya Amano, director general del Organismo Internacional de Energía Atómica, dice que pese al accidente de Fukushima, y por pura necesidad, para 2030 se vienen entre 190 y 350 nuevas.

El CAREM sería una muy pequeña puerta de entrada a este Coliseo. Pero para un gladiador que se las trae.

Desde 1987, la Argentina –en general a través de INVAP- le vendió reactores a Perú, a Argelia, a Egipto y Australia. Siempre por calidad de oferta, jamás por precio, en general logró demoler a la competencia canadiense, francesa, japonesa, coreana, rusa y estadounidense. En 2009 les ganó de nuevo “en cancha de ellos” cuando se llevó la licitación del reactor Pallas en Holanda, pero justo a tiempo para que el gobierno holandés se quedara sin dinero para la obra.

Lejos de tanta gloria, de fronteras para adentro, olvidada u hostigada por muy distintos y sucesivos gobiernos entre 1982 y 2005, la institución madre, la Comisión Nacional de Energía Atómica (CNEA), moría en una Siberia de obras paradas “ad aeternum” y elencos humanos que se iban desintegrando de puro viejos, sin reposición. Su obra emblemática de esta época fue la central Atucha II, de 750 megavatios, diseñada por la Siemens de Alemania, completada por Nucleoeléctrica Argentina SA (NA-SA) este año, con veinticuatro años de demora y sin los alemanes (que se auto-eliminaron del escenario nuclear).

En este cuadro, la construcción del CAREM es un milagro de tercer grado, porque desde su presentación en congresos en 1984, la idea soportó un ninguneo triple: por un lado, la indiferencia de la clase política argentina hacia el conocimiento complejo, por otro, la hostilidad post-Chernobyl de más de un cuadro partidario hacia lo atómico en particular, y por último, el escepticismo aún más específico de los gurués energéticos ochentistas hacia las centrales chicas.

Si se sumaran las capacidades instaladas de ambas Atuchas más la de la central nuclear cordobesa de Embalse, entre las tres podrían iluminar a casi 7 millones de Argentinos, mientras que el pequeño CAREM 25 abastecerá a  sólo 100 mil. Y es que no vino a resolver ninguna crisis energética. Está para otra cosa: será el “showroom” global argentino en un asunto que se está poniendo de moda: las minicentrales nucleares con “seguridad inherente”. La Argentina pudo convertirse en exportador mundial de reactores sólo cuando construyó el modesto RA-6, de Bariloche, y algunos países chicos lo examinaron de arriba abajo y dijeron “¡Quiero!”. Y luego siguieron países grandes.

A partir de 2015 y con el CAREM en línea, empieza la movida nacional para exportar centrales. El viento de cola, recesión y todo, lo pone el planeta: por un número de causas más poderosas que las meramente financieras (entre ellas, 7000 millones de humanos atrapados entre el recalentamiento global y el agotamiento del petróleo barato) hoy las minicentrales nucleares son “hot” (ver recuadro). Se organizan congresos internacionales al respecto, y Rusia ya construyó una flotante, el barco Lermontov, de 100 megavatios, para dar potencia a costas remotas. Y va por once barcos-central más.

Viejos y nuevos problemas

Debido a su simplicidad minimalista, en los años de vacas más flacas del Programa Nuclear Argentino (1982 a 2005), el CAREM fue despertando fanatismos ingenieriles. En su tránsito desde la CNEA a la empresa rionegrina INVAP, y luego, por ley nacional 26.566, de regreso de Bariloche a la CNEA, el proyecto fue reclutando una guardia pretoriana de ingenieros, físicos y decisores quienes, a lo largo de 27 años, peso a peso y contra viento y marea, apostaron y aportaron a esta idea no sólo miles de horas/hombre de diseños y rediseños, sino –y esto hace diferencia- en la construcción y testeo de modelos físicos de todos sus combustibles, sistemas y subsistemas. Hasta se construyó un prototipo del prototipo, un minúsculo reactor nuclear (el RA-8) en Pilcaniyeu, Río Negro, únicamente para ensayar los combustibles del futuro CAREM. Paradójicamente, el CAREM hoy sólo es un agujero en el suelo, pero ya ha sido probado. Y una vez construído, volverá a pasar un año entero de pruebas “en frío”, sin combustible nuclear, sistema por sistema.

Hubo próceres sin busto que se jugaron fama y prestigio durante la etapa adversa, como el lamentado Dan Beninson, presidente de la CNEA entre 1998 y 1999 y antes presidente de la Comisión Internacional de Protección Radiológica. Por supuesto, no podían faltar Conrado Varotto, creador de INVAP y luego de la actual Comisión Nacional de Actividades Espaciales (CONAE), y Héctor Otheguy, actual CEO de INVAP. Y la lista sigue: decenas de expertos de ambos sexos que ganaron canas o perdieron el pelo por este concepto, y sin mayores esperanzas de ver la luz al final del túnel.

La excavación de los cimientos y el presupuesto de 2012 ya “abrochado” indican que el túnel quedó atrás, y ahora los problemas son otros. Para la presidenta de CNEA, la doctora Norma Boero, vienen de dos tipos: por una parte, durante su largo exilio institucional, la CNEA se quedó casi sin generación intermedia. Hoy los elencos se componen de sexagenarios que saben “un vagón” y de treintañeros brillantes, pero poco acostumbrados a trabajar en equipo. Por otra parte, hay que atajar a las multinacionales que ofrecen fortunas por llevarse la tecnología del CAREM a casa (“Despreocúpense, argentinos, les construimos el aparato y no ponen un centavo”). Se les contesta con amabilidad que, con tanto valor ya agregado aquí y cierta expectativa mundial por el producto, hoy tenemos tanta necesidad de socios como de un agujero en la cabeza. No siempre fue así (ver recuadro).

Tras una exposición internacional, un ingeniero de la KAERI, el poderoso organismo atómico de Corea del Sur (que emplea 35.000 personas, 10 veces más que todo nuestro programa nuclear sumado), observó: “¡Qué parecido que es al SMART nuestro!”. Se le contestó que sí, efectivamente, muy parecido, ya que el de ellos se copió del CAREM. Si la imitación es el mejor homenaje, el CAREM –desgraciadamente- ha sido muy homenajeado. Lo que no tienen el SMART, o el IRIS (un homenaje estadounidense), u otros diseños “CAREM-like” (así se los llama) rusos, japoneses, chinos y suecos son casi tres décadas de empecinado desarrollo y testeo físico de cada componente. Lo único que le sobra a la centralita criolla, tan minimalista, son competidores. Habrá carrera, y fuerte, pero este país larga en la “pole position”.

“Si afuera apostaron a que no lo hacíamos, no los culpo. Pero se van a dar una sorpresa”, gruñe, feliz, José Boado Magan, gerente de este proyecto en la CNEA. Boado pasó en dos años de dirigir 11 personas a 150 especialistas, a los que se suman otros 150 expertos de otras gerencias. Hoy se lo ve vigilante, en medio de la polvareda de obra, con sus enormes brazos en jarras, entre un ir y venir de camiones, topadoras, grúas. El sitio empieza a respirar ese aire de caos organizado de los proyectos de ingeniería.

El segundo CAREM, a construirse en Formosa, tal vez llegue a 150 megavatios (el consumo de 600.000 argentinos) y arroje luz sobre cuál será la potencia ideal para la fabricación en serie. La filosofía de seguridad pasiva (el núcleo se refrigera solo, sin bombas de agua) impone límites de tamaño que habrá que investigar. Pero después del accidente de Fukushima, hay un nuevo mercado mundial capaz de aceptarlos e incluso desearlos.

Y “aquí en casa”, el CAREM no mejorará mucho la escasez de electricidad, pero en un par de décadas, sí podría hacerlo con el perfil de país. Cuando lleguen pedidos, el Programa Nuclear deberá generar y capacitar a nuevos proveedores, obligará a las universidades a reclutar ingenieros y a especializarlos, y abrirá miles de puestos de trabajo industrial exquisitamente calificado.

El CAREM no es una joya de la abuela: es de los nietos. Como dijo otro prócer de la CNEA, el ya jubilado Carlos Aráoz, “Aquí el negocio nuclear es de tecnología. No pasa por iluminar lamparitas, sino empresas y cerebros. El problema es que para entender eso hacen falta cerebros”.

RECUADRO UNO: LA LÓGICA DE LO CHICO

El razonamiento energético en materia de energía se ha vuelto más sofisticado que en los ochenta. Para los gurúes de aquellos años, a menor potencia instalada en una planta de generación, más cara debía resultar su electricidad. Y el Primer Mundo, donde la potencia instalada de la central nuclear tipo pasó de los 600 a los 900, y de ahí a los 1200 y hasta 1600 megavatios en tres décadas (todo para abaratar el kilovatio/hora nuclear), parecía darles la razón.

Pero a los partidarios del gigantismo se les escapó la tortuga por varios lados:

  • Cada vez más lastrados de sistemas activos de seguridad, los aparatos grandes vieron escalar su costo inicial de 1500 U$ en los ’80 a 6000 U$ y más y más (por kilovatio instalado).
  • No todos los países son desarrollados. Y los que no lo son, andan cortos de plata y de tendidos eléctricos, y las megacentrales les resultan tan asequibles y prácticas como al lector tipo un camión de doble acoplado para hacer las compras.
  • CAREM es el acrónimo de “Central Argentina de Elementos Modulares”. Es una unidad chica capaz de acoplarse modularmente en conjuntos mayores que compartan servicios, como quien le suma pilas a una lámparita. Con lo que produce el primer CAREM, se va pagando el segundo, y luego el tercero, etcétera. Se accede a la economía de escala de a poco.
  • La fabricación en serie de componentes –como demostró Henry Ford hace ya un siglo- abarata todo.
  • Los países con territorios gigantes (y la Argentina es el 9no del planeta) suelen necesitar “oasis eléctricos” en sitios alejados de las líneas de alta tensión, especialmente en desiertos o islas donde hay proyectos mineros y/o una necesidad imperiosa de desalinizar agua subterránea o de mar.
  • Por su seguridad “inherente”, o “básicamente pasiva”, el CAREM debería estar al menos 20 veces menos expuesto a accidentes del núcleo que sus equivalentes grandes de última generación, y esto porque el núcleo se refrigera solo, sin bombas, por convección.
  • El argumento de jaque mate: este primer prototipo sale con un 70% de componentes nacionales y 100% de ingeniería local. La Argentina se lo puede vender a medio planeta sin reclamos judiciales por infringir patentes o propiedad tecnológica.

RECUADRO 2: DOS PAÍSES QUE CASI COMPRAN

La situación de “vedette” del proyecto CAREM es enteramente nueva. En 1986, en pleno apagón nuclear criollo, cuando no se le decía no a un salvavidas externo, el parlamento turco en pleno votó colocar 180 millones de dólares en un CAREM en suelo propio, si la Argentina hacía lo mismo y transfería la tecnología. Y luego, a producir en serie y exportar “miti-miti”, ellos y nosotros, a 20 países potencialmente compradores.

La negociación la fogoneó el embajador Adolfo Saracho, y tan bien que el presidente de la TAEK, la Comisión de Energía Atómica de Turquía, vino repetidamente a la Reina del Plata para cerrar trato, pero a partir de julio de1988 se encontró con un nuevo presidente argentino y la negociación –para sorpresa de nadie aquí, pero sí de los turcos allá- abortó.

En 2001, con las vacas nucleares criollas aún más macilentas, la multinacional japonesa Hitachi vino también a ver si se llevaba el proyecto. No lo hizo. Vistas las cosas desde la perspectiva actual, no deja de ser afortunado.

RECUADRO 3: MAYOR SEGURIDAD A MENOR         PRECIO

De esta centralita minimalista, lo que gana el corazón de un ingeniero es su elegancia y simplicidad conceptual, justamente la base de su seguridad “inherente”, que califica al sistema como “de tercera generación plus”.

El CAREM es un PWR, “Pressured Water Reactor”, es decir que se refrigera con un circuito primario de agua liviana. Pero su diferencia básica con el PWR tipo es que en el CAREM el agua circula por su núcleo sin necesidad de bombeo, inevitablemente, por convección: al calentarse el agua en el fondo del recipiente de presión, baja de densidad y sube, fin de la historia. Pura física.

Eliminadas las bombas (que se pueden romper y necesitan otras de “back-up”) se elimina también la necesidad de la electricidad de red para tales bombas (lo que fracasó en Fukushima, por el terremoto que volteó las líneas eléctricas). De yapa, se elimina los varios generadores de back-up para energizar las bombas, en caso de apagón nacional. En las centrales de Fukushima (plagadas de errores de diseño), tales generadores estaban a pie de planta, en sitio inundable y el tsunami los dejó knock-out.

Si se compara el diseño “tercera generación plus” de un CAREM con otros reactores de agua presurizada de 2da generación, como las Atuchas, se notan más simplificaciones que aumentan la seguridad. No hay presurizadores para impedir que el agua (calentada a 340 grados) hierva: el reactor se autopresuriza a 150 atmósferas. Tanta presión vuelve vulnerable de pinchadura toda cañería que salga del sistema de enfriamiento primario rumbo a los generadores de vapor, pero el CAREM no las tiene. Los propios generadores de vapor están metidos adentro del primario, en el sitio más blindado del sistema: el recipiente, una super-olla de presión de acero forjado de 11 metros de alto, con paredes de 20 centímetros de espesor.

Todo esto ya ahorró un montón de dinero y dificulta bastante el peor accidente factible de ocurrir en un PWR, que es una pérdida de refrigerante del primario (o LOCA, “Loss of Coolant Accident”). Pero las simplificaciones siguen: ¿cómo se refrigera el núcleo en caso de un LOCA? Muy sencillo: en lugar de inyectarle agua con bombas, ésta simplemente le cae encima, por gravedad, desde un depósito enorme en lo alto. No hace falta que nadie dé la orden. El CAREM se puede atender solo, sin personal, durante las primeras 36 horas de una emergencia grave.

El CAREM es uno de más de doce propuestas ingenieriles en danza en todo el mundo para aumentar la seguridad radiológica bajando los costos, en lugar de incrementándolos, lo que obliga a cambiar de ingeniería. Lo que cierra bien, cuando se compara el pequeño reactor criollo con algunas de tales propuestas, llamadas de 4ta generación, es que el CAREM está basado en tecnología probadísima durante décadas, como la refrigeración con agua, en lugar de sales derretidas, o helio, o sodio, o plomo líquido.

El CAREM no corre el peligro de ser demasiado avanzado para su época. No es revolucionario: es evolucionista.

PETRÓLEO VERDE

PETRÓLEO VERDE

COMBUSTIBLES HECHOS DE ALGAS: FALTA MUCHO PARA QUE LLEGUEN

Cyanotech Hawaii  Ponds SpirPonds'10-014

Epígrafe: estos piletones de cultivo de algas tipo “racetrack” están en Hawaii y pertenecen a Cyanotech, una firma americana dedicada al mercado farmacológico y alimentario.

Daniel E. Arias

“¿Biodiesel de algas? Sí, a la larga lo vamos a usar. Pero antes hay que bajar los costos de producción unas diez veces. No es pavada”, resume el doctor John Benemann, una de las grandes autoridades mundiales en cultivos de microalgas.

De habla aporteñada por haber vivido de joven en la Argentina, Benemann se doctoró en los ’70 en la Universidad de California en Berkeley, trabajó para el Departamento de Energía de los Estados Unidos y tiene 40 años de experiencia científica y de negocios en este tipo de cultivos. El experto cree que (sic) “hoy se están publicando tantas macanas y bolazos que el asunto puede caer en el descrédito. Y eso sería trágico, porque necesitamos con urgencia que esta tecnología madure”.

Benemann fue el invitado estrella de una jornada sobre biocombustibles de microalgas organizada por la Fundación Innova-T, agencia de vinculación tecnológica del Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET). Sucedió el 15 de noviembre en la Sociedad Científica Argentina, hubo representantes de YPF, del Ministerio de Agricultura, Ganadería y Pesca, del Instituto Nacional de Tecnología Agropecuaria (INTA), de Agua y Saneamientos Argentinos Sociedad Anónima (AySA), de la Universidad Nacional de Australia, y de expertos en ecología marina y de costas, de biología, fisiología y biotecnología de microalgas, así como de ecología de agua dulce de las universidadades nacionales de Buenos Aires (UBA), del Sur (UNS)  y de Luján (UNL).

Desde 1970, los biocombustibles de microalgas cultivadas en aguas dulces, marinas o cloacales son la gran promesa eco-energética. Por definición, son libres de “efecto invernadero” y por uso de la tierra, no compiten con la producción de alimentos. Empero, como sucede también con la fusión nuclear, a la tecnología siempre le falta algo para volverse competitiva.

En condiciones ideales, la producción de aceites de algunas especies de microalgas es hasta 100 veces superior a la de la soja, medida por hectárea y por año (sic). “Como referencia –dice el doctor Javier Fernández Velasco, de la Universidad de Luján- para hacer funcionar todos los motores diesel de la Argentina alcanzaría con algo más de 300.000 hectáreas de piletones abiertos de cultivo de tipo ‘racetrack’ (pista de carreras), con circulación activa de agua”.

Pero en términos de clima, de suelos, de aguas y de costo de oportunidad del terreno, las condiciones ideales no abundan. El ingeniero Mishka Talent, de la Universidad Nacional de Australia, mostró, con un sistema de información geográfico (SIG) que su país resulta privilegiado en lugares planos, áridos, vacíos, bien insolados, cálidos y lindantes con costa marina, perfectos para microalgas de agua salada. Descartando tierras pobladas, atribuídas a decenas de otros usos, o con pendiente o demasiado secas, Talent se queda con sólo el 1,4% de la superficie nacional. Lo interesante según su estudio es que, incluso explotada con la imperfecta tecnología actual, en esa área Australia podría producir 12 veces su consumo actual de gasoil, que es idéntico al de Argentina.

Ahora Talent se dispone a desarrollar un SIG para indagar el potencial de la Argentina, comparativamente más fría y con menor desarrollo costero que Australia, pero donde no faltan agua salada ni tierra vacía.

Los malditos números

AgriLife2

Epígrafe: el “alga semilla” se inyecta en los piletones de cultivo experimental. La instalación es de Texas Agrilife, una firma que mueve dinero de la General Atomics, y también del Departamento de Defensa de los Estados Unidos y de su Fuerza Aérea.


La producción a escala comercial de una tonelada de biomasa seca de la microalga más barata hoy tiene un piso de 5000 dólares. En cambio, una tonelada de soja cuesta sólo 500 dólares. A 2200 dólares el barril de biodiesel, las microalgas todavía no logran competir con la soja como fuente de energía, y están mucho más lejos aún de hacerlo con el petróleo.

Según Benemann, eso se debe a varios cuellos de botella biológicos, sociales y tecnológicos que falta atravesar: hay que subir la eficiencia de la fotosíntesis de las algas y bajar los costos de cosechar microorganismos flotantes a media agua, con los que no sirven las máquinas ni las sustancias precipitantes. Pero además, las grandes áreas despobladas donde se instale el cultivo deben ser –contradictoriamente- contiguas a megaindustrias capaces de suministrar mucho dióxido de carbono para hacerlo burbujear en los piletones, y así potenciar la fotosíntesis.

La maldad de las cosas inutiliza para el cultivo de microalgas una enorme parte del país. La Patagonia, por ejemplo, tiene enormes campos vacíos con agua subterránea salada (ideal para las especies marinas) y algunas turbinas de gas de ciclos combinados capaces de suministrar dióxido de carbono. Pero la falta de horas de luz y los fríos invernales bajarían mucho la fotosíntesis, y volverían muy improductiva la fase fría del año, si la idea son los piletones tipo “racetrack” a cielo abierto. El país de las altas temperaturas viene con sus propios problemas: el NOA no tiene suficiente agua, el NEA tiene pocas fuentes de CO2, y en la Pampa Húmeda, donde están todos los recursos y las mínimas invernales no son tan severas, la tierra vale una barbaridad, sea de uso agronómico o tejido urbano.

Incluso en las mejores condiciones imaginables, además de encontrar sitios apropiados, hay que lidiar con dificultades específicamente agronómicas. Y eso porque aunque no parezca, esto es agricultura intensivísima: las algas de cultivo tienen que competir exitosamente con otras improductivas (el equivalente de las malezas), se debe impedir que sean comidas por la microfauna natural (el equivalente de las plagas), son difíciles de cosechar sin usar precipitantes caros, y sigue una larga serie de etcéteras.

Si esta tecnología no se masificó, no es por una megaconspiración mundial de las petroleras, sino porque además de luchar contra la maldad de las cosas, hay que hacerlo contra los malditos números.

En el estado actual del negocio, seguramente los grandes cultivadores mundiales de cepas de los géneros Spirulina, Chlorella, Dunaliella y Haematococcus seguirán trabajando para nichos riquísimos de mercado: el uso de las microalgas como alimentos especiales para humanos o como forrajes caros. Algunas xantinas (pigmentos algales rojos) son compradas por los criaderos de peces hasta por 2000 dólares el kilo, y la demanda china parece insaciable. Pero de producir “specialties” de alta gama a fabricar algo tan básico como la energía hay un camino larguísimo, y no se ve el final.

Pero se ve el principio.

Además de energía, la humanidad necesita comida, el producto número uno de la Argentina. Y la producción de comida ES contaminante, tanto como la de energía, y usa masivamente recursos finitos.

Las megalópolis costeras son como máquinas químicas que transforman los fertilizantes agropecuarios usados para producir alimentos en aguas negras, contaminación de napas, estuarial y/o marina. El tratamiento con microalgas de aguas negras permitiría atrapar parte de los 1600 millones de dólares anuales que gasta hoy la Pampa Húmeda en nitratos y fosfatos, para devolverlos a la tierra. Y las ciudades ribereñas de la región minimizarían su impacto hídrico.

Estas movidas tienen un problema: debe pensarse a lo grande. Para gestionar con microalgas los 56 metros cúbicos por segundo de aguas negras a cargo de AySA, harían falta 1500 hectáreas de tierras disponibles, casi tres veces la extensión de la Reserva Ecológica de Costanera Sur. Y aún así, económica y ecológicamente, esto podría ser un buen negocio, si se suman todos los beneficios: la minimización del impacto hídrico del área metropolitana, más la recuperación de fertilizantes para el campo, más una pequeña fabricación de un biocombustible “pobre”: el biogas.

Pero ¿competirán alguna las microalgas contra el petróleo? La respuesta correcta es problablemente “sí, alguna vez”. Pero el crudo Brent tal vez tenga que llegar a 800 o 900 dólares el barril para que la maquinita del capitalismo empiece a pensar seriamente en esta fuente alternativa de biodiesel, y ponga dinero en serio para terminar de desarrollarla.

Una cosa es segura: los precios del petróleo seguirán subiendo, aunque jamás incorporen los daños inherentes a su producción y quemado, y lo harán fundamentalmente porque cada vez es más profundo y escaso. Y a todo esto, la Tierra tiene 7500 millones de humanos que quieren tanto comestibles como combustibles, y están cada vez más dispuestos a enfrentar políticamente el recalentamiento global.

“Como fuente de energía- dice el doctor Augusto García, de Fundación Innova-T- las microalgas no son inevitables. Pero sí son un futuro probable, y una tecnología de cultivo que a la Argentina le conviene empezar a investigar por su cuenta”.

DESCIFRANDO FUKUSHIMA

DESCIFRANDO FUKUSHIMA

GE-MK-1

Daniel E. Arias

Mi primer balance del accidente nuclear de Fukushima, Japón: enorme impacto mediático global, impacto económico alto a escala nacional, e impacto radiológico muy variopinto y difuso, restringido al mar y la tierra de ocho prefecturas, un arco de 45 kilómetros de ancho tendido a entre 30 y 50 kilómetros hacia el nor-noroeste de la planta siniestrada.

Lo verdaderamente feo: hay 130.000 desplazados de sus casas en el radio de 20 kilómetros, y 70.000 más entre los 20 y los 30 a los que se les recomienda no salir de ellas.  A eso, súmese la destrucción -decretada por el gobierno- de todo alimento obtenido en tierras que registren más de 550 kilobecquerels de radioactividad por metro cuadrado. O la imposibilidad -fijada por los consumidores- de vender la producción hortícola de Fukushima, por “denominación de origen” y sin importar su estado radiológico real, que puede ser inocuo. Para los pequeños productores rurales de esas zonas interurbanas de la sobrepoblada llanura costera de Sendai, una trama que un argentino no lograría llamar adecuadamente “campo” o “ciudad”, este accidente es pasar de la autonomía a depender “sine die” de la caridad pública.

La contaminación del mar indica que los 400 “liquidadores” de Fukushima siguen eligiendo a cada rato por el mal menor:  al menos una parte de los casi 40 metros cúbicos por hora de agua inyectada en los reactores siniestrados y que evitan su fusión, de tanto en tanto lograrán infiltrarse hasta el mar. Esto sucedió, se remedió y es probable que a lo largo de los años se repita. Lo que se coló al mar desde reactor 2, a través de una trinchera de cableado inundada y afortundamente ya sellada, podía irradiar a un hipotético buzo con una dosis de 1000 milisievert por hora (con entre 300 y 500 da para morirse en horas).  Pero por un asunto tan físicamente sencillo como el factor de dilución, no había contaminación radiológica ecológica o sanitariamente significativa en el mar aledaño. Habrá que monitorear la pesca costera regional durante años, que perderá puestos de trabajo. Pero quienes preanunciaban a Godzilla estaban simplemente macaneando.

En cuanto a los liquidadores, que los medios suelen llamar “samurais” cuando no “kamikazes”, por ahora trabajan de un modo bastante más cauteloso que lo que sugieren tales títulos: al 31 de marzo 21 de ellos habían absorbido dosis superiores a los 100 milisievert, y ninguno por ahora llegó a los 250 fijados como techo tolerable para esta contingencia.

Dicho esto, 100 milisievert en unos pocos días de trabajo no es poco. Resulta lo que absorbe un hipotético viajero ultrafrecuente que vuele 2500 veces entre Londres y Nueva York. O, para medirlo en términos de fuentes naturales, ya que la Tierra es un planeta débilmente radioactivo, 100 milisievert es lo que absorbería otro ser hipotético (un hippie, quizás) que acampara 10 meses seguidos en la playa de arenas negras (rocas en torio) del balneario brasileño de Guaraparí.

Contrario a lo que circuló en la segunda semana del accidente, ningún “liquidador” absorbió entre 2 y 3 sievert por gorra (se habría muerto en minutos u horas). Y es que un sievert es una barbaridad: equivale a un joule de energía absorbido en forma efectiva por cada kilogramo de tejido viviente. Por eso en radioprotección se suele trabajar más con la milésima parte (el milisievert) o la millonésima (el microsievert).

Como amenaza ambiental, cada radioisótopo tiene su propia historia. El yodo 131, con una vida media de 8 días, “se va solo” bastante rápido: probablemente ya casi no puede afectar a una población vecina que, por obra del gobierno nacional, había bloqueado sus glándulas tiroides tomando pastillas de yodo no radioactivo. Queda por ver qué pasa con la contaminación por cesio 137, cuya vida media es más larga (30 años) y que no tiene glándulas, órganos o sistemas favoritos como blanco químicamente protegible. En la segunda semana se midieron trazas de plutonio 239 en el suelo adentro de la planta, y aunque sea poco alarma mucho por su química parecida a la del calcio (se fija en hueso), su larga vida media (240.000 años) y su origen: sólo puede venir de combustible nuclear gastado o en uso, y eso significa roturas de consideración en los sucesivos sistemas de aislamiento “en profundidad” que aislan tales objetos. Reconstruir tales aislamientos, “empaquetar” las centrales dadas de baja en el equivalente de “tupperwares” gigantes, unos adentro de otros, será tarea de una generación y pagadera con cheque en blanco.

Pero hay que poner las cosas en su lugar. La mayor parte de los desempleados y “homeless” del evento de Sendai no son radiológicos: son geológicos, víctimas de ciudades y campos arrasados con minucia por el peor combo terremoto y tsunami en 140 años de mediciones directas, y si se confía en mediciones indirectas, de los últimos 1000 años.  Contra lo que difunde la TV, la tragedia humana en Japón parece, en lo central, un asunto de la tectónica de placas, y el accidente nuclear de Fukushima fue sólo una nota al pie.

Reconstruir la infraestructura, la trama urbana y productiva arrasada por el mar podría venir con una factura total de 300 mil millones de dólares, y la cuenta de ahogados por las riadas o aplastados por la edificación va acercándose a 30.000, incluyendo los desaparecidos.  Contra eso, no hay ningún muerto por causas radiológicas (todavía).

Dicho esto, antes de elogiar al paso el manejo prácticamente de manual de la catástrofe por el gobierno japonés, para luego cargar contra la propietaria privada de la planta (TEPCO) y sus proveedores estadounidenses (General Electric), prefiero atenuar los daños causados por algunos de mis colegas y su márketing de terror. Fukushima es un accidente mucho menor que Chernobyl. La física, el diseño de planta, el sentido común y la evidencia radiológica muestran que son distintos.

¿Qué falló en Fukushima?

Sencillamente falló el diseño de la central General Electric Mk1 (GEMk1), y además lo hizo en forma anunciada. Entre 1972 y 1986, al menos tres popes de la Nuclear Regulatory Commission (NRC) de los Estados Unidos hablaron pestes de este modelo de planta, por sus múltiples cicaterías y ahorritos en seguridad pasiva. Uno de ellos, Harold Denton, dijo que el GEMk1 tiene un 90% de chances de “fundir núcleo” en caso de pérdida de refrigeración. En los años ’60, nuestra Comisión Nacional de Energía Atómica de la Argentina (CNEA) rechazó este diseño a libro cerrado. De hecho, la GE sólo logró licenciar esta planta “at home” (hay 23 unidades en EEUU), Japón (8) y España (1).

Dicho esto, el GEMk1 es incomparablemente más seguro que el RBMK soviético accidentado en Chernobyl, sin duda la peor planta nucleoeléctrica de la historia, jamás vendida fuera de la “Cortina de Hierro”. Hay que tener hambre de rating (y una fobia proporcional a la lectura de planos) para no sacar las diferencias de un vistazo. Son enormes.

Las causas por las que en cambio sí se rompieron los reactores 1,2 y 3 de Fukushima están a la vista: en todos se paró el bombeo del circuito de refrigeración, con lo que se dispararon otros eventos en cadena: aunque cayeron las barras “de enclavamiento” que absorben neutrones y apagan la reacción nuclear, el tremendo calor residual fue calentando los combustibles hasta derretirlos parcialmente. En ese proceso, las vainas de circaloy (aleación de circonio) que encapsulan los combustibles se volvieron catalíticas,  “crackearon” el vapor de agua y liberaron vaharadas de hidrógeno. Éste gas explotó al combinarse con oxígeno atmosférico e hizo volar como petardos los edificios externos.

Dentro de esos frágiles edificios la presión de vapor y/o las voladuras de hidrógeno parecen haber roto estructuras mucho más robustas y que se suponía invencibles. Yendo de afuera hacia adentro, cada edificio alberga una “contención”, una carcaza de grueso hormigón blindado que a su vez encierra otra de chapa acero, que a su vez encierra el recipiente de presión (una olla gigante de acero forjado), y ésta a su vez encierra el combustible. La contención y el recipiente son las dos barreras de seguridad pasiva redundante más importantes de toda la central, y en Fukushima –como vaticinó Harold Denton- parte de ese sistema de cajas adentro de cajas adentro de cajas falló.

¿Por qué lo hizo? Por amarratería. Para bajar costos de construcción, la contención del GEMk1 tiene la forma de una botella de Chianti, culona en la base y estrecha arriba, con un desarrollo volumétrico mucho menor que la típica esfera que envuelve normalmente los reactores de tipo PWR.

Si las cosas se ponen feas en un PWR, la geometría y la física indican que la esfera acomoda mucho más volumen de vapor a igual presión, y resiste mejor una explosión interna de hidrógeno.

Pero esto no sólo es una teoría: en 1981 “fundió núcleo” una PWR hoy famosa, la central estadounidense de Three Mile Island, y entre el recipiente y la contención atajaron no sólo un bruto pico de presión de vapor sino una posterior explosión de hidrógeno. El edificio externo (también más robusto), lejos de desintegrarse, no se enteró. Hubo que sellarlo herméticamente y el dueño de la central perdió como cuatro mil millones de dólares de fierros. Pero pasadas la alarma y la evacuación, los vecinos pudieron volver a sus casas sin que nadie se hubiera contaminado, o lo haya hecho desde entonces.

Dicho sea de paso, Atucha I y Embalse, las dos centrales argentinas en línea, son PWRs, de robustez y precio mucho mayores que el GEMk1, y se van acercando al término de su vida útil sin novedades.

Todo al revés

Si la refrigeración es el primer sistema de seguridad activa de una central, ¿por qué fracasó tan fácilmente en las Fukushimas 1, 2 y 3? Nuevamente, tacañerías de fabricante y ninguna adecuación a condiciones locales por parte del cliente.

Toda central consume cantidades prodigiosas de electricidad en refrigerarse el núcleo haciendo circular agua a través del mismo, y el bombeo se alimenta no de la producción eléctrica de la central, sino de la toda la de red eléctrica nacional o regional (tener múltiples proveedores es más seguro).

Cuando la red eléctrica en Fukushima se cayó por el terremoto, se activaron los motores diesel de “back-up” de las tres centrales en actividad para mover sus respectivas bombas de refrigeración: ése es su primer mecanismo de seguridad activa. Pero el maremoto llegó al toque del sismo y arrasó los tanques de gasoil de tales motores auxiliares, ubicados –increíblemente- al pie de la central, en su punto más bajo. Eso, en el país donde se inventó la palabra “tsunami”.

Parados los diesel por falta de combustible, sólo quedaban como fuentes eléctricas de tercera instancia unos macilentos bancos de baterías, que dieron para media hora de refrigeración de emergencia hasta agotarse… y eso era todo. Allí se terminaban los sistemas redundantes y en profundidad para garantizar el enfriamiento. Muertas las baterías, empezó, imparable, la gran recalentada.

Atucha II, que tal vez se inaugure este año, además de una doble contención esférica de acero inoxidable y hormigón, amén de un edificio externo robusto, tiene tres generadores diesel de back-up para refrigerar el primario. Es caro, pero para que Atucha II recaliente tiene que fallar la red y además, uno tras otro, tres motores al hilo. No es imposible. Sí es muy poco probable.

Se me incendió la pileta

Fukushima tiene el dudoso honor de inaugurar otro tipo de accidente nuclear que, en este caso, parece de peor pronóstico que el derretimiento del núcleo: el incendio de los combustibles gastados, ya retirados del núcleo.

Diseñados para la reacción nuclear, los combustibles son (valga la contradicción) casi incombustibles en el sentido químico, porque están hechos de una aleación y una cerámica muy termorresistentes: el circaloy se banca 1500 grados antes de licuarse, y la cerámica 2800. Una vez que cumplieron su ciclo en el reactor, se ponen en lento enfriamiento en piletones con agua circulante, porque tanto térmica como radiológicamente están muy calientes.

Pero otra de las aberraciones de diseño del GEMk1 es que esos piletones se ubicaron adentro del edificio de la central, de modo que si hay un problema radiológico en el reactor, el piletón se vuelve inaccesible por proximidad, y viceversa. Pero no sólo está cada piletón en compañía peligrosa, sino también en el sitio más alto de cada edificio, es decir el lugar más zarandeado por los terremotos. Y ese diseño se aceptó sin chirridos en el país con mayor sismicidad del planeta, casi la patria (además) del concepto organizativo de calidad total.

Allí en lo alto, los combustibles tienen también mayores chances tienen de quedar en seco si los piletones se rajan, y es todo un lío subir con agua en caso de siniestro, máxime sin electricidad y en un ambiente radiológicamente hostil. Quedan para la historia les imágenes de helicópteros de las Fuerzas de Autodefensa del Japón tratando de embocar algo de agua en los piletones, con poco éxito porque debían volar alto por la radiación, y el viento dispersaba la descarga.

En contrapartida, en las centrales argentinas (todas en zonas poco sísmicas), los piletones están a nivel del suelo y en edificios bien apartados del reactor, donde no se compliquen en forma cruzada.

Una vez fuera total o parcialmente del agua, los combustibles de Fukushima 1,2, 3 y 4 se recalentaron, empezaron a emitir rayos gamma y X, y el circaloy al rojo se puso a “crackear” el agua remanente o la que tiraban los bomberos, a vomitar hidrógeno en nubarrones, y éstos a incendiarse o deflagrar. Así se llega a la originalidad absoluta de Fukushima 4: el reactor en sí estaba frío y vacío, parado en mantenimiento, pero el edificio se hizo puré igual por las explosiones y llamaradas en los piletones de su coronamiento.

A tanta berretada de diseño añádase otra de operación: los piletones estaban sobrecargados, mucho más de lo que admite su mal diseño. Y así pasó que los de los reactores 5 y 6, también parados, la semana pasada tuvieron episodios de recalentamiento del agua que le helaron el alma a más de uno. Por suerte, el estado japonés está peleando esta batalla con una seriedad mucho mayor que la que tuvo TEPCO a la hora de comprar, operar y controlar sus fierros.

Y es que en plan de ganar el Prode el lunes, para impedir el notable desastre de Fukushima, y si había que asumir los defectos de diseño de lo que compró TEPCO, alcanzaba con poco: un terraplén perimetral anti-tsunami un par de  metros más alto, o poner los generadores de emergencia arriba y los piletones a nivel de tierra. Nada muy tecnológico.

Y aquí es donde invierto 180 grados la marcha y empiezo a hablar bien de estos reactores tan baratos que los argentinos supimos NO conseguir. Y es que los voy a comparar con el verdadero cuco nuclear, el RBMK soviético.

Ingeniería de terror

Ignalina_model

La Unión Soviética, pese a sus proezas aeroespaciales y tecnológicas, vivió durante décadas de exportar crudo, como el más medioeval emirato o la república más bananera. Promediando los ’70 y con el petróleo e ingresos a la baja, debió multiplicar sus exportaciones de hidrocarburos estrangulando su consumo doméstico. Y para calmar el hambre de energía de industrias y ciudades, licenció masivamente el reactor nucleoeléctrico RBMK de 1000 megavatios, de los que construyó 12.

Carente de recipiente de presión, desprovisto de contención, “moderado” no con agua sino con grafito incendiable, aquejado por diseño con un “coeficiente de vacío positivo” (en criollo, una hiperreactividad que te la cuento), el RBMK era el equivalente de un camión de 18 ruedas con mucho motor, varias toneladas de trinitroglicerina como carga y cero frenos. Tenía una única virtud: en dólares de 1986, se compraba por sólo 200 el kilovatio instalado (cuando Atucha I habría costado al menos 1.800 en aquel año, con la mitad de esa inversión hundida en sistemas de seguridad). Lo barato sale caro, y lo baratísimo, no hablemos.

En la madrugada del 24 de abril de 1986 la unidad 4 de la central de Chernobyl, Ucrania, en el curso de un experimento descerebrado que buscaba entender los límites de las pobres capacidades de control del RBMK, se desbocó y pasó en segundos de una potencia bajísima a miles de veces su máxima de diseño.

La deformación termomecánica del núcleo fue inmediata e impidió su enclavamiento  (es decir su apagado por caida de barras absorbentes de neutrones). Junto con la potencia, la temperatura, presión y generación de hidrógeno subieron entonces en rampa, así como el pánico entre los operadores, y en minutos nomás el vapor voló la tapa del reactor y perforó el techo. El aire entró rugiendo a las tripas del artefacto, hizo estallar el hidrógeno acumulado, y el calor encendió el grafito.

El grafito es carbono puro: arde genial. Centenares de miles de toneladas de carbono salpimentado de plutonio 239, cesio 137 y yodo 131 crepitaron libremente durante una semana, inyectaron –con toda la potencia convectiva del incendio por debajo- un total de 6,7 toneladas de materiales radioactivos en la atmósfera y mataron en pocas semanas de enfermedad aguda de radiación a decenas de bomberos. Los humos y polvos se desparramaron libres por el continente europeo en cantidades tóxicas y subtóxicas, y finalmente, ya muy diluídos, por todo el hemisferio norte. Y todo eso, en la escala INES de accidentes nucleares, da el grado máximo: 7. La dosis de radiación individual promedio en la población soviética parece haber sido baja, 0,13 milisievert por gorra. Pero en lo que hoy son las repúblicas independientes de Ucrania, Belarús y Lituania las cifras fueron mucho mayores.

La historia oficial respecto del asunto, 25 años después, le sigue echando la culpa a los operadores: el camionero estaba borracho. Sí, claro, como una cuba, pero el camión cargaba explosivos y no tenía frenos. Digamos mejor que en 25 años nadie se atrevió a decirle a los rusos que cierren de una vez los 11 RBMK que heredaron de la Unión Soviética. Y es que paga más hacerse el burro que darle órdenes a quien no obedece sugerencias extranjeras, y los rusos no lo hacen desde épocas del zar Pedro el Grande.

Todavía se discute la cantidad de muertos a lo largo de tantos kilómetros y años:  ¿habrán sido 40.000, como predijo Valeri Legasov, el mayor experto soviético en radioprotección, antes de suicidarse en 1988? ¿O 9.000, como sugieren un cuarto de siglo más tarde arduos cruzamientos estadísticos del Organismo Internacional de Energía Atómica (OIEA), El Comité de las Naciones Unidas para los Efectos de la Radiación (UNSCEAR) y las repúblicas de Belarús, Liuania, Ucrania y la Federación Rusa? Como sea, durante toda la primera semana del accidente, el periodismo más “naif” y/o amarillento del planeta anunció Chernobyles en Fukushima, sin mayor idea de las diferencias de ingeniería y materiales, o de emisión de gases y polvos.

Vulneradas como parecen las contenciones y recipientes de presión en Fukushima, parecen haber impedido un desparrame libre y masivo de radionucleídos en los reactores 1,2 y 3. En Chernobyl no existían tales defensas pasivas, el sistema de enclavamiento no tenía modo de sobreponerse a una rampa de potencia, y el reactor era volátil por diseño. Y si se trata de llevar contaminantes a distancia, los intermitentes fogonazos de hidrógeno de Fukushima no tienen, por suerte, la potencia térmica de un vasto fuego de grafito debajo, como el que garantiza un RBMK.

Confundir Atucha con Fukushima o Fukushima con Chernobyl evidencia estupidez técnica o astucia política, según quién hable. Pero es mal periodismo.

Venta de terror al paso

Fukushima_I_NPP_1975_Aerial

En la semana inicial del desastre, hubo mucho vacío de información real: la OIEA y el gobierno japonés hablaban con medio día de retraso sobre una situación que cambiaba en horas, y TEPCO, la corporación dueña de Fukushima, ha perfeccionado durante décadas el mutismo y las malas prácticas. No iba a volverse de pronto la gran comunicadora… y no lo hizo.

La Unión Europea vio entonces servido el negocio de pegarle en simultánea a japoneses y americanos (sus competidores más poderosos en el mercado de centrales nucleares). De modo que la Autoridad Regulatoria Europea describió lo de Fukushima como “apocalíptico”, y le otorgó un grado 6 en la escala INES. Eso es un punto menos que Chernobyl, y conceptualmente, una mentira.

Ante la falta de una primera línea científica creíble, a los medios la truculencia se les hizo negocio de rating y compitieron por decir la gansada más grande. Hoy los mismos tipos que vaticinaban un tendal de muertos por irradiación informan, sin sonrojarse, que si uno tomara durante todo un año leche contaminada con cesio 137 del reactor, proveniente de la vecina municipalidad de Kawamata, absorbería la misma dosis de radiación que un paciente que se hace una tomografía de tórax.

Europa jugará un tiempo a parar la pelota atómica, pero en verdad es la dueña de la misma: tiene la mayor empresa de ingeniería nuclear del mundo (Areva), nada de hidrocarburos y pocas ganas de batirse militarmente para asegurárselos. Habrá gran gritería de ecologistas, Alemania cerrará algunas centrales (y comprará electricidad nuclear francesa), pero en casa nadie quiere apagones. Y afuera hay un planeta entero sin grandes opciones energéticas y dispuesto a comprar sólo buena tecnología.

Estados Unidos, en contrapartida, dejó que su industria nuclear se detuviera en los ’70 debido a sus sobrecostos, y en parte por ello hoy se volvió titular ya demasiados frentes de guerra en países petroleros, así como del peor derrame de crudo de la historia, el de la British Petroleum. También tiene 23 reactores GEMk1 en territorio propio cuya licencia deberá repensar bastante, invendibles de aquí en más.

Oriente todo, con China y Japón a la cabeza, seguirán MUY nucleares como mal menor, porque las opciones son menos empleo industrial o más efecto invernadero, y los costos humanos, económicos, sociales y sanitarios en ambos casos son malos. En los países asiáticos la demanda de potencia es brutal y generalmente no hay excedentes regionales de electricidad, lo que descarta la alternativa fácil de calmar a los ecologistas parando algunas centrales nucleoeléctricas propias y comprarle corriente al vecino.

Lo que nos trae al punto de partida. En medio del tsunami y en el país más preparado del mundo para ello, ciudades enteras de la costa noroccidental de la isla de Honshu entraron en estado plástico: pendiente arriba por las calles rugían negros Niágaras salados, mientras los barcos encallaban en azoteas y los edificios, arrancados, se embestían entre sí al garete o naufragaban. Así murieron tal vez 30.000 personas por causas resueltamente no radiológicas. La cifra final tardará en saberse.

Con por ahora un grado 5 en la escala INES, el accidente nuclear de Fukushima es un hecho tremendo, pero mucho menos que los ocasionados por la tectónica de placas. Sin embargo, la central se robó los titulares. De mala ingeniería no habla nadie, como si todos los reactores fueran iguales. Insultando la inteligencia del público, toda vez que los noticieros vuelven con noticias sobre ahogados en sus casas o aplastados por mampostería, mandan imágenes enlatadas –y ya muy fiambres- no del terremoto o del tsunami, sino de la planta nucleoléctrica.

Con mucha peor leche que la de Kawamata, ya se está aprovechando el terror nuclear “made in Japan” para atacar al programa nuclear argentino. Se lo hace cuando se está atreviendo a inaugurar Atucha II, completada sin auxilio europeo, cuando nuestro país logró dominar el mercado mundial de pequeños reactores para fabricar radioisótopos médicos, y cuando empieza a construir su primera central nucleoeléctrica 100% argentina, el CAREM.

La Argentina se ha vuelto marginalmente incómoda y competidora en el mercado nuclear.  A nadie le extrañe que en nombre del más puro y desinteresado ecologismo, ahora le vayan a arrimar de patadas por querer acercarse al área rival. Pero con 60 años de experiencia bastante impecable en este asunto, era hora de que nuestro país cruzara de una vez el mediocampo.

Lo está haciendo.

POR UN PELITO

Querido Cacho: hablando en plan planetario (la modestia no es lo mío), vos y yo nos acabamos de salvar “por un pelito” de un desastre grosso. El lunes 2 de marzo el asteroide 2009DD45 (una piedra de unos 40 metros de diámetro) pasó como un tiro a 60.000 kilómetros de altura sobre el sudeste del Pacífico. Faltó poco para que la historia fuera otra: tal vez no lo estaría escribiendo yo, tal vez no la estarías leyendo vos, según su sitio de entrada a la atmósfera, si se hubiera desviado alguito nomás en su órbita. De modo que aprovechemos que esta vez no mató a naides y tratemos de entender otros finales posibles.

Lo primero es que esto fue un “close call”, como dicen los gringos. La distancia entre la luna y la Tierra anda alrededor entre los 380.000 y 400.000 kilómetros, de modo que esta roca ‘e Mandinga pasó casi a un séptimo de esa unidad de medida: es como una una bala de FAL que nos traspasa la gorra sin llegar tocarnos el pelo.

Lo segundo es ver lo impredecible del casi encontronazo. Al 2009DD45 –demasiado chiquito para detectarlo lejos, digamos más allá de la órbita de Marte- se lo empezó a monitorear con alguna preocupación desde el viernes 27 de febrero, pero no se esperaba en absoluto que se acercara tanto. Al ser de masa relativamente baja, estos asteroides chicos cambian de trayectoria con mucha facilidad debido a cualquier e impredecible tironcito gravitatorio de alguna otra cosa que no vimos. Vos calculabas que iba a pasar lejos, y mirá qué sorpresa.

Dijo al respecto Rob McNaught, del observatorio australiano de Siding Spring: «Ningún objeto de ese tamaño o mayor ha sido observado nunca tan cerca de la Tierra». En 2002 hubo otro pasaje cercano y de un objeto mayor que el 2009DD45, pero al doble de distancia, 120.000 km. Me jugaría el pelo que me queda que McNaught estas noches ha venido durmiendo a puro clonazepam.

Lo tercero es imaginarse qué podría haber pasado si la trayectoria elíptica de esta cosa hubiera variado algunas décimas de grado hacia el lado incorrecto, es decir hacia mí, Cacho, yo que soy tan bueno, o hacia vos que tantos goles metiste en los amistosos de fin de semana, o hacia el Sr. Pu Yi que es chino, pero en este momento visita Indonesia.

El 2009DD45 es una piedrita de tamaño parecido al meteorito que el 20 de junio de 1908 hizo pomada 2150 kilómetros cuadrados de bosque de la taiga siberiana en Tunguska, cerca del río Podkamennaya, unos 1000 kilómetros más al norte del lago Baikal, un sitio entonces –y aún hoy- casi deshabitado, salvo por unos pocos cazadores dispersos de la etnia Tungus. De modo que si el 2 de marzo hubiera pegado en algún lugar de nuestro planeta, podríamos suponer eventos termomecánicos similares, aunque con muchas variaciones posibles.

Éstas dependerían del ángulo de caída y de la composición química del objeto: los asteroides rocosos son algo más livianos que los metálicos (de hierro-níquel) y pueden interactuar con la atmósfera de modo diferente. Pero Cacho, Tito, Pepe, Lulú, amigos del alma, aunque la peor opción es un asteroide metálico, si hay que comerse una cosa del tamaño de un edificio de 12 pisos no hay ninguna fórmula demasiado buena para la salud. Salvo la distancia. Pero ni siquiera eso te pone a salvo de un tsunami, si vivís en una costa vulnerable y la cosa es lo suficientemente densa como para llegar más o menos intacta a la superficie del mar.

TUNGUSKA EN PERSPECTIVA COMPARADA

El Tunguska –un nombre realmente más elegante que 2009DD45- no llegó a tocar el suelo, salvo como lluvia de micropartículas cristalinas muy ricas en níquel e iridio. Tunguska atravesó todas las regiones insustanciales donde la alta atmósfera se deslinda del espacio interplanetario sin enterarse siquiera de que existían, y por ende entró sin mayor frenado por rozamiento, con un ángulo de unos 45 grados respecto de la horizontal del suelo donde hizo su gran show. Cuando llegó a la tropopausa (12 kilómetros de altura, allí donde termina la poco densa estratósfera y empieza la mucho más espesa tropósfera) todavía venía algo más de 14 kilómetros por segundo.

Si le suponemos a Tunguska una forma más o menos esférica y una densidad rocosa común y corriente, de digamos 5 gramos por centímetro cuadrado, hablamos de un chiche de casi 1400 toneladas (casi 6 Jumbo Jets cargados al taco). En plan de comparar velocidades, el tiro de un fusil FAL anda por los 0,75 kilómetros por segundo cuando sale del cañón, de modo que el Tunguska venía casi 19 veces más apurado. A esa velocidad y en aire más denso, sus materiales alcanzaron casi instantáneamente una temperatura 2800 grados, se fragmentaron en el menos tres grandes masas y éstas se vaporizaron a velocidades supersónicas. En otras palabras, BUM. Gran onda de choque.

Transformado en una bola en expansión de gases ionizados, líquidos incandescentes y algunos millones de piedritas al rojo blanco, Tunguska siguió cayendo en oblicua, precedido por su onda de choque. Una reconstrucción por computadora de los Sandia National Laboratories publicada por Nat Geo en agosto de 2008 supone que el proceso explosivo se prolongó 13,5 segundos, y que a 3,5 kilómetros de la superficie la roca ya prácticamente había desaparecido como tal.

Si así fueron las cosas, Tunguska no le pegó al suelo sino que más bien lo ametralló con microgotas de lava y lo embistió como un chorro de gas supersónico y muy caliente. Pero el suelo siberiano ya había sido vapuleado antes por una onda de choque que elevó instantáneamente la presión a 10 atmósferas y arrancó del piso, con raíz y todo, unos 80 millones de abetos y otros árboles, que quedaron regados como palitos chinos.

Todavía se discute si el lago Cheko, una cavidad baja de unos 400 metros de diámetro por unos 50 de fondo, hoy llenada por la napa freática, es o no una suerte de forma difusa de cráter de impacto formado por algún pedazo más denso que se negó a vaporizarse o fragmentarse. Está muy alineado con la dirección de la caída.

Detrás de la onda de choque llegó una ráfaga huracanada centrífuga y de muy alta temperatura, que se abrió en abanico desde el centro de la explosión, y que alcanzó unos 180 kilómetros por hora. Esa brutal circulación de aire debe haber apantallado un multitudinario incendio disperso empezado unos segundos antes, creado por el “flash” de luz visible e infrarroja con que la explosión aérea iluminó la zona. Ese relámpago de energía radiante habrá encendido miles de focos de fuego independientes en forma instantánea, y el huracán posterior los unió y transformó en una “tormenta de fuego”.

Siberia es un sitio frío, donde la putrefacción vegetal y la regeneración de bosque son asuntos lentísimos, de modo que allí en Tunguska, un siglo más tarde, las cosas siguen más o menos como entonces. Vista desde arriba, el área allanada tiene la forma de las alas de una mariposa, y la dirección centrífuga de los gases durante la explosión aérea está muy bien indicada por el abanico de direcciones en que cayeron los 80 millones de árboles allanados.

Tunguska supuso una liberación de energía termomecánica equivalente a la de una bomba nuclear de 17 megatones, es decir 1700 veces más potente que la que explotó a 660 metros sobre el suelo de Hiroshima el 6 de agosto de 1945, y que mató a más de 200.000 personas. Pero en 2007 el astrofísico Agustín Sánchez Lavega, especialista en mecánica planetaria de la Universidad del País Vasco, en España, recalculó las cosas y publicó en Nature que la explosión sólo equivalió a la de un “caño” atómico de 3 megatones, es decir apenas 300 Hiroshimas.

Si la gente se acuerda de Hiroshima y se olvidó totalmente del asunto de Tunguska es porque no sucedió 4 horas y media antes. Efectivamente, Tunguska está más o menos en la latitud (60 grados y medio Norte) de San Petersburgo, sólo que la ciudad de marras está 4 husos horarios corrida hacia el Oeste. No queremos acusar al asteroide de propósitos políticos, pero si se adelantaba un poco, San Petersburgo habría desaparecido del mapa y la historia de la Revolución Rusa habría sido muy distinta. ¿Habría habido Revolución Rusa, con los bolcheviques y el zar y su policía transformados casi instantáneamente en gas o carbón?

La onda de presión fue detectada hasta en Londres, la sísmica hasta en Irlanda, y la nube de polvo que contaminó la estratósfera del norte de Eurasia brillaba tanto que, por ejemplo, pasados cuatro días tras el fenómeno, los parisinos podían salir a las calles y leer el diario de noche debido a la luminosidad del cielo. En Rusia hubo gente derribada de sus caballos, caballos derribados de sus patas, se rompieron ventanas a 400 kilómetros de distancia del hipocentro de la explosión, se oyó el estruendo a 1000 kilómetros, y el maquinista del Tren Transiberiano detuvo la formación, porque las vías y la locomotora parecían estar bailando por la onda sísmica.

La otra gran diferencia entre el evento Tunguska y el bombardeo de Hiroshima es que la bomba Tall Boy era atómica, un arma, y como tal estaba diseñada para hacer el mayor daño posible con una liberación de energía relativamente baja (si se la compara con la del asteroide). Su “flash” provocó una intensa iluminación de neutrones, fotones gamma y X, es decir radiación ionizante, y la vaporización del núcleo de uranio muy enriquecido contaminó los hollines aerotransportados del hongo atómico con materiales altamente radioactivos, los llevó hasta la tropopausa, y luego una lluvia color negro hizo caer toda esa porquería irradiada sobre los sobrevivientes.

En Hiroshima la gente aledaña al hipocentro (el terreno ubicado verticalmente bajo la explosión) se vaporizó por el fogonazo, y la alejada a entre centenares de metros y algunos kilómetros se quemó sin remedio, se irradió en dosis letales y fue muriendo de deshidratación o enfermedad aguda de radiación en los días subsiguientes. Otra parte pereció casi de inmediato aplastada por el derrumbe de la edificación causado por la onda de choque (modesta, si se la compara con la de Tunguska), o embestida por o contra objetos por los vientos centrífugos de unos 400 kilómetros por hora que generó la expansión de la bola de fuego, y luego por los vientos centrípetos, y de velocidad similar, creada por el efecto aspirante del alto vacío reinante en la base del hongo atómico. Es que los gases ultracalientes, al expandirse, pierden densidad, ascienden a gran velocidad y la base de la columna térmica ascendente se vuelve una aspiradora.

Sin embargo, la mayor parte de la población japonesa que murió aquel día lo hizo cuando los focos de incendio se unificaron en un asunto meteorológico llamado “tormenta de fuego”. Es un fenómeno natural que ocurre con algunos incendios forestales mayúsculos. Aquí lo conocemos bien. En la tormenta de fuego forestal contigua a Villa La Angostura de 1997, los árboles estallaban como petardos debido a la vaporización instantánea de su savia, y algunos se quemaron con raíces y todo: quedó el calco en negativo de las mismas bajo tierra, a más de diez metros de profundidad.

En 1944, la aviación aliada logró por primera vez recrear artificialmente este fenómeno natural, típico de algunos grandes incendios forestales, al bombardear durante tres días y noches seguidas la ciudad alemana de Dresden con bombas de fósforo blanco. En una tormenta de fuego, sea natural o antrópica, forestal o urbana, la columna de gases incandescentes que asciende desde el centro del incendio se comporta como un hongo atómico autoalimentado: genera una presión bajísima, que aspira muchas toneladas por segundo de aire fresco y bien oxigenado desde la periferia a la base del fuego. En suma, el incendio actúa como el fuelle de una fragua y debido a las temperaturas en la superficie –mayores de 1000 grados- entra en “feedback positivo”, se alimenta a sí mismo con entusiasmo creciente, y logra quemar incluso algunos materiales de ingeniería considerados incombustibles, a condición de que contengan carbono. En Dresden e Hiroshima se derritieron metales, vidrio y adoquines. Las tormentas de fuego se apagan solas, cuando agotaron todo lo quemable, o cuando llueve, y tiene que llover a baldes.

En Tunguska hubo fogonazo, onda de choque, huracanes, incluso la clásica nube en forma de hongo y una tormenta de fuego de órdago, pero –y esto es esperable- no parece haber habido efectos radioactivos inmediatos, o por precipitación. Sin embargo, la expedición militar que tardíamente visitó la zona, dirigida en 1921 por el coronel Leonid Kulik, recogió entre los más o menos 900 testimonios de testigos presenciales de la etnia Tungus la versión –entonces inexplicable- de que muchos sobrevivientes iniciales perecieron pocos días después de la explosión de enfermedades nunca vistas.

Si se piensa en Hiroshima: ¿puede haber sido enfermedad aguda de radiación? ¿Las temperaturas de la explosión aérea pueden haber sido tan altas como para generar al menos un flash de fotones X, las más “frías” entre las radiaciones ionizantes? No parece probable. Tampoco expediciones posteriores han registrado en la zona una radiación de fondo mayor que la normal en el resto de Siberia, ni “materiales calientes”. Tunguska, resumiendo, no fue una bomba ni la explosión de un plato volador, como sugirió en Argentina el imaginativo coronel de artillería zarista Alexander Kazanzew. Fue un asteroide. Y bien chiquito, de 40 metros más o menos.

Por ahora, como ves, Cacho, cuando nos ponemos en plan bomba, somos más letales para nosotros mismos que los asteroides chicos, y es mucho decir. En suma, si te dan la opción Tunguska o Hiroshima, agarrá viaje con Tunguska: aunque la explosión libere 300 veces más energía, es un fenómeno natural más inocente y si pasás los primeros momentos sin quemarte o ser hecho puré, vas a quedar menos peor. Pero si te dan la opción Tunguska o el 2009DD45, que nos pifió por apenas 60.000 kilómetros y no salió casi en ningún diario, agarrá el último.

¿CÓMO LA SEGUIMOS?

Inevitables reflexiones, oh hermanos y cofrades. Imaginemos que Tunguska no hubiera caído en Tunguska y tampoco en San Petersburgo cuatro horas y media antes, sino siete horas antes y unos nueve grados y medio más al sur, sobre Londres, capital entonces del mayor imperio de la Tierra. La historia humana hubiera sido tan inimaginablemente distinta que si yo y ustedes existiéramos, oh cofrades y hermanos, de puro emperrados en nacer, nomás, quizás estaríamos leyendo esta página en alemán. Y las Malvinas serían argentinas. Y la Argentina, no sé de quién.

La segunda reflexión es estadística: los animalitos al estilo Tunguska (o sus imitadores fracasados, como 2009DD45) suelen golpear la Tierra con una frecuencia de alrededor de uno por siglo. Que el lunes 2 de marzo nos hayamos salvado de un despelote magnífico no quiere decir que ahora tengamos tengamos otro siglo entero de tranquilidad asteroidal garantizada, porque las estadísticas… son estadísticas, promedios que consideran una casuística enorme. En alta resolución, admiten fluctuaciones enormes. Dicho de otro modo: podrían caernos tres Tunguskas todos juntos ahora mismo, mientras escribo estas pavadas. O dentro de mil años.

Lo tercero es que los Tunguskas de 40 metros vienen de varios sabores: alguno podría caer en un ángulo más perpendicular, o estar formado por materiales más metálicos, densos y resistentes a la vaporización explosiva, y entonces sí hacer impacto sobre el suelo. Amén del flor de cráter in situ, el asunto podría desatar efectos sísmicos a distancia mucho mayores que los de 1908 y, con la ayuda invalorable de una tormenta de fuego para inyectar sólidos hasta la estratósfera, podría causar mermas de la absorción solar a escala planetaria. No un “invierno cósmico”, pero sí un año más frío de lo normal.

Tercero, que por lo que ahora sabemos del funcionamiento gravitatorio del sistema solar, estamos en una galería de tiro, parados al lado del blanco más codiciado, que es el Sol. Por su ubicación en el ringside, los planetas rocosos interiores (Mercurio, Venus, la Tierra y Marte) se ligan todos los porrazos imaginables de toda la basura extraplanetaria situada más allá de la órbita marciana. Entre que se formó el sistema solar, hace 4500 millones de años, y los planetas rocosos interiores se consolidaron, todos ellos, incluído el nuestro, sufrieron algún impacto masivo que estuvo a punto de partirlos en dos, incluída la Tierra.

Hay tres grandes repositorios de esta basura, en ningún caso administrados por el CEAMSE (un alivio). En primer lugar el cinturón asteroidal, y muchísimo más lejos, en órbita muy transplutoniana, en los extramuros mismos del sistema solar, el cinturón de Oort y luego la nube de Kuyper. Desde esos dos sitios más lejanos, llenos de témpanos de hielo polvoriento, más o menos cada 30 millón de años nos cae algo mucho más peligroso que un asteroide, por su velocidad e imposibilidad de detección temprana: un cometa.

Aquí en la Tierra, donde tenemos el lujo de albergar una biosfera, los efectos del constante ametrallamiento asteroidal y el más raro cometario son borrados sistemáticamente por la acción conjunta de la erosión, la sedimentación y el crecimiento de plantas. ¿Qué argentino sabe, acaso, que sólo en nuestro territorio continental tenemos al menos tres cráteres de impacto mayores de 8 kilómetros de diámetro? En muchos casos, ni siquiera la población local parada encima.

Pero Cacho, mirá la Luna. ¿La estás viendo? Por empezar, ya nació en circunstancias que llamaríamos por lo menos jodidas, hace unos 4000 millones de años, cuando alguna cosa más o menos del tamaño de Marte, que hemos bautizado Thera, le pegó a la Tierra y le arrancó un buen pedazo de corteza y manto, que quedó en órbita como un anillo al estilo de los de Saturno, y luego se fue condensando y compactando en eso a que le cantan los poetas.

Así como no tuvo un nacimiento tranquilo, la Luna siguió con una vida que otra que una mujer golpeada: mírenla, ahí, toda acribillada de decenas de miles de cráteres de impacto que quedaron para la eternidad, indelebles. Pero no es para reirse, Cacho, porque nosotros la venimos pasando no mucho mejor, sólo que la biosfera –y en ella incluyo a la atmósfera- nos protege de las piedritas, y aunque no lo haga de las piedrotas, nos suministra una formidable ingeniería erosiva, sedimentaria y biológica que enmascara, al menos cosméticamente, los efectos de cada gran mamporro cósmico.

Los asteroides potencialmente “malos”, cuyas órbitas cruzan la de la Tierra son clasificados como NEOs (Near Earth Objects), y por ahora se han inventariado unos mil que habría que tener bajo la lupa. Para 2029 esperamos el paso cercano de uno mucho mayor que este anecdótico 2009DD45. Hablo de un “mostro” de 140 metros, lo suficientemente grande como para haber sido detectado en 2004, tener nombre propio (Apofis lo bautizaron, quevacé), y causar estragos interesantes. Se estima una primer pasadita cercana, “de amigos”, para 2029, y luego –ya enganchado Apofis gravitacionalmente con nuestro planeta- una segunda visita tal vez menos amigable para el 2036.

Las pasaditas “de amigos” son como el “¿Estudiás o trabajás? ¿Siempre venís aquí?”: atracción (en este caso gravitatoria) mediante, pueden anunciar reencuentros más íntimos. Por eso el criterio de los pocos observatorios de alarma temprana, como el Pan-STARRS de Maui, Hawaii, es que es potencialmente nefasto todo bicho de 140 metros o más que haya pasado o vaya a pasar a 7,4 millones o menos de kilómetros de la órbita terrestre.

Si Apofis nos revisita en 2036 y yo todavía sigo vivo y me acuerdo de algo, recuérdenme que en 2009 escribí que esta piedra es buena candidata para un desvío “de ingeniería”, o por voladura atómica. En el primer caso, Cacho, vos aprovechás la baja masa de Apofis y le mandás una sonda más bien pesada, que se acople gravitacionalmente con esta roca. Y luego la sonda enciende sus cohetes, y a una velocidad bajísima, sin separarse de Apofis, lo va traccionando gravitacionalmente hasta desviarlo de su curso de impacto. Chau, y no vuelvas.

Hay otras variaciones de estos enfoques minimalistas, casi persuasivos. Pero si fallan, como plan B dentro de un programa de defensa escalonado en profundidad, mirá, vas y le tirás una de esas cabezas nucleares “de explosión lateral” que el experto en armas ruso Vadim Simonenko diseñó en los años ’70. El las quería para poner en un torpedo y hacer desaparecer toda junta una flota estadounidense, qué tal. Lo frustró el fin de la Guerra Fría (la anterior, no la que se viene). Haceme caso, vos hablá con Simonenko, que la sabe lunga de explosiones nucleares asimétricas. El cohete para llegar con esa carga hasta las proximidades del asteroide se lo pedís a mi amigo Obama, White House, que tiene la mayor flota militar de cohetes al cuete (porque no los puede usar para nada) del planeta. Vos preguntá la dirección en Washington y tocale timbre. De parte de Daniel, decile.

Un flash nuclear asimétrico desde cierta distancia, como el que emitiría una bombita atómica a la Simonenko, causaría la ablación explosiva de muchos metros cúbicos de roca en el lado así “iluminado” de Apofis. El asteroide se volvería brevemente un cohete: la eyección lateral de gases volatilizados de su propia sustancia lo impulsaría, por eso de la acción y reacción, hacia una órbita menos peligrosa… tal vez. Ya estamos dentro del rango de medidas medio desesperadas.

Si ésta fracasa, la opción C, mucho menos sofisticada, sería entrar en plan Rambo y darle de lleno al fucking asteroide con una cabeza termonuclear convencional muy potente, como ésa de 50 megatones que los russkis testearon en Novaya Zemlya en 1961. Pero el peligro es que si muchos fragmentos grandes de Apofis conservan la trayectoria original, aquí abajo estaríamos cambiando un balazo del .44 magnum por un escopetazo calibre 12. La mayoría de los fragmentos impactaría sobre los mares y causaría tsunamis globales que olvidate del de 2004. En suma, el método Rambo no da para entusiasmarse. Por supuesto, peor es quedarse piola, estilo dinosaurio esperanzado.

En realidad, estos impactos son no sólo rutina en la historia de los planetas, sino la propia historia de los mismos: se construyeron por la caída de cosas sobre más cosas, lo que se llama un proceso de acreción. Pero quedan muchas cosas todavía por caer.

El mensaje un tanto amargo que nos manda 2009DD45 es que este proceso de acreción puede haberse vuelto mucho más lento, pero nadie dice que haya terminado. Si Apofis vuelve en 2036 en mal plan y no tenemos nada con qué tirarle, Cacho, Tota, mis amigos del alma, no dejen de leer mi emocionado comentario en la ocasión. Seguramente en el infierno también hay blogs.

Daniel Arias

TARTAGAL DA PARA HABLAR

Nuevamente bajó con barro y troncos el río Tartagal y esta vez se llevó o anegó un tercio de la ciudad, y el gobierno salteño –el PJ, desde hace 22 años- dice que no es culpa de los desmontes que vive autorizando a cuatro manos: ¿será entonces de los tartagaleños, que vienen a construir una urbe justo donde pasa el barro? El gobierno nacional, también del PJ, estuvo “pisando la pelota” de la ley de bosques durante dos años para que no se reglamentara y aplicara, pero va todavía un poco más lejos: ahora critica severamente los desmontes. Posibilitados, en fin, porque la ley estuvo parada. Por el gobierno nacional, entiéndase.

El río Tartagal es el menos culpable: antes no hacía estas cosas. Típico curso de montaña, tiene ondas de crecida bruscas cuando llueve en la alta cuenca. Pero la diferencia entre el “siempre” y el “ahora” es doble: en la última década y media se estuvieron haciendo talas ilegales en laderas altas, que tienen relictos de yunga (selva subtropical de altura). Aunque ahí arriba, en las divisorias de agua, la masa forestal degradada por la pérdida de los árboles más altos del dosel resiste como puede, las picadas por las que se extraen los troncos (a tractor o con bueyes) se transforman en ríos turbulentos con la primer lluvia severa.

A eso hay que añadir que aguas abajo, en los terrenos planos con monte, éste es pasado por la topadora para sembrar soja. Para el dueño es casi una operación inmobiliaria: cuando deja de ser “campo bruto” (en la particular visión de la culta burguesía local), el valor de la hectárea sube un 50%. Por último aparecen fondos de capitales a veces ni siquiera radicados en el país ni dedicados a la agricultura, con algún teléfono en la city porteña, que se alzan con 50 o 60.000 hectáreas de un saque, las “desembrutecen” a topadora, y luego ven qué hacen. El ordenamiento territorial ya no se decide ni siquiera en la capital salteña (donde sólo se ponen sellos de “aprobado”), sino en los mercados de commodities de Chicago y Shanghai. Donde cuánta gente muera o pierda su casa en Tartagal no es siquiera un dato.

Es elemental que, al no estar sujeta por raíces profundas, la tierra en pendiente se lava, en un proceso erosivo nada lento de su capa fértil, que se vuelve furibundo cuando las lluvias son bravas. Cuando son bravas, el terreno, que antes absorbía agua como una esponja y lo liberaba lentamente, ahora resulta impermeable y el agua llovida baja a pleno caudal por las quebradas con enorme energía cinética: arrastra lodo y piedras y desarraiga árboles. Fue un “mix” de todo eso lo que arrancó de sus pilares un robusto puente ferroviario de vigas de acero que estuvo allí casi todo el siglo XX, lo enclavó aguas abajo, lo rellenó de materiales de arrastre hasta volverlo un dique sólido, e inundó la ciudad.

GRAN DESMONTADOR, GRAN ARBUSTIZADOR

Si se le da tiempo, el gobernador Juan Manuel Urtubey le ganará a su antecesor Juan Carlos Romero el título de Gran Desmontador del NOA: cuando en diciembre de 2008 la legislatura salteña aprobó localmente la nueva ley de ordenamiento territorial, presentó un mapa en el que se autorizaba la tala de 1 millón de hectáreas adicional. Urtubey vetó el mapa –con lo que la ley es inaplicable- y entre tanto prepara uno con entre 1,8 y 2,5 millones de hectáreas, y tiene legisladores que ya hablan de 5 millones. Incluso en su versión más benigna, ésta es una ley permisiva: si antes el límite de pendiente para cultivar era del 10%, esta ley autoriza el 15%, es decir en plena serranía. Por menos que eso ya hubo aludes en Orán y Vespucio, ciudades que nunca los tuvieron. Noemí Cruz, coordinadora de Greenpeace en el NOA, menciona que Facundo Urtubey, hermano del gobernador, tiene una empresa de desmontes. Bueno, nadie dice que sólo se deba ganar plata en Shanghai.

Cuando el PJ más ranciamente conservador del país, el salteño, autoriza desmontes, suele ampararse en que condena a bosques de poco valor biológico, bastante degradados en su biodiversidad. Por supuesto, tiene razón: degradados en primer lugar, por un siglo y monedas de tala selectiva de los mejores árboles y luego por la invasión de ganado en los claros que liquidó los renovales, y también el pastizal. Puede añadirse, como nota al pie, que la mayor parte de estos daños sucedió últimamente durante los 22 años de administración del PJ. Es decir, cuando la soja entró a la región por el este, su sector más húmedo, y se fue corriendo hacia el oeste semiárido sin más límite que el costo del flete en camión para salir al mundo por el río Paraná.

Pero el Chaco es un ecosistema menos perdonavidas que la Pampa Húmeda, cuando se mete la pata con la receta agropecuaria, y la tierra se vuelve más vengativa de los desmanejos cuanto más occidental y larga estación seca. Si se deja la tierra sin cobertura vegetal y sin celulosa en el suelo la mayor parte del año, como sucede con la soja monocultivada, la estación lluviosa va destruyendo la capa fértil. Y si entonces se la abandona empobrecida por la merma de rindes, y hecha un peladal, sobreviene la arbustización.

Es lo que ya sucedió durante el siglo anterior debido a dos causas distints: la sobretala y el sobrepastoreo. Ante la falta de incendios espontáneos de pastizal que quemen los arbustos leguminosos pinchudos (talas, churquis, vinales, espinillos), o de grandes árboles que les ocupen la tierra, el arbustal –antes una nota al pie en el inventario vegetal del paisaje- pasa al frente e invade todo, y forma el equivalente botánico del alambrado de púas. Gracias a la vista gorda –y francamente idiota- de gobernadores, presidentes y legisladores, la Argentina hoy tiene el récord mundial de tierras arbustizadas: 60 millones de hectáreas según el Dr. Enrique Bucher, de la Universidad de Córdoba. Es como sumar Holanda y Bélgica.

Como la economía arbustizada pasa de la vaca y el quebracho, que algo dejan, al chivo y la fabricación de carbón, que no dan un mango y perpetúan el daño, el paisaje humano también se deteriora: la juventud, desesperada por la improductividad de su pago, huye a las villamiserias. Detrás deja un infierno y adelante le espera otro peor.

Sin embargo, aún el peor y más envilecido arbustal, y máxime en pendiente, rinde un servicio ecológico a quienes viven y cultivan algo más abajo: impide la erosión lenta e insidiosa, y también la rápida y catastrófica. Hasta que lo arrancan.

DE TODO SE VUELVE… SI SE QUIERE

La tierra arbustizada es recuperable. Hay muchos líderes comunitarios en el NOA con tierras, abolengo y además currículum, en lugar de prontuario. Uno de ellos ha sido el Dr. Carlos Saravia, de la Fundación Salta para el Desarrollo del Chaco, que junto con el mencionado Bucher y el Dr. José María Chani, de la Fundación Enrique Lillo de Tucumán, armó un plan de manejo exitoso en las 10.000 hectáreas de la Estación Biológica Los Colorados. Tuvo tanto éxito que en 1989 el asunto fue publicado como “leading case” por el semanario científico inglés New Scientist.

El sistema es ingenioso porque usa lo que hay en el terreno, sin un centavo de insumos externos y no requiere de inversiones sino de mera voluntad política. Se parte de cercar los peladales donde antes había pasto durante dos o tres años, para que el banco natural de semillas enterrado en el suelo desnudo eclosione y retapice el lugar. Luego ese pastizal recuperado se deja pastar en ciclos de ocho meses con cuatro de descanso en lo peor de la estación seca (el Chaco es de clima muy monzónico), mientras para compensar el bajo valor calórico de las gramíneas nativas y tener un “plan B” en caso de sequía se acopian las vainas o chauchas llenas de proteína y grasa del arbustal (eso es obligar al enemigo a trabajar contra sí mismo).

Pero el cercado no sólo permite la regeneración del pastizal, sino también del bosque. La especie de bandera del mismo, la más valiosa en aplicaciones estructurales por su increíble dureza y resistencia a la putrefacción, el quebracho colorado (Schinopsis quebracho), tarda entre 50 y 80 años en crecer, da semillas sólo 3 veces por década; y tras siglo y medio de paliza casi no queda. El poco quebracho colorado que crece aún y se salva de vacas y chivos es transformado en carbón no bien alcanza talla de arbusto, lo que equivale a comerse como hamburguesas un toro gran campeón de La Rural.

El cercado estricto permitió que el quebrachal volviera a formarse en Los Colorados, como base de regreso del monumental bosque original que en la década de 1930 le valió a la desolación de Santiago del Estero el título (hoy increíble) de “El país de la selva”, un libro de Ricardo Rojas casi inevitable en la vieja escuela primaria pública argentina de los años ’60. Al quebrachal se lo puede talar cada 50 años en forma selectiva, habiendo asegurado su reproducción, y se dejan para carbón los árboles de fuste más torcido (y de genética inferior), con un corte cada 20 años.

El modelo de paisaje chaqueño original, con islas de bosque alternado con pastizales que emerge en Los Colorados vale no sólo porque permite una ganadería y una actividad maderera cautelosas, muy “gasoleras”, que fijan población juvenil. Vale porque además da las bases para utilizar la fauna de modo sustentable con la cría de lagartos overos (de cueros de mucho valor), amén de la caza y el ecoturismo. Y éste es el único momento en el que estado pone plata: para recibir turismo, hay que educar a la población. Cosa difícil cuando los gobiernos conservadores del NOA tienen el mismo entusiasmo por la educación popular que los patos por la munición. Y por lo mismo.

En un país como la Argentina, cuyo tercer renglón de exportación es vender paisajes intactos, los 1,6 millones de hectáreas de llanura chaqueña son hasta ahora la gran Cenicienta impresentable, por la arbustización y la pobreza y el descalabro social y humano que la acompañan. “Vos dame un modelo de explotación sustentable del ecosistema chaqueño, que pueda seguir en pie de aquí a un siglo, y nos sentamos a conversar. Pero lo que sucede ahora es de terror”, dice el ecólogo Jorge Adámoli, de la Universidad de Buenos Aires, consultor internacional que a diferencia de las ONG como Greenpeace, es conocido por sus posiciones industrialistas y productivistas.

Como modelo de manejo, Los Colorados tarda en alcanzar la rentabilidad y ésta es menos gloriosa que talando y plantando soja. Pero cuesta menos cuando uno toma las externalidades del segundo modelo: pérdida insidiosa y/o brutal de la capa fértil, deslaves, destrucción de ciudades e infraestructura, expulsión de jóvenes (la nueva agricultura ultramecanizada casi no produce trabajo), y finalmente, el peor destino final: la aridez en el peor caso, la arbustización en el menos peor.

Ahora que a la luz de la seca histórica de 2008/9 los climatólogos hablan de que el cambio climático nos prepara un ciclo de disminución de precipitaciones, luego de treinta años inusualmente húmedos, se da la posibilidad de que los capitales golondrina que se instalaron “para sojear” se vayan al demonio tras dos o tres cosechas malas, y libren la tierra desmontada a un recrudecimiento de arbustal.

Por ahora, lo que suceda en Los Colorados al mix de caciques de unidad básica, gobernadores de topadora, presidentas distraídas y operadores chinos les interesa tanto como lo que sucedió y volverá a suceder en Tartagal. La tragedia humana es un problema ecológico que es, a su vez, en el fondo, político.

Daniel E. Arias