Envío Digital
 
Universidad Centroamericana - UCA  
  Número 365 | Agosto 2012

Anuncio

Internacional

Economía verde: ¿Una vía para otro mundo posible?

La propuesta de la “economía verde”, patrocinada por empresas, gobiernos, universidades y ONG, se ha nutrido de la moda y del credo del calentamiento global. El papel de nuevas tecnologías, con riesgos impredecibles, es central en la agenda de la economía verde, que sigue considerando al medio ambiente como mero proveedor de recursos y a la gente como mano de obra para trabajar y como masa para consumir. La economía verde no es limpia ni es verde y no sacará a nuestro planeta de la ruta de la crisis y del colapso.

Célio Bermann

Veinte años después de Eco 92, Río de Janeiro ha sido en 2012 sede de la conferencia Río+20, con una agenda con dos puntos principales: la economía verde y la estructura institucional para el desarrollo sostenible y la erradicación de la pobreza. Han surgido voces críticas que sostienen que la economía verde peca de un exceso de positivismo cientificista, pues confía en resolver los problemas generados por el cambio climático aplicando la ciencia por encima del debate político. Según sus detractores, con la economía verde se está apostando por tecnologías cuyos riesgos son imprevisibles, como la nanotecnología, la biología sintética y la geoingeniería, áreas donde Estados y empresas han invertido ya miles de millones de dólares.

UN TÉRMINO IMPRUDENTE Y EQUÍVOCO

En octubre de 2008, el Programa de las Naciones Unidas para el Medio Ambiente (PNUMA) puso en marcha la Iniciativa de Economía Verde (Green Economy Initiative) con el objetivo de movilizar y redirigir ahorros a inversiones en tecnologías verdes e infraestructura natural. Uno de los resultados de esa iniciativa fue la publicación en marzo de 2009 del informe Global Green New Deal. Policy Brief. Este documento sirvió como base para un nuevo informe del PNUMA publicado en 2011: Hacia una economía verde: guía para el desarrollo sostenible y la erradicación de la pobreza. Síntesis para los encargados de la formulación de políticas. En ese documento el PNUMA “considera que una economía verde debe mejorar el bienestar del ser humano y la equidad social, a la vez que reduce significativamente los riesgos ambientales y las escaseces ecológicas. En su forma más básica, una economía verde es aquella que tiene bajas emisiones de carbono, utiliza los recursos de forma eficiente y es socialmente incluyente”.

Como recuerda Carlos Walter Porto-Gonçalves, en Sustentando a insustentabilidade, el tema de la economía verde en el contexto del desarrollo sostenible y la erradicación de la pobreza -uno de los puntos de la conferencia Río+20- fue construido a partir de “una noción llena de ambigüedades, sin ninguna consistencia científica o filosófica, que sólo serviría para legitimar la apertura de mercados que, basados en la lógica mercantil y en un sistema de valores que se mide en términos cuantitativos y, por lo tanto, sin límites, tiende a alimentar la tensión con la diversidad ecológica y cultural del planeta y de la humanidad. Por eso, consagrar ese término no sólo es imprudente sino que es un equívoco científico y filosófico”.

La definición que hace el PNUMA de “economía verde”, aunque bastante general, tiene como fundamento principal una economía que sustituye los combustibles fósiles por energías renovables y tecnologías con bajas emisiones de carbono. A partir de esta definición, y para hacer una reflexión crítica respecto a sus fundamentos, es necesario mirar la evolución del debate ambiental desde el punto de vista histórico, a partir de los resultados alcanzados en la conferencia Eco 92.

LA ESTRATEGIA DE “DESCARBONIZACIÓN”

La Conferencia de las Naciones Unidas para el Medio Ambiente y el Desarrollo Eco 92, llevada a cabo en Río de Janeiro en 1992, tuvo como principales resultados la realización de varias Convenciones: sobre la Biodiversidad, sobre la Desertificación y sobre el Cambio Climático. Además surgieron de ella varios documentos: Carta de la Tierra, Declaración de Principios para el Manejo Sustentable de los Bosques, Agenda 21 y la Declaración de Río sobre el Medio Ambiente y el Desarrollo.

La cuestión energética adquirió mayor relevancia en la Convención Marco de las Naciones Unidas sobre el Cambio Climático, amparada en la problemática que involucra el aumento de las emisiones y de la concentración de los gases de efecto invernadero y dio lugar en 1997 a la elaboración del Documento Protocolo de Kyoto, que definió la reducción del 5.2% de las emisiones de gases de efecto invernadero hasta el año 2012, teniendo como referencia el año 1990.

Desde el punto de vista científico-institucional, los trabajos desarrollados por el Grupo Intergubernamental de Expertos sobre el Cambio Climático, IPCC (Intergovernmental Panel on Climate Change), proporcionan la base técnico-científica para la evaluación de la contribución humana en el aumento de las emisiones y de la concentración de los gases de efecto invernadero, identificando en la quema de combustibles fósiles (carbón mineral, petróleo y gas natural) el foco principal para la implementación de medidas destinadas a la reducción de las emisiones, así como a los cambios en el uso del suelo resultantes de la pérdida de la cobertura de vegetación por quemas.

El Protocolo de Kyoto y sus instrumentos o mecanismos de flexibilización (Mecanismo de Desarrollo Limpio, Comercio Internacional de Emisiones, Implementación Conjunta) encontraron resistencia en varios países considerados como grandes emisores, y sólo fueron ratificados y entraron en vigor el 16 de febrero de 2005, después de que Rusia los ratificara en noviembre de 2004. Por su parte, la Convención sobre el Cambio Climático estableció un calendario de reuniones anuales denominado Conferencia de las Partes. La primera de estas reuniones fue realizada en Berlín en 1995. Desde entonces se han llevado a cabo 15 reuniones más, la última en Durban (Sudáfrica) en 2011.

Durante todo este período, el tema de las energías renovables se impuso como una estrategia para la sustitución de la quema de combustibles fósiles y, consecuentemente, para la reducción de las emisiones de gases de efecto invernadero. La estrategia recibió el nombre de “descarboni¬zación” y fue presentada con evidencias en innumerables congresos, seminarios y reuniones en los que participaron académicos, gobiernos y políticos, empresas y ONG. La estrategia de descarbonización es precisamente uno de los fundamentos de la economía verde.

EL CREDO DEL CALENTAMIENTO GLOBAL:
CREYENTES Y ESCÉPTICOS

Desde su creación en 1988, el IPCC produjo cuatro informes de evaluación sobre los cambios climáticos: en 1990, 1995, 2001 y 2007. El último informe intentó presentar la temática del calentamiento global y los cambios climáticos como resultado de la acción humana en el marco de un consenso científico. Ese informe indicaba que 11 de los 12 últimos años fueron los más cálidos que se hayan registrado, según datos confiables recogidos desde 1850. Más aún, en este informe el IPCC afirma que la mayor parte del calentamiento producido desde mediados del siglo 20 es atribuible a la actividad humana, con más del 90% de credibilidad.

En un artículo publicado conjuntamente en 2007, los científicos William Collins, Robert Colman, Philip Mote, James Haywood y Martin R. Manning defienden el punto de vista del IPCC. Para ellos, la certeza de que el ser humano es responsable del aumento de la concentración atmosférica de gases de efecto invernadero tiene relación con el hecho de que algunos de esos gases -por ejemplo, la mayoría de los halocarbonos- no tienen fuente natural. Respecto de otros gases -básicamente, dióxido de carbono, metano y óxido nítrico-, dos importantes observaciones demuestran la influencia humana. La primera es que las diferencias geográficas en las concentraciones revelan que las fuentes están predominantemente en las áreas con mayor densidad demográfica del hemisferio Norte. La segunda es que los análisis de isótopos, que pueden identificar las fuentes emisoras, indican que el aumento del dióxido de carbono proviene en su mayor parte de la quema de combustibles fósiles (carbono, petróleo y gas natural). El aumento de los niveles de metano y de óxido nítrico es producto de las prácticas agrícolas y de la quema de combustibles fósiles.

Esta certeza en relación con la contribución de las emisiones antrópicas (humanas) al proceso de calentamiento global no es compartida por gran cantidad de científicos, también llamados “escépticos”. Algunos son incluso bastante reticentes a la propia naturaleza de los trabajos desarrollados por el IPCC. Por ejemplo, el científico francés Marcel Leroux, profesor de Climatología de la Universidad Jean Moulin-Lyon III y director del Laboratorio de Climatología del Centre National de la Recherche Scientifique, fallecido en 2008, sostuvo respecto de los informes del IPCC, que “el número anunciado de científicos que participan de esos informes puede ilusionar y esconder el carácter monolítico del mensaje. En realidad, un pequeño equipo dominante impone sus puntos de vista a una mayoría sin competencias climatológicas. La I del IPCC significa, en efecto, intergubernamental. Esto expresa que los científicos son, antes que nada, representantes gubernamentales”.

Por su parte, el IPCC recuerda que no lleva a cabo nuevas investigaciones ni monitorea los datos relacionados con los cambios climáticos ni recomienda políticas climáticas. Sin embargo, es innegable el papel que desempeña en alimentar el “alarmismo climático”. Para Leroux, “el calentamiento global (global warming) es un tema que se puso de moda, en particular, después del verano de 1988. Luego, en Estados Unidos pasó a primer plano la angustia del dust bowl. A esto le siguió el drama (greenhouse panic). Inicialmente asunto de la climatología, el tema fue tratado de manera emotiva e irracional, para luego convertirse en alarmismo. Así perdió su contenido científico”.

¿PREOCUPACIÓN CIENTÍFICA
O INTERESES ECONÓMICOS Y POLÍTICOS?

Otros científicos de renombre internacional han criticado la pérdida de contenido científico de los trabajos del IPCC, entre otros Richard Lindzen, profesor de Meteorología del Instituto Tecnológico de Massachusetts; Robert Balling, profesor de Geografía de la Arizona State University; Patrick Michaels, profesor de Ciencias Ambientales de la Universidad de Virginia; además de Bjørn Lomborg, Fred Singer, John Cristy y Stephen McIntyre.

No se puede dejar de señalar que varios de estos científicos han sido cuestionados en relación con la naturaleza de sus actividades y sus propósitos a causa del apoyo financiero que recibieron de la industria petrolera y del carbón. Estos sectores, a su vez, tenían -y tienen- interés en utilizar estos trabajos académicos como fundamento científico para negar su supuesta responsabilidad en el aumento de la concentración de gases de efecto invernadero. Para hacer aún más difícil la tarea de disociar la ciencia de los intereses económicos y político-ideológicos, algunos de estos científicos constituyeron el Instituto Heartland, que adquirió relevancia por albergar la corriente conocida como “ambientalismo de libre mercado” (free market environmentalism), fundamentada en la visión de que los principios del mercado bastarían para asegurar la protección del medio ambiente y la conservación de los recursos.

La credibilidad científica de los trabajos del IPCC se puso definitivamente a prueba con la divulgación, en su cuarto informe de 2007, de la predicción de que era “muy probable” el deshielo, y por ende la desaparición, de los glaciares del Himalaya hacia el año 2035, sin citar otras evidencias. La afirmación utilizó la misma expresión (“muy probable”) con que es clasificado el calentamiento global que sería causado por los seres humanos con una probabilidad superior al 90%.

En ese cuarto informe del IPCC se leía que “el deshielo del Himalaya está siendo más rápido que en cualquier otra parte del mundo y si el ritmo actual permanece, la probabilidad de su desaparición para el año 2035 es tal vez mucho más alta, si la tierra continúa calentándose al ritmo actual”. Aunque el IPCC alegó en su defensa que esta previsión sobre el deshielo del Himalaya no entró en el resumen final para los gobiernos, la repercusión más fuerte del error cometido se observó una vez finalizada la Conferencia de las Partes número 15, realizada en Copenhague, marcada por el fracaso en las negociaciones para una eventual segunda etapa del Protocolo de Kyoto.

ENERGÍAS SUSTENTABLES:
¿SON POSIBLES? ¿Y A QUÉ ESCALA?

El hecho es que no existe un consenso sobre si las emisiones de dióxido de carbono de origen antrópico tienen o no un efecto significativo en el calentamiento global. Muchos científicos consideran absolutamente despreciable la contribución humana a las emisiones globales de dióxido de carbono que se verifican en el planeta. Luiz Carlos Molion, profesor de Meteorología de la Universidad Federal de Alagoas y representante de los países de América del Sur en la Comisión de Climatología de la Organización Meteorológica Mundial (OMM), señala sobre los debates que se llevaron a cabo en diciembre de 2009, en ocasión de la Conferencia de las Partes número 15 en Copenhague, que “los flujos naturales de los océanos, polos, volcanes y vegetación suman 200 mil millones de toneladas de emisiones por año. La incertidumbre que tenemos sobre ese número es de 40 mil millones más o menos. El ser humano produce apenas 6 mil millones de toneladas. Por lo tanto, las emisiones humanas representan el 3%. Si en esa conferencia hubieran conseguido reducir las emisiones a la mitad, ¿qué representarían 3 mil millones de toneladas respecto a 200 mil millones? No va cambiar absolutamente nada en el clima”.

Por otra parte, según datos de 2011 de la Agencia Internacional de la Energía (IEA por sus siglas en inglés) de 2011, la oferta total mundial de energía primaria para el año 2009 alcanzó 12 mil 150 millones de toneladas de equivalente petróleo. De ese total, 86.7% tuvo como origen los combustibles fósiles, incluyendo el uranio. Es decir, las denominadas “energías renovables”, incluyendo la hidráulica, representaban apenas el 13.3% de la oferta de energía primaria en el mundo.

ES NECESARIO
UN CAMBIO DE ENFOQUE EN EL DEBATE

De estos hechos resulta que la humanidad vive la inexorabilidad de una dependencia extrema de los combustibles fósiles para las próximas décadas. Los esfuerzos para sustituirlos por “fuentes energéticas sustentables” no sólo son frágiles en términos de la escala exigida, sino también físicamente imposibles.

En una investigación de la FAO de 2010 sobre la sustitución de los combustibles fósiles vehiculares por los agrocombustibles, considerando el actual estadio tecnológico, se llega a cifras como éstas: La sustitución de la gasolina automotriz total consumida en el mundo (en 2009) requeriría dedicar un área de 482 millones 200 mil hectáreas para la producción de etanol, lo que equivale al 41% de la superficie total utilizada ese año para la producción de cereales, legumbres, azúcar, semillas oleaginosas y verduras o al 35% del total de tierra cultivable disponible en el mundo. Y la sustitución del diesel mineral total consumido en el mundo (en 2009) requeriría dedicar un área de 1 mil 729. 2 millones de hectáreas a la producción de biodiesel, una extensión equivalente a 1.25 veces el área total de tierras cultivables disponibles en el mundo.

Ante estas realidades, al tomar la estrategia de reducir las emisiones de carbono como un instrumento para alcanzar el desarrollo sostenible, la economía verde se apropia del tema de los cambios climáticos para promover la expansión de los agrocombustibles, subordinada a los intereses del agrobusiness. El estado actual del conocimiento tecnológico, incluyendo la producción del “etanol de segunda generación” o la utilización de otras fuentes para la producción avanzada de biodiesel (microalgas, cianobacterias y manipulación genética) no permite la alteración del actual cuadro internacional, marcado por el conflicto alimentos vs. agrocombustibles.

No es desconocido que estamos viviendo un período de agudización del proceso de cambio climático, sea ello el resultado de la acción humana o de causas de origen natural. Los eventos extremos abundan y pueden ser identificados por el aumento en la frecuencia de días más calurosos en algunas regiones del planeta, mientras que en otros aumenta la frecuencia de días más fríos. El incremento en la frecuencia y la intensidad de las lluvias, que a veces causan inundaciones catastróficas, así como el registro de ciclones tropicales, tornados y huracanes cada vez más intensos y frecuentes ponen en evidencia la necesidad de un cambio de enfoque en el debate internacional actual. Este debate ya no debe limitarse al credo del calentamiento, que sólo oscurece la reflexión y apunta hacia falsas soluciones energéticas.

La preocupación por la contaminación a causa de las emisiones de gases de efecto invernadero debido al uso de combustibles fósiles debe ceder paso a una percepción científicamente más sólida, con base en el avance dramático de la contaminación del aire (por ejemplo, las emisiones de polvo, humo, hidrocarbonatos, incluso los aromáticos bastante patogénicos, gases nitrogénicos y de azufre, precursores de la lluvia ácida y del ozono troposférico respirable) y en la degradación de las condiciones de vida de la población en áreas carboníferas, siderúrgicas y dedicadas a los agronegocios. Ésos son los temas y asuntos cruciales para la salud y la supervivencia del medio ambiente y de la especie humana que han resultado oscurecidos, descuidados y omitidos por las empresas, los gobiernos, las universidades y las ONG que adoptaron la moda y el credo del calentamiento.

SOLUCIONES TECNOLÓGICAS PROPUESTAS:
LA NANOTECNOLOGÍA

El papel de la tecnología es central en la economía verde. Medio siglo después del nacimiento del movimiento ambiental moderno, para esta vertiente del pensamiento todos los problemas sociales parecen exigir no tanto políticas como soluciones tecnológicas. La perspectiva técnica positivista encuentra en la economía verde su afirmación a partir de la idea de que es posible acabar con la dependencia de los recursos naturales y solucionar el problema climático a través del desarrollo de tecnologías. Las principales tecnologías que se discutieron en la preparación de la Cumbre Río+20 son la nanotecnología, la biología sintética y la geoingeniería.

La nanotecnología permite la manipulación de la materia en escala nanométrica, es decir, en el orden de la milmillonésima parte de un metro. En esta escala, se ven alteradas las características de los elementos químicos -conductividad eléctrica, color, forma en que reaccionan a la presión atmosférica, etc.-. Por esto, la nanotecnología ofrece la posibilidad de utilizar mucha menos cantidad de materia prima para producir determinados productos, y se cree que por este camino sería posible sustituir mercancías o materias primas ya sobreutilizadas por otras nueva, producidas mediante esta tecnología.

Los gobiernos de Estados Unidos, Japón, Reino Unido y China principalmente ya han hecho grandes inversiones en nanotecnología. En conjunto, estos países han gastado unos 50 mil millones de dólares en investigación básica en este campo desde 2001. Comparativamente, es más dinero que el que se invirtió en el Proyecto Manhattan, que creó la primera bomba atómica.

En un principio, la mayor parte de estos gastos lo hicieron los gobiernos, pero en 2007 el sector privado comenzó a superarlos. Las inversiones provienen de empresas de las áreas de energía, minería, química e informática, como Nestlé, Monsanto y Syngenta, entre otras. Según datos de ETC Group, una ONG canadiense que monitorea las nuevas tecnologías, la inversión del sector privado en nanotecnología ya alcanza unos 7 mil millones de dólares anuales en investigación básica.

OTRA TECNOLOGÍA:
LA BIOLOGÍA SINTÉTICA

La biología sintética puede describirse como la parte biológica de la nanotecnología, ya que permite la manipulación de los elementos que componen el ADN de los organismos vivos. Lo que los inversores están diciendo es que con el desarrollo de la biología sintética será posible crear cualquier tipo de organismo y esto permitirá la creación de nuevas formas de vida. A partir de ello, se cree que será posible sintetizar los microbios capaces de utilizar biomasa y convertirla en energía eléctrica, en combustible, en alimento. En teoría, sería posible sintetizar un microbio capaz de producir plástico, por ejemplo, a partir de la celulosa presente en los vegetales.

La diferencia entre esa tecnología y la ingeniería genética -la que se utiliza en la creación de organismos gené¬ticamente modificados- es que en teoría la biología sintética posibilita la síntesis de ADN a partir de cero, mientras que la ingeniería genética “sólo” transfiere uno o más genes de un organismo a otro. El nivel de inversiones destinado a la biología sintética también es impresionante. Las grandes compañías petroleras, como Exxon y Shell, han invertido mucho en esta área. Sólo Exxon gastó el año pasado 600 millones de dólares en una empresa de biología sintética. El gobierno de Estados Unidos invirtió 1 mil millones de dólares en pequeñas empresas de ese sector en 2010.

Y OTRA: LA GEOINGENIERÍA

La geoingeniería es básicamente una estrategia que engloba varias tecnologías, incluyendo la biología sintética y la nanotecnología, para intervenir a gran escala en los océanos y en la atmósfera. Se propone hacer frente al cambio climático.

Los científicos que están trabajando en proyectos en este campo alegan que es imposible revertir los cambios climáticos a menos que consideremos utilizar la geoingeniería. Esto se propone de dos formas diferentes: una es disminuir la cantidad de luz solar que llega a la Tierra por medio de una estrategia llamada “gestión de la radiación solar”. La idea es bloquear la luz del sol bombardeando la estratósfera con sulfatos, para simular lo que acontece cuando un volcán entra en erupción. Algunos investigadores alegan que es posible construir enormes tubos de 25 kilómetros de altura, que estarían esparcidos por todo el mundo y bombardearían la atmósfera con sulfatos para lograr que la temperatura se estabilice.

La segunda estrategia de la geoingeniería es la fertilización oceánica: la propuesta es escoger una parte del océano que sea pobre en nutrientes tales como hierro y urea, y verter nanopartículas de esos nutrientes para crear una proliferación de fitoplancton (conjunto de organismos vegetales acuáticos microscópicos, principalmente algas). Ese fitoplancton absorbería el dióxido de carbono de la atmósfera y al morir se hundiría y quedaría depositado en el suelo marítimo. Desde 1993 se han llevado a cabo 13 experimentos de ese tipo en todo el mundo, financiados principalmente por los gobiernos de Estados Unidos, Reino Unido y Alemania, y todos resultaron un fracaso, pero los gobiernos continúan intentándolo, con un gasto cada vez mayor.

La inversión en geoingeniería todavía puede ser considerada modesta. Esto puede explicarse por el hecho de que en 2011 el Convenio sobre la Diversidad Biológica de la ONU estableció una moratoria sobre los experimentos de geo¬ingeniería que puedan tener consecuencias que vayan más allá de las fronteras de los países que los realizan o que tengan efectos de largo alcance. Sólo se permiten peque¬ños experimentos. Fue una decisión apoyada por 193 países. En realidad, hay dos moratorias contra la geoingeniería.
La primera, aprobada por la ONU en 2008, se dirige contra los experimentos de fertilización oceánica. Al año siguiente, Alemania llevó a cabo pruebas que violaron la moratoria y esto provocó una enorme ola de protestas, incluso en Ale¬ma¬nia, lo que llevó a la interrupción de los experimentos. En 2010, esa moratoria se amplió para abarcar también la gestión de la radiación solar. Pero la biología sintética y la nanotecnología no están sujetas a casi ningún tipo de regulación.

LOS RIESGOS DE LAS TECNOLOGÍAS
AL SERVICIO DE LA ECONOMÍA VERDE

El uso de estas técnicas como solución a los problemas ambientales también tiene mucha credibilidad en el mundo académico. La mayoría de los últimos ganadores del Premio Nobel de Física y Química trabaja en nanotecnología y biología sintética. Las universidades más importantes del mundo están involucradas en la investigación en esas áreas: Oxford, Cambridge, Harvard, MIT, Stanford. Sin embargo, no existen debates acerca de los riesgos involucrados en esas tecnologías porque hay un consenso en la academia de que tienen un enorme potencial. Nadie discute hoy los riesgos ambientales y de salud que podrían ser consecuencia del uso indiscriminado de estas innovaciones.

Hay también un riesgo relacionado con el potencial de transformar la economía global, porque nadie sabe quién tendrá el control sobre los cambios, quién será el dueño de las tecnologías. No hay capacidad a escala global -ni siquiera en el marco de la ONU- para monitorear y evaluar nuevas tecnologías.

Respecto a la ausencia de regulación, el canadiense Pat Mooney, director del ETC Group, afirmó en una entrevista de inicios de 2012: “En el caso de la nanotecnología, debido al reducido tamaño de las partículas y al hecho de que las características de los materiales cambian mucho, se necesita una reglamentación especial. Las agencias reguladoras de Estados Unidos y Europa no tienen cómo ejercer una ma¬yor regulación sobre la nanotecnología y la biología sinté¬tica hasta que haya un accidente grave que afecte a una de las dos. Los gobiernos ya invirtieron demasiado en esas tecnologías para abandonarlo ahora. Los reguladores saben que tienen las manos atadas, porque es una cuestión política”.

Esto viola el principio de precaución, uno de los principales logros de la Cumbre Río 92, que estableció que si no se sabe con certeza que una tecnología es segura, la prudencia sugiere que no se la utilice hasta que se sepa más. Mooney recuerda: “En 1993 los dos organismos de la ONU que tenían alguna capacidad técnica para evaluar las nuevas tecnologías fueron parcial o completamente disueltos. La Comisión de Ciencia y Tecnología para el Desarrollo, que ocupaba todo un edificio en Nueva York, perdió tantos recursos que hoy en día no pasa de dos personas en una sala en el edificio de las Naciones Unidas en Ginebra. También en 1993 se disolvió la Comisión de Empresas Transnacionales, que era el único órgano de Naciones Unidas que moni-toreaba el sector privado a escala global y las transferencias de tecnología entre las empresas privadas. En este caso, el gobierno de Estados Unidos le recortó el presupuesto”.

Respecto a los impactos involucrados, una gran preocupación relacionada con la nanotecnología es la concesión de patentes. Hoy en día se pueden encontrar miles de productos en el mercado que de alguna manera hacen uso de la nanotecnología: protectores solares, cosméticos, ropa y otros que ya utilizan nanopartículas. Pero sólo en los últimos años se iniciaron investigaciones que pretenden analizar qué sucede cuando las nanopartículas penetran en el organismo humano o en el medio ambiente. Todas sostienen que hay riesgos implicados y se requiere de nuevas investigaciones.

Otro riesgo es la liberación al ambiente de organismos que no existían previamente en la Naturaleza. Es probable que la mayoría de ellos sean incapaces de sobrevivir fuera del laboratorio, pero puede ser que otros lo consigan. Es imposible predecir la velocidad con que tales organismos serían capaces de sufrir mutaciones o desarrollar la capacidad de reproducirse y dar origen a algo nuevo. Además, sabemos que los laboratorios, por más seguros que sean, no garantizan que estos organismos permanezcan confinados.

En cuanto a la geoingeniería, la simple acción de lanzar sulfatos a la estratósfera puede ser extraordinariamente peligrosa. Aún se desconoce cómo la geoingeniería podría afectar los regímenes de vientos, las corrientes oceánicas, la cantidad de lluvias, y esto puede tener un enorme impacto en la determinación de lo que puede o no cultivarse en ciertos lugares y en quién puede o no habitar ciertas regiones. La Academia Nacional de Ciencias de Estados Unidos, la Real Sociedad en el Reino Unido y varias instituciones alemanas ya elaboraron informes sobre la geoingeniería, y todas dicen lo mismo: esta tecnología es extremadamente peligrosa y debe ser considerada como un último recurso.

NI ES LIMPIA NI ES VERDE

El discurso del medio ambiente está siendo utilizado como una oportunidad para crear nuevos mercados, que incluyen la comercialización de la Naturaleza. Algunos gobiernos europeos sienten que, con la crisis, no tienen dinero para preservarla. Argumentan que si hay una manera de hacer dinero conservando los ecosistemas esto se convertirá en un atractivo para la protección del medio ambiente. Por ejemplo, para que la Naturaleza se utilice en el mercado de compensación por las emisiones de carbono.

Esa financiarización es vista como una solución, pero está en el origen de la crisis que estamos enfrentando. El problema es que los países del Norte presionan para la adopción, a partir de la Cumbre Río+20, con la idea de que la mejor manera de salir de la crisis es la economía verde, en la que la biología sintética y la nanotecnología jugarían un papel central. Lo que ellos quieren es el reconocimiento de que una nueva economía basada en estas tecnologías es “limpia” y es “verde”. Europa y América del Norte tratan de convencer al mundo de que esta nueva economía es la solución a los problemas ambientales, económicos y sociales.

EL NUDO ESTÁ EN LA INEQUIDAD GLOBAL

Como estrategia de superación de la crisis, la economía verde no parece orientarse a un modo de vida radicalmente diferente del actual, sino a una profundización de las formas de producción y consumo dominantes hoy en el mundo, que generan desigualdades entre países y pueblos, además de múltiples crisis, como la ambiental.

El tema del “otro mundo posible”, tan presente en los debates de los movimientos sociales desde el primer Foro Social Mundial de Porto Alegre en 2001, no encuentra en la economía verde un instrumento para la necesaria construcción de una nueva base de relaciones sociales de producción y consumo. Hablar de “economía inclusiva” sin atacar de frente el nodo de las desigualdades es una ilusión. Incluir no es suficiente. Es necesario reducir la disparidad global: que los ricos disminuyan el consumo de energía y recursos naturales para que los pobres puedan beneficiarse del aumento de este consumo.

La propuesta presente en los documentos sobre la economía verde de calcular el “capital natural”, con el argumento de que la medida es necesaria para que las corporaciones tengan interés en la preservación, es un error. La finalidad de este proceso es encontrar otros medios para la acumulación de capital, con el objetivo de superar la actual crisis financiera. Y así nada cambia en el sistema vigente.

Cabe señalar que ya existe una metodología para medir el valor de mercado de lo que antes era considerado como bien común: aire, agua, biodiversidad, etc. La metodología está presente en un estudio llamado La economía de los ecosistemas y de la biodiversidad, publicado por Economía de Ecosistemas y Biodiversidad (TEEB por sus siglas en inglés), organismo vinculado al PNUMA. Este texto fue lanzado en la última Conferencia de la Convención sobre Diversidad Biológica en 2010.

PARA SALIR DE LA CRISIS Y DEL COLAPSO

Otra ilusión es que los países ricos podrán abrir este espacio ecológico sólo a través de la eficiencia y el desarrollo de una economía de bajas emisiones de carbono. Deseable y necesaria, la eficiencia es, sin embargo, insuficiente. El ahorro obtenido con el aumento de la eficiencia termina siendo utilizado en otros tipos de consumo, lo que anula o incluso supera lo que se había ahorrado en términos de recursos. Es lo que se denomina “efecto rebote”.

La economía sigue siendo percibida como el sistema principal, que considera al medio ambiente como un mero proveedor de recursos, y a la sociedad como mano de obra trabajadora y como masa de compradores para que siga girando la rueda de la producción y el consumo, a través de procesos que conducen a una acumulación de bienes y a un acceso a oportunidades desiguales e injustos.

Hay que redefinir los rumbos de la política internacional y, por lo tanto, los de la economía. Hay que traducir en nuevas directrices la nueva correlación de fuerzas que se viene consolidando en el mundo y establecer una nueva agenda que saque al planeta de la ruta de la crisis y del colapso.

PROFESOR E INVESTIGADOR DEL INSTITUTO DE ELECTROTÉCNICA Y ENERGÍA DE LA UNIVERSIDAD DE SAO PAULO. ASESOR DE MOVIMIENTOS SOCIALES Y AMBIENTALES. TEXTO APARECIDO EN “NUEVA SOCIEDAD” MAYO-JUNIO 2012. SUBTÍTULOS DE ENVÍO.

Imprimir texto   

Enviar texto

Arriba
 
 
<< Nro. anterior   Nro. siguiente >>

En este mismo numero:

Nicaragua
Pragmáticos y cortoplacistas

Nicaragua
Noticias del mes

Nicaragua
“El narcotráfico ya ha desarrollado mucho músculo y está generando mucho dinero”

Nicaragua
Está en riesgo nuestro futuro

México
Saldos de las elecciones

Honduras
El país en donde surge el nuevo partido LIBRE

Internacional
Economía verde: ¿Una vía para otro mundo posible?
Envío Revista mensual de análisis de Nicaragua y Centroamérica
GüeGüe: Hospedaje y Desarrollo Web