jueves, 30 de septiembre de 2010

La oportunidad de los océanos

El sector eólico marino en Europa está en la fase de despegue definitivo. Desde la instalación del primer parque en las costas de Dinamarca en 1991, el proceso de adaptación de la tecnología de aerogeneradores al medio marino ha cobrado fuerza, gracias al apoyo político de varios países al desarrollo de esta fuente de producción de energía limpia.

Actualmente, en Europa existen más de 100 GW de proyectos de energía eólica marina en diversas fases de planificación, lo que posicionará al continente como líder mundial en esta tecnología renovable. De concretarse, estos planes producirán el 10% de electricidad de la Unión Europea, lo que evitaría la emisión de 200 millones de toneladas de CO2 al año.

Con las previsiones de la EWEA (The European Wind Energy Association) en la mano, se espera que frente a los 577 MW instalados en 2009, este año se construirán 1.000 MW nuevos, un 75% más. Este crecimiento exponencial implicará que se instalen entre 40.000 MW y 55.000 MW para 2020 y 150.000 MW en 2030.

En España aún tendremos que esperar para ver este crecimiento debido a causas técnicas y económicas, aunque no tardaremos en ver los primeros parques, tecnologías de componentes de aerogeneradores offshore y nuevos proyectos.

Será el nuevo boom de la energía eólica, debido al gran potencial que tiene la energía eólica marina en el mundo. Tras muchos años siendo sólo un proyecto y un objetivo, esta energía se ha hecho más prometedora después de que Reino Unido resolviera un concurso para instalar 25.000 MW de offshore en sus costas. Sólo este programa supone multiplicar por más de 12 la potencia instalada actualmente en el mundo, que escasamente supera los 2.000 MW.

La pionera Dinamarca, seguida de Alemania, Holanda y los países nórdicos, no se quedan atrás y preparan sus propios planes de incentivo para que estas instalaciones les ayuden a cumplir el 20% del consumo que han de cubrir con energías renovables en 2020, según se ha comprometido la Unión Europea.

De momento, como se ha avanzado, la voz cantante la llevan los países del norte de Europa. Tienen unas condiciones perfectas. Son países industriales, con compromisos de consumo de energías renovables a medio plazo y su capacidad de instalar energía eólica terrestre es limitada, por saturación del mercado y por escasez de lugares con un buen recurso de viento.

Por otro lado, tienen una plataforma continental ancha, con profundidades inferiores a los 50 metros hasta los 100 kilómetros de distancia de la costa. El recurso en alta mar es mejor, se podría estimar que hasta el doble que en tierra. El que más apuesta en la eólica offshore es Reino Unido, al que análisis como el del banco de inversión Nomura señalan como el país que más potencia offshore acaparará en 2020.

En alta mar hay el doble de viento pero la inversión necesaria también es mayor. En un parque eólico en tierra el 70% del coste es la turbina y el resto las infraestructuras. En el mar, esto cambia radicalmente y las conexiones se convierten en lo más caro y lo más difícil. La operación de una planta offshore se parece más al mantenimiento de una plataforma petrolífera que a un parque eólico terrestre. Al final, dependiendo de varios condicionantes, es aproximadamente dos veces y media más cara que una instalación terrestre. En este sentido, Ingeteam no sólo ya está preparado para desarrollar la tecnología necesaria para energía eólica, sino que también lo está para llevar a cabo el mantenimiento de los molinos offshore.

España, a pesar de gozar de 4.872 kilómetros de costa, no lo va a tener tan fácil como sus vecinos europeos. Necesita un poco más de tiempo, investigación, redes y regulación para llegar a su objetivo. La energía eólica marina choca en nuestro país con estos escollos muy relevantes.

En el último mix energético propuesto por el Gobierno para 2020, la energía eólica marina tiene un objetivo de 5.000 megavatios instalados para ese año. En abril del año pasado, el Ministerio de Industria, Comercio y Turismo publicó el Estudio estratégico ambiental del litoral español, conocido como el mapa eólico marino. En éste se detallan las zonas aptas para la instalación de estos parques. Sin embargo, no es suficiente, se deben resolver incertidumbres, no sólo en materia procedimental sino también a nivel técnico y de viabilidad económica de este tipo de proyectos.

Las condiciones específicas de España implican que esta energía puede tener aquí un desarrollo a medio plazo. Se necesita seguir investigando en tecnologías flotantes, en sistemas expertos de ayuda a la decisión para la operación y mantenimiento, y en nuevos equipos de control basados en el estado de la máquina.

También hace falta un mayor conocimiento del comportamiento del viento en estructuras flotantes, una nueva generación de aerogeneradores de gran potencia (10-20 MW), así como un desarrollo de las infraestructuras y procesos de fabricación, incluyendo barcos y estructuras portuarias u otros sistemas que permitan superar los problemas de la plataforma continental española. La profundidad de la costa se incrementa enseguida y eso dificulta y encarece los parques. Hay que añadir un problema más, las necesidades de evacuación a la red de la energía eléctrica producida.


Tomado del diario Cinco Días de España y escrito por Adriano GarcÍa Piquero. Director de I+D+i Staff Tecnológico de Ingeteam Service .

domingo, 26 de septiembre de 2010

Colombia: En Medellín es posible que te parta un rayo

En invierno resguárdese de la lluvia, cuídese de los vientos, lo pueden resfriar. Pero sobre todo, cuidado lo parte un rayo.

Hay sitios de la tierra donde la confluencia de tormentas eléctricas es mayor y de más riesgo. Por esa razón, trate de no caminar a campo abierto por algunas zonas. En especial por la sur de Medellín, en límites con Envigado, cuando hay indicios de tormenta. Y para más señas entre la 1 y las 3 de la tarde.

Colombia es el país donde más rayos caen y si quiere saber por qué, es que Medellín es la metrópolis con mayor actividad de rayos en el mundo. Según estudios de los últimos 30 años, en la ciudad se presentan más de 14o días tormentosos al año y particularmente la actividad se centra hacia el sur.

Comparable con el Congo, en África, las zonas de mayor ocurrencia de rayos, están en el Nordeste de Antioquia, municipio de El Bagre, y en Norte de Santander, en Catatumbo, donde, en promedio, caen 140 días al año, mientras en Chocó es de 100 días.

Hace 30 años el ingeniero electricista Horacio Torres, y director del programa de Investigación en Adquisición y Análisis de Señales Electromagnéticas de la Universidad Nacional de Colombia (Paas), se dedicó a estudiar el fenómeno de los rayos.

Torres obtuvo una beca para hacer su doctorado sobre Transitorios Electromagnéticos, en Alemania, y cuando presentó su proyecto de grado sobre los rayos le dijeron: "Si quiere saber del tema vaya para Colombia".

En lo corrido del año, en el país se presentaron 27 casos que afectaron a seres humanos: 20 adultos y 12 menores de edad muertos, y 121 personas heridas por causa de los rayos, según el Sistema Colombiano de Información de Tormentas Eléctricas (SCITE).

Por supuesto, no se trata de crear pánico alrededor de este fenómeno natural, pues hay que decir que alrededor del planeta cae un centenar de rayos cada segundo, pero en Colombia la ocurrencia es mayor y por supuesto tiene zonas geográficas particulares. Aún los investigadores no han logrado establecer las razones, pero lo que si se puede decir es que están directamente relacionadas con el trópico.

Según la meteorología, los sistemas de vientos alisios, del norte y sur, forman la zona de confluencia intertropical, que produce grandes masas de nubes. Además, ese sistema está rodeado de una gran orografía (sistema montañoso) donde se concentra una alta actividad de lluvia y también de rayos.

Si se hacen comparaciones con Europa, en la frontera con el mar Mediterráneo, se presentan 35 días de tormenta al año.

De acuerdo con el doctor en rayos, la probabilidad de sufrir un accidente por rayo en Colombia es 10 veces mayor que en Estados Unidos, donde el promedio anual mayor está ubicado en Florida.

Las investigaciones le han servido a todo el sector energético del país, porque permite establecer riesgos, lugares vulnerables y adecuados para la instalación de redes.

Además, los científicos de este programa de la Unal, financiado por Colciencias, y la participación de ISA y EPM, puede predecir con media hora de anticipación y con una precisión del 90 por ciento, una tormenta y dónde caerá un rayo.

Para que no lo sorprenda un rayo evite hacer trabajos al aire libre en horas de la tarde, en los meses de abril, mayo, octubre y noviembre; y cuando haya amenaza de tormenta.


Tomado del diario El Colombiano de Colombia.


sábado, 25 de septiembre de 2010

La tierra lo protege de un corrientazo


Si al tocar la lavadora esta le manda un corrientazo, después del ¡ay! y de sacudir la mano, lo mejor es que piense si su vivienda cuenta con un buen sistema de puesta a tierra y lo más importante, si está bien instalado y funciona.

Elkin Ceballos, ingeniero electricista del Centro de Investigación y Desarrollo Tecnológico del Sector Eléctrico, Cidet, explica que la función más importante de este sistema es la protección de las personas.

"Evita que alguien sufra una descarga eléctrica en caso de que toque un equipo que tenga una falla o una fuga de corriente a través de la carcasa metálica", señala.

José Soto, ingeniero electricista e instructor del Sena, explica que el cuerpo humano puede soportar una corriente de 0.025 amperios. "Hasta este nivel se considera que la corriente no es perjudicial, pero a medida que empieza a aumentar el peligro es mayor", apunta. Y, agrega, aunque no es común, "sí es probable que un equipo llegue a producir una corriente mayor a la tolerada por el cuerpo".

Uso obligatorio

Anteriormente, recuerda el ingeniero electricista Juan Leonel Silva, solo se ponía polo a tierra en la salida eléctrica en la que se conectaba el computador "porque se creía que era un sistema para proteger los equipos sensibles y no a las personas".

Sin embargo, desde mayo de 2005, con la entrada en vigencia del Reglamento Técnico de Instalaciones Eléctricas, Retie, en las edificaciones nuevas todas las salidas eléctricas y de iluminación deben contar con un sistema de puesta a tierra.

La instalación de este sistema depende de cada aplicación, es decir, no es lo mismo para un edificio de apartamentos que para una casa independiente.

Básicamente, el sistema consta de un cable verde o desnudo (conductor de puesta a tierra de equipos) que va conectado a todos los componentes de una instalación eléctrica (tablero de distribución o caja de interruptores automáticos "breakers", tomacorrientes, salidas de iluminación) y va unido a una configuración de componentes enterrados en el inicio de la instalación.

Así, en caso de que algún equipo presente una falla, esa descarga eléctrica no va a buscar tierra a través de la persona sino por este conducto de protección.

Para la correcta instalación de un sistema de puesta a tierra en una vivienda un requisito fundamental es que la haga una persona calificada bajo lineamientos técnicos y con materiales certificados bajo Retie.

"De acuerdo con el Retie, una persona calificada debe contar con matrícula profesional, sea como técnico, tecnólogo o ingeniero electricista", comenta Diego Valencia, ingeniero del Cidet.

Comprender la puesta a tierra como una forma de protección es fundamental para tener una casa segura, sin corrientazos.

Tomado del diario El Colombiano

martes, 21 de septiembre de 2010

Estación transformadora vista desde las alturas




Las fotos corresponden a una vista aérea de una ET de 220/132/66/33 kV en Argentina mandada por un colaborador del Blog.

Están muy buenas, no?


lunes, 20 de septiembre de 2010

Venezuela: “Los apagones seguirán si no se utiliza la tecnología adecuada”

Luego de más de 40 años de estudios en el ámbito de la astrofísica, el científico venezolano, nacido en el estado Aragua, Luis Cabareda, advierte a los organismos gubernamentales que para resolver el problema de los apagones en todo el mundo es necesario utilizar un sistema que se proteja de manera eficiente contra las descargas atmosféricas.

Cabareda, quien este año es invitado para desarrollar la primera ponencia en el XXI Congreso Mundial de Energía, que se llevará a cabo en Canadá desde el 12 hasta el 17 de septiembre, señala que según las investigaciones realizadas en su estudio, de cada 100 apagones, al menos 85 se deben a descargas atmosféricas, es decir a la caída de rayos.

Según el científico, cuando se observan esos apagones grandes, en los que se quedan sin luz diversos estados a la vez, en la mayor parte de los casos siempre están involucrados fenómenos de descargas atmosféricas.

Afirmó que esto deja como consecuencia pérdidas mil millonarias a las empresas generadoras de energía, a la industria en general y a los usuarios que pierden sus aparatos, lo que se ha convertido en un problema general, no sólo en Venezuela, sino en el mundo entero.

El científico señala que este fenómeno se explica porque los sistemas de protección que tienen las subestaciones y empresas eléctricas no alcanzan la capacidad suficiente para resguardar los equipos del daño que puede causar toda la energía generada por un rayo.

“El problema eléctrico no tiene que ver con la falta de mantenimiento, este gobierno y los que vengan pueden desarrollar todas las plantas termoeléctricas o hidroeléctricas que quieran y hacerles el mantenimiento más óptimo, pero el problema seguirá si no se usa la tecnología adecuada”, dijo

En sus años de estudio, Cabareda ha trabajado en el desarrollo de dos dispositivos que a su criterio pueden resolver este problema, el primero de ellos es el Pararrayos Ionizante Natural Ionca; y el otro es el Electrodo Iónico Trimetálico Activo (Triac), ambos forman parte de un sistema natural de protección eléctrica.

-¿En qué consiste específicamente la tecnología que usted ha desarrollado?

-Es un dispositivo que se fundamenta en fenómenos eléctricos científicamente comprobados y mundialmente aceptados, utiliza todos los factores presentes en la atmósfera en condiciones de tormenta para generar una enorme masa de iones de alta conductividad eléctrica y utiliza el campo eléctrico de 30 mil voltios, tiene un radio de protección de 10 mil metros.

-¿Qué hace novedosa esta tecnología?

-Actualmente los ingenieros sólo conocen mallas y barras de puesta a tierra que dispersan de 20 mil a 30 mil amperios del total que contiene la energía de un rayo, que va de 200 mil a 500 mil amperios, esto por naturaleza lo convierte en un sistema deficiente, la tecnología que hemos desarrollado es capaz de dispersar 500 mil amperios.

-¿Ya que está probada su eficiencia por qué no ha sido empleada?

-Es un trabajo evangelizador, de convencer a los expertos que el uso de esta tecnología es lo más adecuado, no sólo porque es 10 veces más barata que la que existe actualmente, sino que además es natural y ecológica.

-¿Esto que significa en términos económicos?

-Si tomamos como referencia que las mallas o las barras cuestan aproximadamente un millón de bolívares fuertes, la nuestra sólo cuesta 100 mil, estamos hablando de ahorro, el problema de las descargas atmosféricas también altera el funcionamiento de equipos médicos que dentro de las clínicas se traducen en millones de dólares, instalar en un centro de salud un pararrayos ionizante como el que nosotros hemos desarrollado, sólo le cuesta el 0,5 por ciento de lo que vale restituir esos equipos.

-¿Se debe a este estudio la invitación que recibió para participar en el Congreso de Energía?

-Sí, yo mandé un documento descriptivo de la tecnología y su uso, les pareció interesante la tecnología y me enviaron una invitación para conocerla, lo que exponga será publicado en la Biblioteca Mundial, en la Biblioteca Nacional de Canadá y será repartido en dispositivos USB en todos los centros de estudios científicos del mundo. Este es un evento que se celebra cada tres años, asisten 166 países, representantes del grupo de los 8, el grupo de los 20, y las 500 empresas más grandes del mundo.

-¿Su trabajo ha tenido el respaldo de instituciones gubernamentales?

-En 2006 gané el premio de Ciencia y Tecnología y corremos con la suerte de que existe una ley decretada por el Presidente Chávez, donde se obliga a las empresas públicas a darle prioridad a la tecnología nacional para sustituirla por la importada, así que los organismos, para su propio beneficio, deberán plegarse a esta tecnología, yo espero que el ministro de Energía se siente con nosotros para que conozca la tecnología y nos dé la oportunidad de aplicarla para sanear el problema.

-¿Las empresas generadoras de electricidad del país cuentan con la tecnología adecuada?

-Ninguna, las torres y líneas de transmisión de Enelven, Cadafe, Corpoelec, Eleoccidente, Cadela y Enelvar están mal diseñadas, construidas y calculadas, porque tienen solamente dos bandas de guarda para proteger contra descargas atmosféricas para tres fases activas, entonces el apagón se produce porque cuando los rayos caen sobre las torres, la tierra alrededor de la malla se vuelve piedritas, de mucha resistencia que no puede dispersar ninguna energía.

-¿Ya se ha puesto en práctica el estudio desarrollado?

-Sí, se ha instalado satisfactoriamente en algunas pequeñas empresas estatales, a la empresa privada, a los grupos rusos que se encuentran en el país explotando minas, a los canadienses y estamos en conversaciones con el gobierno, después de 4 ó 5 años de prédica las empresas eléctricas aceptaron que esta es la única tecnología.

Lo técnico

* De cada 100 apagones, 85 son generados por descargas atmosféricas, es decir los rayos.

* En la Tierra caen todos los días un total de 4 mil tormentas y 9 millones de rayos al año.

* En Venezuela caen 3 millones 600 mil al año.

* Tenemos 10 mil 500 km en todo el país de líneas de alta tensión.

* En esas líneas se producen 823 apagones al año, lo que significa que son casi 2,5 apagones diarios.

* En Venezuela hay instalados 23 mil 500 Mva (Megavoltios amperios) de energía, 15 mil 500 son hidroelectricidad (Guri, Macagua I y II, Caruachi y Uribante Caparo) y 8 mil 500 de plantas termoeléctricas.

* La energía de un rayo es de 200 mil a 500 mil amperios.

* El único pararrayos en el mundo que ha funcionado, anterior a la tecnología desarrollada por Cabareda, es el inventado por Benjamín Franklin y sólo protege 100 mil metros, el pararrayos ionizante es capaz de proteger hasta una hectárea.

Ficha técnica

Luis Cabareda es el presidente ejecutivo y director de Operaciones del Grupo EBP, con más de 950 proyectos de ingeniería eléctrica de alta tecnología, incluyendo numerosos que son referencias a nivel nacional e internacional.

Como miembro del Ieee (The Institute of Electrical and Electronics Engineers, Inc.), desarrolló, inventó e innovó con éxito una alta tecnología de vanguardia, conformada por el Pararrayos Ionizante Natural (ionca) y el Electrodo Iónico Trimetálico Activo (Triac) de puesta a tierra, capaz de solucionar definitiva y totalmente los “apagones” y fallas eléctricas generados por las descargas atmosféricas (rayos), que son la causa principal del 85% de las fallas y daños a los equipos de potencia y electrónicos de alta sensibilidad como tomógrafos, resonadores magnéticos, subestaciones eléctricas, refinerías petroleras, torres y líneas de transmisión, entre otros; que causan enormes pérdidas de miles de millones de bolívares, paralizando industrias, clínicas, ciudades y hasta un país entero.

Es escritor e investigador astrofísico y tiene varios libros publicados, como: “Pensamiento empresarial”, “El enigma del Universo”; “Plácido Roncagallo”, “El delincuente del amor”; “El enigma del Universo II”, “Más allá del tiempo”; “Pararrayos Ionizante Natural Ionca y Electrodo Iónico Trimetálico Activo Triac de Puesta a Tierra”, “Solución definitiva y total contra los “apagones” y fallas eléctricas generados por las descargas atmosféricas (rayos)”; y “Trasplante total”, homenaje a Christian Barnard, quien realizó el primer transplante de corazón a un ser humano.

Es ingeniero electricista, especializado en Potencia y Comunicaciones, Sistemas de Protección contra Descargas Atmosféricas (rayos), Sistemas de Puesta a Tierra del tipo Electrolíticos, Dosimetría Nuclear, Tecnología en Sistemas de Aguas, Astrofísica, Microfísica, Electrofísica.

Tomado del diario El Aragueño de Venezuela.

domingo, 19 de septiembre de 2010

China es el mayor consumidor de energía del mundo

La demanda de energía en China se ha duplicado desde el año 2000, pero a nivel per cápita es solo un tercio de la media, según la Agencia Internacional de Energía (AIE).

Según datos proporcionados por la AIE, China se ha convertido en el mayor consumidor de energía del mundo, superando incluso a Estados Unidos. Su ascenso se ha producido a un ritmo mucho mayor al proyectado por dicha organización energética.

Las primeras declaraciones en este sentido fueron ofrecidas el 19 de julio último por Fatih Birol, Economista en Jefe de la AIE, en una entrevista con The Wall Street Jornal.

Birol precisó que China consumió durante 2009 cerca de 2.252.000 toneladas de energía, es decir, casi un 4% más que Estados Unidos, lo que incluye el consumo tanto de petróleo crudo como de energía nuclear, carbón, gas natural y energía hidráulica.

Para la AIE, este notable crecimiento en el consumo de energía de China no es lo más sorprendente. Lo que resulta realmente relevante es el crecimiento fenomenal de la demanda dentro de China durante la última década, que prácticamente se ha duplicado respecto al consumo alcanzado en el año 2000.

No obstante, todo hace parecer que el incremento del consumo se concentra en un pequeño sector de la población, pues a nivel per cápita ésta se mantiene a sólo un tercio de la media estimada por la Organización para la Cooperación y Desarrollo Económico (OCDE).

Este martes en rueda de prensa, Zhou Xian, portavoz de la Administración Nacional de Energía de China, negó las estimaciones del AIE por considerarlas poco fiables.

Con sede en París, la AIE es un organismo autónomo de la OCDE, y actualmente constituye uno de los principales referentes del mercado energético internacional.


Tomado del portal La Gran Epoca.

sábado, 18 de septiembre de 2010

Argentina: El análisis del PCB en la UNC

A través de su Facultad de Ciencias Químicas, la Universidad Nacional de Córdoba cuenta con un organismo capaz de realizar los análisis para determinar la cantidad del peligroso PCB en los transformadores eléctricos provinciales, un tema que ha cobrado notoriedad pública a raíz de distintas denuncias de grupos de vecinos que afirman haber relevado numerosos casos de enfermedades oncológicas entre quienes habitan en las cercanías de los transformadores.

Se trata de una situación que día a día gana mayor preocupación en los habitantes de la provincia, temerosos de los peligros que implica esta sustancia y las enfermedades que puede causar.

Como se indicó, el Centro de Química Aplicadas es uno de los dos organismos en nuestra provincia con la Facultad para realizar estos exámenes. El otro es el Centro de Excelencias en Productos y Procesos Córdoba (Ceprocor).

Pero el Cequimpap no abarca solamente los estudios sobre sustancias tóxicas como el PCB. Este centro universitario se divide en tres áreas. Una es la de Bromatología, donde se hacen estudios sobre agua y alimentos. Otra es el área de Salud, donde se realizan análisis bioquímicos de alta complejidad. Este tipo de análisis no son los tradicionales que realiza el bioquímico.

"Tratamos de no competir con el bioquímico que formamos en la Facultad", afirma el Dr. Daniel Wunderlin, director del organismo. Se trata de análisis con metodologías muy complejas, algunas de las cuales fueron desarrolladas exlcusivamente por investigadores de la Facultad. Por ejemplo, el Centro realiza tests inmunológicos para personas que tienen enfermedades neurogenerativas, de diagnóstico complicado, gracias al desarrollo de sus científicos. Este estudio se está realizando desde hace poco y es el único lugar del país en donde se lleva a cabo. "Se puede hacer acá o en Estados Unidos", sintetiza Wunderlin.

Y la tercera es el área de Química Industrial, donde se brindan una serie de servicios vinculados a la industria, como análisis y determinación de calidad en combustibles, análisis de suelos y napas; y análisis en aceites aislantes, en donde se incluyen los análisis para determinar la cantidad de PCB.

Qué es el PCB

La sigla PCB significa bifenilo ploriclorado y se trata de una sustancia utilizada como refrigerante. Su alta toxicidad hace que figure entre los 12 contaminantes más peligrosos del mundo y ya en 1976 fue prohibido en Estados Unidos y Europa. Esta sustancia puede ingresar al cuerpo humano a través del contacto con la piel, por la inhalación de vapores o por la ingestión de alimentos que contengan residuos del compuesto. Además, el PCB es considerado cancerígeno por la Agencia Internacional del Cáncer que lo incluyó en la categoría 2A como "carcinógeno humano probable", mientras que la Agencia de Protección Ambiental de los Estados Unidos (EPA) lo clasificó como B2, categoría equivalente a la 2ª del organismo anterior.

Según resoluciones vigentes a nivel nacional, el aceite que contiene más de 50 partes por millón de PCB (es decir, 50 miligramos por kilo de aceite) se considera contaminado por esa sustancia. En cambio, si tiene menos de 50 partes por millón, puede declararse libre de PCB. Si tiene más de 500 partes por millón, se lo considera PCB puro. El Cequimap no es quien determina estos límites, tomados de legislaciones internacionales, sino que, como dijimos, es quien determina el contenido de PCB en el aceite.

El PCB en Córdoba

Las primeras denuncias que alertaban sobre la presencia de PCB en nuestra provincia se producen sobre el final del año pasado en la ciudad de Córdoba, en Barrio Mercantil. Un grupo de vecinos de ese sector de la ciudad relevaron la presencia de numerosas personas residentes en las cercanías a un transformador de energía eléctrica perteneciente a Epec, que sufrían enfermedades oncológicas. A partir de ese momento, se produjo un cruce de versiones con la empresa de energía, que aseguraba que no había en la provincia ningún transformador de su propiedad con la peligrosa sustancia, aunque luego debió reconocer su presencia y proceder a retirar el transformador cuestionado por los vecinos. Este año, un caso similar tomó estado público en Barrio Ituzaingó Anexo, también en la capital provincial, razón por la cual el Gobierno de Córdoba debió lanzar en mayo pasado el programa "Córdoba Libre de PCB", que contempla la revisión de todos los transformadores eléctricos situados en el territorio cordobés.

El Dr. Pablo Manzo, coordinador del Área de Química Industrial del Cequimap, explica que aun si un transformador contiene PCB puro, si el mismo está correctamente cerrado, no gotea aceite ni sufre recalentamientos ni explosiones, no está contaminando el ambiente. El problema surge cuando el transformador pierde aceite o tiene algún desperfecto. "Es un factor de riesgo, pero estaría contenido si no ocurre ningún desperfecto. Por otra parte, no todos los transformadores tienen PCB, hay algunos que no tienen nada y otros una concentración determinada. Pero, en cualquier nivel de concentración, si eso está correctamente contenido, no habría problemas para la persona que transite frente al transformador", explica el bioquímico.

Comienzan los estudios de PCB

Manzo reconoce que la problemática del PCB tomó cuerpo a raíz de las denuncias realizadas por el programa periodístico Telenoche Investiga, en el año 2000. "Puede ser que las personas que están en el rubro eléctrico tuvieran de antemano inquietudes respecto de esta sustancia, porque el PCB no es algo que se haya descubierto ahora y su toxicidad es algo que se conoce desde que en la década del 70 se deja de producir y se prohíbe en todo el mundo. Pero en nuestro país, la preocupación por este tema comienza a partir de esa investigación que se hace pública", señala.
Precismanete, el Cequimap realiza estos análisis para determinar la concentración de PCB desde hace dos años, y a partir de éste ha tenido una gran demanda por parte de las cooperativas eléctricas del interior de Córdoba. Actualmente, el Centro tiene la tarea de relevar los transformadores pertenecientes a unas 90 cooperativas del interior provincial, que implica tomar unas 1500 muestras, y cuya tarea demandará aproximadamente un año.

Si bien el Cequimap no toma muestras y su tarea se concentra exclusivamente en los análisis de las mismas, en el caso del PCB, se realizó un convenio con la Federación de Cooperativas Eléctricas de Córdoba donde el organismo universitario es también el encargado de obtener las muestras.

Confidencialidad con el cliente

Manzo pone énfasis en aclarar que el Cequimap mantiene con el cliente que encarga un estudio determinado, la confidencialidad del resultado. "Cuando nosotros lo entregamos, ese resultado pasa a ser propiedad del cliente y luego éste es quien puede difundir los resultados. Pero el Centro en ningún momento salió a dar explicaciones de ningún tipo a los medios de comunicación sobre los resultados de los análisis de PCB efectuados en los transformadores", aclara.

El Dr. Wunderlin explica que, históricamente, el Cequimap captaba demandas exclusivas del sector de las ciencias químicas, pero actualmente han debido incluir en la oferta de servicios el trabajo conjunto con otras facultades de la Universidad, ante la complejidad de los requerimientos de los clientes de la institución. "Es decir, un cliente necesita un estudio determinado y parte de él lo realizamos en el Cequimap, mientras que otra parte se deriva a otras facultades", resume.


Publicado en el portal Universia de Argentina hace algunos años.


martes, 14 de septiembre de 2010

Encienden una lámpara con excremento de perros


El proyecto Park Spark que busca generar energía a base de excrementos de canes resultó ser un éxito en un parque de perros en Cambridge, Massachussets, donde sus restos han servido para prender un farol.

Limpiar los desperdicios de los canes en Cambridge tiene un nuevo significado que es colaborar con el medio ambiente. El proyecto consiste en que los ciudadanos depositen los excrementos de sus mascotas en una bolsa biodegradable en el Park Spark, una máquina que ayuda a convertirlos en gas metano tras darle una vuelta a una manija, según informó Fast Company.

Este proyecto recién ha sido estrenado la semana pasada y ha demostrado ser un éxito pues el excremento convertido en metano ha servido para encender un farol en el parque. Los miembros de este proyecto esperan poder extenderlo en otras zonas para ayudar a la comunidad a generar a energía de forma segura y cuidando el medio ambiente.

Si bien todo el excremento de los canes no podría ayudar a encender una ciudad, al menos serviría para ahorrar energía en zonas como parques y jardines.


Tomado del portal RPP de Perú.

lunes, 13 de septiembre de 2010

Biometano: el combustible fecal del futuro

El biometano se extrae de los excrementos recogidos en una planta de tratamiento de aguas residuales.

Cuando se habla de energías verdes, lo más común es pensar en parques eólicos, campos de paneles solares y grandes presas que no sólo generan electricidad, sino también hermosos y fotográficos panoramas que nos hablan de un mundo más limpio y mejor. Pero las energías verdes no siempre provienen de estos pintorescos lugares. Las podemos encontrar en los lugares más insospechados. Por ejemplo, en nuestro cuarto de baño.

El metano es un gas ampliamente utilizado como combustible en turbinas o en generadores de vapor. Es un gas de efecto invernadero 20 veces más potente que el dióxido de carbono, cuya liberación incontrolada hacia la atmósfera aceleraría el proceso del calentamiento global. Pero de forma controlada, es común su uso como fuente de calor para casas y cocinas, en forma de gas natural. Y desde hace no mucho tiempo, también como combustible alternativo de vehículos. La idea no es nueva: el metano ya es un carburante utilizado en Europa y América, llamado gas natural comprimido (GNC).


La cuestión es: ¿cómo se obtiene este gas metano? En la naturaleza, se produce como producto final de la putrefacción de las plantas y elementos orgánicos. Y también de los residuos humanos. Precisamente de estos últimos se ha creado el llamado biometano, extraído del tratamiento de, literalmente, excrementos humanos. Un hallazgo que supone un paso más en la búsqueda de fuentes naturales para combustibles de vehículos.


Parece mentira, pero…


The Greenfuel Company, la Compañía de Combustibles Verdes, es una organización con sede en Bath, Reino Unido, dedicada a la creación y desarrollo de combustibles de automóviles alternativos a la gasolina y diésel menos contaminantes, pero igualmente competentes. El gas licuado del petróleo (GLP) es, en estos momentos, su principal alternativa a los combustibles tradicionales, pero siempre se encuentran en constante búsqueda de nuevas opciones: biodiesel, hidrógeno, y por supuesto, la electricidad.


Debido a su experiencia en este campo, la compañía de reciclado Geneco, filial de la organización de tratamiento de aguas y residuos del suroeste de Inglaterra Wessex Water, se dirigió a The Greenfuel Company con una proposición: en lugar de utilizar el gas metano proporcionado por el tratamiento de residuos en sus plantas para generar electricidad, quizás se podría utilizar para propulsar un automóvil.


Ingram Legge, director de The Greenfuel Company, habló con Deutsche Welle sobre la idea. “Geneco nos preguntó si sería posible”, recuerda, “y nosotros respondimos rápidamente: ‘sí, podemos’”. El proceso requería una limpieza exhaustiva del metano extraído de los residuos de Geneco para la total eliminación del CO2 de su contenido, pero una vez superado este obstáculo, el biometano ha demostrado ser tan eficiente como su hermano el GNC.


Los requisitos


La demostración, llevada a cabo en un sencillo Volkswagen Beetle por las calles de Bristol, tuvo gran éxito entre la audiencia, y se espera que muchos coches sean modificados a partir de ahora para poder circular con biometano. Para ello, se requeriría una serie de instalaciones extra en el vehículo que tardarían entre 3 y 4 días, con un coste aproximado de 2.500 euros.


Esta instalación, no obstante, no elimina por completo la gasolina o el diésel como elemento combustible en los coches: la creación de un sistema que funcione únicamente con biometano sería posible, pero requeriría más cambios en el automóvil que aumentaría el precio de la instalación considerablemente. El actual modelo de coches de biometano requiere la combustión de gasolina durante los primeros minutos de conducción, hasta que el coche adquiere la temperatura adecuada.


Entonces, el sistema cambia automáticamente para propulsar al coche únicamente con biometano. “Siendo realistas, el uso de gasolina para los primeros minutos sigue siendo mejor que su uso para todo el viaje”, comenta Legge, “y además, añade la ventaja de que si uno se queda sin combustible a medio camino, el sistema cambia de nuevo automáticamente a la gasolina. Nunca está de más tener un depósito de emergencia extra”, sonríe.


Bio-metano vs electricidad


Este es un detalle en el que los coches eléctricos le llevan ventaja al nuevo coche de bio-metano. Con los coches eléctricos no se emite gas alguno a la atmósfera… Al menos directamente. Y si esa electricidad proviene de fuentes renovables, entonces tampoco se darían emisiones contaminantes de forma indirecta. Pero muchas veces, esto no es así. “Si para obtener esa electricidad se ha de recurrir a la combustión de gases o a reacciones nucleares, no se trata de una energía sostenible”, afirma Legge.


Además, los coches de biometano también cuentan con una gran ventaja sobre los eléctricos a la hora de rellenar sus depósitos. Mientras un coche eléctrico necesita varias horas para cargarse, los depósitos de los coches de biometano se llenarían del mismo modo que los automóviles convencionales de gasolina, tan pronto como el bio-metano llegue a las estaciones de servicio en las carreteras. Además, el combustible duraría también mucho más tiempo. “Los coches eléctricos son una gran idea, pero son más prácticos para conducir por la ciudad. A la hora de hacer trayectos largos, un coche de biometano es mucho más fiable. Nadie quiere quedarse tirado en la cuneta en medio de un viaje familiar”, bromea el director de The Greenfuel Company.


En conclusión, ¿podría decirse que los coches de bio-metano son los coches del futuro? “Definitivamente, será uno de los coches del futuro, pero no el único”, afirma Legge. “Habrá automóviles con todo tipo de propulsiones, y este será sin duda uno de ellos”. Está claro que, en un futuro donde todo se aprovecha, la gasolina y el diésel tienen los días contados.


Tomado del portal alemán Deutsche Welle


sábado, 11 de septiembre de 2010

Las heladeras que enfrían con imanes

Las cuentas para pagar, los deliveries del barrio, la última dieta y un sinnúmero de mensajes. La puerta de la heladera hoy parece una auténtica pizarra familiar. Capaces de sostener cualquier hoja, los imanes son los reyes de la cocina. Pero aún tienen mucho para ofrecer. Científicos estadounidenses acaban de desarrollar la primera "heladera magnética": como en un verdadero viaje al interior del refrigerador, los imanes se convirtieron en los encargados de que la heladera funcione, y enfríe.

La heladera en cuestión no hace ruido ni genera vibraciones, consume muy poca energía eléctrica y, además, cuida el medio ambiente: a diferencia de las actuales, no emite gases de invernadero ni clorofluorocarbonos (responsables del adelgazamiento de la capa de ozono).

Esta revolucionaria tecnología, que aprovecha los campos magnéticos de los imanes, va mucho más allá de la heladera de casa. En el futuro se la usará para acondicionadores de aire, inclusive en autos. También para la preservación de alimentos, dispensadoras de bebidas y de hielo, y muchas otras aplicaciones específicas.

Si bien por ahora sólo existe un prototipo funcionando en los Estados Unidos, los autores del proyecto aseguran que en dos años más la heladera a imanes llegará al mercado masivo. En este desarrollo se anotan tanto científicos del Departamento de Energía de los Estados Unidos como otros del laboratorio Ames, de Iowa, y de la empresa Astronautics Corporation.

¿Cómo funciona la heladera magnética? Para entenderlo, primero hay que saber cómo funcionan las actuales heladeras. Dentro de ellas hay un gas que se comprime y expande sucesivamente. Cuando el gas se expande, se enfría. Y entonces circula por un conducto interior enfriando el contenido del refrigerador.

Las heladeras magnéticas, en cambio, producen frío conectando y desconectado un campo magnético, que se aplica sobre un sistema de imanes permanentes. Ciertos imanes tienen la capacidad de enfriarse a muy bajas temperaturas, una vez que se le quita abruptamente un campo magnético (que previamente se le había aplicado). Sobre ese metal muy frío pasa una corriente de agua que después lleva el frío a toda el refrigerador, a través de un conducto similar al que lleva el gas frío en las heladeras tradicionales.

El principio por el cual los imanes se enfrían se lo conoce como efecto magnetocalórico. Lo descubrió en el año 1881 el físico alemán Emil Warburg. Y ya había sido aplicado para heladeras magnéticas, pero de laboratorio. Hasta ahora, los científicos sólo habían podido enfriar imanes hechos de metales superconductores, que necesitan de un ambiente muy frío para funcionar, un verdadero contrasentido si se lo quisiera aplicar a la vida cotidiana.

Por eso el gran desafío de los científicos liderados por Karl Gschneidner, del laboratorio Ames, fue encontrar un metal que lograra el efecto magnetocalórico y que, al mismo tiempo, funcionara a temperatura ambiente. Tras años de investigación dieron con el gadolinio, un material que se utiliza mucho en los cabezales de las videograbadoras. Y entonces se lanzaron a diseñar el corazón de la primera heladera magnética. El prototipo que ya está en funcionamiento utiliza un disco de gadolinio, más o menos del tamaño de un CD.

Los científicos aseguran que las actuales heladeras consumen más del 25 por ciento de la electricidad de los Estados Unidos. Y que cuando el desarrollo de la refrigeración magnética esté finalizado y comercializado a full, se reducirá la demanda de energía en más del 5 por ciento. Esto significará una reducción de la emisión de dióxido de carbono, clorofluorocarbonos y otros gases tóxicos.

Esta noticia no es nueva, sin embargo es interesante para compartir. Fue tomada de diario Clarin de Argentina.

jueves, 9 de septiembre de 2010

¿Cuál es la mejor matriz energética para Chile? Los costos y beneficios de cuatro alternativas

El rechazo ciudadano a la central a carbón Barrancones, de Suez Energy, rubricado más tarde por la decisión presidencial de relocalizar el proyecto, agudizó el debate sobre qué fuentes energéticas quiere y necesita el país, es decir, qué matriz energética resulta ser la mejor para satisfacer las necesidades de consumo eléctrico que demandará el crecimiento económico.

En este escenario, un grupo de instituciones trabajó para modelar los distintos escenarios que enfrentará el país si opta por una matriz con mayor presencia de hidroelectricidad, de carbón o de energías renovables no convencionales (ERNC). En este análisis no se incluyó la energía nuclear, porque los participantes opinaron que no estaría en uso. En esta labor participaron Mainstream Renewable Power (que propuso una matriz con mayor presencia de las energías renovables no convencionales), las ONG Ecosistemas y Chile Sustentable (que planteó un fuerte componente eólico) y las universidades Adolfo Ibáñez (que considera una central como HidroAysén y da más peso a la hidroelectricidad) y Federico Santa María (que también privilegia la energía hidroeléctrica).

No trabajaron solos. Su labor fue supervisada por un comité ejecutivo integrado por Rodrigo Castillo, de la Asociación de Empresas Eléctricas; Guillermo Scallan, de la Fundación Avina; Diego Luna, de la Fundación Futuro Latinoamericano; el ex ministro de Energía Jorge Rodríguez Grossi y Marcelo Angulo, de Fundación Chile.

El trabajo de modelación contó con la asesoría técnica de un comité integrado por Nicola Borregaard, ex directora del programa de Eficiencia Energética del gobierno; Annie Dufey, de la Fundación Chile; Hugh Rudnick, de la Universidad Católica; Rodrigo Palma, de la Universidad de Chile, y Gerardo Barrenechea, de Empresas Eléctricas S. A.

Cada entidad desarrolló un escenario que incluye un plan de obras con un horizonte de 20 años para el Sistema Interconectado Central (SIC). Cada propuesta debía tener una localización geográfica definida, para incluir la factibilidad y los costos de cada proyecto. En cuanto a la demanda, se proyectó el promedio usado por la Comisión Nacional de Energía. Se utilizó, asimismo, la tecnología disponible para proyectar la matriz hacia el 2030 y no aquella que aún no está validada. Para efectos de comparación, en este artículo se usó el escenario más parecido al actual, denominado Business As Usual , o BAU, y que supone una eficiencia energética (EE) de 0,5%, y no el escenario que contemplaba un incremento en la eficiencia energética mayor, de 1,5% anual. Por lo mismo, la ONG Ecocéanos no se incluyó en este artículo, porque modeló bajo este segundo canon.

DIFERENCIAS DE COSTOS

Los costos medios varían considerablemente. Este indicador representa tanto el valor de las nuevas inversiones, los costos de operación del sistema y los de transmisión. Los costos medios más altos son de la Universidad Federico Santa María, con US$ 48,75 el megawatts por hora (MWh), una propuesta caracterizada por una matriz fuertemente hidroeléctrica -con un 14% proveniente de centrales de embalses, 15% de pasada y 3% mini hidro- así como con presencia de gas natual (21%) y carbón (17%). En costos medios le sigue Chile Sustentable, con US$ 48,21 (aunque en un escenario de eficiencia energética de 1,5% se convierte en la más barata, con US$ 40 por MW/h). Luego están Mainstream, con US$ 45,83 y una fuerte presencia de ERNC, y de la Universidad Adolfo Ibáñez, con US$ 42,22.

En términos de costos marginales -es decir, aquel que marca el valor más alto a pagar por la electricidad en un mercado spot- los más elevados son los de Chile Sustentable, seguido de la Universidad Adolfo Ibáñez, la U. Federico Santa María y Mainstream. El mayor costo marginal de Chile Sustentable se debe a que su matriz tiene una fuerte presencia eólica, que tiene un factor de planta más bajo (el factor de uso, que hoy es de menos de 25%, es decir, el 75% de las veces la planta no produce energía) y por ende exige un mayor uso de termoelectricidad para satisfacer la demanda, lo que redunda en mayores costos marginales.

SUBE EL PESO DE RENOVABLES

Todos los escenarios muestran que hacia 2030 las energías no convencionales tendrán un rol preponderante, con niveles de penetración de entre 24% y 55%. En el caso de Mainstream, estas "energías verdes" representan el 35% de la capacidad instalada, es de 24% en la UAI, de 26% en la Federico Santa María y de 55% en Chile Sustentable. Los mayores incrementos vienen en la energía eólica, que llega a ser el 30% de la matriz para Chile Sustentable, así como la energía geotérmica, que de no existir pasa a estar presente en todos los escenarios con una representación de al menos 5% de la matriz. Respecto de la capacidad instalada actual, en todas las proyecciones pierden relevancia las hidroeléctricas de embalse y el diésel.

MAS Y MENOS USO DE SUELO

Mainstream y Chile Sustentable presentan mayor uso del espacio debido a que proponen alternativas energéticas que requieren de mayor superficie territorial, como parques eólicos, centrales hídricas o parques solares. En cuanto a las regiones en dónde se instalará las nuevas fuentes de energía, hay más consenso en cuanto a que se situarán en las regiones de Atacama y Bío Bío, en parte por el mayor desarrollo de los parques eólicos.

LAS EMISIONES DE CO2

Los escenarios proyectados al 2030 por las entidades ponen a la propuesta de la Universidad Adolfo Ibáñez y a Chile Sustentable con los mejores índices de emisiones de CO2, seguidos más atrás de los modelos proyectados por la Universidad Federico Santa María y Mainstream. El estudio dice, sin embargo, que se observa un equilibrio en términos promedio (ver más detalles del estudio en http://www.escenariosenergeticos.cl/wp/).

CHILE TIENE LA ELECTRICIDAD MAS CARA DE LA OCDE Y EEUU

La crisis del gas argentino y los altos precios de los contratos pagados en las licitaciones eléctricas han hecho que Chile tenga uno de los precios de la electricidad más altos del mundo, lo que redunda en pérdidas de competitividad importantes. Según cifras de la Agencia Internacional de Energía, en ocho años Chile ha visto cómo su electricidad se ha multiplicado por 4,5 veces, tanto en el precio industrial como aquel que paga cada familia, mientras que en los restantes países como Brasil, Perú o las naciones agrupadas en la Organización para la Cooperación y el Desarrollo (Ocde) tal incremento no se ha dado y los precios se han mantenido relativamente estables en la década.

Según el ex ministro de Energía Marcelo Tokman, esto se debe a que el país enfrentó entre el 2004 y 2010 una "tormenta perfecta", en otras palabras, todo lo que podía salir mal se hizo realidad: fin del gas argentino, sequía, altos precios de los combustibles y un terremoto en el norte que afectó la generación.

Pero según el economista Manuel Cruzat Valdés, los altos precios se deben a "las licitaciones (de contratos eléctricos), que resultaron ser mucho más onerosas que bajo condiciones competitivas", lo que implica que "estamos condenados por 15 años, si nada se hace, a enfrentar precios que duplican los que enfrenta, por ejemplo, un consumidor en Estados Unidos".


Tomado del diario La Tercera de Chile.

lunes, 6 de septiembre de 2010

Argentina: Aseguran que la Línea de 500 kV no afecta la vida ni al campo

Un trabajo técnico que llegó a manos del juez federal suplente que entiende en la causa del cambio de traza del electroducto de 500 kV que une Fomosa con el resto del país, obra que hoy esta paralizada- indica que la energía que va a transportar la línea no afecta la vida humana y mucho menos la actividad rural.

En los primeros días de este mes, el juez federal suplente de Resistencia, Eduardo Valiente dictó una resolución en la que habilita la continuidad de los trabajos del electroducto que estaban frenados por reclamos de vecinos del Lote 16 en General Vedia. El magistrado basó su resolución en que “las pericias que en su momento ordenó el juez federal subrogante Rubén Esquivel, fueron aportadas por los peritos de la Universidad Tecnológica y Nacional (UTN) y demostraron de que la línea de 500 kv, no produce daño ambiental alguno, ni a las cosas, ni a las personas, ni a los animales”.


“En consecuencia ordena comunicar al ministro de Justicia Seguridad y Derechos Humanos Julio Cesar Alak, que deberá disponer a la brevedad las medidas necesarias para que, la fuerza de seguridad que estime, con la suficiente capacidad operativa que la particular situación amerite, sea puesta a disposición del Tribunal”.

En consecuencia deberá comunicar la fecha y arribo a la ciudad, con suficiente antelación para que la Magistratura pueda coordinar y disponer formalmente la Ejecución de las Mandas Judiciales ya dispuestas, para permitir a la empresa ejecutora del Electroducto, acceder a los predios en cuestión, para llevar adelante los trabajos necesarios para la realización del mismo.

Las causas


El conflicto que frenó las obras y que provocó el reclamo de los propios gobiernos de Chaco y Formosa ya lleva más de un año -consigna el diario Norte- y en todo este tiempo se abrieron varias causas de mandamiento de libre acceso por parte de la empresa LINSA, que iniciaba estas acciones en cada caso particular por parte de vecinos del lote 16 que impedían el ingreso a la zona para realizar todo lo atinente a la magnitud de las tareas dispuestas.

Se intentaron instancias de conciliación entre las partes las cuales fracasan y hasta se llega a la existencia de mandamientos para que la Gendarmería Nacional, pero todos terminaron con oposición física de los vecinos de la zona y con denuncias penales por parte de la empresa.

Finalmente los vecinos interponen una medida cautelar con el objeto de paralizar la tramitación de las cuatro causas existentes, ostentando la suspensión de la Construcción del trazado de la Línea denominada Interconexión NEA NOA Sub tramo Este sobre el Lote 16 de General Vedia, fundamentando su petición en el temor de que la línea produzca enfermedades a las personas, daños a los animales y a los bienes, al medio ambiente, afectación a la propiedad forestal y acuífera.


Tomado del diario El Comercial de Formosa, Argentina.

sábado, 4 de septiembre de 2010

Ley brasileña obligaría a comprar energía de parques eólicos

Los distribuidores de electricidad de Brasil estarían obligados a comprar energía a los parques eólicos si se aprueba un proyecto de ley considerado actualmente en el Congreso.

El borrador de la ley dispone compras obligatorias en las peticiones organizadas por el Gobierno para nuevos parques eólicos, según una copia publicada en la página de Internet de la Cámara de Diputados. La ley requeriría acuerdos a 20 años y cubriría proyectos que usan equipo y servicios brasileños.

Brasil trata de reducir su dependencia de las grandes plantas hidroeléctricas para la obtención de electricidad. El Gobierno completó la licitación los días 25 y 26 de agosto para 2,9 gigavatios de nuevos proyectos de energía renovable.

La ley propuesta cita a su autor, Betinho Rosado, del Partido Demócrata, diciendo que Brasil podría tener inversiones de 7.200 millones de reales (US$4.100 millones) en el sector durante los próximos dos años, y casi tres cuartos de esa cifra en la región del noreste del país.

Para convertirse en ley, la medida debe ser aprobada por varias comisiones, así como por el Senado y el presidente.


Tomado del diario La Tercera de Chile.

miércoles, 1 de septiembre de 2010

Geotermia, la mina de energía bajo el suelo

El edificio QuercusIP, en Santiago de Compostela, se ha convertido en el primer centro de negocios gallego que aprovecha las ventajas de la energía geotérmica, acumulada en forma de calor bajo la superficie de la Tierra. Con una inversión de un millón de euros, la instalación geotérmica consta de tres kilómetros de tubería y ha precisado 32 perforaciones de hasta 60 metros de profundidad.

No se trata de la primera experiencia en Galicia. El edificio del Parlamento gallego extrae de la geotermia el 22% de la energía necesaria para climatizar sus 15.000 m2 con diez kilómetros de tuberías. Tampoco es algo inédito en otras comunidades autónomas. Sin embargo, España aún sigue a la cola en la utilización de esta energía, pese a que prácticamente no emite gases contaminantes y ofrece un enorme rendimiento: se estima que la energía almacenada en un kilómetro cúbico de roca caliente a 250°C equivale a 40 millones de barriles de petróleo.

Su escasa implantación se debe en gran medida a que, a pesar de ser una fuente renovable, no es muy conocida. Esta energía, ligada a volcanes, aguas termales, fumarolas y géiseres, tiene diversas aplicaciones dependiendo de su temperatura. Así, cuando esta es superior a los 100-150ºC fuentes denominadas de alta entalpía es posible la producción de electricidad, recurriéndose a otros usos térmicos para sectores industriales, de servicios y residencial cuando se sitúa por debajo de los 100ºC. En esos casos se precisa una bomba de calor geotérmica, tanto para calefacción como para refrigeración, y más aún cuando la temperatura se sitúa por debajo de los 25ºC.

A pesar de que en las décadas de los setenta y ochenta el Instituto Geológico y Minero de España (IGME) realizó muchos estudios en esta materia, las barreras económicas han sido el gran freno para los proyectos en el país. Por ejemplo, la perforación en los de baja temperatura puede llegar a suponer el 60% del coste total. A esto se suma el poco apoyo institucional, puesto que en el último Plan de Energías Renovables (PER) 2005-2010, que establecía el objetivo de que las fuentes renovables cubrieran como mínimo el 12% de la demanda total de energía primaria, la geotermia fue la gran olvidada.

A falta de definir objetivos, el Ministerio de Industria sí quiso fomentar de algún modo esta energía e incluyó el Programa Geocasa, dotado con 3 millones de euros, a través del cual se abría la convocatoria para la habilitación de empresas de energía geotérmica en edificios.

El potencial de España

España cuenta con un mapa geotérmico dominado por el rango de temperaturas por debajo de los 100ºC, con la excepción de las islas Canarias. Sin embargo, el aprovechamiento geotérmico de muy baja temperatura mediante bomba de calor, al igual que sucedió años atrás en Europa, está comenzando a ser una realidad. La coordinadora de Geoplat (Plataforma Tecnológica Española de Geotermia), Margarita de Gregorio, llama la atención sobre "las nuevas tecnologías que permiten que en yacimientos geotérmicos secos sea posible inyectar agua para conseguir las condiciones de un recurso de alta entalpía".

Madrid cuenta con recursos de 80ºC entre 2.000 y 2.500 metros de profundidad. La meseta del Duero, a unos 1.500 metros y con algo menos de calor. Cuenca y Albacete disponen de recursos similares a los de Madrid. Ourense, Pontevedra, El Vallés y Penedés, Granada, Murcia, Mallorca o Catalunya son algunas de las áreas en las que podrían encontrarse recursos a profundidades inferiores a los 1.000 metros con temperaturas entre los 40 y los 80ºC.

En cuanto a los recursos geotérmicos de temperaturas en el rango medio (entalpía media/alta), se concentran fundamentalmente en las cordilleras Béticas, Galicia y Catalunya, sin descartar Aragón y Madrid, a la luz de algunas prospecciones de hidrocarburos. Sin embargo, los yacimientos de alta temperatura, los únicos que no requieren inyección, se limitan en principio a las Canarias, dado su origen volcánico.

En este sentido, el Instituto Tecnológico y de Energías Renovables (ITER) del Cabildo de Tenerife acaba de finalizar la primera fase de exploración geotérmica en la zona sur de la isla, en el dominio minero conocido como Garehagua (municipios de Arona, San Miguel, Granadilla y Vilaflor). En esta primera fase se han estudiado 600 puntos con tomas de medidas de diversos gases y volátiles (vapor de mercurio, radón, sulfuro de hidrógeno y flujo de dióxido de carbono), dejando para una segunda los estudios de geología de detalle y trabajos de prospección geofísica para seleccionar las áreas más idóneas con vistas a realizar sondeos geotérmicos.

Mil megavatios en 2020

En opinión del jefe de Proyectos de Investigación Geotérmica del IGME, Celestino García de la Noceda, el interés por la geotermia está renaciendo con la aparición de nuevos agentes en el sector, retomándose actuaciones que llevaban aparcadas cerca de 20 años y poniendo en marcha investigaciones como el análisis que se está realizando del impacto térmico, hidráulico e hidroquímico generado por los pozos de climatización en las aguas subterráneas de Zaragoza.

En la misma dirección, Geoplat apuesta por la I+D en esta área, con una base de datos pública y única para todo el sector, tal y como expone en su último informe Visión a 2030. "Ya es un paso muy importante", señala De Gregorio, "el hecho de que en el próximo PER 2011-2020 contaremos con un mapa de recursos para cada una de las energías renovables, incluida la geotermia, no sólo para la eólica como sucedía con el anterior plan".

Según las estimaciones de Geoplat, se prevé que se salte de los actuales 80 megavatios (MW) de potencia instalada a unos 1.000 MW eléctricos y 300 MW térmicos en el año 2020, y a unos 3.000 MW y 1.000 MW, respectivamente, en 2030.

La energía geotérmica más extendida en España es la denominada de baja entalpía, esto es, de baja temperatura, y que únicamente se emplea para generación térmica, no eléctrica. Esta tecnología se asocia a una bomba de calor y se basa en enterrar en el subsuelo el intercambiador de calor. Al permanecer a una temperatura constante todo el año de entre 8 y 10º C, el intercambiador consume mucha menos energía para llegar a los 22 o 23º C de temperatura del hogar, tanto en verano como en invierno. Además, proporciona agua caliente sanitaria con mínimos consumos. La coordinadora de la Plataforma Tecnológica Española de Geotermia (Geoplat), Margarita de Gregorio, estima que “por cada kilovatio el intercambiador únicamente consume una cuarta parte, el resto es renovable”. A pesar de que la inversión inicial es un poco elevada, sus retornos de la inversión van desde los 5 a los 15 años.

Tomado del diario Público de España.

LinkWithin

Related Posts Plugin for WordPress, Blogger...