Cabecera

Cabecera

19 diciembre 2006

Agua en Marte

El 6 de diciembre la NASA anunciaba que se habían descubierto rastros de la presencia de agua líquida en la superficie de Marte en nuestros días.

El descubrimiento se ha hecho al comparar fotos de un mismo lugar tomadas por la sonda espacial Mars Global Surveyor con pocos años de diferencia.



Las dos fotos de arriba está tomadas con cuatro años de diferencia, y en la más reciente -la de la derecha- se aprecia una linea más clara que según los científicos de la NASA se corresponde con materiales arrastrados por un líquido al fluir. No se baraja la posibilidad de que se trate de ningún otro líquido.

Se tenía asumido que en el pasado hubo agua líquida en el planeta y que en la actualidad hay hielo, pero el descubrimiento de que en la actualidad hay agua líquida es una novedad.

Comparando fotos también se han descubierto cráteres recientes causados por impactos de meteoritos:


Más información:
La noticia contada por J. Armentia
La nota de prensa de la NASA
Vídeo explicativo (en inglés)

26 noviembre 2006

Realidad virtual, realidad aumentada y realidad realidad.

Somos conscientes del mundo que nos rodea gracias al procesamiento que el cerebro hace de los estímulos recibidos por nuestros sentidos. Si sustituimos esos estímulos por otros generados artificialmente podemos hacer creer al cerebro que la realidad es otra distinta, habremos creado una realidad virtual.

La realidad virtual ya es empleada en muy diversas aplicaciones, desde las lúdicas como los videojuegos a las serias como los simuladores de vuelo para el entrenamiento de las tripulaciones de los aviones.

En otras ocasiones no es necesario recrear todo un mundo virtual, es suficiente con añadir un poco de información al mundo real. Así por ejemplo si estamos sentados en las gradas del Coliseum de Roma y ponemos una piedras virtuales por aquí y por allí habremos viajado a la antigua Roma. Esta técnica se llama realidad aumentada y se emplea por ejemplo en las ruinas de Pompeya para recrear escenas de la vida cotidiana de la ciudad antes de la erupción del Vesubio.

01 noviembre 2006

Resumen de las actividades realizadas por el MRO

6/10/06

El MRO sobrevuela el cráter Victoria y fotografía con una gran resolución el Oportunity que se encuentra realizando su misión junto al borde del cráter. Técnicos de la NASA destacan la sinergia que se produce al trabajar simultáneamente varias sondas en Marte. La acción conjunta aporta más información que la suma de dos misiones independientes.




16/10/06

Durante la primera semana de observaciones desde baja altura, se han obtenido informaciones sobre el medio ambiente pasado y presente del planeta. Los científicos esperan obtener datos sobre la distribución del agua en el planeta.


20/10/06

Hasta el 29 de octubre Marte quedará oculto tras el Sol, durante esta semana un piloto automático vigilará el vuelo de la sonda, y los técnicos que la controlan en la Tierra podrán aprovechar para tomarse algunos días de vacaciones.


Imágenes de la misión

29 octubre 2006

Eisinga Planetarium

El 8 de mayo de 1774 estaba anunciada una conjunción planetaria, esto es que al observarlos desde la Tierra, varios planetas parecerían estar muy cerca unos de otros. Esto que se trata sólo de un efecto óptico, dio pie a que se difundiera el bulo de que estos planetas colisionarían expulsando a la Tierra de su órbita.


Eise Eisinga, un cardador de lana que vivía en la pequeña ciudad de Franeker (Países Bajos), sabía que esa catástrofe no se produciría, pues aunque pareciera que los planetas estaban muy cerca, realmente no había peligro de colisión al no apartarse ninguno de su órbita. Para explicarlo a sus vecinos decidió construir un modelo que reprodujera el movimiento de los planetas entonces conocidos.


La tarea le empleó sus ratos libres desde 1774 hasta 1781, para cuando estuvo terminado la conjunción había pasado y la vida seguía igual. Afortunadamente su trabajo no se perdió, y todavía hoy podemos disfrutar de su trabajo cuando visitamos Franeker.


El modelo de las órbitas planetarias lo construyó en el techo del salón de su casa, cada planeta representado emplea en recorrer su órbita el mismo tiempo que el planeta real. Además de las órbitas varios relojes indican cuando se producirán eclipses, la fecha actual, la fase de la Luna, la hora a la que sale el Sol, a la que se oculta, etc.


Todo ello impulsado por un mecanismo diseñado y construido por el propio Eisinga con engranajes de madera y regulado por un reloj de péndulo. Hay que destacar la precisión con la que Eisinga conocía el movimiento de los planetas, su habilidad para diseñar el mecanismo que reproduce el movimiento y su dedicación para construirlo y mantenerlo. Alguno de sus hijos continuó con la labor su muerte gracias a la abundante documentación que dejó.


Junto al planetario se exhibe una colección de instrumentos astronómicos antiguos, unos murales sobre los planetas del Sistema Solar, algunas maquetas de sondas espaciales, un audiovisual sobre la historia del planetario y una tiendecita con postales, libros, vídeos y baratijas.


Después de la visita merece la pena para en la cafetería que hay junto al museo a tomarse un capuchino con tarta de manzana casera. El casco antiguo de la ciudad es limpio, cuidado y coquetón y con gran cantidad de comercios. A Franeker se llega en tren desde Amsterdam en 2 horas y 45 minutos.


Fotos del planetario

Güeb oficial del planetario

Güeb extraoficial del planetario

07 octubre 2006

Investigadores españoles reciben el premio Ignobel de Química de 2006

Se trata de Antonio Mulet, José Javier Benedito y José Bon de la Universidad de Valencia y Carmen Rosselló de la Universidad de las Islas Baleares, su trabajo fue publicado en la revista "Journal of Food Science" en noviembre de 1999 y trataba de la relación que hay entre la temperatura de un medio y la velocidad de propagación de los ultrasonidos en ese medio.

El medio que se empleó en el estudio fue el queso Cheddar, el emplear ese medio y no otro, es lo que le ha valido al grupo de investigación la obtención este año del premio Ignobel de Química.

La elección del queso se debió a que la industria alimentaria emplea los ultrasonidos para determinar la consistencia de los productos y la temperatura durante los procesos de enfriamiento y calentamiento, un mejor conocimiento del fenómeno tiene grandes repercusiones prácticas.

 Se trata de un trabajo completamente serio, aunque el premio tiene una aureola de broma, preia la imaginación y lo inusual.


powered by performancing firefox

02 octubre 2006

Noticias de la MRO

El 31 de agosto la sonda realizó el encendido de su motor principal
durante algunos minutos para culminar las operaciones de aerofrenado
que realizaba desde principios de abril.

El 30 de septiembre se han publicado las primeras imágenes de gran resolución tomadas por el instrumento HIRISE que viaja aborde de la nave MRO. En esta web se pueden ver algunas de estas fotos.

Y hoy 2 de octubre se ha retirado la protección, que ha cubierto durante
el lanzamiento y todo el viaje, de otro instrumento denominado CRISM y se espera que durante esta semana se tomen las primeras imágenes.

Más información:
www.sondasespaciales.com
http://marsprogram.jpl.nasa.gov/mro/overview/

24 agosto 2006

Plutón deja de ser considerado un planeta.

Pues parece que al final se ha adoptado una definición de planeta que deja fuera a Plutón. De manera que desde hoy son 8 los planetas del Sistema Solar. Por lo que se leía en la prensa hace unos días parecía claro que el resultado de la asamblea iba a ser diferente.

Se han definido tres categorías (planeta, planeta enano y resto de objetos) en la que se clasifican todos los objetos que puedan encontrarse en el Sistema Solar. Plutón pasa de la categoría de planeta a la de planeta enano. ¡Ojo!, que los planetas enanos NO son una subcategoría de planeta.

Las resoluciones de la Unión Astronómica Internacional están muy bien explicadas en el blog de Victor R. Ruiz y en el de Javier Armentia.

22 agosto 2006

Un tercio de los norteamericanos no creen en la evolución de las especies.

Un tercio de los norteamericanos no creen en la evolución de las especies, un porcentaje bastante mayor que el registrado en Europa occidental o Japón; por ejemplo en Francia el 80% de la población aceptan la evolución y en Japón un 78%. (Estos datos están referidos a la población adulta).

La investigación ha sido realizado por Jon D. Miller de la Michigan State University, que achaca los datos a dos factores:
  • La influencia de la religión
  • La politización que en los Estados Unidos ha tenido esta discusión.
Más información:

17 agosto 2006

Una nueva definición de planeta

La Unión Astronómica Internacional se reune estos días en Praga, la decisión más esperada de esta reunión es la nueva definición de planeta. Si se aprueba la propuesta que presenta una comisión, que ha estado trabajando durante 2 años, los planetas del Sistema Solar pasarán de ser 9 a ser 12.Esto no significa que tres nuevos objetos hayan sido descubiertos recientemente, sino que hasta ahora no gozaban de la consideración de planetas.

Alrededor de El Sol orbitan multitud de objetos de los cuales sólo 9 eran definidos como planetas. La nueva definición de planeta, si se aprueba el borrador de la comisión, será:

Planeta es todo aquel cuerpo celeste cuya gravedad le haya dado forma cuasiesférica, esto supone masa superior a 5 x 1020 kg y diámetro superior a 800 km, y que orbite alrededor de una estrella.

Esta nueva definición elevará a la categoría de planeta a tres cuerpos no considerados como tales hasta ahora: Ceres (asteroide situado entre Marte y Júpiter), Caronte (satélite de Plutón) y 2003 UB 313 (asteroide situado más allá de Plutón). En un futuro más o menos próximo podrán incorporarse nuevos objetos.

Así mismo se denominará pluton a todo objeto que orbite más alla de Neptuno.

Más información:
Por la boca muere el pez

03 agosto 2006

Hacia los biordenadores

No se trata de que en un futuro más o menos lejano los ordenadores deban ser alimentados con pienso o paseados diariamente para que hagan sus necesidades, sino de que ciertas biomoléculas desarrollan su actividad siguiendo unas pautas que se parecen mucho a las que debe seguir la máquina de cómputo universal concebida por Alan Turing en 1936.

La máquina de Turing era una máquina conceptual, él no pensaba ni en cables, ni en válvulas, ni en diodos; aunque para nosotros ordenador sea sinónimo de microcircuitos y microprocesadores. Cuando años más tarde, se descubrió el mecanismo que emplea el ARN para “leer” la información codificada en el ADN y se vió la similitud que guarda con el proceso conceptual de la máquina de Turing, se empezó a pensar en la posibilidad de diseñar computadores biomoleculares.

En el número 358 (julio 2006) de la revista Investigación y Ciencia, Ehud Shapiro y Yaakov Benenson describen en un artículo sus investigaciones sobre computadores de ADN. Han conseguido crear una biomolécula capaz de detectar los síntomas moleculares de ciertos cánceres y reaccionar emitiendo una molécula terapéutica.


Por ahora sólo se ha experimentado en tubos de ensayo, enfrentando el biocomputador a diferentes concentraciones de ARN y ADN, el próximo paso es reproducir el experimento dentro de una célula y estudiar como interaccionan el biocomputador y la célula.

Y para más adelante los estudios dentro de organismos.

Más información:

Biocomputadoras contra el cáncer (BBC Mundo.com)

27 julio 2006

Desarrollado prototipo de neutralizador de cámaras digitales

Investigadores del del Georgia Institute of Technology han desarrollado un prototipo de dispositivo destinado a identificar camaras digitales que se encuentren a su alrededor para posteriormente anularlas.

El dispositivo es capaz de detectar la presencia de un CCD, sensor de imagen con el que las cámaras digitales van dotadas, gracias a que reflejan la luz en la misma dirección en la que la reciben. Una vez detectado dirige hacia él un rayo de luz para cegarlo e impedir que pueda tomar la foto.

Dos son los sectores más interesados en el desarrollo comercial de este prototipo:
  • Las grandes estudios cinematográficos, que estarían interesadas en que todas los cines dispusieran de un dispositivo como este para evitar el pirateo de sus películas.
  • Las empresas preocupadas por proteger su propiedad intelectual, de miradas indiscretas.
El prototipo emplea luz visible para buscar el CCD y lo ciega con un haz estrecho de luz visible, los modelos comerciales podrán emplear luz infrarroja para la detección y un laser para cegar la cámara.

Este dispositivo es efectivo frente a las cámaras reflex, ya que estas descubren su CCD sólo en el momento de tomar la foto. Tampoco es efectivo contra las cámaras convencionales pues no tienen CCD.


19 julio 2006

Desalación de agua de mar: una alternativa a la sequía

La escasez de agua es uno de los problemas a los que se enfrentan científicos de diferentes disciplinas. Una de las alternativas que se plantean para la adecuada gestión de los recursos hídricos es la reutilización y la desalación de aguas. Y es en este campo donde trabaja el equipo de investigadores del profesor José María Quiroga, al que la Consejería de Innovación, Ciencia y Empresa ha concedido una financiación de 108.400 euros para el desarrollo del proyecto de excelencia 'Estudio de los mecanismos de ensuciamiento de membranas de ósmosis inversa en la regeneración y desalación de aguas.

Ana Pérez.Reproducido con permiso desde www.andaluciainvestiga.com

La escasez de agua motivada, por una parte, por el aumento del consumo y por otra, por las variaciones climáticas, ha hecho que en una comunidad como la andaluza, con un elevado número de kilómetros de costa, y una distribución muy irregular de los recursos hídricos, surjan iniciativas tendentes a la reutilización y la desalación de aguas como una forma de cubrir el déficit de recursos hídricos tradicionales. Y es que una eficaz gestión de estos recursos, un adecuado sistema de desarrollo y la aplicación de tecnologías apropiadas son factores imprescindibles para minimizar los periodos de sequía y la escasez de aguas

El grupo de investigación de la Universidad de CádizTecnología del Medio Ambiente’ es consciente de ello. Por eso desarrolla el proyecto de excelencia 'Estudio de los mecanismos de ensuciamiento de membranas de ósmosis inversa en la regeneración y desalación de aguas’, dirigido por José María Quiroga y dotado con una financiación de 108.400 euros por la Consejería de Innovación, Ciencia y Empresa.

Ósmosis inversa

La desalación consiste, básicamente, en separar la sal del agua. De esta forma se puede conseguir que las aguas de mar o salobres puedan emplearse para el abastecimiento humano, agrícola o industrial. Para lograr este fin, una de las tecnologías más extendida en la actualidad es la ósmosis inversa, objeto de la investigación del profesor José María Quiroga. Si tenemos dos soluciones con diferentes concentraciones separadas por una membrana semipermeable, existe un flujo natural de agua de la parte menos concentrada a la parte mas concentrada para igualar las concentraciones finales. Este proceso se conoce como ósmosis.

La ósmosis inversa consiste, básicamente, en invertir el fenómeno de la ósmosis natural aplicando una presión elevada a la disolución que tiene más alta concentración salina y forzar así un caudal inverso a través de una membrana semipermeable, que separa el agua de la sal. La permeabilidad de la membrana puede ser tan pequeña, que prácticamente todas sus impurezas son separadas del agua. Los niveles de sólidos en suspensión y materia viva (materias, algas, etc.) han de ser lo más pequeños posibles para evitar un rápido ensuciamiento de la membrana.

Ensuciamiento de las membranas

El objetivo general que se plantea el equipo del profesor Quiroga en este proyecto es estudiar los procesos desencadenantes del ensuciamiento coloidal y microbiológico en las membranas de ósmosis inversa empleadas para la desalación de aguas de mar. El conocimiento
de estos procesos permitirá obtener un agua que pueda ser utilizada en diferentes usos.

Este objetivo general se concreta en otros cinco específicos: estudiar la influencia de las sales y de las partículas coloidales (partículas de muy bajo diámetro que son responsables de la turbidez o del color del agua superficial) en el ensuciamiento de las membranas; analizar la influencia de los microorganismos presentes en el agua de mar y en las aguas residuales en el ensuciamiento de las membranas; conocer las condiciones hidrodinámicas del sistema en el ensuciamiento de las membranas; profundizar en el estudio de diferentes secuencias de lavado para eliminar la suciedad adherida a las membranas; y analizar la calidad del permeado ante las distintas condiciones de operación identificación de los usos más adecuados de los efluentes.

Más tecnología y más barata

Como vemos, existen aspectos de la ósmosis inversa por investigar. El conocimiento de los procesos objeto de este proyecto de excelencia servirá para un mayor uso de esta tecnología y para un abaratamiento del agua producida. Así, “los beneficios del estudio supondrán un avance de tipo científico -conocimiento del proceso de ensuciamiento de las membranas-; técnico – ya que permitirá el diseño de mejores y más resistentes membranas al proceso de ensuciamiento-; operacional -puesto que hará posible a las empresas que gestionan este tipo de plantas la utilización de mejores secuencias de lavado-; y ambiental -nuevas fuentes de agua, gestión adecuada del recurso, etc.-”, afirma el profesor Quiroga.

El proyecto tiene un carácter multidisciplinar y transversal, dado que a partir de un recurso, el agua, y su tratamiento, se pueden mejorar diversos aspectos de su gestión y ciclo integral, lo que repercutirá en el desarrollo ambiental y económico de la comunidad andaluza, además de la exportación de conocimiento a otros países necesitados de agua.

Más información:

José María Quiroga Alonso
Facultad de Ciencias del Mar y Ambientales
Tel.: 956 01 61 61

14 julio 2006

El vehiculo de transporte automático "Julio Verne" supera las pruebas de resistencia a las vibraciones.

El Julio Verne será un vehículo no tripulado para el transporte de suministros hasta la Estación Espacial Internacional, con un peso en el momento del lanzamiento de 20,5 tm y el tamaño de un autobús de dos pisos, será puesto en órbita por un cohete Ariane-5.

Durante el lanzamiento la nave estará sometida a fuertes vibraciones debidas a rozamiento aerodinámico. Para estudiar su comportamiento un modelo de la nave ha sido sometido en el Large European Acoustic  Facility (LEAF)  a vibraciones acústicas con las que se simulan las  vibraciones que deberá  soportar durante los tres primeros minutos del lanzamiento.

El modelo se ha sometido a un sonido (144 dB, 25 Hz- 5kHz), quizás fuese más adecuado llamarlo ruido, que es mortal para el ser humano.

28 junio 2006

El asiento central trasero

Investigadores de la Universidad de Buffalo han analizado accidentes de tráfico ocurridos entre 2000-2003 buscando alguna relación entre las heridas de los pasajeros y su ubicación en el vehículo. Se han hechos dos análisis:
  • Para comparar el asiento del copiloto con el trasero central. Resultando el asiento trasero central entre un 56 y un 86% más seguro. En los accidentes estudiados hubo involucrados más de 27000 pasajeros.
  • Para comparar los asientos de las ventanillas con el central. Resultando el asiento central un 25% más seguro que los de ventanilla. En estos accidentes se vieron implicados mas de 33000 pasajeros.
También se extraen conclusiones sobre el uso del cinturón de seguridad. Sólo la mitad lo llevaba, resultando gravemente heridos el 15%., el porcentaje de heridos graves entre la otra mitad es del 33%.

El asiento central es más seguro por dos motivos:
  • El espacio entre el pasajero central y los puntos de impacto,y los acompañantes, actúan absorbiendo la energía del choque.
  • Durante las "vueltas de campana" las fuerzas de rotación son menores en el asiento central al estar más cerca del eje de rotación.
Y sin embargo, es el asiento más impopular.

27 junio 2006

¿Y si separamos la orina del resto de aguas residuales?

Un estudio realizado en la Universidad de Delft (Paises Bajos) pone de manifiesto que tratar de manera separada la orina del resto de aguas residuales puede ser interesante tanto desde el punto de vista medioambiental como del económico.

La orina supone menos del 1% de la cantidad pero el 50-80% de los nutrientes de las aguas residuales. La planta de tratamiento para la orina sería más complicada pero bastante más pequeña que la planta que trataría el resto del efluente.

El tratamiento separado para la orina permitiría una mejor separación de los fosfatos y el nitrógeno, que podrían ser vendidos como materia prima a otras industrias. Esto iría acompañado de ahorros en la construcción y el consumo de energía. Según el estudio, si el 50% de la orina se tratase por separado, se ahorraría un 25% de la energía.

Los cambios empezarían en nuestros cuartos de baño, en los que habría que poner urinarios, ya disponibles comercialmente, y se almacenaría en envases comunitarios que la empresa encargada de la gestión de las aguas residuales recogería periódicamente. Separaríamos el papel, el vidrio, los plásticos y ahora la orina.


26 junio 2006

Mejoras en las ventanas inteligentes

Las denominadas "ventanas ópticas inteligentes (VOI)" están equipadas con cristales  a los que se les puede hacer variar su transparencia a voluntad.

Estos cristales se fabrican depositando varias capas de distintos materiales sobre la superficie del vidrio. Aplicando sobre estas capas diversos estímulos, un potencial eléctrico o una carga de hidrógeno, se puede convertir un cristal transparente en reflectante u opaco.

Un equipo del CSIC ha participado en un estudio del que se concluye que utilizando níquel, se obtienen recubrimientos en estos cristales más duraderos y económicos que los obtenidos con paladio.

Estas ventanas tienen un prometedor futuro en automóviles y en la construcción. Estas ventanas harán innecesarias las cortinas.


¿Cómo funcionan las VOI? (en inglés)

22 junio 2006

Mars Reconnaissance Orbiter: ajustando la órbita en torno a Marte

La sonda espacial de la NASA Mars Reconnaissance Orbiter prosigue modificando su órbita progresivamente mediante el método de aerofrenado, mientras los científicos e ingenieros del JPL preparan su instrumental para comenzar a obtener información científica tan pronto sea posible. En la actualidad el orbitador marciano ya ha llevado a cabo la mitad de las operaciones necesarias para ajustar sus parámetros orbitales, un proceso de 23 semanas que ha de controlarse día a día.

 «Las órbitas cada vez se van haciendo más pequeñas. Hemos completado aproximadamente 80 y aún nos faltan 400, pero la velocidad de va incrementando conforme nos acercamos al final del proceso.» -explica Dan Johnston, responsable de la misión. Inicialmente la MRO se encontraba a una distancia máxima de 45 000 km, la cual se ha reducido hasta los 20 000 km en este tiempo, empleando la atmósfera del planeta como sistema de frenado para ir reduciendo progresivamente su altitud. «El mayor desafío dentro de estas operaciones es la variabilidad atmosférica marciana. No es infrecuente obtener cambio del 35% en las condiciones atmosféricas de una pasada a otra consecutiva. Necesitamos monitorizar cada una de estas operaciones de aerofrenado para estar preparados por si tenemos que modificar la altitud por motivos de seguridad

 Además de las atenciones diarias que requiere esta sonda espacial, los controladores de la misión están comenzando a hacer uso de los componentes del vehículo para controlar las maniobras de aerofrenado que éste misma realiza durante cada órbita. Cuando el orbitador está más lejos de la atmósfera, reorienta su antena hacia la Tierra y sus paneles solares hacia el Sol. Pasado un tiempo determinado, éste sitúa los paneles solares en una configuración determinada de tal manera que produzcan cierto rozamiento con la atmósfera marciana y se pueda llevar a cabo la maniobra de aerofrenado. De esta forma, la sonda es capaz de calcular el tiempo necesario que debe permanecer en esta configuración de aerofrenado y los momentos en los que debe reorientarse. Este sistema, que los responsables de la misión han denominado "estimador de tiempo de periapsis" lleva operativo en la propia sonda desde mayo. Se trata de una innovación muy útil para este tipo de misiones espaciales, pues en orbitadores anteriores todo este trabajo debía hacerse muy coordinadamente desde la Tierra, enviando las órdenes a la nave. Ahora la propia MRO puede llevar a cabo la tarea por si misma. La estrategia en su conjunto (aerofrenado y coordinación propia de la sonda) permite ahorrar mucho combustible a la nave, alargando sustancialmente su vida útil.

 La fase actual de aerofrenado de la Mars Reconnaissance Orbiter comenzó a finales de marzo cuando el vehículo orbital recorría una órbita muy elongada de 35 horas. Esta fase finalizará en septiembre, una vez la nave se haya zambullido ligeramente unas cientos de veces en la atmósfera del Planeta Rojo y su órbita sea prácticamente circular. Una vez hecho esto, se llevarán a cabo unos pocos encendidos del motor principal para orientar el vehículo con precisión y posteriormente se desplegará la antena principal de la nave y el radar, para acto seguido desacoplar los sistemas protectores de las lentes del espectrómetros situado a bordo. Cuando esto haya tenido lugar, en octubre de 2006, el planeta Marte se encontrará situado justo detrás del Sol, con lo cual será necesario esperar unos pocos días antes de iniciar la actividad científica. Una vez pasado este periodo de tiempo, la MRO comenzará a enviar a la Tierra datos y fotografías con un detalle nunca observado anteriormente desde la órbita.

 Reproducido con permiso de www.astroenlazador.com


Más información:
http://www.nasa.gov/mission_pages/MRO/news/mro-20060619.html

Página principal de la Mars Reconnaissance Orbiter:
http://mars.jpl.nasa.gov/mro/

20 junio 2006

Los teléfonos cambian, pero las adolescentes no

Los teléfonos han cambiado, de ser unos tristes aparatos anclados en la pared se han convertido en unos aparatitos de divertidos colores que se llevan en el bolsillo del pantalón preparados para sonar en el momento más inoportuno.

Sin embargo un estudio realizado por la Universidad de Alberta (Canadá) ha puesto de manifiesto que el cambio en la forma del aparato no ha significado un cambio en su uso. Los investigadores mostraron a un grupo de chicas adolescentes de entre 14 y 17 años los anuncios publicados  en revistas de los años 60 por una compañía telefónica.  Las encuestadas se sintieron identificadas con  las imágenes que vieron en los anuncios de hace 40 años, en los que sus madres utilizaban el teléfono para ayudarse en los deberes y para hablar de chicos.

Otra conclusión del estudio es que mientras que la publicidad resalta la libertad que un móvil aporta al usuario, la mayoría de las adolescentes reconoce que sus padres le dieron el móvil para tenerlas controladas.  Aunque también reconocen que no siempre dicen toda la verdad sobre donde se encuentran y que a veces no contestan a las llamadas de los padres. Estas "mentirijillas" son algo con lo que cuentan los padres al preguntar, pero que tiene solución, puesto que las compañías ofrecen el servicio de localización del terminal a un precio que más de un padre puede considerar razonable.

19 junio 2006

El 70% del profesorado titular universitario obtiene su plaza como único candidato

  • Los datos provienen de una encuesta por correo realizada entre 2004 y 2005 a más de 2.500 investigadores funcionarios
  • El 56% de los profesores ganó su oposición sin haber tenido antes una experiencia posdoctoral en el extranjero
Madrid, 19 de junio, 2006 El 70% de los profesores titulares de universidad que obtuvieron su plaza en España entre 1997 y 2001 se presentaron al concurso como candidato único. El 56% no había tenido ninguna experiencia posdoctoral en el extranjero en el momento de ganar la oposición. El 96% trabajaba ya en el centro donde obtuvo la plaza de funcionario. Los datos pertenecen a un estudio sobre trayectorias profesionales de profesores e investigadores funcionarios, realizado por un equipo del Consejo Superior de Investigaciones Científicas (CSIC).
 
La investigación, dirigida por Laura Cruz Castro, con la colaboración de Luis Sanz Menéndez y Jaime Aja, todos ellos investigadores  de la Unidad de Políticas Comparadas del CSIC, parte de una encuesta por correo realizada entre noviembre de 2004 y junio de 2005 a un total de 2.588 investigadores funcionarios, de los cuales 2.350 eran profesores titulares de universidad. Los investigadores del CSIC destacan como conclusiones más preocupantes del informe la escasa competencia existente para el acceso a la condición de funcionario universitario y la limitada movilidad geográfica del profesorado [ver datos de la encuesta al final de esta nota].

En el periodo de acceso analizado (1997-2001) obtuvieron plaza de profesor titular en las universidades públicas españolas un total de 7.660 candidatos, lo que supuso un aumento del 39% respecto a la tendencia precedente. El trabajo se detiene en 2001 porque, según sus autores, la fecha marcó el inicio del proceso de convocatoria masiva de plazas universitarias que anticipó la puesta en marcha de la Ley Orgánica de Universidades. “Se ha hecho [limitar la encuesta a los contratados antes de 2001] para evitar que la inclusión de este proceso coyuntural y anormal pudiese desvirtuar la validez de los datos”, señala su responsable.
 
MÍNIMA COMPETENCIA Y ESCASA MOVILIDAD
 
La mínima competencia por las plazas y la falta de movilidad exterior de los profesores titulares son para los autores los datos más alarmantes de la encuesta. Respecto al acceso, subrayan que el 70% de los titulares ganó su oposición sin competencia, que el 56% se presentaba por primera vez, o que el 71% se había doctorado en el mismo centro donde obtuvo la plaza.
 
El momento del primer contrato en la universidad en la que se obtiene luego la plaza se situó entre los encuestados en torno a los 28 años, antes incluso de finalizar la tesis doctoral. La plaza de profesor funcionario la obtuvieron, de media, a los 37 años.
 
En cuanto a la falta de movilidad internacional, es un déficit que se repite a lo largo de todas las etapas de la carrera académica. Así, el 56% de los encuestados no había realizado ninguna estancia en el extranjero durante su etapa posdoctoral (entre la presentación de la tesis y la obtención de la plaza). Tras alcanzar el estatus de funcionario, la movilidad desciende aún más, y son el 80% los que no realizan estancias en el extranjero.
 
El estudio destaca en relación al reparto por sexos que el 63% de los que consiguieron la plaza de profesor funcionario en el decenio 1985-1995 fueron hombres. Las mujeres son todavía minoría en todas las áreas científicas, aunque su presencia es mayor en ciencias sociales, ciencias humanas y ciencias biológicas y médicas.

Reproducción de la nota de presa del CSIC

13 junio 2006

Nuevo tipo de vidrio anti-ultravioleta

David Levy, investigador del Instituto de Ciencia de Materiales de Madrid (CSIC) es el director de un proyecto de investigación que ha llevado a la fabricación de un vidrio que absorbe los rayos ultravioleta sin perder la transparencia ni resistencia de un vidrio normal, aún siendo más delgado.

Esta propiedad lo hace muy interesante para ser empleado en la protección de obras de artes en museos. Estas obras son muy sensibles a los rayos ultravioletas y el empleo de esta nueva generación de cristales permitirá conjugar la protección de la obra con una buena visibilidad de la misma.

Este vidrio se prepara a baja temperatura, 25 ºC, utilizando una técnica desarrollada por el propio Levy en 1984. El vidrio es de gran porosidad y en esos poros (10-500 nanómetros de diámetro) quedan encerradas las moléculas orgánicas encargadas de eliminar la radiación ultravioleta.

26 mayo 2006

Descubierto el mecanismo de degradación bacteriana de hidrocarburos

Científicos del CSIC descubren el mecanismo que activa la ruta catabólica que permite a la bacteria Pseudomonas putida degradar hidrocarburos contaminantes.

En el mecanismo intervienen dos proteinas, una la TodS detecta la presencia del hidrocarburo en el medio antes de que su concentración sea tóxica y estimula a la segunda TodT para que ponga en marcha los genes que codifican la información para degradar el contaminante.

Una vez descubierto este mecanismo, los científicos estudian darle una utilidad como biodetector de contaminación. Se intentaría que la primera proteina en lugar de estimular los genes responsables de la degradación del contaminante estimularan unos que emitieran luz. De esta manera al cambiar el color podríamos saber de la presencia del contaminante.

Los hidrocarburos detectables por este procedimiento son entre otros benceno, tolueno, etilbenceno y xileno. Todos ellos muy contaminantes.

Este trabajo de investigación se ha desarrollado en la Estación Experimental del Zaidín (Granada), ha sido coordinada por el director de la estación, Juan Luis Ramos, y su primer autor ha sido Jesús Lacal.

21 mayo 2006

Descubiertos solitones en sólidos

Un grupo internacional de científicos han observado el desarrollo de solitones en sólidos. Desde hace 20 años se venía teorizando sobre esta posibilidad, pero hasta ahora no se había podido demostrar su existencia. El hallazgo se ha producido en un cristal de uranio a alta temperatura, utilizando técnicas de rayos X y de dispersión de neutrones.

Un solitón es una onda que se propaga por un medio no lineal sin deformarse ni perder velocidad. Se estudiaron por primera vez en el siglo XIX en un canal de agua, en donde un solitón era una onda en el agua y a finales del siglo XX se han empleados para la transmisión de señales a largas distancias a traves de redes de comunicaciones, en este caso el solitón sería una onda electromagnetica. Además de estos solitones "materiales", al tratarse de un fenómeno asociado a ondas en general, hay también solitones de ondas "matemáticas", comompueden las soluciones a sitemas de ecuaciones diferenciales parciales.

Que ahora por ver como interaccionan los solitones con la materia y que utilidad se le puede dar.

16 mayo 2006

Científicos descubren un campo magnético que parece ser el más intenso del universo.

En un artículo publicado en la revista Science, los doctores Daniel Price y Stephen Rosswog, explican, mediante una simulación realizada en ordenador; como el choque entre dos estrellas de neutrones puede generar un campo magnetíco muchísimas veces más intenso que el de La Tierra.

El Dr Daniel Price ha explicado que por primera vez se ha podido reproducir en un ordenador lo que ocurre durante la colisión de dos estrellas de neutrones, y el resultado obtenido es que el campo magnético puede ser lo suficientemente intenso como para generar una explosión de rayos gamma.

Se sabia de la necesidad de este campo mágnetico, pero hasta ahora no sabíamos como se podían generar campos magnéticos tan intensos.

Una de las cosas que más le ha sorprtendido es lo rápido que se forman, apenas 2 milisegundos después de la colisión de las estrellas.

Simular los milisegundos posteriores a la colisión, requirió programar durante meses un superordenador, que realizó cálculos durante semanas.

29 abril 2006

Científicos del CSIC patentan un nuevo sistema para producir surimi de calamar gigante

Madrid, 12 de abril, 2006 Un equipo de investigadores del Instituto del Frío,perteneciente al Consejo Superior de Investigaciones Científicas (CSIC), hadesarrollado y patentado un nuevo método para producir surimi (pasta depescado de la que se obtienen sucedáneos de marisco), a partir de la carnede calamar gigante (Dosidicus gigas ,gráfico interactivo), un producto que no se utiliza de formahabitual en la elaboración de este alimento. El sistema de producción,contenido en dos patentes, ha sido licenciado a la empresa española PSKOcéanos,que ya está fabricando el producto a partir del método desarrolladopor el CSIC en una planta piloto de Vigo.

El científico responsable de la investigación, Javier Borderías, explica la importancia de las patentes: “La posibilidad de elaborar surimi a partir decalamar gigante permite utilizar como materia prima un producto cuyaposibilidad de comercialización es escasa, debido a que para su consumo esnecesario procesarlo para evitar su sabor ácido y amoniacal, además de sutamaño y textura, poco adecuadas”.

El responsable de la investigación, que ha llevado dos años de trabajo,explica que “producir surimi de calamar ayudaría a paliar el mal momento queatraviesa el mercado de este producto, provocado por la escasez de especies de las que se obtiene un surimi de óptima calidad, como el abadejo de Alaska[Theragra chalcogramma]”. “Las compras masivas por parte de China, primerapotencia pesquera del mundo, de pescados que de forma habitual se utilizanpara hacer surimi están agotando las reservas, lo que está encareciendo elproducto considerablemente”, explica Borderías.

El proceso diseñado por el equipo del CSIC, formado por Mercedes Careche,Isabel Sánchez y Javier Borderías, permite obtener un surimi que “no es máscaro que el convencional, es más blanco que cualquier otro, no tieneimpurezas y posee una aceptable calidad de formación de gel”, segúnasevera el responsable del proyecto.

NUEVO MÉTODO DE FABRICACIÓN

El método de obtención patentado por este equipo del CSIC no sigue elproceso habitual de picado, lavado y refinado de la carne de pescado, tras elcual se obtiene la pasta o gel del surimi base. El nuevo sistema se basa endisolver el músculo del calamar en un medio neutro y precipitar la proteínamiofibrilar en medio ácido, mediante un proceso de decantación ocentrifugado. Según explica Borderías, uno de los obstáculos para conseguira través del método convencional un producto final suficientemente purificado,sin perder sus características originales, fue la imposibilidad de utilizar aguaen el proceso, debido a que la proteína miofibrilar del calamar, a diferencia dela del pescado, se disuelve en el agua.

Los científicos del CSIC también han conseguido eliminar todas las impurezasprovenientes de las membranas pegadas a los músculos del calamar gigante,así como anular el mal sabor que en ocasiones presenta, responsable de queeste pescado apenas se comercialice y sea almacenado o desechado enalgunos países.

La planta piloto de la empresa PSK-Océanos en Vigo, a la que se ha cedido lalicencia de explotación de la patente desarrollada por el CSIC, ya hacontactado con diversas compañías que elaboran productos finales de surimi,como palitos de cangrejo, colas de langosta o sucedáneos de angulas, paraque prueben la utilidad del surimi de calamar gigante.

Javier Borderías (Madrid, 1950), es licenciado y doctor en Veterinaria por la UniversidadComplutense de Madrid. Ha realizado estancias postdoctorales en el Torry Research Station deAberdeen (Reino Unido), en la Universidad de Montpelier (Francia) y en el Departamento deComercio de EEUU, en Seattle. Desde 1973 es investigador del CSIC. Su principal línea deinvestigación consiste en estudiar los productos reestructurados a partir de pescados infravalorados.

Nota de prensa del CSIC

Otros enlaces:
Abstract de otro artículo relacionado

Comparativa de palitos de cangrejo

22 abril 2006

MANIFIESTO:Diseño inteligente: fe contra evidencia científica

 Desde la Sociedad para el Avance del Pensamiento Crítico (ARP-SAPC) queremos hacer constar nuestra preocupación ante la exportación interesada del falso debate entre Evolución y "Diseño inteligente" a nuestro país.

Desde la publicación de El Origen de las especies de Charles Darwin (a finales de noviembre de 1859), la Teoría de la evolución de las especies por selección natural ha constituido la base de la biología moderna. Nuestra comprensión de la vida y de los fenómenos naturales está indisolublemente fundamentada en la denominada síntesis moderna, que complementa las ideas de Darwin y Wallace con los mecanismos hereditarios descubiertos posteriormente por Mendel y otros. Los avances científicos posteriores han establecido categóricamente que todos los organismos vivos, lejos de haber sido creados de manera simultánea, descienden de un antepasado común mediante modificación.

El conocimiento científico se basa en inferencias de la evidencia empírica y en la realización de ensayos que validan o descartan hipótesis falsables. Como toda teoría científica, el evolucionismo cambia según se van conociendo nuevos datos o éstos se analizan a la luz de nuevos descubrimientos. El hecho central de la teoría (la existencia de un antepasado comú a todos los seres vivos y la posterior generación de diversidad por selección natural) no sólo se ha mantenido invariable durante casi 150 años, sino que cada año que pasa las pruebas científicas lo refuerzan más, siendo un hecho científico probado fuera de toda duda razonable.

El camino recorrido para llegar hasta aquí ha sido largo, muy largo. Por centrarnos en hechos totalmente contrastados pongamos que hace unos 4.600 millones de años se formó un gran remolino de gas y polvo que dio lugar al Sistema Solar. Poco después se estrelló contra la Tierra un objeto del tamaño de Marte, que dio lugar a la Luna. Durante 500 millones de años la joven Tierra sufrió otros impactos cósmicos que a su vez generaron condiciones en las que se hizo posible el inicio de la vida, tal y como hoy la conocemos. Aunque parezca lo contrario, la Tierra sigue siendo hoy un planeta peligroso: se cree que el 99% de las especies que algún día existieron se han extinguido a causa de cambios climáticos, colisiones de asteroides, actividad sísmica y volcánica,deriva continental, etc. Un ejemplo famoso es la frontera KT (entre el periodo Cretácico y el Terciario, hace 65 millones de años), donde desapareció aproximadamente el 75% de las especies del registro fósil, incluyendo los célebres dinosaurios.

Los últimos 400 millones de años han sido igualmente agitados: la vida salió del medio acuoso para adaptarse a tierra firme, evolucionando en todas direcciones hacia organismos de mayor o menor complejidad. El resultado: el mundo maravilloso, frágil y complejo que habitamos hoy. Esta extraordinaria sucesión de hechos ha permitido que en las últimas décadas, seres inteligentes como nosotros hayamos reconstruido la historia natural de este proceso y lo hayamos sustentado en hipótesis falsables, según el método científico. En este punto, es importante resaltar que la Teoría de la evolución ni da la explicación al origen de la vida ni tiene por qué hacerlo, ya que para que haya evolución debe haber vida preexistente. Lo que sí hemos probado, en definitiva, es que la vida humana surgió así. Este hecho, de por sí, es un hallazgo de primera magnitud. Sabemos quiénes somos y de dónde venimos. A dónde vayamos, es otra historia.

Pero hemos recorrido un largo camino. Por eso resulta cuando menos frustrante que, a estas alturas, un grupúsculo de investigadores que intenta conciliarse con sus creencias haya abandonado el método científico para postular la denominada teoría del Diseño inteligente como una innovación teórica que ofrece una explicación más adecuada al origen de la diversidad de organismos vivos que la teoría de la evolución. En respuesta a estas afirmaciones, asociaciones científicas de prestigio como la Sociedad Americana para el Avance de la Ciencia (AAAS) y la Sociedad americana de Historia de la Ciencia (HSS) han denunciado la existencia de errores conceptuales significativos en su formulación, la ausencia de evidencias científicas creíbles y la utilización errónea de hechos probados científicamente, así como los recientes esfuerzos para eliminar la enseñanza de la evolución del currículo de la escuela secundaria, lo que impedirá a los estudiantes apreciar el proceso histórico de la ciencia como búsqueda intelectual y el entendimiento de su papel en la sociedad.

El llamado Diseño inteligente postula la existencia de una complejidad irreductible en determinados procesos biológicos, lo que a su juicio implicaría la necesidad de la existencia de un Diseñador (del que nada sabemos) ante la supuesta imposibilidad de explicar dichos sistemas complejos por mera selección natural. Para ello, ignora y malinterpreta gran parte de la evidencia existente, sin plantear hipótesis falsables ni presentar una explicación mecanística que sea más acorde con los hechos que la actualmente aceptada. De hecho, no puede ni siquiera calificarse de Teoría, en el sentido que esta palabra tiene en ciencia, pues no constituye un marco teórico acorde con evidencias experimentales y expuesto a la falsabilidad. El desarrollo de esta falsa teoría requiere en último término de explicaciones sobrenaturales, seres de inteligencia y voluntades inescrutables y, en definitiva, conduce a aceptar como ciencia hechos blindados, conceptualmente, al conocimiento científico.

Entre otros errores de bulto del Diseño inteligente, podemos destacar los siguientes:
(a) Llamada a la ignorancia. Aluden a datos que no están disponibles como si fueran pruebas. Es más, algunas de estas afirmaciones ya han sido refutadas aunque ignoren los datos correspondientes: caso del flagelo bacteriano y el sistema de secreción tipo III.
(b) La ausencia de ciertas evidencias es considerada como evidencia de que existe un diseñador. ¿Quién diseñó al diseñador? El Diseño inteligente no entra en ese tema, lo que es inaudito en una teoría científica. Si fuera una teoría científica buscaría evidencias de ese diseñador y se preguntaría sobre su origen. No lo hacen porque es una puerta trasera hacia la religión.
(c) Las lagunas que denuncian en la Teoría de la evolución no son tales. El corpus teórico darwinista (o neodarwinista, o sintético de la evolución), lejos de ser una colección de dogmas inamovibles es una aventura humana en pos del conocimiento que se va contínuamente refinando según se van acumulando nuevas pruebas. Esto, lejos de constituir una debilidad de la Teoría como pretenden convencernos desde el Instituto Discovery, está en el mismo fundamento del conocimiento científico y afecta a todos los hechos probados que normalmente asumimos como verídicos.

El Diseño inteligente, por tanto, no puede ni debe ser calificado de teoría científica sino que es un acto de fe, y como tal debe juzgarse. Es pues materia para clases de religión y teología, y no debe formar parte de los estudios de ciencias y menos como alternativa a la teoría de la evolución. La polémica generada recientemente en los Estados Unidos se explica fácilmente si se considera que la religión no se enseña en las escuelas públicas de ese país por el imperativo constitucional de neutralidad religiosa. Es más, en 1987 el Tribunal Supremo de los EE.UU. prohibió la enseñanza del creacionismo (creation science), una relectura pseudocientífica del Génesis inventada en los años 60. Desde entonces, los creacionistas han evolucionado su doctrina hasta el actual Diseño inteligente en un intento proselitista de expandir una determinada visión del cosmos mediante supuestas evidencias científicas. En ese sentido, la victoria del sentido común en la reciente sentencia del caso Kitzmiller contra Dover ha sido de gran importancia para que la enseñanza de la ciencia en EE.UU. y en el resto del mundo siga haciendo honor a lo que siempre ha sido: la versión de los hechos más ajustada a la realidad que hemos podido generar.

Desde la Sociedad para el Avance del Pensamiento Crítico (ARP-SAPC) queremos hacer constar nuestra preocupación ante la exportación interesada del falso debate entre Evolución y Diseño inteligente a nuestro país. En los últimos años, hemos tenido noticia de episodios de revisión creacionista del currículo educativo en países como Italia, Brasil y Serbia. Algunos artículos recientes en prensa en los que nuevamente se presenta el Diseño inteligente como teoría científica alternativa al darwinismo han hecho saltar nuestras luces de alarma. Lejos de querer restringir la libertad de expresión de cualquier tipo de ideas, incluyendo las no basadas en la evidencia, estamos a favor de llamar a las cosas por su nombre: mientras el Diseño inteligente no siga escrupulosamente las reglas del método científico, tampoco debe gozar de la respetabilidad asociada al conocimiento generado mediante el mismo.

El presente documento ha sido elaborado coletcivamente por los socios de ARP-Sociedad para el Avance del Pensamiento Ctrítico, a partir de un texto original de Ander Izeta.

20 abril 2006

EL ENGAÑO ¿INTELIGENTE? - Número 21 de la revista EL ESCÉPTICO

El número 21 de la revista EL ESCÉPTICO, editada cuatrimestralmente por ARP - Sociedad para el Avance del Pensamiento Crítico, realiza un exhaustivo análisis de los debates que actualmente se están promoviendo, de manera interesada, cuestionando la validezde la teoría de la evolución. ¿Es la vida en la Tierra el resultado de un proceso evolutivo, anticipado por Charles Darwin hace siglo y medio, o responde a un diseño sobrenatural? ¿Qué se ha de enseñar en las clases de biología? La controversia ha llevadoa la Asociación Americana para el Avance de la Ciencia a realizar un manifiesto en defensa de la biología científica, y a muchos científicos a posicionarse de manera beligerante contra este ataque creacionista a la ciencia. En Europa, y en concreto en España, un posicionamiento suave de la Iglesia Católica a favor del evolucionismo ha permitido que, hasta fechas recientes, no se hayan producido apenas intentos de obligar a los profesores de biología a contar la Biblia o teorías tan poco científicas como ladel llamado Diseño Inteligente (que el paleontólogo Eudald Carbonell calificaba de engaño inteligente). Pero la situación está cambiando y el fundamentalismo religioso quiere meterse en las aulas, en las clases de biología.

El informe especial titulado el engaño ¿inteligente? - Creacionismo contra Evolución que presenta la revista EL ESCÉPTICO, cuenta con la colaboración de artículos de científicos (como el premio Nobel de Física Stephen Weinberg, el biólogo de la Universidad Pompeu Fabra de Barcelona Arcadi Navarro, el el paleontólogo de la Universidad de Zaragoza Eustoquio Molina o el ingeniero Ferran Tarrasa), filósofos (como Rafael Argullol) o comunicadores (como Alfonso López Borgoñoz, de la revista Universo y codirector de EL ESCÉPTICO, o Jean-Paul Kravine, redactor jefe de la revista AFIS Science et Pseudosciences). El informe se completa con la declaración institucional de la AAAS sobre el diseño inteligente y con un manifiesto que ARP Sociedad para el Avance del Pensamiento Crítico hace público sobre el mismo tema (y que se reproduce también en otra entrada de esta bitacorARP).

Este número de EL ESCÉPTICO se completa con artículos de Manuel Calvo Hernando sobre la divulgación científica, y secciones habituales sobre pensamiento crítico, ciencia y pseudociencias de firmas como Javier Armentia, Ernesto J. Carmena, Félix Ares o Sergio López Borgoñoz, así como una sección de crítica de libros y de páginas de Internet.

Finalmente, la separata dedicada a la educación en el pensamiento crítico ESCOLARP dedica su segundo número a la homeopatía y a los viajes a la Luna. Se trata de una propuesta de actividades para el aula coordinada por José Luis Cebollada y Jorge J. Frías.

La revista EL ESCÉPTICO está dirigida por Félix Ares de Blas y Alfonso López Borgoñoz y es editada por ARP Sociedad para el Avance del Pensamiento Crítico, agrupación que defiende el pensamiento crítico desde 1985. Se puede encontrar información sobre la misma en www.escepticos.org..

06 abril 2006

La MRO saca los colores a Marte



Sabíamos que la vida es según el cristal con que se mire, también Marte se ve diferente según sea la longitud de onda escogida para su observación. La imagen superior, es una composición de tres fotos diferentes, ha sido tomada por uno de los sensores que viajan abordo del MRO (Mars Reconnaissance Orbiter) el denominado Mars Climate Sounder que debe vigilar diariamente los cambios que se produzcan en la atmósfera del planeta.
  • Imagen de la izquierda: Tomada con la luz solar reflejada, muestra el casquete polar (norte), el día y la noches marcianos.
    Cuando la sonda alcance la orbita definitiva a 300 km de altura, durante los próximos 6 meses irá frenando y acercándose poco a poco hasta alcanzarla, el instrumento medirá cómo varía la reflectividad de la superficie de un punto a otro y de una estación a otra.
  • Imagen del centro: Tomada con los rayos infrarrojos emitidos por la superficie del planeta, muestra el casquete polar oscuro porque está más frio y no se distingue el día de la noche.
    Durante la fase científica de la misión las imágenes tomadas a esta longitud de onda mostrarán las tormentas de arena.
  • Imagen de la derecha: Tomada con rayos infrarrojos de una longitud de onda diferente, muestra la temperatura de la atmósfera a unos 25 km de altura.

02 abril 2006

Los nuevos combustibles empiezan a llegar al mercado.

Se trabaja en dos estrategias para buscar una solución a la futura escasez de combustibles fósiles para propulsar automóviles:



  • Sustitución de los motores actuales por otra tecnología más limpia como puede ser la
    eléctrica, utilizando para almacenar la electricidad baterías de alto rendimiento o células de combustible.

  • Sustitución del combustible fósil actual por otro utilizable por los motores de combustión interna actuales.


Esta segunda estrategía es especialmente interesante porque al utilizar los mismos vehículos permite una más rápida implantación. Tán rápida que ya circulan por nuestras calle
vehículos que utilizan estos nuevos combustibles.

Una de las lineas de investigación seguidas para el desarrollo de estos nuevos combustibles es cultivarlo en lugar de extraerlo. Las ventajas de estos biocombustibles:

  • Son una fuente de energía renovables.

  • Su combustión aporta a la atmósfera el dióxido de carbono que las plantas han retirado de la misma durante su crecimiento, mientras que los combustibles fósiles sólo lo aportan.

  • Son una alternativa a cultivos tradicionales en decadencia por su escasa rentabilidad.


Comercialmente se emplean dos biocombustibles: el bioalcohol, que se emplea como aditivo en gasolinas y el biodiesel que cualquier motor diesel posterior a 1995 puede repostar en alguna de las 215 gasolineras que disponen de él en España.

En muchas ciudades españolas algunos autobuses urbanos emplean este combustible, son autobuses completamente normales sólo distinguibles del resto por la publicidad que hacen de este hecho.

18 marzo 2006

La MRO llegó el 10 de marzo a Marte

Después de un viaje que comenzó en agosto del año pasado, la MRO (Mars Reconnaissance Orbiter; Orbitador de reconocimiento marciano) entró en orbita marciana el pasado día 10.

Las primeras vueltas alrededor de Marte tienen una duración de 35 horas, durante los próximos 6 meses este tiempo se irá reduciendo hasta las 2 horas. Para lograrlo empleará una técnica de frenado aerodinámico consistente en que el rozamiento con la tenue atmósfera del planeta frene a la nave espacial. Esta operación es muy delicada y un error en las maniobras puede suponer la pérdidad de la nave, ya sea en el espacio exterior o contra el suelo.

Animación que recrea el viaje de la MRO

Nanopartículas magnéticas permiten la separación de varios catalizadores en reactores de mezcla completa.

La obtención de un determinado producto químico puede requerir la realización de varias reacciones químicas en serie. Después de cada reacción hay que separar el producto buscado de los reactivos sobrantes, de los subproductos y del catalizador empleado. Estas operaciones de separación suponen un coste.

Se pueden evitar las separaciones intermedias si el catalizador necesario para que la reacción se desarrolle a una buena velocidad, se deposita sobre una nanopartícula magnetica. Una vez completadad la reacción el catalizador se retira del reactor por procedimientos magnéticos, se añaden los nuevos reactivos y el nuevo catalizador y la segunda reacción tiene lugar en el mismo recipiente que la primera.

Para evitar la agregación de las nanopartículas, lo que iría acompañado de una disminución de actividad del catalizador, estas han de ser lo suficientemente pequeñas. Si la nanopartícula es lo suficientemente pequeña, la energía necesaria para cambiar la orientación de su vector campo magnético es comparable a la energía térmica del entorno y por tanto su dirección cambiará constantemente, no habiendo una fuerza magnética neta entre las nanopartícula presentes en la reacción.

Esta tecnología es muy prometedora para los procesos de síntesis de moleculas muy específicas, como pueden ser los principios activos farmacéuticos.

07 marzo 2006

El CSIC y el Instituto Cervantes colaborarán en la difusión de la ciencia española en el extranjero

El director del Instituto Cervantes y el presidente del Consejo Superior de Investigaciones Científicas (CSIC) firmarón el viernes 3 de marzo un convenio de colaboración destinado a difundir la ciencia española en el extranjero.

Ambas instituciones organizarán de forma conjunta exposiciones, conferencias y mesas redondas. Así mismo se prestarán asesoramiento recíproco, apoyo mutuo e intercambio de información en temas de fomento, desarrollo y seguimiento de actividades científicas. También podrán colaborar en la formación de de personal investigador y técnico.

El convenio tiene una duración de 3 años prorrogables.

02 marzo 2006

Nuevo algoritmo para la mejora de imágenes digitales.

Un equipo de físicos del CSIC ha presentado un sistema para mejorar la calidad de fotografías de baja resolución.

El sistema consiste en combinar, mediante un algoritmo matemático, la información de dos o más fotos muy parecidas, por ejemplo: tomadas en muy corto intervalo de tiempo, para obtener una imagen de mejor calidad que cualquiera de las individuales.

Este sistema permitirá mejorar la calidad de las imágenes sin necesidad de mejorar los sensores y su aplicación es de interés en sistemas de seguridad basados en cámaras, imágenes médicas, identificación de matrículas en radares de tráfico, astronomía, etc.

12 febrero 2006

Podría haber dificultades a medio plazo para garantizar el suministro de ciertos metales

Según una investigación publicada en la revista Proceedings of the National Academy of Sciences los recursos naturales de diversos metales podrían agotarse en un futuro no demasiado lejano.
Según este estudio incluso la extracción total de estos metales y la aplicación de amplios programas de reciclado no serán suficientes para satisfacer la demanda futura de esos metales, si los paises en vía de desarrollo lo consumen al ritmo de los desarrollados.
Entre los metales citados en el estudio están el cobre y el zinc, (se calcula que el 26 % del cobre extraible se ha empleado en aplicaciones que no permiten su reciclado, esta cifra baja al 19 % para el zinc).
Los responsables del estudio consideran que la situación puede más preocupante en el caso de metales para los que no hay alternativas, como es el caso del platino.

04 febrero 2006

La Biblioteca Británica preocupada por la preservación de sus fondos digitales

Actualmente la Biblioteca Británica se gasta el 12% de su presupuesto de adquisiciones en comprar publicaciones electrónicas, se calcula que para el 2020 el porcentaje se elevará al 90%. La mayoría de estas publicaciones disponen de algún sistema de protección de los derechos de autor para evitar copias ilegales.
La biblioteca está preocupadad por dos efectos indeseados que estos sistemas pueden tener en el desarrollo de su actividad:
  • Alteración de los acuerdos actuales por los que las bibliotecas pueden brindar acceso, copiar y distribuir sus fondor.
  • Posiblilidad de que, a largo plazo, al caducar los derechos sobre una obra no sea posible encontrar al gestor de los derechos para que desproteja la obra.
Lea la noticia completa en BBC News

21 enero 2006

La desinfección de las aguas residuales no genera trihalometanos

Un equipo del CSIC liderado por Josep María Bayona ha demostrado que el tratamiento de desinfección al que se someten las aguas residuales urbanas como tratamiento previo a su utilización para el riego, no genera subproductos cancerígenos clorados.


Las aguas residuales antes de su vertido son sometidas a un tratamiento encaminado a minimizar su impacto en el medioambiente. Si se pretende utilizarlas para el riego es necesario, además, desinfectarlas, ya sea con la adición de cloro o con la exposición a radiacion ultravioleta.


El estudio se ha realizado en tres plantas de depuración en explotación. Los niveles medidos de trihalometanos son inferiores a los permitidos en el agua potable. Se cree que estos valores, inferiores a los esperados, se deben a la presencia de amonio en las aguas residuales. Este resultado desaconseja la eliminación del amonio en aquellas aguas destinadas a ser desinfectadas.

14 enero 2006

Sobre la utilización de la pulpa de manzana como materia prima en la fabricación de carbón activo

El carbón activo es un material muy empleado en diversos sectores de la industria por sus excelentes propiedades para la adsorción de líquidos y gases.

Sus aplicaciones son tan variadas como lo son las materias primas que se emplean en su fabricación: carbón mineral, madera, huesos de frutas, cáscaras de frutos, etc.

Un equipo de investigación formado por personal del Instituto Nacional del Carbón del CSIC y de otro instituto suizo han desarrollado un procedimiento industrial para utilizar la pulpa de la manzana como precursor.

La pulpa de manzana es un residuo de los procesos de fabricación de sidra y zumo de manzana. Este nuevo procedimiento supondría su puesta en valor y la reducción de los residuos generados al fabricar sidra y zumo de manzana.

El proceso es, además, menos agresivo con el medioambiente y más sencillo que los empleados en la actualidad al utilizarse vapor de agua como agente activante en lugar de agentes químicos.

El producto obtenido tiene unas propiedades físicas muy interesantes para su empleo en la fabricación de supercondensadores, componente muy importante en los vehículos eléctricos, y campo de aplicación que se espera que sea muy importante en un futuro próximo.

El Instituto está buscando socios industriales entre los sectores generadores de pulpa y los productores de carbón activado.

Ya se han publicado los primeros resultados del análisis de la atmósfera de Titán

Los datos empíricos, proporcionados por el instrumento HASI (Huygens Atmospheric Structure Instrument) que ha viajado hasta Titán a bordo de la sonda Huygens, coinciden con los proporcionados por los modelos teóricos.

El estudio, realizado por un grupo internacional de científicos y técnicos de Italia, Francia, Finlandia, Reino Unido y España, ha sido publicado en la revista Nature.

Por la parte española han intervenido José Juan López-Moreno y Rafael Rodrigo del Instituto de Astrofísica de Andalucía (CSIC). El primero de ellos considera que la atmósfera de Titán es un retrato de la de la Tierra hace unos 3.500 millones de años y que el conocimiento de la atmósfera del satélite de Saturno nos ayuda a conocer nuestra propia atmósfera.

Por primera vez, gracias al HASI, ha sido posible medir de manera directa la temperatura, presión, densidad y propiedades eléctricas de la atmósfera del satélite entre los 1.200 km de altura y la superficie. Igualmente se ha determinado que la ionosfera ocupa una capa entre los 120 km y los 40 km de altura.

La atmósfera de Titán es la más parecida a la de la Tierra que se ha encontrado, es rica en Nitrógeno y densa. Se considera que su mayor distancia al Sol ha hecho que su evolución haya sido más lenta.

El HASI portaba además, un micrófono con el que se grabó el sonido (mp3) de la atmósfera de Titán durante su descenso.

Sonda Cassini-Huygens (www.sondasespaciales.com.com)

Sonda Cassini-Huygens (www.astroenlazador.com)

Sonda Cassini-Huygens (www.nasa.com) (en inglés)

Sonda Cassini-Huygens (www.esa.com) (en inglés)

Las lagunas profundas podrían ser empleadas para reducir la concentración de metales pesados en aguas residuales

La investigación ha sido llevada a cabo por un equipo de investigadores españoles del Departamento de Contaminación Ambiental del Centro de Ciencias Ambientales del CSIC y los resultados publicados en la revista LIMNETICA

Los procedimientos para eliminar los metales pesados de las aguas residuales que se vienen empleando son complejos y caros. El estudiado por el equipo de la doctora Arauzo es sencillo y económico. Según este estudio, la reducción del cromo, hierro y cinc llegó a ser del 60%.

El procedimiento se basa en el mismo principio de autodepuración que rige el ciclo natural del agua.

Los experimentos se han realizado en una laguna de 4,75 m de profundidad, 2200 m3 de capacidad y forma de pirámide invertida, situada en la Finca Experimental La Poveda (Arganda del Rey, Madrid).

Las lagunas profundas tienen frente a las poco profundas las siguientes ventajas a igual cantidad de agua almacenada:

  • Ocupan menos superficie y la inversión necesaria en terrenos es menor.
  • Las perdidas de agua por evaporación son menores, lo que significa que el agua que sale de ellas es menos salina y se puede emplear en riegos.

En estos momentos la investigación está paralizada por falta de financiación.

Manifiesto por la cultura veraz


Promovido por la Sociedad para el Avance del Pensamiento Crítico, este manifiesto ha sido suscrito por más de trescientas personas de muchos ámbitos: destacan investigadores científicos, periodistas y divulgadores científicos, pero también profesores, estudiantes, y profesionales de numerosos ámbitos. Un amplio espectro social de personas preocupadas por este tipo de manipulación del conocimiento.“La evolución de la sociedad depende de su cultura y, en nuestros tiempos, buena parte de esta depende de los medios de comunicación, que deben, por tanto, presentar la realidad de forma correcta, utilizando los hechos y razonando a partir de ellos. Evidentemente, los razonamientos relativos a la política, a las actuaciones de los gobiernos y, en general, los hechos relativos a la sociedad, son incompletos y su análisis suele llevar incorporado un cariz subjetivo que depende de la persona que hace el análisis. Sin embargo, cuando se seleccionan los hechos y se mezclan con la finalidad de obtener una conclusión, el resultado es manipulación.”

El manifiesto cita como ejemplo el programa “Cuarto Milenio”, del recientemente creado canal de televisión Cuatro: “Un canal que nace con vocación de formar e informar no puede ni debe tener este tipo de programas. Si un locutor del canal afirma, en el transcurso de un mismo programa, que el hombre nunca llegó a la Luna, que el Apolo 11 detectó un ovni en su viaje a la Luna y que en los alunizajes se descubrieron construcciones alienígenas, no sólo no debería tener ningún tipo de crédito sino que debería ser eliminado inmediatamente de la programación.” El problema, sin embargo, afecta también a otros canales televisivos (es notable el caso de la serie “Phenomena” de la Televisión Autonómica Canaria, en la que se afirman las más sorprendentes fenomenologías paranormales sin aportar nunca un balance racional de ellas). E igualmente sucede en numerosos programas de radio.

Los firmantes abogan por un control de calidad en los medios de comunicación que permita el asesoramiento en estos temas por expertos y separar “los hechos de las opiniones o especulaciones propias del presentador del programa o de la sección correspondiente ”, así como por que, en su compromiso con la cultura veraz, eliminen de su programación estos contenidos pseudocientíficos.

Este manifiesto es una alerta que ha promovido la SOCIEDAD PARA EL AVANCE DEL PENSAMIENTO CRÍTICO. “Defendemos la necesidad y el derecho de los ciudadanos a una cultura veraz y a una crítica racional que debería ser la base de los contenidos informativos de los medios de comunicación”, ha expresado Félix Ares de Blas, presidente de la misma. Esta asociación, desde hace veinte años, mantiene una decidida apuesta por esos contenidos, con actividades para el mundo escolar y publicaciones como “El Escéptico”.

ARP - Sociedad para el Avance del Pensamiento Crítico

Presentado el coche más pequeño del mundo

· Se trata de una molécula con forma de coche y un tamaño de 4 nanometros

Se puede definir como nanocoche monomolecular , y ha sido diseñado y construido en la Universidad Rice de E.E.U.U.

La molécula, formada principalmente por átomos de carbono, tiene forma de H y en la que los palotes verticales son los ejes en cuyos extremos están las ruedas y el trazo horizontal es el chasis que mantiene unido los ejes. Tiene un tamaño de 4 nanometros, para hacernos una idea un cabello tiene un diametro de 80 000 nanometros.

La molécula no solo tiene forma de coche, sino que también tiene parte de su funcinalidad; las ruedas giran y la suspensión permite al nanocoche adaptarse a las irregularidades del terreno por donde circula. Sin embargo carece de motor.

Las ruedas son una estructura conocida como futboleno, fullereno o buckyball

Una de las dificultades con la que se ha encontrado el equipo de investigadores ha sido demostrar que el vehículo no se limitaba a deslizar sobre la superficie sino que rodaba.

Experimentos como estos sirven para poner a punto técnicas para la síntesis de moléculas a la carta. El siguiente paso es la construcción de una "nanofurgoneta" con capacidad para transportar carga.

Idean un tratamiento para mejorar la calidad de las uvas de mesa

· Aplicado antes de que el fruto madure, aumenta el tamaño y mejora la consistencia.

Dulces, rojas y con efectos antioxidantes, sobre todo si se comen con piel. Estas son las cualidades que reúnen las uvas de mesa roja variedad Crimson (Vitis vinifera L.). Sin embargo, en ocasiones las manipulaciones que sufren desde su recolección hasta caer en manos del consumidor final provocan alteraciones en el fruto. Un equipo de investigadores del Departamento de Nutrición Vegetal del Centro de Edafología y Biología aplicada del Segura del Consejo Superior de Investigaciones Científicas (CSIC) acaba de probar una combinación de "bioactivadores" no contaminantes, clásicos y de nueva introducción que, aplicada sobre las hojas de la vid durante el cultivo, podría paliar estos problemas, según publica la revista Spanish Journal of Agricultural Research.

El tratamiento combina nitrógeno y calcio, dos elementos imprescindibles para el metabolismo de las plantas. En concreto, el nitrógeno afecta a las características sensoriales de la fruta (sabor, textura,.). Por su parte, el calcio afecta a la consistencia del fruto, al tratarse de un elemento clave en la estructura de las células vegetales. "La asimilación de este mineral durante el desarrollo del fruto es uno de los mayores problemas que afectan a la calidad comercial, y se le considera responsable de mucha enfermedades que surgen tanto durante el cultivo como en la conservación frigorífica y la comercialización", explica Fernando Riquelme, autor principal del estudio. Aunque era lógico suponer que un posible remedio sería aplicar aisladamente calcio y nitrógeno sobre la vid, en la práctica los investigadores observaron que esta estrategia apenas generaba cambios en el fruto.

Efecto combinado

La solución llegó de manos de un tercer ingrediente: el titanio. En sucesivos experimentos, Riquelme y su equipo comprobaron que si añadían ascorbato de titanio al nitrógeno y al calcio mejoraban algunos "índices físicos" de la planta. El resultado eran racimos de uva de color rojo algo más intenso, con menor desprendimiento de los granos y mayor resistencia de la piel de la uva durante su manipulación. Eso sí, los efectos sólo aparecían siempre y cuando que el spray se aplicara, según Riquelme, "en los momentos adecuados, fundamentalmente en las etapas inmediatas al cuaje de los frutos".

Los resultados indican que estas mejoras en la calidad de la cosecha son el resultado de la intensificación de la actividad general de la planta por una mayor eficiencia de las funciones fisiológicas, especialmente de los procesos de absorción y asimilación de sustancias nutritivas como el hierro, el calcio, el cobre y el zinc.

Fruta mejor conservada

Aunque el producto se ha probado ya en plantaciones comerciales de vid, los ensayos son, de momento, experimentales. Antes de su aplicación práctica será necesario repetirlos en diferentes condiciones y de forma continuado durante distintos ciclos de cultivo. El éxito en estos futuros ensayos permitiría ofertar a los consumidores uvas de más calidad, consistencia y vida útil, de mayor tamaño de grano y menor riesgo de alteraciones en posrecolección.

Un nuevo método acústico detecta sandías defectuosas, con huecos en su interior

· Investigadores españoles perfeccionan técnicas para determinar la calidad interna de las frutas estudiando las vibraciones sonoras que emiten al golpearlas

El tradicional método de comprobar la calidad de una sandía oyendo cómo suena al golpearla con la mano ya tiene una base científica sólida. Científicos españoles han profundizado en el estudio de las vibraciones acústicas de las sandías sin semillas, comprobando que una respuesta sonora irregular es señal de huecos interiores que deterioran la calidad del fruto. Perfeccionar esa innovadora técnica, descrita en el ultimo número de la revista Spanish Journal of Agricultural Research, ha servido para desarrollar un dispositivo portátil con el que los productores agrarios podrán conocer el estado interno de amplias muestras de sus sandías sin tener que desperdiciar ninguna para el análisis.

Belén Diezma, profesora de la Escuela Politécnica de Huesca, señala en su estudio que un clima variable al inicio de la temporada de cultivo de la sandía, o un exceso de riego o de fertilizantes, pueden provocar un problema que los agricultores denominan "agrietado o ahuecado interno". La aparición de cavidades en el interior reduce su frescura y sabor y puede llegar a afectar a más del 50% de las sandías sin semillas, que precisamente es la variedad más sabrosa de esta fruta..

Diseñar un oído electrónico

"Cuando una empresa productora de sandías planteó este problema a la directora de mi tesis doctoral, que tiene muy buen oído para la música, pensó que si ella detectaba diferentes sonidos al golpear una sandía defectuosa, grabarlos con un micrófono para analizarlos tendría muchas posibilidades", recuerda Belén Diezma. Cuando trabajaba en el Laboratorio de Propiedades Físicas de la Universidad Politécnica de Madrid, su equipo de investigación ideó un sistema para estudiar la respuesta acústica de una sandía al impacto de una bola metálica sobre un punto del "ecuador" de la fruta: colocaron un micrófono justo en el punto diametralmente opuesto al punto de impacto, sobre esa misma línea imaginaria que la divide en dos partes simétricas.

La idea era estudiar las frecuencias de resonancia de la sandía, que ya se sabía que están relacionadas con la firmeza en otras frutas y hortalizas como manzanas, melocotones y tomates. Adaptar esa técnica en su tesis doctoral para detectar los huecos internos de las sandías le proporcionó a Belén Diezma en 2001 el Premio para Jóvenes Investigadores de la Sociedad Española de Ciencias Hortícolas. En una sandía buena, la frecuencia de resonancia es la misma al golpear en diferentes puntos del "ecuador" de la fruta, mientras que en una defectuosa la "nota musical" va cambiando dentro de un intervalo.

Modo de vibración esférico

"Eso es lo que se puede afirmar desde el punto de vista estadístico, pero en la práctica no es tan sencillo y no se cumple en todas las frutas. Cuanto más maduras están, más difícil es distinguir una buena y una mala", advierte Belén Diezma. Para perfeccionar el método, su equipo comenzó a estudiar los diferentes modos de vibración de la sandía. Los últimos resultados revelan que el que está más relacionado con los huecos internos es el modo esférico, en el que al vibrar la sandía aumenta y disminuye de tamaño por igual en todo su volumen. "Esto confirma que la intuición fue buena al escoger el punto donde colocar el micrófono", afirma la investigadora.

Saber que el modo de vibración esférico es la mejor pista para detectar huecos acerca esta técnica hacia su inminente aplicación: un equipo portátil para que los agricultores puedan analizar la calidad interna de sus cultivos de sandía a medida que crecen. El nuevo método acústico les dará una idea fiable del estado de su cosecha sin necesidad de destruir las frutas escogidas para la muestra. De momento los investigadores han solicitado la patente para ese dispositivo, surgido de llevar el saber popular al terreno de la ciencia y la tecnología.

El nuevo mapa de riesgo volcánico de Tenerife analiza el peligro de una próxima erupción

El nuevo mapa de riesgo volcánico de Tenerife analiza el peligro de una próxima erupción

· Por primera vez se ha realizado una evaluación fiable, basada en el estudio de las señales dejadas por las erupciones en los últimos 30.000 años

Tras la falsa alarma del año pasado, la isla de Tenerife ya cuenta con mapa de riesgo volcánico. Científicos de la Estación Volcanológica de Canarias han presentado la primera evaluación con rigor sobre la posibilidad de una nueva erupción del Teide. Su investigación, publicada en la revista científica Estudios Geológicos, describe las zonas de mayor peligro y es un paso fundamental para poder detectar con tiempo un eventual despertar del Teide, que en las últimas décadas no ha dado el más mínimo síntoma de actividad.

"A pesar de la actual calma volcánica, la ausencia de estudios serios ha propiciado declaraciones alarmistas por parte de científicos que, sin base alguna, asustaron a la población", declara Juan Carlos Carracedo, uno de los autores del estudio. Este geólogo del CSIC recuerda que se llegó a poner fecha (9 de mayo de 2004) a la erupción que nunca ocurrió y que muchas personas dormían vestidas, acumularon provisiones y algunos vendieron propiedades, cuando detrás de la supuesta crisis no hubo más que unos temblores de tierra imperceptibles por las personas, y lo que se tomó como una fumarola de gases volcánicos en medio de una zona muy poblada era en realidad el respiradero de una fábrica de quesos.

Reconstruir el pasado volcánico

"Es como si oyes arañazos en el cuarto de baño y alguien te dice que es un tigre. Mejor ir y comprobar que, como te esperabas, es sólo un gato", explica Carracedo. Frente a la especulación que provocó que la prensa internacional se refiriera a la isla como Terrorife, este científico y su equipo buscaron datos objetivos para valorar el riesgo de una erupción a corto plazo, es decir, durante los próximos siglos.

Los investigadores se propusieron reconstruir el pasado volcánico "reciente" de la isla. En geología, reciente es un término que abarca los últimos 30.000 años, mientras que las referencias históricas sobre las Canarias sólo cubren unos pocos siglos. Por eso recurrieron a la datación de los restos de lava, con carbono-14 y otros isótopos radiactivos, para poder establecer una cronología de las erupciones más recientes.

Completaron su estudio perfeccionando y digitalizando la cartografía geológica de la isla, y el resultado es el nuevo mapa de riesgo volcánico de Tenerife, cuya zona de mayor peligro está en la dorsal noroeste del Teide. "Teniendo en cuenta que es imposible predecir una erupción -explica Carracedo- los mapas de riesgo sí permiten concretar las zonas donde es más probable que se produzca, así como sus posibles efectos: el tipo de erupción, la extensión de las lavas, etc."

Catastrofismo injustificado

Este mapa de probabilidades, aunque no sirva para predecir una erupción, ayudará a detectarla cuando se esté iniciando, lo que da un margen de tiempo vital para tomar decisiones y preparar a la población. La clave está en que antes de una erupción siempre ha habido terremotos fuertes y fáciles de detectar. "Sin embargo, para ello hay que tener los medios adecuados y aquí, hoy por hoy, no los tenemos", lamenta Juan Carlos Carracedo.

La situación en Canarias, sin tan siquiera una Facultad de Geología y con estaciones sísmicas sin funcionar por falta de fondos, contrasta con la de Hawaii (EEUU), otro paraíso para los turistas pero también para los volcanólogos. Hawaii es igualmente una isla volcánica, pero con muchísimas más erupciones en los últimos 10.000 años que Tenerife, además de frecuentes terremotos que llegan a superar la magnitud 7 en la escala de Richter y a provocar tsunamis.

Sin embargo, en Hawaii el constante estudio y vigilancia del volcanismo evita situaciones de alarma social que sí producen en Canarias pequeños temblores. Para Juan Carlos Carracedo, la falta en Canarias de una estrategia de investigación volcanológica provoca un catastrofismo no justificado: "En realidad, el riesgo volcánico en Canarias es un sólo un gato. Un gato que también puede arañar y hacer daño, pero los tigres están en otras zonas, sobre todo en los bordes de colisión entre placas tectónicas, donde se dan un día sí y otro no terremotos, tsunamis y volcanes verdaderamente catastróficos".

Las imágenes por satélite permiten evaluar el estado de los encinares y alcornocales españoles

Las imágenes por satélite permiten evaluar el estado de los encinares y alcornocales españoles

· Gracias a las imágenes obtenidas con sensores remotos de alta resolución se puede reducir el coste y el tiempo invertido en los estudios de vegetación.

Los sensores remotos de alta resolución espacial, ampliamente utilizados en estudios cartográficos, podrían convertirse también en potentes aliados en el estudio de los bosques españoles de encinas y alcornoques, según una investigación publicada en el número de agosto de la revista Investigación agraria: Sistemas y recursos forestales. A esta conclusión ha llegado un grupo de científicos de la Universidad de Córdoba y la empresa Auxiliar de Recursos y Energía (AURENSA) tras estudiar los procesos de decaimiento forestal en un monte alcornocal utilizando imágenes del satélite IKONOS, el primer satélite comercial que ofrece hasta un metro de resolución espacial.

El decaimiento forestal o “seca” de las encinas (Quercus ilex) y los alcornoques (Quercus suber) es una enfermedad compleja, difícil de diagnosticar, en la que intervienen múltiples factores. Los árboles afectados sufren un deterioro gradual y generalizado, que desemboca en su muerte. Por eso, para tratar de ponerle remedio, en Andalucía trabajan conjuntamente sobre el terreno patólogos, entomólogos, metereólogos, ingenieros y selvicultores. Y ahora, desde el espacio, también los sensores de alta resolución.

Alcornocales dañados

Para llevar a cabo el nuevo estudio, los investigadores se desplazaron hasta los alcornocales del monte “La Alcaidesa”, en la provincia de Cádiz, con el fin de realizar el inventario de daños y la delimitación de los focos de “seca”. De cada uno de los 592 ejemplares dañados, describieron los daños y anotaron las coordenadas GPS. El trabajo prosiguió en el laboratorio, donde se comparó la información obtenida durante el trabajo de campo con las imágenes del satélite IKONOS.

Los resultados confirmaron la fiabilidad del estudio de masas de Quercus a través de sensores espaciales, con lo que ello supone en reducción de tiempo de trabajo y costes. “Si tenemos en cuenta la gran superficie de encinar-alcornocal que existe en regiones como Andalucía, Extremadura o Castilla la Mancha, queda patente el interés del uso de satélites para evaluar el estado de estas masas forestales”, afirma Rafael Navarro, profesor del Departamento de Ingeniería Forestal de la Universidad de Córdoba y coautor del estudio.

Oportunidades para la selvicultura

Además, el trabajo corrobora el protagonismo que está tomando la teledetección en el estudio de los recursos forestales. “Los selvicultores siempre han necesitado de la topografía y de la cartografía para el desarrollo de sus trabajos – recuerda el profesor Navarro –. Dado que la teledetección y los sistemas de información geográfica (SIG) permiten obtener información de muy distinta naturaleza, a diferentes escalas, y que ambas herramientas combinadas aumentan nuestra capacidad de análisis, debemos aceptar que estamos en un momento fundamental en la evolución de la selvicultura”.

Por eso, este equipo de investigadores ha dado un paso más y ha empezado a aplicar la teledetección para evaluar el estado de otro tipo de bosques, como masas artificiales de pinos, con ayuda de otro sensor espacial llamado ASTER.