Un estudio realizado con ratones confirma que la melatonina ayuda a prevenir la aparición del Parkinson

  • La investigación, desarrollada en el Centro de Investigación Biomédica de la Universidad de Granada, podría ser de gran importancia para el diseño de nuevos fármacos que ayuden a prevenir esta enfermedad

Científicos del CIBM de la Universidad de Granada han comprobado en un estudio realizado con ratones que el consumo de melatonina, una molécula natural sintetizada por prácticamente todos los seres vivos, puede ayudar a prevenir la aparición del Parkinson, ya que es un potente agente antioxidante y antiinflamatorio.

Su trabajo ha confirmado, además, que otras sustancias análogas a la melatonina, que actúan como antagonistas específicos de las isoformas nNOS e iNOS, también tienen un importante papel protector frente al daño oxidativo/inflamatorio y recuperación de la actividad del complejo I, cuya inhibición es un evento fisiopatológico fundamental en el desarrollo del Parkinson.

Estos datos pueden tener una consecuencia importante para el diseño de nuevos fármacos que ayuden a prevenir esta enfermedad, según los responsables del trabajo.

Todavía en la actualidad se desconoce la causa primaria de la degeneración dopaminérgica en la enfermedad de Parkinson y los tratamientos existentes son principalmente sintomáticos. Esta investigación realizada en la UGR ha tratado de explicar el papel del óxido nítrico (NO) en el estrés oxidativo, inflamación y disfunción mitocondrial en el origen de esta enfermedad en el modelo de ratón tratado con MPTP (un tóxico que reproduce la bioquímica y sintomatología de la enfermedad incluso en humanos)

Limitado conocimiento

Como apuntan los investigadores, el desarrollo de nuevos fármacos neuroprotectores “está frenado por nuestro limitado conocimiento de los mecanismos reales por los cuales mueren las neuronas dopaminérgicas”. De este modo, si el tratamiento con melatonina reduce de forma considerable la actividad de la iNOS/i-mtNOS (citosólica y mitocondrial), disminuyendo el daño oxidativo mitocondrial, “la búsqueda de compuestos sintéticos análogos a la melatonina puede proporcionarnos nuevas herramientas farmacológicas con selectividad mayor para inhibir la iNOS/i-mtNOS, y susceptibles de ser usadas en la clínica”.

En la enfermedad de Parkinson hay una reducción del 40% en la actividad del complejo I de la cadena de transporte electrónico en la sustancia negra de estos pacientes, con una pérdida de entre el 70-80% de las neuronas localizadas en este tejido antes de que aparezcan los primeros síntomas.

En los ratones tratados con MPTP para este estudio, la actividad del complejo I se reduce en un 65% en la sustancia negra, y el tratamiento con melatonina o sus análogos estructurales contrarrestan esta disminución, normalizando la función mitocondrial.

También se ha comprobado que el exceso de óxido nítrico en la sustancia negra, tras la administración del MPTP, se debe al aumento de la actividad iNOS e i-mtNOS en un 250%, mientras que la actividad constitutiva nNOS permanece prácticamente invariable. De esta manera, los ratones deficientes en iNOS y no los que carecen de nNOS, están protegidos frente a este incremento en la producción de óxido nítrico, de manera similar a cuando a los ratones normales se les administra melatonina o sus análogos estructurales.

Este trabajo ha sido elaborado por Ana López Ramírez, del CIBM de la Universidad de Granada, y parte de sus resultados han sido publicados en las revistas científicas Journal of Neuroscience Research y European Journal of Medicinal Chemistry.

En la fotografía adjunta, Ana López Ramírez, autora de esta investigación.

CONTACTO: Ana López Ramírez . Instituto de Biotecnología de la Universidad de Granada. Centro de Investigación Biomédica. Teléfono: 958 241000. Ext: 20196. Correo electrónico: alora@ugr.es


‘¿Qué hace un matemático en Cajamar?’, conferencia de Ramón Sáez Martínez

  • Organizado por el proyecto de innovación docente “Matemáticas y sociedad en la UGR”, tendrá lugar el miércoles, 23 de marzo, a las 12 horas, en el Salón de Grados de la Facultad de Ciencias

“¿Qué hace un matemático en Cajamar?” es el título de la conferencia que impartirá Ramón Sáez Martínez (Departamento de Metodología de Medición del Riesgo de Cajamar. Almería) en el Salón de Grados de la Facultad de Ciencias, el miércoles, 23 de marzo, a las 12 horas, organizada por el proyecto de innovación docente “Matemáticas y sociedad en la UGR”, que coordina el profesor del departamento de Geometría y Topología de la UGR Rafael López Camino.

Esta conferencia, dirigida especialmente a estudiantes de Matemáticas, trata sobre el área de banca y consultoría, que es una de la salidas profesionales con más proyección para los licenciados en Matemáticas y Estadística. El conferenciante ha tenido experiencias en ambos campos y mostrará en esta charla sus vivencias personales.

Ramón Sáez Martínez, de 32 años, es licenciado en Matemáticas por la Universidad de Almería en 2000. Programador en Coritel desde 2002 y técnico de Hispatec desde 2003 en el proyecto de Gestión Integral del Riesgo. Desde abril de 2005 se incorpora a Cajamar donde trabaja en la construcción y validación de modelos de riesgo de crédito.

Actividad

  • Conferencia: “¿Qué hace un matemático en Cajamar?”
  • A cargo de: Ramón Sáez Martínez
  • Lugar: Salón de Grados de la Facultad de Ciencias
  • Día: 23 de marzo de 2011
  • Hora: 12 horas
  • Organiza: Proyecto de innovación docente “Matemáticas y Sociedad en la UGR

Contacto: Rafael López Camino. Departamento de Geometría y Topología de la Universidad de Granada. Tfn: 958 243396. Correo electrónico: rcamino@ugr.es


‘La protección legal de los menores frente al acoso sexual en internet’, en el ciclo de conferencias sobre ‘La ley y los jóvenes’

  • A cargo de la profesora Inmaculada Ramos Tapia, profesora del Departamento de Derecho Penal de la Universidad de Granada, tendrá lugar el miércoles, 23 de marzo, a las 13.30 horas, en el Instituto de Educación Secundaria Generalife Granada

“La protección legal de los menores frente al acoso sexual en internet” es el asunto de que tratará la conferencia de la profesora del Departamento de Derecho Penal de la Universidad de Granada Inmaculada Ramos Tapia, el miércoles, 23 de marzo, a las 13.30 horas, en el Instituto de Educación Secundaria Generalife de Granada, dentro del ciclo de conferencias que sobre “La ley y los jóvenes” organiza los días 9, 15, 23 y 30 de marzo la Cátedra “Francisco Suárez” de la Universidad de Granada, que dirige el profesor Modesto Saavedra.

Actividad:

  • Conferencia: “La protección legal de los menores frente al acoso sexual en internet”
  • A cargo de: Inmaculada Ramos Tapia
  • Organiza: Cátedra “Francisco Suárez” de la UGR
  • Fecha: Miércoles, 23 de marzo de 2011
  • Hora: 13.30 horas
  • Lugar: Instituto de Educación Secundaria Generalife de Granada
  • Entrada: Libre

Contacto: Profesor Modesto Saavedra López. Director de la Cátedra Francisco Suárez. Universidad de Granada. Tfn: 958 243432. Correo electrónico: saavedra@ugr.es


Développement d’un halomètre permettant de réaliser un test d’évaluation des altérations dans la vision nocturne

Les chercheurs de Grenade ont non seulement développé mais aussi essayé cet instrument avec divers groupes d’observateurs, comme des personnes ayant été opérées de cataractes ou de chirurgie réfractive, des observateurs normaux et des patients présentant certaines pathologies oculaires. Le Bureau de Software libre de l’UGR a libéré ce programme qui peut donc être téléchargé gratuitement par internet.

Des scientifiques du Département d’Optique de l’Université de Grenade, membres du laboratoire de Sciences de la Vision et Applications, ont développé un programme permettant de réaliser un test visuel pour évaluer les altérations dans la vision nocturne, ainsi que l’instrument nécessaire pour l’appliquer, auquel on a donné le nom de « halomètre ».

Il s’agit d’un programme d’ordinateur dénommé software Halo v1.0, d’un ordinateur pour l’exécuter (dans lequel la propre souris du PC permet de cliquer les réponses), et d’une structure permettant fixer la position du menton et du front de l’observateur. Le software Halo v.1.0 a été initialement présenté comme un software « freeware » gratuit, disponible sur le site web du LabVisGra (http://www.ugr.es/local/labvisgr), et sur l’entrepôt institutionnel de l’UGR (http://digibug.ugr.es/handle/10481/5478), bien qu’il ait été récemment libéré par le Bureau de Software libre de l’UGR, devenant ainsi un software libre à caractère scientifique.

Ce programme a été développé par une équipe coordonnée par Mme Rosario González Anera, avec l’appui de l’entreprise grenadine Seven Solutions et la madrilène Clinique ophtalmologique Novovisión, et a également été intégré par les chercheurs José Juan Castro, Carolina Ortiz y Aixa Alarcón. Il bénéficie du financement du ministère autonome d’Économie, d’Innovation et de Science de la Junte andalouse.

Conditions d’illumination faible

Avant d’appliquer le test, les chercheurs fixent la position de l’observateur moyennant une structure s’appliquant au menton et au front de l’observateur à une distance adéquate du moniteur qui montrera l’examen en tenant compte de la dimension angulaire des stimuli lumineux. Le test se réalise dans des conditions d’illumination faible (chambre obscure) et le patient dispose d’un temps préalable pour s’adapter à l’obscurité.

 

Usager essayant le software Halo v.1.0

Cette épreuve consiste à montrer d’abord au patient un stimulus lumineux intense sur un fond obscur et, progressivement, à lui montrer des stimuli lumineux périphériques (d’une luminosité moindre) autour du central (figure 2), de façon aléatoire, dans différentes positions et à différentes distances du même. La tâche du patient consiste à appuyer sur le bouton d’une souris chaque fois qu’il détecte un stimulus périphérique. Une fois le test achevé, le software calcule un paramètre dénommé index d’altération visuelle (Visual Disturbance Index) qui, avec le graphique des résultats, détermine la forme et l’intensité de ladite altération visuelle.

Cet index possède des valeurs allant de 0 à 1, de sorte que plus l’index est élevé, et plus grande est l’influence du halo ou de quelque autre altération visuelle perçue par l’observateur, et par là même, moindre sa capacité de discrimination visuelle des stimuli périphériques autour du stimulus principal responsable desdites altérations.

Un des avantages du halomètre développé à l’UGR est qu’il permet de configurer divers paramètres de test, comme :

– Paramètres spatiaux : on peut varier aussi bien le rayon du stimulus central que celui du stimulus périphérique. De plus, il est possible de fixer le nombre de demi-axes sur lesquels se montreront les stimuli périphériques et le rayon maximal (distance maximale à laquelle se présenteront ces stimuli) ainsi que le nombre de stimuli par demi-axe.

– Paramètres temporaires : le software permet de fixer un temps d’adaptation à l’obscurité, un temps d’adaptation à l’illumination du stimulus central, temps d’exposition au stimulus et laps de temps entre la disparition d’un stimulus et l’apparition du suivant.

– Configuration de la couleur du stimulus central et du stimulus périphérique, ce qui permet aussi de connaître la luminance des mêmes.

– Poids ou nombre d’apparitions de chaque stimulus périphérique.

Ce test a été éprouvé avec divers groupes d’observateurs, comme des personnes ayant été opérées de cataractes ou de chirurgie réfractive, des observateurs normaux et des patients présentant certaines pathologies oculaires, comme DMAE (Dégénération maculaire associée à l’âge) et kératite unilatérale. Les résultats montrent qu’en ce qui concerne les patients avec kératite, l’index d’altération visuelle est moindre dans l’œil sain que dans le malade, et encore plus bas dans des conditions de vision binoculaire. Cependant, les valeurs de l’index d’altération de halos sont plus élevées dans le cas de patients opérés de cataractes, ce qui indique une plus forte influence des halos et, de la sorte, une capacité de discrimination moindre. Les sujets opérés de chirurgie réfractive LASIK ont également montré un taux d’altération élevé par rapport au groupe d’observateurs normaux.

Les résultats obtenus avec ce halomètre et avec le software ont été présentés dans divers congrès, nationaux (IX Réunion nationale d’Optique, Orense) et internationaux (Wavefront Congress, 2009). De plus, a été publié un article de recherche dans la revue internationale « Applied Optics » présentant des résultats de patients soumis à chirurgie réfractive, et fera prochainement l’objet d’une autre publication un article dans la revue scientifique au facteur d’impact élevé « Journal of Biomedical Optics », dans lequel se présentent des résultats de patients présentant certaines pathologies oculaires.

Contact : José Juan Castro. Département d’Optique de l’Université de Grenade; courriel: jjcastro@ugr.es; tél. : +34 958 241902


Researchers develop a halometer that tests alterations in night vision

Researchers at the University of Granada have developed this tool and proved it with a number of groups consisting on people operated on cataract or submitted to refractive eye surgery, as well as on normal observers and patients with different eye pathologies. The Free-Software Bureau of the University of Granada launched this programme, that can be downloaded from the Internet.

Researchers from the Department of Optics of the University of Granada, belonging to the Laboratorio de Ciencias de la Visión y Aplicaciones, have developed a programme for testing alterations in night vision, and the tool required to implement it, which has been named “halometer”.

This instrument consists on a software named Software Halo v1.0, and a computer where the mouse is used as a response button, and a chin cup with a forehead holder to fix the observer’s position. Software Halo v1.0 was initially presented as freeware available on LabVisGra’s website at http://www.ugr.es/local/labvisgr and at the University of Granada’s institutional repository at http://digibug.ugr.es/handle/10481/5478. Nevertheless, it was recently released by the Free-Software Bureau of the University of Granada so, it has become a scientific freeware application.

This software was developed by a group coordinated by Rosario González Anera, receiving technical support of the Granadian company Seven Solutions and of an ophthalmological clinic set in Madrid and named Novovision. The research group was integrated by researchers José Juan Castro, Carolina Ortiz and Aixa Alarcón, and receives fundings from the regional government of Economy, Innovation and Science of the Junta de Andalucía.

Low-Light Conditions

Before the test, researchers fix the observer’s position with a chin cup and a forehead holder at an adequate distance from the monitor where the test will be displayed and considering the angular diameter that light stimuli must have. The test is performed under low-light conditions (in a dark room) and, before the test, patients are given some minutes to adapt to darkness.

An user trying the software Halo v1.0

This test involves showing a bright light stimulus to the subject against a dark background and, progessively showing different peripheral light stimuli –with lower brightness around the central (Figure 2), at random, in different positions and at different distances. Subjects’ task is to press the buttom of a mouse every time they detect a peripheral stimulus. Once the test ends, the software makes an estimation of a parameter named “Visual Disturbance Index” that, together with the results graphic, determines the type and intensity of visual disturbance.

This index scores from 0 to 1, so the higher is this index, the stronger is the influence of the halo or any other visual disturbance perceived by the observer. Therefore, the lower is the subject’s ability to detect the peripheral stimuli displayed around the main stimulus that causes such disturbances.

One of the advantages of the halometer developed at the University of Granada is that it allows to configure such test parameters as:

– Special parameters: the radius of the central stimulus and the peripheral stimuli can be modified. Furthermore, the number of semi-major axes where the peripheral stimuli will be displayed can be fixed, as well as the  maximum radius –maximum distance between these stimuli-, and the number of stimuli per semi-major axe.

– Temporary Parameters: the software allows to set some exposure time for adaptation to darkness and to the brightness of the central stimulus. Furthermore, others parameters as the exposure time to the stimulus and the time elapsed between a stimulus and the next one can also be set.

– The software also allows to set the color and brightness of central and peripheral stimuli, and the weight and number of times each peripheral stimulus is shown.

This test has been tried with different observer groups consisting of people operated on cataract or submitted to refractary eye surgery, with normal observers and patients with different eye pathologies as AMD (Age-related Macular Degeneration) and unilateral keratitis. The results obtained showed that, in the case of patients with keratitis, the visual disturbance index for the healthy eye was found to be lower than that for the unhealthy eye, and even lower under binocular vision conditions. However, visual disturbance indexes proved to be higher in the case of patients operated on cataracts, showing a higher influence of halos and, therefore, lower detection capacity. Patients operated with LASIK refractory eye surgery also presented high vision disturbance indexes in comparison to normal observers.

The results obtained with this halometer and the new software have been presented in different national and internacional conferences as the IX Reunión Nacional de Óptica, Galice and the Wavefront Confress 2009. furthermore, a research article has been published in the international journal Applied Optics describing the results obtained with patients operated with refractory eye surgery. It has also  been recently admitted for publication in the prestigious scientific journal Journal of Biomedical Optics, where the results obtained with patients with different eye pathologies are described.

Contact: José Juan Castro. Department of Optics of the University of Granada. E-mail address: jjcastro@ugr.es. Phone number: +34 958241902.


Desarrollan un ‘halómetro’ que permite realizar un test para evaluar alteraciones de la visión nocturna

Además de desarrollarlo, los científicos de la Universidad de Granada han probado este instrumento con diversos grupos de observadores, como personas que han sido operadas de cataratas o de cirugía refractiva, observadores normales y pacientes con ciertas patologías oculares

La Oficina de Software Libre de la UGR ha liberado este programa, que puede descargarse gratuitamente desde Internet

Científicos del departamento de Óptica de la Universidad de Granada, pertenecientes al laboratorio de Ciencias de la Visión y Aplicaciones, han desarrollado un programa que permite realizar un test visual para evaluar alteraciones de la visión nocturna, así como el instrumento necesario para aplicarlo, al que han dado el nombre de “halómetro”.

Se trata de un programa de ordenador denominado Software Halo v1.0, un ordenador con el que ejecutarlo (en el que el propio ratón del PC actúa como pulsador de respuestas), y una mentonera con apoyafrentes para fijar la posición del observador. El software Halo v1.0 inicialmente se presentó como un software “freeware” gratuito, disponible en la página web del LabVisGra (http://www.ugr.es/local/labvisgr) y en el repositorio institucional de la UGR (http://digibug.ugr.es/handle/10481/5478), aunque ha sido liberado recientemente por la Oficina de Software Libre de la Universidad de Granada, convirtiéndose con ello en un software libre de carácter científico.

Este programa ha sido desarrollado por un equipo coordinado por Rosario González Anera, con apoyo de la empresa granadina Seven Solutions y la madrileña clínica oftalmológica Novovisión e integrado también por los investigadores José Juan Castro, Carolina Ortiz y Aixa Alarcón, y cuenta con la financiación de la consejería de Economía, Innovación y Ciencia de la Junta de Andalucía.

Condiciones de baja iluminación

Antes de aplicar el test, los investigadores fijan la posición del observador mediante una mentonera y un apoyafrentes, a una distancia adecuada del monitor que mostrará el examen teniendo en cuenta el tamaño angular que deben tener los estímulos luminosos. El test se realiza en condiciones de baja iluminación (habitación oscura) y, previo a su inicio, el sujeto tiene un tiempo de adaptación a la oscuridad.


Usuaria probando el software Halo v1.0

Esta prueba consiste en mostrar al sujeto un estímulo luminoso intenso sobre un fondo oscuro y, progresivamente, se le van mostrando estímulos luminosos periféricos (con menor luminancia) en torno al central (figura 2), de forma aleatoria, y en diferentes posiciones y distancias al mismo. La tarea del sujeto consiste en presionar el botón de un ratón cada vez que detecta un estímulo periférico. Una vez finalizado el test, el software calcula un parámetro, denominado índice de alteración visual (Visual Disturbance Index) que, junto con el gráfico de resultados, determina la forma e intensidad de la alteración visual.

Este índice toma valores de 0 a 1, de forma que cuanto mayor es dicho índice, mayor es la influencia del halo o cualquier otra alteración visual percibida por el observador y, por tanto, menor su capacidad de discriminación visual de los estímulos periféricos en torno al estímulo principal que produce dichas alteraciones.

Una de las ventajas del halómetro desarrollado en la UGR es que permite configurar diversos parámetros del test, como son:

  • Parámetros espaciales: se puede variar tanto el radio del estímulo central como el radio del estímulo periférico. Además, podemos fijar el número de semiejes en los que se mostrarán los estímulos periféricos y el radio máximo (distancia máxima a la que se presentarán dichos estímulos) así como el número de estímulos por semieje.
  • Parámetros temporales: el software permite fijar un tiempo de adaptación a la oscuridad, un tiempo de adaptación a la luminancia del estímulo central, tiempo de exposición al estímulo y tiempo transcurrido desde que desaparece un estímulo hasta que aparece el siguiente.
  • Configuración del color tanto del estímulo central como del estímulo periférico, con lo que además podremos variar la luminancia de los mismos.
  • Peso o número de veces que se muestra cada estímulo periférico.

Este test se ha chequeado con diversos grupos de observadores, como personas que han sido operadas de cataratas o de cirugía refractiva, observadores normales y pacientes con ciertas patologías oculares, como DMAE (Degeneración Macular Asociada a la Edad) y queratitis unilateral. Los resultados muestran que, para el caso de los sujetos con queratitis, el índice de alteración visual para el ojo sano es menor que en ojo enfermo, y menor aún en condiciones de visión binocular. Sin embargo, los valores del índice de alteración fueron mayores en el caso de los sujetos operados de cataratas, indicando una mayor influencia de halos y, por tanto, una menor capacidad de discriminación. Los sujetos operados de cirugía refractiva LASIK también mostraron un alto índice de alteración con respecto a un grupo de observadores normales.

Resultados con este halómetro y con el software, han sido presentados en diversos congresos, nacionales (IX Reunión Nacional de Óptica. Orense) e internacionales (Wavefront Congress 2009). Además, se ha publicado un artículo de investigación en la revista internacional “Applied Optics” con resultados de sujetos sometidos a cirugía refractiva y recientemente se ha aceptado para publicación otro artículo en la revista científica de alto impacto “Journal of Biomedical Optics”, en la que se presentaban resultados de personas con ciertas patologías oculares.

Contacto: José Juan Castro. Departamento de Óptica de la Universidad de Granada. Correo electrónico: jjcastro@ugr.es. Teléfono: 958241902.


Diseñan compuestos saludables a partir de la leche de cabra

Investigadores de la Universidad de Granada trabajan en el proyecto de excelencia Obtención de péptidos y oligosacáridos bioactivos a partir de leche de cabra mediante hidrólisis enzimática y tecnologí­a de membranas que ha sido dotado con casi 250.000 euros por la Consejerí­a de Economí­a, Innovación y Ciencia.

El objetivo es el desarrollo de procesos de ingenierí­a orientados a la producción y purificación de ingredientes funcionales (biopéptidos y oligosacáridos) mediante tecnologí­as exportables a escala industrial. «Todas la leches tienen dos proteí­nas: la caseí­na, insoluble, y que se usa para la realización de quesos; y la proteí­na soluble o de lactosuero, que es de gran calidad y que podrí­a aprovecharse para la obtención de estas sustancias funcionales», asegura la investigadora principal del proyecto, Emilia Guadix.

La tendencia actual de la industria alimentaria, en términos de valor añadido, viene marcada por el desarrollo de alimentos funcionales con propiedades beneficiosas para las funciones metabólicas del organismo. Estudios cientí­ficos recientes han probado que la leche de cabra es una fuente valiosa de compuestos candidatos a ser empleados como ingredientes funcionales. Entre ellos se han descrito péptidos que modulan la tensión arterial «mediante inhibición de la enzima conversora de angiotensina (ACE) y que se originan por la hidrólisis enzimática de caseí­nas y proteí­nas séricas caprinas».

Asimismo, se han identificado en la fracción glucí­dica de la leche de cabra oligosacáridos como 6-, 3-sialil-lactosa y galactosil-lactosa, los cuales desempeñan un importante papel en la prevención de infecciones y el desarrollo cerebral del lactante. «La leche de cabra tiene fracción de azúcares y oligosacáridos similar a la leche humana», subraya.

Descargar


Gobierno invierte más de tres millones en instalaciones deportivas en Melilla

El Gobierno de España, a través del Consejo Superior de Deportes (CSD), y la Ciudad Autónoma de Melilla invertirán más de tres millones de euros en la construcción de tres instalaciones deportivas en tres institutos de Secundaria de Melilla.

El delegado del Gobierno en Melilla, Gregorio Escobar, ha asistido hoy a la presentación de estos proyectos, que estarán cofinanciados entre el CSD y la Ciudad Autónoma en un 60 y 40 por ciento, respectivamente, gracias a la firma de un convenio de colaboración entre ambas entidades.

A estas actuaciones se suma la construcción de un polideportivo en el Campus de la Universidad de Granada en la ciudad autónoma, que está excluido de este convenio de colaboración, de modo que será financiado íntegramente por el Estado.

El arquitecto del CSD, Jesús del Barrio, ha presentado los cuatro proyectos que serán ejecutados en el IES Rusadir, el IES Miguel Fernández, el IES Juan Antonio Fernández Pérez y el Campus Universitario, y que serán de doble uso, por lo que podrán beneficiarse tanto los alumnos como los vecinos de la zona en la que se ubican los centros.

Sobre el proyecto del IES Miguel Fernández, Del Barrio ha informado de que se construirá un pabellón polideportivo con vestuarios gracias a una modificación puntual del PGOU, que supondrá una inversión de 1.268.000 euros y un plazo de ejecución de 13 meses.

En cuanto al IES Juan Antonio Fernández y el IES Rusadir, el arquitecto ha explicado que los proyectos consisten en cubrir sus pistas polideportivas para proteger a los usuarios del sol y la lluvia y facilitar una iluminación artificial.

El proyecto del IES Juan Antonio Fernández tiene un presupuesto de 459.703 euros y el del IES Rusadir de 267.017 euros, y ambos tienen un periodo de ejecución de 3 ó 4 meses, de modo que podrían estar finalizados para el inicio del próximo curso.

Con respecto al polideportivo del Campus Universitario, el subdirector general de Infraestructuras del CSD, Alfonso Luengo, ha explicado que tendrá la particularidad de que servirá para realizar labores de investigación, al incluir un laboratorio de Biomecánica y otro de Fisiología.

Este polideportivo supondrá una inversión estatal íntegra de 1.268.000 euros.

Estos cuatro proyectos han sido redactados por arquitectos de Melilla gracias a la colaboración prestada por el Colegio de Arquitectos de la ciudad, y serán construidos por la empresa Tracsa.

Descargar


Diseñan compuestos saludables a partir de la leche de cabra

Investigadores de la Universidad de Granada trabajan en el proyecto de excelencia Obtención de péptidos y oligosacáridos bioactivos a partir de leche de cabra mediante hidrólisis enzimática y tecnología de membranas que ha sido dotado con casi 250.000 euros por la Consejería de Economía, Innovación y Ciencia.

El objetivo es el desarrollo de procesos de ingeniería orientados a la producción y purificación de ingredientes funcionales (biopéptidos y oligosacáridos) mediante tecnologías exportables a escala industrial. «Todas la leches tienen dos proteínas: la caseína, insoluble, y que se usa para la realización de quesos; y la proteína soluble o de lactosuero, que es de gran calidad y que podría aprovecharse para la obtención de estas sustancias funcionales», asegura la investigadora principal del proyecto, Emilia Guadix.

La tendencia actual de la industria alimentaria, en términos de valor añadido, viene marcada por el desarrollo de alimentos funcionales con propiedades beneficiosas para las funciones metabólicas del organismo. Estudios científicos recientes han probado que la leche de cabra es una fuente valiosa de compuestos candidatos a ser empleados como ingredientes funcionales. Entre ellos se han descrito péptidos que modulan la tensión arterial «mediante inhibición de la enzima conversora de angiotensina (ACE) y que se originan por la hidrólisis enzimática de caseínas y proteínas séricas caprinas».

Asimismo, se han identificado en la fracción glucídica de la leche de cabra oligosacáridos como 6-, 3-sialil-lactosa y galactosil-lactosa, los cuales desempeñan un importante papel en la prevención de infecciones y el desarrollo cerebral del lactante. «La leche de cabra tiene fracción de azúcares y oligosacáridos similar a la leche humana», subraya.

Descargar


¿Apocalipsis ya?

En el último año se han producido algunas de las peores catástrofes naturales de la historia. ¿Qué está pasando en el mundo?

Desde que la humanidad tiene memoria, este planeta, casi siempre amigo, parece haberse convertido en un enemigo. Pero nunca como el viernes de la semana pasada la humanidad había visto en vivo y en directo las fuerzas de la naturaleza en plena acción. Tras el terremoto de Japón que convirtió al mar Pacífico en una marea negra y apocalíptica, el mundo quedó estupefacto al ver hasta dónde podía llegar la furia de la Tierra. Muchos no pudieron evitar asociar esas imágenes con las profecías que sostienen que el mundo se acabará el año próximo.

Pero la tragedia de Japón es solo el último capítulo de los desastres naturales que, desde comienzos de 2010, han sido una noticia permanente. De hecho, el Servicio Geológico de Estados Unidos (Usgs, por sus siglas en inglés) informó que en 2010 ocurrieron veinte megaterremotos (por encima de 8 grados), cuatro más de lo usual, los más poderosos desde 1970. El año comenzó con el de Haití, de 7,3 grados, que devastó la isla el 12 de enero y mató a 300.000 personas. Puerto Príncipe, la capital, quedó destruida.

Después el turno le llegó a Chile. El 27 de febrero, un terremoto de 8,8 grados lo sacudió y provocó un tsunami con olas de más de ocho metros a lo largo de 500 kilómetros de costa. El sismo clasificó entre los cinco más fuertes de la historia reciente -el de Japón lo desplazó al sexto lugar-. Murieron más de 600 personas, quedaron más de dos millones de damnificados y cerca de 500.000 viviendas se desplomaron. El terremoto alcanzó a mover el eje de la Tierra 7,6 centímetros y acortó el día 1,26 millonésimas de segundo.

Por si esto fuera poco, la naturaleza volvió a hacerse sentir en Pakistán, que en 2010 sufrió una de las inundaciones más devastadoras de su historia. Las lluvias, que cubrieron 30 por ciento del territorio, dejaron al menos 2.000 muertos, 3.000 heridos, casi dos millones de casas destruidas y más de seis millones de desplazados. Y mientras allá llovía, Rusia sufría uno de los peores incendios forestales de los últimos 130 años.

Colombia tampoco se escapó de los desastres naturales. El país vivió, a finales del año pasado y a principios de este, una crisis humanitaria por el invierno más violento que se recuerde. Solo en noviembre cayó 500 veces más lluvia que en el mismo mes en años anteriores. La Presidencia calcula que más de 300 personas murieron y dos millones y medio resultaron afectadas, sobre todo en el norte del país.

Y 2011 comenzó con el sismo de 6,3 grados en la escala de Richter ocurrido el 22 de febrero en Nueva Zelanda. Este terremoto se convirtió en el peor desastre de esa nación en ochenta años. El poderoso movimiento telúrico hizo que se desprendiera un pedazo de hielo de treinta millones de toneladas, una especie de isla a la deriva abandonada a su suerte, como si fuera una señal bíblica.

¿El principio del fin?

Con ese panorama resulta casi natural que se haya extendido por el planeta la sensación de que las profecías milenarias se están cumpliendo y el fin del mundo se acerca. Más si se tiene en cuenta que, como dijo a SEMANA Rolf-Ulrich Kunze, filósofo del Instituto de Tecnología de Karlsruhe, el pensamiento apocalíptico basado en el imaginario cristiano ha influido en la historia de Occidente al punto de convertirse en un fenómeno generalmente aceptado. Si a esto se suman otros problemas como el calentamiento global -un tema sobre el cual Al Gore habló crudamente la semana pasada en Bogotá-, las crisis políticas en los países árabes, el riesgo nuclear, los escándalos de corrupción, todo apunta a que el mundo vive una de sus horas más difíciles. A través de las redes sociales y los correos electrónicos, la gente ha reforzado esta idea. Se han enviado mensajes que mezclan datos científicos con creencias religiosas. Algunos han escuchado tanta veces en la radio este mensaje que lo dan por hecho. Más de cien libros han sido escritos desde que comenzó el furor de las profecías mayas, vistas desde una perspectiva apocalíptica. «Me preocupan los niños que no quieren aprender ni estudiar matemáticas porque creen que no tiene sentido si el mundo se va a terminar en 2012», dice Germán Puerta, astrónomo del Planetario Distrital y autor de un libro sobre el tema.

En este contexto, la gente tiende a pensar que los desastres, las inundaciones, los terremotos y los tsunamis están relacionados. ¿Qué tanto hay de cierto?

Tiembla la Tierra

Desde una perspectiva científica, hay que separar el calentamiento global, que ha ocasionado patrones climáticos extremos, de los terremotos, provocados por las placas tectónicas. El calentamiento se debe al aumento de la temperatura del planeta, que se acentuó en los últimos treinta años y es la principal causa del comportamiento inusual del clima: más lluvias, inviernos más fríos, más sequías y veranos intolerables.

Algunos científicos han vinculado los terremotos y el calentamiento con la presión del agua sobre la corteza terrestre. Solo para tener una idea, un metro cúbico de agua pesa una tonelada. Así las cosas, un kilómetro de hielo que se desprende del Polo Norte inevitablemente va a afectar la presión y la energía de la capa de roca del fondo. Para algunos geólogos, el terremoto de Alaska en 1979, de magnitud 7,9, fue relacionado con el descongelamiento de la zona suroccidental de esa región. Otros científicos han encontrado que el fenómeno del Niño, que hace aumentar el nivel del mar en el Pacífico, estaría generando una presión adicional en las fallas submarinas. Si el tema del calentamiento global sigue sin corregirse, dicen algunos especialistas, hay que esperar un planeta más movido. Pero esta, por ahora, es apenas una teoría científica que está lejos de ser probada.

Aunque existe la percepción de que hoy hay más terremotos, lo cierto es que son inherentes al planeta debido a que su corteza está hecha de placas que chocan entre sí. Y aunque se trata de piezas relativamente elásticas, cuando se libera la presión que se acumula en sus bordes se produce un movimiento catastrófico. Por eso hay sectores donde tiembla más que en otros. Por ejemplo, en el Cinturón de Fuego del Pacífico, que va desde Asia hasta la costa de América, se concentra una de las mayores zonas de subducción del mundo. Según explica Mónica Arcila, geóloga de la Red Sismológica Nacional de Colombia, la subducción sucede cuando dos placas se juntan y, por diferencias de densidad, una de ellas se hunde bajo la otra. «Esas zonas de contacto tienen capacidad de producir los sismos más fuertes», señala. Japón está justo en esa zona y en esta isla sucede el 20 por ciento de los grandes sismos en el mundo. En 1923, por ejemplo, un terremoto destruyó Tokio y Yokohama y mató a más de 200.000 personas, muchas más de las que se pronostica murieron en el tsunami de la semana pasada.

En la Tierra tiembla constantemente. Lo que pasa es que solo hasta hace un poco más de cien años se han empezado a medir los sismos, y como consecuencia de este registro se aprecia una actividad mucho más agitada que la de antes. Lo que no significa que en el pasado no se presentaran terremotos de grandes magnitudes. De hecho, el geólogo Carlos Vargas estudió uno ocurrido en Tumaco hace 4.000 años, que produjo un enorme maremoto.

Según la Usgs, al año se detectan entre 12.000 y 14.000 temblores, alrededor de cincuenta diarios. La cuestión es que de los diez megaterremotos ocurridos desde 1900, tres se han presentado en los últimos seis años. Algunos científicos creen que se trata de una muestra estadística muy corta para determinar un aumento real. Otros explican que este incremento se debe a que se miden mejor. En 1931 había apenas 350 monitores en el mundo y hoy existen 4.000, según la Usgs. Otra explicación es que hay periodos en que se acumula más energía en las fallas y esto genera varios desastres en un corto plazo. Y cuando estos suceden en zonas pobladas «causan pánico, pero hacen parte de un proceso normal», dice Martha Calvache, subdirectora de Ingeominas. Según el sismólogo Francisco Vidal, del Instituto Andaluz de Geofísica de la Universidad de Granada, si bien las estadísticas dicen que cada año hay un gran terremoto, lo cierto es que «también pueden pasar cinco años sin ninguno y luego ocurren cuatro o cinco seguidos en distintas partes del mundo».

A pesar de lo anterior, no se descarta que exista una relación entre un terremoto y otro. Después de todo, la corteza de la Tierra es como un rompecabezas y cuando se mueve una pieza en una región, es posible que genere un sacudón en otra. De hecho, hay teorías que apuntan a que el terremoto de Japón y otros de magnitud mayor a 8 ocurridos en los últimos seis años podrían ser una réplica del que sucedió en Sumatra en 2004, que causó el tsumani en Indonesia y mató a 230.000 personas en 14 países. Ross Stein, del Usgs, coincide con esto y afirma que los terremotos generan olas tectónicas. «Si hay uno superior a 6 grados, cada granito de arena del planeta se está moviendo al ritmo de ese evento», relató a la revista New Scientist. Otros científicos van más allá y afirman que los terremotos suceden en duplas. Un ejemplo sería el de las islas Kuril, al norte de Japón, ocurrido en noviembre de 2006, con una intensidad de 8,3. Dos meses después, las islas sintieron un segundo movimiento, de 8,1.

Tragedias en vivo y en directo

Hoy existe la percepción de que los desastres son más fuertes y devastadores. Esta idea se explica por dos circunstancias. La primera es que los medios de comunicación, gracias a tecnologías satelitales y a la rapidez del flujo de información, han contribuido a que el mundo sea testigo casi presencial de lo que pasa en cualquier punto. En el pasado, las catástrofes eran hechos locales, sin transmisiones en vivo y en directo.

Así mismo, las imágenes tiene un gran poder y con ellas se tiende a magnificar el evento. «La gente no recuerda con la misma fuerza los atentados de Madrid y Londres, pero nunca olvidará las escenas de los aviones chocando en Nueva York», dice Omar Rincón, especialista en medios. A esto se suman Internet, las redes sociales y los reporteros ciudadanos, que graban imágenes que los medios utilizan para informar «sin dar contexto ni análisis», agrega Rincón. Como explicó a SEMANA Olga Restrepo, socióloga de la Universidad Nacional, la proliferación de los medios masivos «contribuye a que la gente crea que pasan muchas cosas al mismo tiempo y que todas se relacionan».

Por otro lado, la visión de que los desastres naturales hoy son más violentos tiene que ver con el aumento de las zonas urbanizadas, lo que, por otra parte, muestra la enorme desigualdad que existe en el mundo. Que el desastre de 1923 en Japón, cuando la densidad de población era mucho menor, haya causado tantas muertes habla no solo de la intensidad del hecho, sino de que existían menos sistemas de prevención. «La frecuencia de catástrofes naturales no ha variado, pero si uno mira los registros de los últimos cien años, se llega a la conclusión de que en los países desarrollados cada vez hay menos víctimas», dijo a SEMANA Martin Voss, del Instituto de Investigación de Catástrofes de la Universidad Christian Albrecht, en Alemania. Pero lo contrario sucede en zonas más vulnerables o que han tomado menos precauciones, como Haití. Para Voss, esto es algo preocupante e indica que todavía hay que mejorar las medidas de protección en el mundo entero.

Anatomía del miedo

Los expertos creen además que la tendencia a tener pensamientos apocalípticos ha aumentado debido a que las calamidades de hoy son más complejas. «Esto quiere decir que ya no solo hay catástrofes naturales, sino también tecnológicas», dice Voss. Lo que ocurrió en Japón con la ola descomunal es que además inhabilitó varias plantas de energía nuclear, que hoy amenazan a los sobrevivientes. «Con el avance de la tecnología, aumenta la creencia de que el potencial autodestructivo del ser humano crece», señala. Según el psiquiatra José Posada, algunas personas reflejan sus problemas personales de depresión, baja autoestima y enfermedades mentales en estos sucesos. Adicionalmente, las ideas fatalistas toman fuerza en un contexto abonado por situaciones reales, como las dificultades sociales y políticas. «En medio de esta histeria colectiva, el pánico se transmite fácilmente», señala Posada. Pero el discurso del miedo también ha hecho carrera y, según Omar Rincón, hoy se usa como arma política y de control.

Lo cierto es que el ser humano siempre ha estado obsesionado con el final. «Para los cristianos es natural que el mundo algún día tendrá un fin», dice Kunze. En diferente épocas se han manifestado más que en otras, como sucedió en la Edad Media y más recientemente con el cambio de milenio. Con la pérdida de la religiosidad consecuencia de la era industrial, se perdió el concepto de redención tras el juicio final. «El temor hoy es doble, porque no solo se acaba el mundo, sino que después no hay nada más», agrega el experto alemán.

El psicólogo Jesse Bering, autor del libro The Belief Instinct, hizo un experimento con niños para saber por qué los humanos asocian los desastres naturales con visiones milenaristas. La primera sorpresa fue encontrar que para hacer este tipo de asociaciones se necesita un cerebro maduro. Pero curiosamente también halló que esta capacidad no es innata, sino que se adquiere durante la socialización del individuo, lo que supone que es un evento aprendido y cultural.

Para el ambientalista Gustavo Wilches Chaux, la gente confunde conceptos. «Un fenómeno natural no puede ser catalogado como desastre. El desastre es la consecuencia de vivir en una zona de riesgo», dice. En ese sentido, en lugar de culpar a Dios y a la naturaleza, hay que entender que ha sido el hombre quien ha creado las condiciones para verse afectado. Por eso, más que pronosticar el fin del mundo, lo que se debería hacer es buscar soluciones para reducir la vulnerabilidad, crear fuentes de energía que no generen tanto riesgo y vivir en armonía con la naturaleza. En ese sentido, la tragedia de Japón representa, según Kunze, una catástrofe total, porque no solo se trata de un desastre natural, sino tecnológico. «Por eso es apenas comprensible que los apocalípticos hayan vuelto a salir a las calles a pregonar el fin del mundo». Y como dice Yuri Gómez, sociólogo y experto en Ciencia de la Universidad Nacional, ante la pregunta de si el mundo se va a acabar: «En principio sí, lo que no está claro es cuándo».

Descargar


Diseñan un detector portátil de riesgos laborales

La Universidad de Granada ha desarrollado un aparato electrónico que permite detectar los riesgos o situaciones peligrosas que se dan en el lugar de trabajo. A través del él es posible detectar parámetros como la concentración de oxígeno, los niveles de dióxido de carbono, la temperatura y la humedad, el nivel acústico y luminoso y la distancia con objetos adyacentes.

Estos datos se recogen a través de unos sensores que tiene el dispositivo y, en caso de peligro, el aparato emite una alarma sonora y muestra la información en su pantalla LCD, avisando así al trabajador sobre los riesgos a los que está expuesto en tiempo real. La información también se manda a una centralita, de forma que la organización o empresa pueda tener asimismo los datos.

El dispositivo cuenta con dos partes; una la lleva el trabajador en la cintura durante la jornada laboral y otra está conectada a un ordenador a través de un USB. Así pues, desde la centralita también se puede conocer el estado del operario.

El dispositivo ha sido desarrollado por el grupo de investigación ECsens de la Universidad de Granada, el Centro Tecnológico del Mármol y la Piedra y la empresa DICOP. Gracias al convenio firmado entre todas las entidades,  se pretende mejorar la calidad laboral de los empleados e incrementar la seguridad en las empresas.

El proyecto fue una iniciativa del Centro Tecnológico del Mármol y cuenta con una subvención procedente de la Dirección General de Universidades y Política Científica de la Región de Murcia. La idea surgió a partir la observación de los riesgos que todavía corren los trabajadores a pesar de la formación realizada en materia de seguridad, la instalación de paneles indicativos y de los equipos protectores individuales.

Descargar


El Gobierno central confía en alcanzar un consenso mediante el diálogo y dar respuesta a las reivindicaciones de la Junta de Andalucía respecto a la gestión de la cuenca del río Guadalquivir

La Ministra de Medio Ambiente, Medio Rural y Marino, Rosa Aguilar asegura que, en el Gobierno central, son conscientes de la importancia que tiene el Guadalquivir para la vertebración territorial, social y económica de Andalucía.

Por eso, ratifica su compromiso de trabajar en una comisión bilateral para tratar de encontrar una solución, teniendo en cuenta los artículos estatutarios que se han reconocido constitucionales. Desde la Junta de Extremadura, su presidente Guillermo Fernández Vara, propone una gestión compartida de la cuenca del Guadalquivir entre el Estado y las Comunidades Autónomas por donde discurre la cuenca. Un gesto que ha agradecido el presidente andaluz, quien resalta el tono conciliador de su homólogo extremeño.

Mientras, se suceden los análisis del fallo judicial en el que se dice que el Estatuto fija un criterio fragmentador de la gestión de la cuenca, vulnerando así la Carta Magna. La Unión de Consumidores de Andalucía muestra su decepción por esta resolución. Su presidente, Juan Moreno, cree que el traspaso de competencias realizado ya no tiene marcha atrás.

El profesor de Ciencias Políticas de la Universidad de Granada, Rafael Vázquez, en declaraciones a la Onda Local de Andalucía, se ha mostrado confiado porque no haya nuevos recortes en el texto autonómico y minimiza la repercusión de la sentencia al referirse solo a un artículo. A su juicio, se ha ratificado la constitucionalidad del Estatuto.

De cara al futuro, el politólogo Rafael Vázquez cree compatible que la titularidad de las aguas del Guadalquivir esté en manos del Estado, y que su gestión efectiva se mantenga en manos de la Junta de Andalucía. Una alternativa que, según explica, está amparada por el artículo ciento 52 de la Constitución, con la que se daría prioridad a la importancia de una buena gestión.

De momento, existe unidad de acción entre el Gobierno regional y los partidos políticos que tienen representación en el Parlamento andaluz. Todos ellos mantienen su compromiso de trabajar para que las competencias de la cuenca las mantenga la administración autonómica.

Descargar