Categorías
Área - Ciencias Sociales y Jurídicas Comunicación Reportajes

El absentismo por baja laboral supone un sobrecargo de 3000 millones para las arcas públicas

El absentismo por baja laboral supone un sobrecargo de 3000 millones para las arcas públicas

Economistas de la Universidad de Valladolid desarrollan una metodología para estimar cuándo se alarga el permiso más allá de la recuperación fisiológica en un accidente en el trabajo

En una baja laboral por accidente, puede ocurrir que quien la padezca no se incorpore inmediatamente a su puesto de trabajo y alargue más de lo estrictamente necesario este periodo de recuperación. Esta acción tiene un coste que repercute, al final, en la economía del Estado, dado que en España esta cobertura se realiza a cargo de la Seguridad Social. Economistas de la Universidad de Valladolid en el campus María Zambrano de Segovia han desarrollado una metodología que estima tanto el coste de este tipo de absentismo como el momento en el que se produce tal comportamiento oportunista. El equipo investigador calcula que de los 26 días de media, los once y medio finales corresponderían a una prórroga innecesaria y atribuye un sobrecoste de unos 3000 millones de euros para las arcas públicas entre 2005 y 2013 por la asunción de este riesgo moral.

Un riesgo moral es aquel que una parte asume a su favor cuando tiene más información que la otra en un contrato. Un ejemplo es el del contratante de un seguro sanitario. Generalmente, la persona asegurada tiene más información que su compañía respecto a su propio estado de salud, por lo que está en ventaja a la hora de negociar las condiciones. El equipo de investigación del Departamento de Análisis Económico de la Universidad de Valladolid aplicó este concepto para estudiar las bajas por accidente laboral en España. “Podemos dividir este periodo de recuperación en dos partes, el relativo a la recuperación de la lesión en sí, y el del riesgo moral que puede asumir el afectado para prolongar el periodo de restablecimiento”, explica Ángel Luis Martín Román, responsable de la investigación.

El coste de la duración del riesgo moral está estudiado en economías como la estadounidense o las escandinavas, pero apenas se ha tratado desde un punto de vista de la economía positiva en España. El trabajo de investigación ha sido publicado recientemente en la revista European Journal of Health Economics.

Ángel Luis Martín Roman y Alfonso Moral, profesores de la Universidad de Valladolid

Ocurrencia y duración

El equipo científico recabó datos de las situaciones de incapacidad temporales registradas en la Seguridad Social entre los años 2005 y 2013. La Ley General de la Seguridad Social establece dos tipos de bajas, vinculadas o no al trabajo. Las bajas por accidente laboral suceden cuando la persona trabajadora no puede acudir a su puesto de forma temporal por una lesión o enfermedad profesional.  En el caso de las segundas, el trabajador asegurado percibe desde el primer día el 75 por ciento de la base reguladora y tiene garantizada la asistencia sanitaria y los tratamientos necesarios para recuperar su estado de salud. Los accidentes de trabajo son muy variables, incluyen daños físicos como contusiones, heridas, fracturas óseas e incluso amputaciones, pero también psicológicos como traumas.

Los datos del ministerio de Empleo sirvieron como variables en una fórmula y así conocer la duración ideal de cada tipo de baja por accidente. “Se realizaron comparaciones de las bajas estadísticamente similares y, a partir de un análisis denominado de frontera estocástica, se estableció el límite de tiempo que lleva la recuperación de cada tipo de baja. A partir de este mínimo, se puede estimar el riesgo moral asumido por parte del asegurado, este tipo de absentismo”, explica Martín Román.

El procedimiento descrito es una aproximación metodológica novedosa que se puede exportar a otros países con un sistema de cobertura de Seguridad Social como el español. Precisamente en el artículo, se establece una comparación con otros doce países europeos occidentales sobre el sistema de compensación de las bajas laborales cubiertas por el Estado.

Resultados

 

El análisis llevado a cabo con datos de entre 2005 y 2013 lleva a los investigadores a afirmar que de los 26 días de media que dura una baja por accidente laboral, alrededor de 11,5 días corresponden a un comportamiento oportunista del trabajador. Trasladado a costes económicos, los economistas establecen que cerca del 45% de los costes es atribuido a una prolongación más allá del límite ideal de la recuperación de las lesiones. En ese periodo de tiempo, se destinaron un total de 6920 millones de euros para retribuir estas ausencias del trabajo por motivos de salud. Alrededor de 3000 millones, según el cálculo del equipo de Análisis Económico, se podrían atribuir a comportamientos absentistas. “Las medidas de política económica podrían ser más efectivas para reducir este coste, dado que estamos hablando de dinero público”, remarca Martín Román.

El periodo de estudio abarcó tanto un periodo de crecimiento económico, como la explosión de la crisis. Aunque el coste de las bajas se redujo en los peores años como consecuencia también de la reducción del número de empleados, los investigadores se sorprendieron al observar que el absentismo por baja laboral también aumentó. “Lo interpretamos en un marco de precariedad, marcado por los trabajos temporales. En este contexto, esta ayuda social podría servir para mantener unos ingresos a los trabajadores”, resume el investigador principal.
Previamente, el equipo de economistas había descrito patrones entre hombres y mujeres, y entre trabajadores locales y foráneos respecto a estos periodos retribuidos de recuperación. “En el caso de las mujeres, se observa una menor ocurrencia de bajas laborales por accidente, pero de mayor duración, que atribuimos a que suelen emplearse en puestos con menos riesgos físicos. En el sector del transporte de mercancías, por ejemplo, suceden más accidentes de tráfico que en otros ámbitos, y es mayoritariamente ocupado por hombres”. En el caso de los trabajadores inmigrantes, ocurren menos bajas y son de duración más corta que los nacionales, según los trabajos de la Universidad de Valladolid.

Bibliografía

Ángel Martín-Román, Alfonso Moral, ‘A methodological proposal to evaluate the cost of duration moral hazard in workplace accident insurance’. European Journal of Health Economics (2017) 18: 1181-1198. DOI: http://10.1007/s10198-017-0878-6

 

 

Categorías
Área - Ingeniería y Arquitectura Comunicación Reportajes

La Universidad de Valladolid analiza la contaminación de suelos agrícolas fertilizados con lodos y compost

La Universidad de Valladolid analiza la contaminación de suelos agrícolas fertilizados con lodos y compost

Una investigación desarrollada en suelos agrícolas de Palencia ha permitido comprobar que los residuos orgánicos incrementan el contenido de PCB, con concentraciones que no implican ningún tipo de riesgo para la salud humana

Investigadores de la Escuela Técnica Superior de Ingenierías Agrarias de Palencia de la Universidad de Valladolid (UVa) estudian si se origina contaminación cuando se utilizan lodos procedentes de estaciones depuradoras de aguas residuales (EDAR) y compost de basuras urbanas en la fertilización de suelos agrícolas.

En un trabajo desarrollado en dos parcelas de la localidad palentina de Villamediana, los científicos han estudiado el grado de contaminación de los suelos agrícolas por policlorados bifenilos (PCB). Estos compuestos contaminantes tienen su origen principal en la deposición atmosférica de la contaminación ambiental, debida a las emisiones de algunas industrias y las reservas que existen todavía de estos compuestos, afectando a los lodos que se obtienen en la depuración de las aguas residuales y el compost de residuos sólidos urbanos. Aunque en la actualidad está prohibida la fabricación de PCB, siguen estando en el medio ambiente y son potencialmente peligrosos para la salud. Por este motivo, los investigadores han estudiado su presencia después de fertilizar durante ocho años las tierras con estos residuos orgánicos.

Al comparar los suelos donde se aplicaron residuos orgánicos frente a suelos que no los recibieron, los científicos han determinado que los primeros aumentaron su contenido en PCB, según los resultados que recoge una tesis doctoral defendida por el investigador por Juan Manuel Antolín, dentro de un equipo dirigido por la profesora Mercedes Sánchez Báscones, perteneciente al Grupo de Investigación Reconocido en Tecnologías Avanzadas Aplicadas al Desarrollo Rural Sostenible (GIR TADRUS).

Sin embargo, los niveles alcanzados se quedaron muy por debajo de los valores establecidos para suelos alejados de zonas de emisión de estos contaminantes, de manera que no se estima que la utilización de estos compuestos orgánicos pueda suponer un riesgo para la salud.

Las líneas de investigación de este grupo que tiene su sede en la ETS de Ingenierías Agrarias de Palencia se centran en “la gestión, el tratamiento y el aprovechamiento agrario de residuos orgánicos, procedentes de industrias alimentarias o ganaderas para ser utilizados posteriormente como fertilizantes o enmiendas en suelos agrícolas y forestales o en la restauración de suelos degradados”, explica Juan Manuel Antolín. Dentro de este marco, la evaluación de la ausencia de toxicidad de estos residuos es fundamental cuando se aplican en suelos con cultivos, por su relación con la salud humana y animal.

En este caso, gracias a un proyecto subvencionado por la Junta de Castilla y León, cuyo objetivo era estudiar la viabilidad de utilizar lodos de las estaciones depuradoras y compost de residuos sólidos urbanos como fertilizantes en suelos agrícolas, se concluye que esta reutilización resolvería dos problemas: la gran cantidad de lodos generados en las estaciones depuradoras y la tendencia a la desertización de los suelos agrícolas de la comunidad, con contenidos de materia orgánica inferiores al 2%, a causa de las técnicas de laboreo intensivas.

Un aspecto fundamental era abordar la posible contaminación de los suelos agrícolas por algunos tipos de sustancias incluidas en los residuos orgánicos utilizados, como metales pesados y los PCB. Estos compuestos han sido ampliamente usados en la industria eléctrica, por ejemplo, en transformadores y condensadores como fluidos dieléctricos; y también en productos de consumo como tintas, papeles y pinturas. Sin embargo, en la actualidad, están incluidos en la lista de los contaminantes orgánicos persistentes prohibidos por el Convenio de Estocolmo por su toxicidad, bioacumulación, persistencia en el medioambiente y alta movilidad.

El mayor problema deriva de su acumulación en el tejido graso de los seres vivos y de su transferencia a través de la leche materna. Algunos estudios vinculan su presencia a alteraciones hormonales y problemas de aprendizaje en los niños. Por sus características físicas, los PCB tienden a acumularse en las zonas más frías del planeta, como los polos.

Trabajo de campo y de laboratorio

La gran aportación de este trabajo es que se ha realizado “en condiciones  ambientales reales, no en estudios de laboratorio”, destaca Juan Manuel Antolín. Para ello se eligieron dos parcelas, una de regadío y otra de secano, que se dividieron para aplicar distintos tratamientos: fertilización mineral y fertilización orgánica con lodo compostado, lodo deshidratado y compost de basuras urbanas. Además, se dejó otra subparcela como suelo control, sin tratamiento.

Los investigadores repitieron el proceso cuatro veces y tomaron muestras antes y después para medir aspectos edafológicos y la concentración de contaminantes. Además, también se realizaron análisis de plantas por su tamaño, producción y contenidos.

“Nuestra inquietud por el estudio de los PCB se debió a que estos compuestos están presentes a nivel global”, señala el científico, así que analizar su presencia “nos indicaría el nivel de calidad de nuestro medio ambiente más cercano”, teniendo en cuenta que en la región no existían este tipo de estudios.

Los tratamientos con los tres residuos orgánicos generaron un incremento de la concentración de PCB en el suelo agrícola. Aun así “están muy por debajo del umbral límite recomendado por la Unión Europea”. Además de la aplicación de residuos orgánicos, otra posible vía de llegada de estos compuestos al suelo es la deposición atmosférica, que el análisis del terreno de control descartó en este caso.

Tendencia a la reducción

Por otra parte, se realizó una simulación sobre la tendencia de estos compuestos, debida a la aplicación de residuos orgánicos en los suelos agrícolas, de forma continua hasta el año 2050. “Los valores obtenidos fueron muy próximos a cero, porque la tendencia de los PCB en el medio ambiente se está minimizando gracias a las normativas actuales, que además de prohibir su fabricación, obligan a que las reservas existentes se eliminen progresivamente”, apunta el experto. No obstante, “siempre es necesaria la labor de equipos de investigación que vigilen y determinen la posible existencia de sustancias tóxicas como los PCBs, evitando posibles problemas de contaminación”.

En ese sentido, de cara al futuro, “nuestro objetivo es determinar otro tipo de compuestos tóxicos, como dioxinas y furanos”. Al no estar restringidos por la legislación, escapan del control, así que “vigilar y prevenir posibles riesgos para la salud humana y animal es una de nuestras responsabilidades”, comenta Juan Manuel Antolín.

Categorías
Área - Ciencias Comunicación Reportajes

Almacenamiento de hidrógeno para los coches del futuro

Almacenamiento de hidrógeno para los coches del futuro

El Grupo de Física de Nanoestructuras de la UVa realiza simulaciones por ordenador en busca de pilas de hidrógeno que muevan vehículos eléctricos. El equipo investiga también la catálisis química a través de nanopartículas, llamada a mejorar numerosos procesos industriales

El material que se busca sería “equivalente a una esponja”, explica el catedrático Julio Alfonso Alonso, “que es capaz de almacenar agua gracias a que tiene poros y pequeñas cavidades, lo que permite que entre el líquido y quede retenido”. En este caso, el objetivo es atrapar hidrógeno, que sería liberado mediante un aumento de la temperatura.

 Sin embargo, no se trata de quemar hidrógeno como combustible, sino de emplearlo como parte del sistema de un vehículo eléctrico. La generación de electricidad se conseguiría mediante un proceso químico, al lograr una reacción del hidrógeno en contacto con el oxígeno. Básicamente, el hidrógeno se oxida y los electrones que pierde se transforman en corriente eléctrica para las pilas que moverán los motores eléctricos. El único residuo de esa reacción es el vapor de agua, de manera que este método sería inocuo para el medio ambiente, logrando una propulsión sin emisiones contaminantes.

Hasta ahora el único sistema de características similares emplea bombonas de hidrógeno, pero genera muchas dudas, así que numerosas investigaciones teóricas y experimentales buscan mejorar el método. Desde el punto de vista de la simulación teórica, los científicos de la UVa calculan las características del material poroso que buscan.

“Hoy en día las simulaciones por ordenador son tan sofisticadas que casi equivalen a un experimento de laboratorio, con sus procesos físicos y químicos”, comenta el coordinador del Grupo de Física de Nanoestructuras de la Universidad de Valladolid. Los científicos tienen que analizar cómo sería la interacción del hidrógeno y el material que debe contenerlo, así como la forma de liberarlo posteriormente para generar la corriente eléctrica que movería el coche.

Los científicos trabajan con muchas propuestas, pero aún no han dado con el material definitivo. El Grupo de Física de Nanoestructuras se centra en los carbones porosos, que parecen tener todas las características de “esponja” que serían necesarias. En general, estos materiales de carbono tienen una estructura desordenada, con redes de poros y túneles interiores que los convierten en buenos candidatos para almacenar hidrógeno.

Uno de los materiales formados por carbono más populares es el grafeno, que tiene una sola capa de átomos y podría formar las paredes de los poros de esos futuros “contenedores” de hidrógeno. “Producir carbonos porosos es sencillo y barato, los químicos saben cómo hacerlo a partir de carburos, que son compuestos formados por carbono y un elemento adicional que se puede eliminar”, comenta Julio Alfonso Alonso. Por eso, en su opinión, el verdadero reto no está en producirlos ni en definir una estructura determinada o conseguir que los poros tengan un tamaño adecuado, todos ellos objetivos asequibles, sino en modificarlos mediante procesos físicos o químicos para aumentar su capacidad para almacenar hidrógeno hasta los niveles requeridos por la industria automovilística.

 

el catedrático Julio Alfonso Alonso, segundo por la izquierda

El catedrático Julio Alfonso Alonso, segundo por la izquierda

Catálisis química

El Grupo de Física de Nanoestructuras ha obtenido la calificación de Unidad de Investigación Consolidada por parte de la Junta de Castilla y León, un distintivo que reconoce a los grupos de investigación de la comunidad que cuentan con un mayor nivel de calidad y de producción científica. Aunque el trabajo sobre almacenamiento de hidrógeno ocupa buena parte de su tiempo, los científicos que lo integran desarrollan otra potente línea de investigación en torno a la catálisis química.

“Un catalizador es un material que ayuda a aumentar la velocidad de una reacción sin participar en ella. Por ejemplo, si en la actualidad los coches que tenemos emiten pocos gases nocivos es porque ya cuentan con catalizadores muy buenos”, afirma el catedrático.

La gran novedad en este campo es que los investigadores trabajan con nanopartículas, es decir, esperan desarrollar catalizadores basados en materiales de un tamaño tan pequeño que se puedan medir en nanómetros (la milmillonésima parte del metro). Lo más interesante es que las propiedades cambian en esta escala. “El oro es un material noble, no se oxida, pero si en lugar de tener un gran bloque, lo reducimos a unos pocos cientos de átomos, se convierte en reactivo y es un catalizador muy interesante”, pone como ejemplo el experto.

Las aplicaciones de estos estudios son incalculables porque casi todas las industrias químicas usan catalizadores y mejorarlos a escala nanométrica supone conseguir reacciones más rápidas y más eficientes.

Colaboraciones internacionales

 Tanto en la línea de almacenamiento de hidrógeno como en la de catálisis química, este grupo de la UVa mantiene colaboraciones internacionales de primer nivel, en la actualidad, con científicos de Estados Unidos, Bélgica e Israel. En España, mantienen estrechas relaciones con la Universidad de Burgos, el CSIC y la Universidad del País Vasco.

En muchas ocasiones, la colaboración se establece con grupos similares que realizan simulaciones teóricas por ordenador que resultan complementarias para el trabajo que están desarrollando. Otras veces requieren sus servicios grupos experimentales que trabajan en los laboratorios con materiales reales, para quienes resulta imprescindible apoyar sus resultados en la exactitud de los cálculos teóricos. “Nosotros podemos decirles lo que sucede en cada átomo”, apunta el investigador. Para desarrollar estas investigaciones, el Grupo de Física de Nanoestructuras se apoya en la financiación de proyectos nacionales y regionales.

Categorías
Área - Artes y Humanidades Comunicación Reportajes

La cronología de los glaciares de la Cordillera Cantábrica es diferente a la de los europeos

La cronología de los glaciares de la Cordillera Cantábrica es diferente a la de los europeos

La máxima extensión de los glaciares cantábricos fue previa a la que se registró en Europa, según un artículo del Departamento de Geografía de la Universidad de Valladolid

La máxima extensión de los glaciares de la Cordillera Cantábrica durante la última glaciación del planeta no coincide con la de otras masas de hielo de Europa, según los datos publicados en un monográfico de The Geological Society. Investigadores de la Universidad de Valladolid (Uva) han analizado los estudios que existen al respecto y los han plasmado en esta síntesis, junto a dataciones realizadas por ellos mismos en los Picos de Europa y en la Montaña Palentina. Los resultados están más próximos a los registrados en los Pirineos y confirman que la glaciación en la península ibérica tuvo rasgos diferenciales.

“En el momento en el que se registra más frío, los glaciares cantábricos son más cortos pero de un mayor grosor”, comenta Enrique Serrano, investigador del Departamento de Geografía de la UVa. Su hipótesis es que, en una primera etapa todavía relativamente cálida, la cercanía con el océano habría provocado altos niveles de humedad y precipitaciones en forma de nieve, lo cual habría hecho que los glaciares ocupasen una gran extensión, aunque fuesen poco consistentes. Sin embargo, posteriormente aumenta el frío y se reducen las precipitaciones, momento en el que se registra el último máximo glaciar en Europa y la nieve se transforma en hielo formando una capa más sólida, pero de menor extensión.

Último periodo glacial

El último periodo glacial se registró hace 20.000 años, pero este trabajo, en el que también han participado investigadores de la Universidad de Cantabria y de la universidad escocesa de Aberdeen (Reino Unido), sugiere que en la Cordillera Cantábrica la máxima extensión de los glaciares se habría producido antes de 40.000 años.

Habitualmente, los expertos que estudian estos fenómenos utilizan diversas técnicas. Una de las más conocidas es la del carbono 14, que utiliza este isótopo para determinar la edad de los materiales. La materia orgánica que los investigadores encuentran en antiguos lagos (paleolagos) también permite establecer correlaciones temporales, ya que determinadas formas de vida necesitan condiciones climáticas muy determinadas para desarrollarse.

Por otra parte, el trabajo de campo es esencial. Los sistemas de información geográfica (SIG) y la fotointerpretación ayudan a entender lo que no se aprecia a simple vista. Por ejemplo, “podemos calcular la línea de equilibrio del glaciar, es decir, el momento en el que dejaba de acumular hielo y empezaba a fundirse”, teniendo en cuenta la topografía y utilizando modelos digitales del terreno. Hoy en día existe un programa preciso, desarrollado en la Universidad de Aberdeen por Ramón Pellitero, doctor por la Universidad de Valladolid.

El 'Jou Negro', helero de los Picos de Europa

El ‘Jou Negro’, helero de los Picos de Europa

Categorías
Área - Ciencias Comunicación Reportajes

Un modelo matemático anticipa la formación de glóbulos rojos

Un modelo matemático anticipa la formación de glóbulos rojos

La Universidad de Valladolid colabora en una investigación conjunta para calcular cómo el organismo recupera eritrocitos ante una anemia

Dado que las matemáticas son el lenguaje del Universo, ¿se podría modelizar la naturaleza? La biomatemática trata de dar respuesta a esta pregunta, representando y modelizando procesos biológicos, tanto macros, como el comportamiento demográfico de poblaciones, como micros, como la reproducción de células cancerígenas. Recientemente, un equipo de la Universidad de Valladolid (UVa), en colaboración con la Universidad de Lyon I – Claude Bernard, he mejorado un modelo matemático para anticipar la formación de glóbulos rojos. Esta investigación es relevante para conocer la recuperación de procesos como la anemia, en la que se produce una disminución problemática de estos eritrocitos, como también son conocidas las células sanguíneas portadoras de oxígeno.

La eritropoyesis es el proceso de creación de estos eritrocitos. Sucede en la médula ósea, en el interior de los huesos planos y largos. Existen modelos matemáticos desde hace treinta años que tratan de explicar los mecanismos reguladores de un proceso muy complejo: las producción de glóbulos rojos es constante y el organismo la debe controlar según sus necesidades. Si sucede un episodio de anemia, los riñones lanzan un factor de crecimiento llamado eritropoyetina (EPO) y permite que el porcentaje de los hematíes, otro nombre de los glóbulos rojos, se recupere hasta los valores medios.

Estos modelos matemáticos han ido ganando complejidad con el tiempo. El análisis numérico y la biología avanzan progresivamente gracias a los nuevos conocimientos generados, y ambos representan las dos piernas sobre las que caminan las biomatemáticas. “Es el modelo matemático más complejo al que nos hemos enfrentado”, explica Óscar Angulo, responsable de la investigación. El grupo de investigación de la UVa dispone de personal procedente del Departamento de Matemática Aplicada y se dedican al análisis numérico y ecuaciones en derivadas parciales. “Aquí nos enfrentamos a un problema no lineal y no local de valor inicial y frontera en el ámbito de las ecuaciones en derivadas parciales acoplado con sistemas dinámicos, que debimos resolver”.

 

Modelo antes de la experimentación

El equipo investigador recaba datos de la vida real que sirven para chequear la eficiencia de modelos desarrollados previamente. Este proceso de validación les ha llevado a colaborar con un laboratorio de biología celular de Lyon. El grupo francés está interesado en conocer la formación de glóbulos rojos. En las últimas fechas, ambos han publicado resultados sobre una investigación conjunta en las revistas científicas Journal of Theoretical Biology y Journal of Computational and Applied Mathematics.
 
En condiciones controladas, se indujo diferentes niveles de anemia a ratones de experimentación y se les controló el hematocrito, la tasa de globulos rojos en la sangre, los días sucesivos. Las observaciones realizadas por los biólogos lioneses y los resultados del modelo matemático desarrollado conjuntamente encajaban en las gráficas con gran precisión. Gracias a este avance, la evolución de los eritrocitos dentro de un cuerpo podría explicarse con ecuaciones de una manera más exacta. Como cualquier paso dado de investigación fundamental, el trabajo se ha realizado en un modelo animal y la traslación a casos humanos es todavía bastante lejana.

Matemática aplicada

El grupo de investigación reconocido de la UVa tiene casi treinta años de experiencia en desarrollos de matemáticas aplicadas a la vida. Su impulsor inicial, el catedrático Juan Carlos López Marcos, publicó el primer trabajo sobre modelos que explicaban el impulso nervioso a finales de la década de los 80. “Tratamos de resolver modelos y de realizar el análisis numérico de los métodos, pero también estamos interesados en la aplicabilidad de estos trabajos matemáticos. A través de fórmulas se pueden explicar sucesos biológicos en diferentes escalas, desde el comportamiento de plagas, o la evolución de poblaciones de animales, vegetales o humanos, a procesos biológicos internos”, resume el doctor Angulo. Las ciencias naturales tienen en las matemáticas la gramática de ese lenguaje en el que está escrito el Universo.

 

Bibliografía

Ó. Angulo, O. Gandrillon, F. Crauste. ‘Investigating the role of the experimental protocol in phenylhydrazine-induced anemia on mice recovery’. Journal of Theoretical Biology. 437 (2018) 286-298. https://doi.org/10.1016/j.jtbi.2017.10.031

Ó. Angulo, F. Crauste, J.C. López Marcos. ‘Numerical integration of an erythropoiesis model with explicit growth factor dynamics’. Journal of Computational and Applied Mathematics. 330 (2018) 770-782. https://dx.doi.org/10.1016/j.cam.2017.01.033

 

Categorías
Área - Ingeniería y Arquitectura Comunicación Reportajes

La aplicación de inteligencia artificial mejora la eficiencia de las energías renovables

La aplicación de inteligencia artificial mejora la eficiencia de las energías renovables

La Universidad de Valladolid estudia la medición inteligente de redes eléctricas. Investigadores de Ingenierías Agrarias de Soria publican un artículo en la revista Applied Sciences

Investigadores de la Escuela Universitaria de Ingeniería de la Industria Forestal, Agronómica y de la Bioenergía Soria de la Universidad de Valladolid (Uva) estudian la medición inteligente en redes eléctricas. Aplicar la inteligencia artificial al sistema eléctrico es de gran importancia para aprovechar el potencial de las energías renovables y para hacer viable el nuevo modelo de generación distribuida, con muchas más puntos de producción de energía, que comienza a ser una realidad.

En colaboración con la Universidad del País Vasco y con el Centro de Desarrollo de Energías Renovables (CEDER), ubicado en la localidad soriana de Lubia y adscrito al Departamento de Energía del CIEMAT, el profesor Luis Hernández Callejo ha publicado un artículo en la revista científica Applied Sciences que repasa la situación actual y las tendencias en este campo, que aspira a integrar la inteligencia artificial en las redes eléctricas para lograr una mayor eficiencia.

El modelo eléctrico clásico se basa en puntos de generación alejados del consumidor, centrales de gran potencia que pueden estar a cientos de kilómetros, de manera que en el transporte se registran importantes pérdidas para el sistema. Frente a este modelo, la generación distribuida consiste en muchos más puntos de producción, más cercanos al consumidor y de menor potencia, un sistema adecuado para aprovechar los recursos locales como el sol o el viento y que en teoría debería registrar menos pérdidas y ser más eficiente.

Este nuevo paradigma está directamente relacionado con el surgimiento de las energías renovables y la posibilidad de contar con pequeñas microrredes autogestionadas localmente. Sin embargo, “tener más puntos de generación complica la gestión y la monitorización”, explica Luis Hernández. Además, otra cuestión por resolver es el almacenamiento de energía en este sistema. En un futuro se espera poder realizar una “gestión activa de la demanda” que pueda optimizar la producción y distribución de electricidad.

En cualquier caso, el primer paso es medir correctamente lo que sucede en el sistema eléctrico. Por eso, el objetivo de este trabajo era analizar el estado del arte centrándose en la medición inteligente o smart metering y los proyectos que existen en este ámbito. Tal y como han comprobado los investigadores, la mayoría de las compañías utilizan la tecnología Power Line Communications (PLC), que permite aprovechar la red eléctrica para transmitir datos.

Por el momento, de acuerdo con los resultados del estudio, la mayoría de las empresas se están limitando a utilizar los medidores para tareas de facturación, pero las posibilidades son mucho más amplias. “Está previsto que sirvan para muchas más tareas, como el control de la generación y el almacenamiento distribuido, ya que esta tecnología puede dar órdenes relacionadas con los precios para reducir costes”, apunta el experto. “Las telecomunicaciones han invadido el sistema eléctrico pero los cambios son lentos”, agrega.

En la actualidad, se registran muchos picos en la curva de la demanda de energía eléctrica en función de circunstancias puntuales que complican y encarecen la producción. Abaratar el mercado supone un gran reto tecnológico que se puede abordar por medio de la inteligencia artificial, que realice una previsión de la demanda y una programación de la misma, enviando órdenes a los distintos elementos involucrados en la red.

Consumidores y productores

El modelo se encamina hacia una fusión del consumidor y del productor, lo que ya ha generado un nuevo término, prosumidor o prosumer, una bidireccionalidad que se aplica en éste y en otros campos de la economía. Un mismo punto genera y consume energía y mantiene a la red constantemente informada.

Para estudiar todas estas cuestiones, la Universidad de Valladolid y el CIEMAT (Centro de Investigaciones Energéticas, Medioambientales y Tecnológicas), del Ministerio de Economía y Competitividad, han creado una unidad mixta de investigación. Esta unión permitirá que los investigadores profundicen en un campo complejo de la tecnología, pero que tiene una aplicación real e inmediata.

El futuro en este ámbito de trabajo es prometedor y las compañías eléctricas necesitan apoyarse, cada vez más, en expertos en informática y telecomunicaciones. De hecho, “las ciudades inteligentes se sustentan en la eficiencia energética, en hacer lo mismo con menos recursos y para ello son necesarias las redes inteligentes”, afirma Luis Hernández. Además, la investigación debe comenzar, precisamente, por la medición: “No se puede conseguir una mayor eficiencia si no somos capaces de medirla”, asegura.

Acuerdo con dos universidades colombianas

A este respecto, durante 2017, el responsable del grupo de investigación ha firmado un acuerdo marco con la Pontificia Universidad Javeriana de Cali y la Universidad del Valle, ambas en Cali (Colombia), para la integración de estas fuentes renovables y redes eléctricas.

 

Bibliografía

Noelia Uribe-Pérez, Luis Hernández, David de la Vega and Itziar Angulo. State of the Art and Trends Review of Smart Metering in Electricity Grids. Applied Sciences. 2016, 6(3), 68; doi:10.3390/app6030068

Categorías
Área - Artes y Humanidades Comunicación Reportajes

La Universidad de Valladolid analiza la alternancia del inglés y el castellano en Gibraltar

La Universidad de Valladolid analiza la alternancia del inglés y el castellano en Gibraltar

Un equipo de investigación ha estudiado el contacto de ambas lenguas en este territorio de 6,8 kilómetros cuadrados y 34.000 habitantes

Los habitantes de Gibraltar emplean dos lenguas indistintamente en su habla cotidiana: el inglés, idioma oficial, y el castellano o español. Estos hablantes practican un fenómeno denominado alternancia de códigos: en una misma oración se intercambian expresiones de los dos idiomas. Un equipo de investigación de la Universidad de Valladolid ha estudiado el contacto entre ambas lenguas en este territorio de 6,8 kilómetros cuadrados y 34.000 ciudadanos.

“La alternancia de códigos es la capacidad que un bilingüe tiene para emplear de manera simultánea los idiomas que conoce. Es un recurso tan fácil de usar para esta persona como una sola lengua, puesto que es una habilidad intrínseca a ser bilingüe. Su cerebro está entrenado para ello”, explica Raquel Fernández Fuertes, directora del grupo de investigación UVALAL (University of Valladolid Language Adquisition Lab), que estudia estos fenómenos lingüísticos. El análisis de la alternancia de códigos constituye una ventana a cómo el bilingüe procesa las dos lenguas y cómo estas interactúan en su mente.

Hay comunidades en las que esta alternancia constituye una manera de comunicarse, explica la profesora del Departamento de Filología Inglesa. Particularmente, esta coexistencia del castellano y el inglés se dan en zonas como Florida (Estados Unidos) y Gibraltar. La especialista advierte, no obstante, que esta alternancia de códigos es diferente al espanglish, una especie de idioma híbrido.

Autobús con cartelería en castellano e inglés en Gibraltar

Autobús gibraltareño bilingüe

Dos lenguas, una persona

En el habla gibraltareña, el equipo investigador observa un cambio generacional, a falta de un análisis más amplio de los datos recabados. El grupo se ha desplazado a este extremo de la península Ibérica y ha realizado un estudio de campo con dos generaciones, una de menores de edad de entre 12 y 14 años y otra de adultos de más de cuarenta. Los individuos participaron en pruebas experimentales dos tipos: juicios de aceptabilidad (se mostraba una estructura gramatical con la mezcla de las dos lenguas y se preguntaba por su corrección) y producción de habla con ambas lenguas usadas simultáneamente. Este acercamiento puede ayudar a observar la dominancia de una lengua respecto a otra.

La dominancia lingüística es la prevalencia de un idioma respecto a otro en el caso de las personas bilingües y en un contexto de contacto entre ambos idiomas. “No entramos a valorar cuestiones sociales o políticas”, aclara la investigadora. En Gibraltar, la lengua vehicular en la educación es el inglés, y hay una clase de castellano como en España se imparte el idioma de Shakespeare, como lengua extranjera. No obstante, la presencia del español es constante por vecindad y por ser la lengua materna de muchos habitantes de La Roca.

El estudio se ha llevado a cabo en una cincuentena de alumnos de dos centros educativos, la Westside School y la Bayside Comprehensive School, bajo la aprobación del Departamento de Educación del Gobierno de Gibraltar, y con una muestra de veinte hablantes adultos; ambos grupos con un contacto diferente a las dos lenguas y cuyo uso de las dos lenguas es, sin embargo, constante desde el nacimiento.

 

Las investigadoras Sofía Arranz (izquierda) y Raquel Fernández Fuertes (derecha) analizan el habla de dos gibraltareños

Las investigadoras Sofía Arranz (izquierda) y Raquel Fernández Fuertes (derecha) analizan el habla de dos gibraltareños

 

Recomendaciones

Ser capaz de expresarse en más de un idioma, como hacen los gibraltareños, es una habilidad deseada socialmente. Con el fin de fomentar el bilingüismo secuencial, aquel que se gana con el paso del tiempo cuando una persona monolingüe aprende otro idioma, la especialista recomienda “una mayor exposición” a estas lenguas extranjeras que amplíe las horas de formación reglada. Este mayor contacto se puede conseguir por medio de visitas o intercambios de alumnado con países angloparlantes (si el idioma objeto de interés es el inglés), o por el uso de  producciones audiovisuales subtituladas en vez de dobladas, pone como ejemplo.

El trabajo se enmarca en el proyecto de investigación Aspectos de la dimensión internacional del contacto de lenguas: diagnósticos de la competencia lingüística bilingüe inglés-español, financiado por la Junta de Castilla y León y por el Fondo Europeo de Desarrollo Regional (FEDER). En el proyecto participan tanto investigadores de la UVa como de la Universidad de Ottawa.

Bibliografía

Sánchez Calderón, S. y R. Fernández Fuertes. 2018. Which came first: the chicken or the egg? Ditransitive and passive constructions in the English production of simultaneous bilingual English children. ATLANTIS.

Liceras, J.M. y R. Fernández Fuertes. 2017. Subject omission/production in child bilingual English and child bilingual Spanish: The view from linguistic theory. Probus 19. DOI: https://doi.org/10.1515/probus-2016-0012.

Fernández Fuertes, R. y E. Álvarez de la Fuente. 2017. The acquisition of Spanish and English as two first languages through the analysis of natural interpreting in bilingual children. RESLA 30 – 1.

 

Categorías
Área - Artes y Humanidades Comunicación Reportajes

Datada en el siglo XVI una pintura de los Países Bajos que fue robada por los nazis

Datada en el siglo XVI una pintura de los Países Bajos que fue robada por los nazis

La Unidad Asociada UVa-CSIC al Centro de Astrobiología ha participado en un estudio internacional sobre un retrato de un comerciante judío

La Universidad de Valladolid, a través de la Unidad Asociada UVa-CSIC al Centro de Astrobiología, ha participado en un estudio internacional que ha conseguido datar una pintura procedente de los Países Bajos que había sido robada por los nazis y que apareció recientemente en un mercadillo de Austria. La obra ‘Bildnis eines jüdischen Kaufmanns’ (en alemán, ‘Efigie de un comerciante judío’) fue pintada en el siglo XVI de acuerdo con las conclusiones de los expertos tras haberla sometido a varias pruebas.

 Con unas dimensiones aproximadas de 30×22 centímetros y rodeada por un amplio marco de madera, muestra el retrato de un hombre mayor, probablemente, un rico comerciante judío, y podría valer millones de euros, según los expertos. Aunque no se sabe mucho de su pasado, es probable que su legítimo propietario fuese un coleccionista judío cuyos bienes fueron expropiados por Hermann Göring, figura prominente del Partido Nazi, lugarteniente de Hitler y comandante supremo de la Luftwaffe.

 La revista Hyperfine Interact ha publicado los resultados de este trabajo, liderado por la Universidad de Hannover y que ha contado con la colaboración de otras dos universidades alemanas, Leibniz y Mainz, de la portuguesa de Coimbra, y de los científicos de la UVa, pertenecientes al equipo de Fernando Rull. Cada una de las partes ha aportado sus conocimientos.

 Los investigadores han utilizado diferentes técnicas espectroscópicas y microscópicas, que ofrecen distintos datos cuya combinación “proporciona muchísima más información que cada una de ellas por separado”, explica Antonio Sansano, uno de los autores del artículo. El grupo, liderado por Fernando Rull, es especialista en espectroscopia y el análisis de arte es una de sus aplicaciones.

 En este caso, la espectroscopia Mossbauer, basada en la emisión y absorción de rayos gamma, “da información de los compuestos de hierro”, mientras que la espectroscopia Raman utiliza una luz láser para revelar cómo son las moléculas de los compuestos ofreciendo numerosas ventajas. “En primer lugar, una técnica no destructiva y, tratándose de piezas de gran valor, este punto es clave. En segundo lugar, tiene una gran resolución espacial, incluso de unas pocas micras. Además, es una tecnología muy flexible y con capacidad de portabilidad, de manera que se puede llevar el instrumento a la localización de la obra de arte, sin necesidad de que pase por el laboratorio”, comenta.

 Para esta investigación, también se ha utilizado fluorescencia de rayos X y una avanzada microscopía conocida como SEMEDX.  “Las técnicas son más o menos sensibles a unos u otros elementos, así que la combinación de todas hace que se complementen”, señala Sansano.

 

Miembros del equipo de investigación de laUnidad Asociada UVa-CSIC al Centro de Astrobiología, junto a otra obra de arte '‘Bildnis eines jüdischen Kaufmanns’ (en alemán, ‘Efigie de un comerciante judío’)

Restauraciones

Además de poder corroborar la autenticidad de la pintura y datarla hace cinco siglos gracias a todos estos métodos, el trabajo ha revelado otras curiosidades. Por ejemplo, “pensamos que el cuadro ha sido restaurado, entre otras cosas, por la presencia de pigmentos modernos, del siglo XIX y XX”, apunta.

A la hora de llevar a cabo este tipo de análisis, “se suele hacer primero un estudio general de todas las manchas de color y posteriormente se analizan con detalles puntos de interés, como cambios de tonalidad, marcas, grietas o manchas que podrían proporcionar información acerca de los procesos que han sido utilizados y de los materiales”.

 

La obra '‘Bildnis eines jüdischen Kaufmanns’ (en alemán, ‘Efigie de un comerciante judío’)

El cuadro ‘Bildnis eines jüdischen Kaufmanns’ (en alemán, ‘Efigie de un comerciante judío’), en su marco

Al servicio del Patrimonio

Con anterioridad a esta publicación, la Unidad Asociada UVa-CSIC al Centro de Astrobiología ha estudiado otras obras que tienen varios siglos de antigüedad, trabajando tanto en el análisis de pinturas murales del románico palentino como en el de manuscritos medievales. También se han ocupado de materiales muy distintos, como la piedra de la catedral de Burgos o la cueva de Altamira. La participación de este grupo de la UVa en este trabajo se enmarca dentro de una colaboración más amplia con la Universidad de Mainz que incluye también otras piezas.

La espectroscopia resulta adecuada para todos estos usos relacionados con el arte. “Hay que entender que no es una técnica de datación directa, sino que sirve para obtener información que se correlaciona con los datos históricos sobre las técnicas y el entorno. Sin embargo, dadas las ventajas que proporciona, es muy utilizada en el análisis del Patrimonio”, asegura Sansano.

 

Bibliografía

Fe Mössbauer, SEM/EDX, p-XRF and μ-XRF studies on a Dutch painting. R. Lehmann, J. Schmidt, B. F. O. Costa, M. Blumers, A. Sansano, F. Rull, D. Wengerowsky, F. Nürnberger, H. J. Maier, G. Klingelhöfer, F. Renz. Hyperfine Interactions. DOI: 10.1007/s10751-016-1296-3.

Categorías
Área - Ciencias Comunicación Reportajes

Dos satélites precisan el alcance del daño de los incendios forestales

Dos satélites precisan el alcance del daño de los incendios forestales

Las universidades de Valladolid y León integran datos de los sensores a bordo de los satélites Landsat 8 y Sentinel 2 para mejorar políticas de reforestación

Cuatro ojos ven más que dos. La premisa es sencilla, pero a más de 700 kilómetros del objeto de observación, esos ojos, aunque sea por duplicado, tienen que ser muy precisos. A esa distancia orbitan los satélites Landsat 8 y Sentinel 2. A través de sus fotografías, ambos proveen de información valiosa en la gestión forestal de las zonas incendiadas. Las universidades de Valladolid y León han desarrollado un proyecto de investigación para tener una mejor visión de los sistemas forestales tras los fuegos e integran esta información gráfica satelital para ayudar a los gestores a tomar mejores decisiones en la evaluación del daño, la reforestación y otras acciones de recuperación.

La familia de satélites estadounidenses Landsat observan la Tierra desde 1972. En 2013 se lanzó la octava generación, un dipositivo que proporciona imágenes en las que cada píxel representa 30 metros cuadrados de la superficie terrestre. Es una precisión considerable si se tiene en cuenta que sobrevuela el suelo a 705 kilómetros de altura. El aparato revisita la misma zona del globo cada 16 días y capta información en diferentes longitudes de onda, desde el visible del ojo humano al infrarrojo cercano y medio del espectro electromagnético. Cuando se produce un incendio forestal, se puede comparar la situación previa con la posterior, y así establecer el grado de afectación del terreno. Por su veteranía, se ha convertido en un estándar en este tipo de operaciones.

“A pesar de su precisión, el sistema se puede mejorar. A veces, hay nubes u otras condiciones ambientales que reducen las posibilidades de comparar dos imágenes. Esperar dieciséis días a otra pasada del satélite reduce la información, puesto que la vegetación puede cambiar en ese tiempo. Se hacía necesario buscar una alternativa mejor”, explica Carmen Quintano, coautora de la investigación y profesora del Departamento de Tecnología Electrónica y del Instituto de Gestión Forestal Sostenible del campus de la UVa en Palencia.

El equipo investigador se fijó en el programa europeo Sentinel. Más reciente que el estadounidense, se considera uno de los programas de observación terrestre más importantes de la actualidad. El subprograma Sentinel 2 está basado en dos satélites gemelos, lanzados en 2015 y 2017. O uno u otro pasan por el mismo punto del globo terráqueo cada cinco días y su resolución espacial es de entre diez y veinte metros. Este subprograma trabaja en las mismas longitudes de onda que el programa Landsat, por lo que añade longitudes situadas en el límite del rojo, entre el visible y el infarrojo cercano, y por lo tanto, complementarias a las del satélite estadounidense.

 

Paisaje de Acebo (Cáceres), antes del incendio forestal de 2015

Incendio de Acebo

En un trabajo publicado en la revista internacional International Journal of Applied Earth Observation and Geoinformation, el equipo castellano y leonés emplea datos de ambos satélites en un caso real, el incendio forestal de Acebo (Cáceres) de agosto de 2015. En esta zona de la sierra de Gata, el fuego arrasó aproximadamente 8000 hectáreas, en un paisaje dominado por pinos (Pinus pinaster) y rebollos (Quercus pirenaica). Al combinar las imágenes de ambos satélites, el equipo científico observó que, aunque la precisión final de la estimación de daños en la vegetación fuera un poco menor que la obtenida basadas exclusivamente en datos del satélite estadounidense, había más información para comparar la situación previa y la posterior a aquel desastre ambiental.

Este trabajo permite abrir nuevas perspectivas en la gestión del territorio, especialmente en situaciones como las de los incendios forestales. “A partir de mapas de severidad precisos, se pueden establecer políticas de recuperación del terreno que incluyan repoblaciones o evaluación del daño del suelo más adecuadas”, indica Quintano.

Además de esta línea de investigación, la Universidad de Valladolid también trabaja aplicando modelos de mezclas espectrales para evaluación del daño provocado por los incendios forestales. Esta técnica emplea todas las bandas del espectro electromagnético, y frente a las dos o tres bandas empleadas en las estimaciones basdas en índices espectrales.

Daños observados al combinar dos satélites sobre el incendio forestal de Acebo (Cáceres) en agosto de 2015

 

Bibliografía

C. Quintano, A. Fernández-Manso, O. Fernández-Manso, ‘Combination of Landsat and Sentinel-2 MSI data for initial assessing of burn severity’. Int J Appl Earth Obs Geoinformation 64 (2018), 221-225

Categorías
Área - Ciencias de la Salud Comunicación Reportajes

Un proceso sencillo y poco extendido permite nuevos nanomateriales de interés farmacéutico

Un proceso sencillo y poco extendido permite nuevos nanomateriales de interés farmacéutico

La UVa emplea una tecnología no muy implantada en la industria para encapsular nanopartículas de cobre

Las nanopartículas procedentes de metales nobles y de transición tienen cada vez mayor presencia en el campo de la biomedicina. Pueden ser empleadas como biosensores, en imagen molecular o en terapias específicas como las de hipertermia. Entre ellas, en las nanopartículas de cobre se ha observado un potencial antiproliferativo que podría ser útil para crear nuevos fármacos contra el cáncer. Una investigación de la Universidad de Valladolid (UVa) y el Instituto de Biología Experimental e Tecnológica de Portugal (iBET) ha encontrado el modo de desarrollar compuestos con nanopartículas de cobre a partir de una tecnología simple, aunque poco implantada a nivel industrial.

El trabajo se ha desarrollado en el marco de las investigaciones sobre síntesis de nanopartículas de óxidos metálicos desarrolladas por el Grupo de Procesos de Alta Presión de la UVa. Este equipo investigador trata de superar algunos de los problemas asociados a la creación de estos novedosos compuestos. “Desarrollar aplicaciones para nanopartículas tiene una dificultad: tienden a aglomerarse por distintas fuerzas de cohesión de distinta naturaleza, como la electrostática”, explica Soraya Rodríguez Rojo, codirectora junto a María José Cocero de la tesis doctoral del investigador Víctor Martín que aborda la síntesis y formulación de nanopartículas metálicas y de óxidos metálicos.

Contra esta fuerza de atracción molecular, el equipo científico emplea técnicas de alta presión. Existe un momento intermedio en el que la materia no está en forma  gaseosa, ni líquida. Es una situación denominada supercrítica en la que presenta propiedades intermedias. Esta situación la hace muy interesante para la ciencia.

El trabajo de investigación entre la UVa y organismos de investigación portugueses ha empleado dióxido de carbono (CO2) en estas condiciones supercríticas para mezclar lípidos y nanopartículas de cobre. De forma convencional, se emplean disolventes orgánicos para producir sistemas que combinen estos dos materiales, con los consiguientes problemas medioambientales y riesgos para la salud. Sin embargo, cuando el CO2 deja de ser líquido, pero todavía no es gas, se consigue mejorar la dispersión del metal en el lípido. El resultado fue unas micropartículas de lípido que llevaban insertas nanopartículas de cobre, del mismo modo que un cupcake lleva granitos de chocolate. El resultado ha sido publicado en la revista The Journal of Supercritical Fluids.

 

La investigadora Vanessa Gonçalves trabaja en la experimentación con nanopartículas de cobre en el iBET

La investigadora Vanessa Gonçalves trabaja en la experimentación con nanopartículas de cobre en el iBET

Tecnología simple

Para la consecución de estos suportes de lípido con nanomateriales, el equipo ha empleado una tecnología “simple, pero poco implantada a nivel industrial”, indica Rodríguez Rojo. Se trata de un proceso denominado en inglés PGSS (Particles from Gas Saturated Solutions). Además, aunque la técnica emplea CO2, un gas de efecto invernadero, es de poca cantidad y podría ser encauzado para su reutilización o captura, evitando sus emisiones a la atmósfera, explica la investigadora del Departamento de Ingeniería Química y Tecnología del Medio Ambiente.

Las nanopartículas de cobre son útiles en sectores industriales, pero también farmacéuticos. Esta versatilidad la hace muy interesante desde el punto de vista productivo.

 

Equipo PGSS en las instalaciones de iBET