Categorías
Área - Ingeniería y Arquitectura Comunicación Reportajes

Desarrollan un test automático que simplifica el diagnóstico del síndrome de apnea obstructiva del sueño

Desarrollan un test automático que simplifica el diagnóstico del síndrome de apnea obstructiva del sueño

Investigadores del CIBER-BBN en la Universidad de Valladolid demuestran la eficacia de un nuevo sistema basado en aprendizaje computacional que analiza sólo dos señales: la oximetría y el flujo aéreo

La mejora de las técnicas de detección del síndrome de apnea obstructiva del sueño (SAHS) es uno de los grandes retos para el avance en el abordaje clínico de este trastorno respiratorio, debido al retraso que implica el actual diagnóstico por polisomnografía hospitalaria en una Unidad del Sueño. Investigadores del CIBER-BBN en la Universidad de Valladolid y el Hospital Universitario Río Hortega de Valladolid han dado un nuevo paso en este camino, con el desarrollo de un test automático basado en técnicas de aprendizaje computacional (machine learning) que permite simplificar la detección de esta enfermedad.

La nueva técnica permite obtener resultados concluyentes con el análisis de dos únicas señales: la saturación de oxígeno en sangre y el flujo aéreo. Además, el registro de estos parámetros podrá hacerse en domicilio, empleando dispositivos portátiles ya disponibles en el mercado, lo que contribuirá a la accesibilidad de la prueba y permitirá evitar las demoras que conlleva el actual método de diagnóstico en unidades del sueño.

Este desarrollo es un ejemplo de los avances que el procesamiento de datos clínicos con inteligencia artificial (machine learning o deep learning) está aportando al avance biomédico, resultado de una mayor integración de la ciencia básica, con los avances en el campo de la ingeniería y las TIC, y la investigación clínica. Los resultados de este trabajo han sido publicados en la revista Scientific Reports.

Investigadores de la Universidad de Valladolid y del Hospital del Río Hortega que han desarrollado el test

Diagnóstico de la apnea del sueño

El Síndrome de Apnea-Hipopnea del Sueño (SAHS) es un trastorno respiratorio que se caracteriza por la repetición de episodios de reducción total o parcial del flujo aéreo mientras el paciente duerme. En respuesta a estos eventos respiratorios se producen diferentes cambios fisiológicos, como caídas en la saturación de oxígeno en sangre, cambios en la variabilidad del ritmo cardíaco y micro-despertares, que afectan negativamente a la salud y calidad de vida.

La polisomnografía hospitalaria (conocida como prueba del sueño), que registra la actividad neuromuscular y cardiorrespiratoria durante el sueño, es el standard en el diagnóstico del SAHS. Sin embargo, presenta importantes limitaciones, al ser muy intrusiva para el paciente y por su elevada complejidad. El paciente debe dormir al menos una noche en la unidad de sueño del hospital, cuya disponibilidad es baja, limitando su efectividad como técnica única de detección. Estos motivos, unidos a la elevada prevalencia de la enfermedad, han hecho que las unidades del sueño presenten desde hace años grandes cargas de trabajo y listas de espera.

Niño dormido. Fotografía: Mario A.P. CC-BY-SA-2.0

Sistema automático de ayuda al diagnóstico

La nueva herramienta diseñada por este equipo de investigadores, liderados por Roberto Hornero y Félix del Campo, permite reducir el número de señales registradas para estimar el diagnóstico de forma fiable, empleando únicamente dos registros: la oximetría (cantidad de oxígeno en sangre) y el flujo aéreo. De esta forma, se consigue reducir sensiblemente la complejidad de la prueba, con el consiguiente beneficio para el paciente.

Para aprovechar toda la información diagnóstica presente en estas señales, los investigadores han aplicado metodologías de procesado automático de señales biomédicas y de aprendizaje computacional. Concretamente, han empleado técnicas de análisis de series temporales para parametrizar las señales respiratorias tanto en el dominio del tiempo como de la frecuencia, con especial atención a su dinámica no lineal (medidas de entropía y complejidad). Posteriormente, mediante el uso de algoritmos, construyeron el conjunto óptimo de variables que mejor caracterizaba los cambios producidos por la enfermedad en estas señales.

A partir del análisis de los datos de 239 pacientes, los investigadores pudieron observar que “la información sobre la influencia de los eventos de apnea contenida en la oximetría y en el flujo aéreo es complementaria, y que su análisis conjunto condujo a un notable aumento del rendimiento de este método en comparación con los enfoques centrados en una solo variable”, explica Roberto Hornero, uno de los coordinadores del estudio. “El sistema automático desarrollado alcanzó una elevada concordancia y precisión diagnóstica con la polisomnografía estándar, significativamente mayores que enfoques previos basados en el análisis individual de las señales de oximetría o de flujo aéreo de forma aislada”, detalla el investigador.

La metodología propuesta, además, se ha basado en la realización de los registros de forma ambulatoria en el propio domicilio de los pacientes, con lo que también se ha conseguido incrementar la accesibilidad de la prueba, lo que podría permitir reducir las listas de espera en un futuro cercano. Actualmente existen dispositivos portátiles comerciales que monitorizan y almacenan ambas señales, por lo que la herramienta diseñada se podría integrar fácilmente en un protocolo de cribado domiciliario de la enfermedad.

La investigación fue cofinanciada por el CIBER-BBN, la Sociedad Española de Neumología y Cirugía Torácica (66/2016), la Gerencia Regional de Salud de Castilla y León (GRS 1472/A/17) y el Ministerio de Ciencia Innovación y Universidades (DPI2017-84280-R), así como por el Fondo Europeo de Desarrollo Regional (FEDER).

Bibliografía

Álvarez D, Cerezo-Hernández A, Crespo A, Gutiérrez-Tobal GC, Vaquerizo-Villar F, Barroso-García V, Moreno F, Arroyo CA, Ruiz T, Hornero R, del Campo F. A machine learning-based test for adult sleep apnoea screening at home using oximetry and airflow. Scientific Reports 2020; 10:5332. https://doi.org/10.1038/s41598-020-62223-4

Categorías
Área - Ciencias Comunicación Reportajes

Caracterizado un sistema de nieblas en capas de Saturno

Caracterizado un sistema de nieblas en capas de Saturno

La UVa participa en una investigación de la Universidad del País Vasco que utiliza imágenes de alta resolución de la nave espacial Cassini

En la extensa atmósfera de hidrógeno del planeta Saturno, un mundo frío, lejano y gigante con unas diez veces el tamaño de la Tierra, se desarrolla una rica variedad de fenómenos meteorológicos que nos sirven para comprender mejor los que de forma semejante operan en la atmósfera terrestre. Entre ellos destaca por su singularidad el conocido hexágono, una sorprendente estructura ondulante que rodea a la región polar norte del planeta, y cuya forma parecería haber sido trazada por un geómetra.

Descubierta en 1980 por las naves espaciales Voyager 1 y 2 de la NASA, ha sido observada ininterrumpidamente desde entonces, a pesar del intenso y largo ciclo de estaciones del planeta. Por el interior de esta gigantesca onda planetaria fluye una estrecha y rápida corriente en chorro en donde los vientos alcanzan velocidades máximas de unos 400 km/hora. Mientras, curiosamente, la onda en sí misma permanece casi estática; es decir, apenas se desplaza con respecto a la rotación del planeta. Todas estas propiedades hacen que el hexágono sea un fenómeno altamente atractivo para los meteorólogos e investigadores de las atmósferas de los planetas.

La nave Cassini, que estuvo en órbita del planeta entre los años 2004 y 2017, tomó una inmensa cantidad de imágenes desde muy variadas distancias al planeta y ángulos de visión. En junio del año 2015, su cámara principal obtuvo imágenes del planeta a muy alta resolución, capaces de resolver detalles de uno o dos kilómetros, que capturaban las nieblas situadas sobre las nubes que trazan la onda hexagonal. Además, utilizó muchos filtros de color, desde el ultravioleta hasta el infrarrojo cercano, permitiendo así estudiar la composición de estas nieblas. Como apoyo para este estudio se usaron también imágenes del Telescopio Espacial Hubble tomadas 15 días más tarde y que muestran al hexágono visto desde arriba. Las imágenes de Cassini nos han permitido descubrir que en la región del hexágono encontramos un sistema de al menos siete nieblas superpuestas, de la misma forma que una tarta de varias capas, al menos, que se extienden desde la parte superior de las nubes hasta más de 300 km de altura sobre ellas”, ha declarado a la UVa el doctor Sanz Requena, que colabora en el estudio.
Cada capa de niebla tiene entre 7 y 18 kilómetros de espesor en vertical y de acuerdo con el análisis espectral contienen partículas muy pequeñas con radios del orden de 1 micra. Su composición química es exótica para nuestros estándares terrestres, ya que, debido a las bajas temperaturas en la atmósfera de Saturno, entre 120 grados y 180 grados bajo cero, pudieran estar compuestas por cristalitos de hielo de hidrocarburos como el acetileno, propino, propano, diacetileno, o incluso butano en el caso de las nieblas más altas.

Otro de los aspectos que el equipo ha estudiado es la regularidad en la distribución vertical de las nieblas. La hipótesis que proponen es que las nieblas están organizadas por la propagación vertical de ondas de gravedad que generan oscilaciones en la densidad y temperatura de la atmósfera, fenómeno bien conocido en la Tierra y otros planetas. Los investigadores plantean que es la propia dinámica del hexágono y su intensa corriente en chorro la que puede estar detrás de la formación de estas ondas de gravedad. En la Tierra también se han observado este tipo de ondas generadas por la corriente en chorro ondulante que con velocidades de 100 kilómetros por hora se dirige de Oeste a Este en las latitudes medias. El fenómeno pudiera ser semejante en ambos planetas, si bien las peculiaridades de Saturno hacen que este sea un caso único en el sistema solar. Este es un aspecto que queda pendiente para futuras investigaciones.

El trabajo realizado en este artículo por el investigador Sanz Requena, quien desarrolla su actividad dentro del GIR (grupo de investigación reconocido) Física Matemática que lidera el profesor Luis Miguel Nieto, está relacionado con el transporte radiativo. La investigación en este ámbito es fundamental para conocer la estructura vertical de la atmósfera, así como las características de los aerosoles. Esto, entre otras cosas, permite conocer a qué altura se localizan este tipo de fenómenos, lo que ayuda después al estudio dinámico. Las investigaciones continúan y en breve seguramente habrá más resultados interesantes.

La prestigiosa revista científica Nature Communications publica un artículo sobre la investigación que desarrollan científicos de la UPV-EHU y en la que colabora el investigador de la Universidad de Valladolid José Francisco Sanz Requena acerca del planeta Saturno.

Hexágono en el polo norte de Saturno

Bibliografía

Sánchez-Lavega, A. García-Muñoz, T. del Río-Gaztelurrutia, S. Pérez-Hoyos, J. F. Sanz-Requena, R. Hueso, S. Guerlet, and J. Peralta. “Multilayer hazes over Saturn’s hexagon from Cassini ISS limb images”.Nature Communications, May 8, 2020. https://doi.org/10.1038/s41467-020-16110-1.

Categorías
Área - Ciencias de la Salud Comunicación Reportajes

La anatomía de los grandes primates, a golpe de click

La anatomía de los grandes primates, a golpe de click

La UVa colabora junto a las universidades George Washington y Howard (EEUU), Amberes (Bélgica) y Barcelona en la creación de la primera web sobre la materia

lustraciones de disecciones, reconstrucciones virtuales de diferentes partes del cuerpo, modelos en 3D es lo que se puede encontrar cualquier interesado, investigador o estudiante que acceda a la primera plataforma creada en internet sobre la anatomía de los grandes primates (gorila, el chimpancé, el gibón, orangután o el bonobo). La creación de esta plataforma ha sido liderada por el profesor Rui Diogo, de la Universidad de Howard, con la que los profesores Juan Francisco Pastor Vázquez y Félix de Paz Fernández, del Departamento de Anatomía y Radiología de la Universidad de Valladolid han trabajado de forma estrecha junto a la Universidad de George Washington (Estados Unidos), Universidad de Amberes (Bélgica) y la Universidad de Barcelona.

Se trata de la primera plataforma virtual (Visible Ape Body), de momento en inglés, que recoge la anatomía de estos homínidos, y como explica el profesor Pastor, es algo similar al Visible Human Body (atlas de anatomía del cuerpo humano), en la que se incluye todo tipo de información y de imágenes (TAC, resonancias, disecciones y reconstrucciones tridimensionales de humanos).

Este proyecto es el fruto del trabajo que desde hace más de diez años lleva desarrollando el equipo del profesor Pastor, que ha trabajado “codo a codo” con investigadores de estas universidades y cuyos resultados han sido la edición de varios atlas en versión en papel sobre la anatomía de los grandes primates como el gorila, orangután, bonobo, el chimpacé y el gibón. De hecho, en la página web se incorporan este material con el valor añadido de poder obtener imágenes desde otra perspectiva como en 3D.

Este trabajo de investigación ha sido posible gracias a los ejemplares que el Departamento de Anatomía tiene en sus instalaciones gracias a las donaciones de ejemplares fallecidos de diversos zoos de España, con los que la Universidad ha suscrito convenios. Actualmente, se organizan jornadas de disección a las que acuden investigadores de diversos países, principalmente de Estados Unidos.

Categorías
Área - Ciencias de la Salud Comunicación Reportajes

Una capa protege biomateriales metálicos para nuevos implantes médicos

Una capa protege biomateriales metálicos para nuevos implantes médicos

Un equipo de investigación de la UVa mejora con un polímero conductor materiales porosos para prótesis con mejor comportamiento elástico

Las prótesis o los implantes dentales son generalmente metálicos y compactos, por lo que su módulo elástico es mucho mayor el del hueso con el que se engarzan. Como consecuencia, los usuarios pueden empezar a experimentar molestias, dolores e incluso fracturas. De forma experimental, se han desarrollado estructuras metálicas con una mayor capacidad de deformación gracias a su porosidad. Ahora bien, presentan un talón de Aquiles: al ser porosa, el área expuesta es mayor y por lo tanto el corrosión debida al contacto constante con fluidos corporales aumenta. Para protegerlas, la Universidad de Valladolid (UVa) ha encontrado un polímero que actúa de capa protectora y evita esta biocorrosión, lo que puede ayudar a crear futuros implantes más eficientes para uso médico.

Los implantes médicos, tanto para la pérdida de una pieza dental como para el reemplazo de un hueso por ejemplo, son cada vez más empleados a consecuencia del aumento en la esperanza de vida. Estas prótesis se fabrican con materiales metálicos como aceros inoxidables, aleaciones base cobalto o aleaciones base titanio. Estos metales son mucho más rígidos que las piezas biológicas que substituyen y su ajuste con el resto del organismo puede llegar a a provocar fallos por acumulación de tensiones. Para mejorar las propiedades mecánicas de las prótesis, el equipo de Ingeniería de los Materiales y el grupo de investigación UVasens de la Universidad de Valladolid (UVa) se han unido para conseguir biomateriales más elásticos.

Los equipos, compuestos por químicos, físicos, ingenieros industriales e ingenieros químicos, han utilizado una técnica de procesado denominada pulvimetalurgia para obtener estos biomateriales porosos. Es una tecnología de gran precisión que permite obtener las piezas de una sola etapa. Se parte del material metálico convencional, como el acero inoxidable, pero pulverizado. Compactando este polvo por presión, se puede llegar a obtener la pieza con su forma final, pero sin consistencia. Tras un proceso a alta temperatura denominado sinterización se logran finalmente el resto de propiedades de la pieza. La metalurgia de polvos se emplea ya en sectores muy competitivos, como el de la automoción, por ejemplo, y en general “para la creación de piezas de geometría compleja con alta precisión dimensional”, explica la investigadora principal del equipo, Cristina García Cabezón. Como no es una técnica barata ni universal, “pero sí muy precisa”, dirigida tan solo para ciertas necesidades específicas de alto valor añadido, prosigue García Cabezón, profesora de la Escuela de Ingenierías Industriales.

Un polímero ‘dopado’

Para conseguir estos biomateriales por medio de este tipo de procesado, el equipo de científicos e ingenieros trató de imitar la naturaleza de la parte ósea que la prótesis reemplaza. “Cambiando los porcentajes de porosidad, nos vamos acercando al producto original”, explica García Cabezón sobre el proceso de recreación de esas condiciones previas. Conforme el material es más poroso, se parece más a una espuma, esto es, tiene más huecos, como un queso de Gruyère. La posibilidad de que se corroa también es mayor al contacto con líquidos, como los fluidos corporales. “Aquí no podemos aplicar un barniz, como en una pared, pero podemos buscar una solución similar”, explica. Un polímero denominado polipirrol, de capacidades conductoras muy diferentes a las típicas pinturas aislantes, fue la solución. Los resultados han sido publicados recientemente en la revista científica Journal of Material Science & Technology.

En los materiales metálicos, el polímero fue depositado por medio de procedimientos eléctricos para conseguir revestir todos los poros. En principio, este material sintético no se fija al metálico por sí mismo. El barniz deseado se obtiene al crear el propio material a partir de un precursos y modificar sus propiedades por medio de un dopante. Los polímeros son generalmente aislantes, pero se pueden convertir algunos, como el polipirrol, en semiconductores. Recubierto todo el material metálico con el polipirrol, que además es biocompatible, se genera una capa protectora que evita la corrosión del conjunto y mejora la adhesión.

Se obtuvo así un material metálico poroso que genera menos tensiones con partes biológicas y es capaz de resistir el efecto constante del contacto de los líquidos en él. A estas ventajas, los investigadores de la UVa buscan ahora otras que sumar. Para profundizar en el conocimiento de los mecanismos de protección, el equipo de investigación quiere aplicar ahora nanopartículas de oro o de plata en el polímero conductor. En el mundo nano, las propiedades de los materiales varían. Se espera conseguir todavía mayor resistencia a la biocorrosión. Asimismo, estas modificaciones pueden ayudar a generar propiedades antifúngicas o antibacterianas, por ejemplo.

El trabajo, aunque de gran aplicabilidad, es de ciencia básica. Por eso, García Cabezón ha establecido contactos con el sector industrial de las prótesis “para conocer las necesidades concretas” que tiene al producir estos productos sanitarios” y poder ayudar a solventarlas.

Bibliografía

C. García Cabezón, C. García Hernández, M.L. Rodríguez Méndez, F. Martín Pedrosa, ‘A new strategy for corrosión protection of porous stainless steel using popypyrrole films’. Journal of Materials Science & Technology 37 (2020) 85-95 DOI: https://doi.org/10.1016/j.jmst.2019.05.071

Categorías
Área - Ingeniería y Arquitectura Comunicación Reportajes

Usan simulaciones para robustecer los sistemas que aprovechan la energía de las olas

Usan simulaciones para robustecer los sistemas que aprovechan la energía de las olas

La Universidad de Valladolid investiga en sistemas más eficientes para generar electricidad a partir del oleaje

El movimiento de las olas es también una fuente de energía. La denominada energía undimotriz se basa en la explotación del movimiento de las olas por medio de dispositivos en la costa, cerca de la costa y mar adentro. Ahora, la investigación científica busca opciones para mejorar el aprovechamiento de esta fuente renovable, donde la captación de energía sufre continuamente cambios bruscos e impredecibles, lo que dificulta inyección a la red. Un equipo investigador de la Universidad de Valladolid (UVa) ha creado una simulación para que los sistemas eléctricos sean más robustos.

El grupo de investigación DEEPER de la UVa aúna tres aspectos en los que trabaja tanto la industria eléctrica como el sector investigador: el diseño electrónico, la electrónica de potencia y las energías renovables. Con experiencia en mejoras de sistemas fotovoltaicos y eólicos, acaban de publicar un trabajo de investigación sobre la introducción de mejoras en la generación de energía a partir de las olas en la revista científica Electrical Power and Energy Systems.

El trabajo de investigación parte de unos sistemas denominados convertidores modulares. “Existen diferentes fuentes de energía, como la eólica o la undimotriz, que no envían a la red eléctrica la misma frecuencia de forma constante, por lo que son necesarios unos convertidores que hacen pasar esta energía de corriente continua en corriente alterna”, explica el coordinador del grupo, el profesor Santiago de Pablo, del Departamento de Tecnología Electrónica. Estos convertidores se sitúan en grandes bloques de celdas en la instalación que capta la energía. “La ventaja de esta estructura modular es que el voltaje de cada celda es indepedendiente de las demás, por lo que operan de forma coordinada, pero sin conflictos entre ellas”, continúa. Dicho de otro modo, si se produjera la rotura de un módulo, el equipo no se pararía.

DEEPER. Detalles del sistema para mejorar la captación de energía undimotriz de la UVa

Circuitos reconfigurables

Debido a que la frecuencia no es constante, estos módulos están sometidos a grandes requerimientos y deben manejar tiempos de respuesta extremadamente cortos, del orden de menos de diez microsegundos. Un microsegundo es la millonésima parte de un segundo. A partir de herramientas de diseño electrónico, el equipo de investigación de la UVa ha aportado algunas soluciones para mejorar la robustez de estos sistemas.

El grupo ha empleado circuitos reconfigurables que permiten, según De Pablo, “trabajar con volúmenes de información más grandes y con tiempos de respuesta más cortos”. Asimismo, han empleado tanto procesadores industriales como otros desarrollados en su laboratorio. Fruto de una colaboración con investigadores de las universidades politécnicas de Madrid y de Cartagena en el último artículo científico los autores proponen un cambio de velocidad de respuesta de los convertidores para que esta tecnología pueda evolucionar más rápidamente. Sus simulaciones muestran que la robustez del algoritmo de control propuesto permite cambios bruscos en la potencia entregada a red de hasta el 40%.

Fuera y dentro de la costa

Existen diferentes formas y lugares para aprovechar el movimiento del mar. Turbinas, boyas y colectores son empleados ya tanto de forma experimental como de producción real. En España, la mayor central undimotriz está situada en Mutriku (Guipúzcoa), dependiente del Ente Vasco de la Energía. Consta de 16 turbinas capaces de producir casi 1000 megawatios-hora al año. Aunque las primeras instalaciones para aprovechar la fuerza del mar se instalaron en la costa, las instalaciones de tercera generación han ido entrando en el mar hasta la distancia de cincuenta kilómetros, en algunos casos. Es necesario un sistema para trasladar esa corriente a la red de manera eficiente.

Los convertidores modulares multinivel empleados en esta investigación trabajan en la modulación del voltaje, para transmitir la energía generada por las boyas hasta la red eléctrica convencional.

Bibliografía

F. Martínez Rodrigo, D. Ramírez, H. Mendonça y S. de Pablo. ‘MMC as nonlinear vector current source for grid connection of wave energy generation’. Electrical Power and Energy Systems 113 (2019) 686-698

 

 

Categorías
Área - Ingeniería y Arquitectura Comunicación Reportajes

El abandono de los usos agrarios reduce el caudal del alto Pisuerga

El abandono de los usos agrarios reduce el caudal del alto Pisuerga

Una investigación de la Universidad de Valladolid muestra que el río porta menos agua desde la éxodo rural de mediados del siglo XX

En el entorno del alto Pisuerga, en la provincia de Palencia, viven actualmente en torno a 500 personas distribuidas en 18 núcleos de población. Hace un siglo, eran 3.500. La emigración de los habitantes de esta zona de montaña a centros industriales en la mitad del siglo XX tuvo consecuencias sobre el caudal del río. Un equipo de investigación de la Universidad de Valladolid (UVa) ha observado que el abandono de los usos agrícolas y la renaturalización de la cuenca en combinación con el calentamiento global ha producido un descenso en la corriente hasta de un 21%.

“Posiblemente, no haya tan poca población en esta zona desde la repoblación del siglo IX”, lamenta Alfonso Pisabarro, investigador del Departamento de Geografía de la Universidad de Valladolid y responsable del estudio. Entre los años 50 y 80 del siglo pasado, seis de cada siete habitantes de esta parte de la Montaña Palentina cambió los pastos y cultivos de subsistencia de sus antepasados por trabajos en los entornos fabriles, como el de Bilbao. Los pastizales para el ganado y los cultivos de subsistencia dejaron paso al bosque de robles y al matorral fundamentalmente. “Observamos que existía una pérdida de recursos hídricos en el alto Pisuerga que llegaba hasta el 21% desde 1960 a 2015, sobre todo en la entrada del embalse de Requejada, y quisimos conocer las razones”, explica el geógrafo de la Facultad de Filosofía y Letras.

La primera razón les llevó a estudiar los efectos de la crisis climática sobre el río. Así, el equipo, dirigido por el catedrático Enrique Serrano, comparó las temperaturas y la pluviometría a partir de datos de las estaciones meteorológicas del entorno desde 1956 a 2015, pero aunque las temperaturas se habían incrementado en consonancia con el calentamiento global, estas junto a las precipitaciones no explicaban la totalidad del descenso de caudal del río. Existían pédidas de caudal significativas entre los años 1980 y 2000.

Entonces, los investigadores dirigieron su mirada a los usos del suelo de la cuenca. Al llevar los datos al descenso de recursos hídricos en este afluente del Duero, encajaba la regresión de la agricultura con el descenso de caudal. “Al no existir ninguna extracción humana para el consumo ni conductos subterráneos, la única otra forma de que se absorba el agua en la cuenca es la vegetación. Al incrementarse sobre todo el matorral, el río tenía menos agua que transportar”, resume Pisabarro.

Para conocer y cuantificar los cambios de uso del suelo, el equipo científico empleó fotografías aéreas estadounidenses y españolas depositadas en el Instituto Tecnológico Agrario de Castilla y León (ITACYL) e imágenes satelitales de la NASA y de la Agencia Espacial Europea. El trabajo ha sido publicado en la revista científica Geografiska Annaler.

Viaducto de Requejada. Foto: Alfonso Pisabarro

Sedimentos

Al llevar menos caudal el Pisuerga, el equipo investigador concluyó también que el río tenía menos capacidad de transportar sedimentos. A partir de depósitos en el embalse de Requejada, en el término municipal de Cervera de Pisuerga, se observó también que el tamaño de las arenas era cada vez menor. Como la fuerza y el volumen de la corriente son menores que hace unas décadas, el tamaño de los cantos arrastrados tiende a reducirse. En las muestras, asimismo, aparecían un mayor contenido vegetal en los niveles más cercanos en el tiempo.

Pisabarro, que desde el 3 de julio de 2019 es doctor en Patrimonio Cultural y Natural por la Universidad de Valladolid, también ha estudiado en su tesis los efectos del descenso de las nevadas en la Cordillera Cantábrica debido a la crisis climática. Desde la década de los 80 y 90, explica, se ha producido un descenso brusco de estos fenómenos meteorológicos. Combinado con el cambio de usos del suelo, el río también ve alterado el comportamiento de su caudal. “De forma general, se puede decir que la nieve controla el funcionamiento de la cuenca, por lo que es cierto el refrán de que ‘año de nieves, año de bienes”, resume.

Los datos observados en el alto Pisuerga son extrapolables a otros ríos de la Cordillera Cantábrica, sobre todo en su vertiente sur desde la provincia de León hasta la de Burgos. En la investigación ha colaborado personal del Instituto Pirenaico de Ecología (del CSIC) y de la Universidad Nacional de Educación a Distancia (UNED).

Bibliografía

Alfonso Pisabarro, Ramón Pellitero, Enrique Serrano & Juan Ignacio López-Moreno, ‘Impacts of land abandonment and climate variability on runoff generation and sediment transpor in the Pisuerga headwaters (Cantabrian Mountains, Spain)’, Geografiska Annaler: Series A. Physical Geography. DOI: https://doi.org/10.1080/04353676.2019.1591042

Categorías
Área - Ciencias de la Salud Comunicación Reportajes

Un modelo anticipa el comportamiento de la principal bacteria causante de gastroenteritis

Un modelo anticipa el comportamiento de la principal bacteria causante de gastroenteritis

La Universidad de Valladolid (UVa), en colaboración con la de León y la Carlos III de Madrid, estudia cómo se adaptan cepas no patógenas de  ‘Escherichia coli’ a diferentes condiciones para combatir a sus ‘hermanas’ nocivas

La bacteria Escherichia coli es un habitante habitual del nuestro intestino. La mayoría de las cepas es inofensiva, pero pueden existir variantes patógenas que producen problemas gastrointestinales. La Universidad de Valladolid, en colaboración con las universidades de León y la Carlos III de Madrid, ha estudiado cómo se adaptan las cepas no patógenas a diferentes condiciones para anticiparse al comportamiento de sus hermanas más nocivas. El resultado puede ayudar a la mejorar la seguridad de los alimentos.

El problema principal de la bacteria es su presencia en algunos alimentos. Las versiones patógenas de E. coli tiene como reservorio al ganado vacuno. De ahí, mediante condiciones deficientes de limpieza y desinfección de locales y utensilios, y una manipulación poco higiénica de los alimentos, puede llegar a la cadena alimentaria. Carnes mal cocinadas, productos lácteos no pasteurizados, verduras contaminadas y mal lavadas o agua contaminada podrían contener la toxina producida por esta bacteria, la mayor causante de gastroenteritis a nivel mundial. Curiosamente, en Estados Unidos e Reino Unido donde el consumo de leche fresca se ha convertido en una costumbre culinaria, se ha producido un mayor número de casos de intoxicaciones por esta bacteria.

El equipo investigador ha estudiado a través de unos modelos matemáticos la variabilidad entre las cepas patógenas y no patógenas de la bacteria para describir su comportamiento. Para ello, se cultivaron diferentes cepas de E. coli tanto patógenas como no patógenas en tres medios diferentes: un medio estándar de laboratorio, en leche y en jugo de carne. Después, se calcularon varios parámetros de crecimiento de los microorganismos, como el tiempo de latencia (así se conoce al tiempo que necesita la bacteria para adaptarse al medio) y la velocidad máxima de crecimiento. Las condiciones de los experimentos en los tres medios intentaron asemejar situaciones bajo temperatura ambiente superiores a las de refrigeración (15, 20 o 25ºC) o bajo temperatura óptima para el microorganismo (30, 35 o 40ºC).

El estudio demostró que existe muy poca variabilidad entre las cepas patógenas y las otras no patógenas, ya que ambas tienen un comportamiento similar bajo las condiciones estudiadas. “Sus valores en cuanto a sus tiempos de latencia y sus velocidades máximas de crecimiento son equiparables , por lo tanto, se pueden emplear los datos de unas para predecir el comportamiento de otras”, afirma Emiliano Quinto, investigador principal.

 

Transferencia del conocimiento

El objetivo principal de esta investigación, publicada recientemente en la revista científica Food Research International, es anticiparse al comportamiento de las bacterias más peligrosas. Para ello, es interesante conocer el tiempo que van a necesitar para adecuarse a un medio y estimar su velocidad de reproducción. Este conocimiento tiene una aplicación práctica en el análisis de riesgos en la industria alimentaria. Con los datos obtenidos de las cepas no patógenas de E. coli, se puede conocer el comportamiento de las patógenas y atajar su multiplicación a lo largo de la cadena alimenticia. Es decir, se sabe cuándo hay que emplear los medios técnicos disponibles en la industria alimenticia: refrigeración, esterilización o pasteurización; para acabar con la reproducción de la bacteria y no permitir que se genere la toxina asociada a problemas intestinales. “En la industria alimentaria, nos interesa saber en qué momento se tienen que emplear ciertos tratamientos técnicos. Lo ideal es abordar a la bacteria antes de que acabe su tiempo de adaptación para que no tenga tiempo de reproducirse”, prosigue Quinto, profesor del Área de Nutrición y Bromatología.

Modelos matemáticos

Para conocer el comportamiento de las bacterias se trabajó desde el punto de vista de la variabilidad, un concepto estadístico. Se consideró la población bacteriana de una manera heterogénea y se realizó un estudio matemático desde la individualidad de los organismos. Para ello, se emplearon dos estrategias de estimación estadística desarrolladas en conjunto con el departamento de Estadística de la Universidad Carlos III de Madrid. La primera de ellas es paramétrica, basada en una distribución general sobre medidas positivas, y el segundo de tipo no paramétrico, mediante métodos de remuestreo bootstrap.

Bibliografía

E.J.Quinto, J.M.Marín, I. Caroa, J. Mateo, M.P.Redondo-del-Río, B.de-Mateo-Silleras, D.W.Schaffner, “Bootstrap parametric GB2 and bootstrap nonparametric distributions for studying shiga toxin-producing Escherichia coli strains growth rate variability”. Food Research International. Volume 120, June 2019, Pages 829-838. https://doi.org/10.1016/j.foodres.2018.11.045

Categorías
Área - Ingeniería y Arquitectura Comunicación Reportajes

Investigadores forestales rescatan construcciones de barro para frenar la erosión

Investigadores forestales rescatan construcciones de barro para frenar la erosión

La UVa propone métodos tradicionales para construir diques de tierra integrados en el paisaje para el control de sedimentos

Desde hace más de siglo y medio se emplean dos soluciones para el problema de la erosión en los terrenos. La primera de ellas, es la repoblación vegetal para recuperar los bosques. La segunda, la construcción de diques forestales con hormigón, piedra o gaviones que cortan flujos torrenciales en cárcavas y barrancos. Sin embargo, estas estructuras quedan de manera permanente, lo que  causa un impacto paisajístico. La Universidad de Valladolid (UVa) ha planteado de manera experimental una nueva solución: usar técnicas clásicas de construcción en tierra para restaurar barrancos dañados por la erosión.

Esta tipología de presas basadas en técnicas constructivas con tierra tradicionales no ha sido usada nunca para la restauración de barrancos ni cárcavas. Encontramos presas de tierra, por ejemplo, en el río Arlanzón (Burgos), pero nunca con el objetivo propuesto en este estudio: una estructura resistente e impermeable que consiga estabilizar las zonas erosionadas por torrentes o escorrentías y capturar los sedimentos que irían directamente a los ríos. Además, los investigadores del Departamento de Ingeniería Agrícola y Forestal de la UVa pretenden “recuperar los terrenos degradados en zonas no muy torrenciales basándonos en una técnica tradicional de construcción en tierra, como es el muro tapial”, resalta Joaquín Navarro, investigador principal del estudio. “Castilla y León es un sitio ideal para utilizar esta estrategia”, concluye.

Técnicas tradicionales

Una de las innovaciones principales que propone la investigación publicada recientemente en la revista científica Science of the Total Enviroment es la sustitución del núcleo de arcilla compacto que normalmente compone estas presas, por un muro tapial. El muro tapial es una construcción tradicional de tierra empleada en todo el mundo. Es una barrera de tierra realizado con una técnica similar al adobe que se ha usado tradicionalmente en el Magreb, Egipto y también en Castilla y León. Con esta técnica, se rescatan estrategias de construcción tradicional en tierra, se trabaja con materiales de la zona y se reduce el volumen de la obra, es decir, se consigue estabilizar la estructura usando menos tierra. El grupo de investigación pertenece a la Escuela Técnica Superior de Ingenierías Agrarias de Palencia y en este trabajo colabora con la compañía Obras con Calma, una empresa especializada en la construcción tradicional en tierra, emplazada en Amayuelas (Palencia).

El dique de tierra tiene grandes ventajas frente a los de hormigón y piedra que vienen usando hasta ahora. La primera de ellas es que la presa queda completamente integrada en el paisaje, por medio de un paramento aguas abajo revegetable. La segunda es que se puede construir fácilmente con los materiales propios de la zona donde se localiza. Por último, el resultado es una parcela completamente restaurada y cubierta de vegetación, que además de retener sedimentos actúa como sumidero de CO2. No en vano, la parte visible de la presa se cubre con tierra vegetable sembrada para conseguir una presa verde. En concluisión, con estas presas o diques se consigue una estabilización del barranco mucho más integrada y respetuosa con el paisaje, además de actuar en la regulación del clima y la protección de la calidad de las aguas.

Coste y solución

En este momento, el precio de estas construcciones es elevado. No precisamente porque los materiales empleados sean caros, sino porque la aparición de nuevos métodos constructivos ha hecho que los tradicionales se releguen a un segundo plano. Por lo tanto, el conocimiento que existía sobre estas técnicas se ha ido perdiendo con el paso del tiempo y su abandono. En la actualidad, el precio de la construcción tradicional se eleva con respecto al del hormigón ya que se necesitan especialistas que asesoren sobre su empleo. “Si se recupera y desarrolla su mercado, el precio de la obra va a disminuir rápidamente”, asegura Navarro. Es por eso que, en otras zonas del mundo, donde estas técnicas se siguen empleando, el precio de la obra es mucho más bajo que en España.

Por el momento, los investigadores de la UVa en colaboración con la Universidad Católica de Ávila, solo han podido llevar a cabo el diseño, los cálculos y las comprobaciones de seguridad. A la espera de patrocinadores que financien su proyecto, siguen probando su propuesta en pequeños prototipos. Este estudio fue galardonado el año pasado con el premio Ruiz de la Torre concedido por el Colegio Oficial de Ingenieros de Montes, a mejor Trabajo Fin de Máster de España, presentado por Sergio Galicia.

Distribución de la erosión

Viajar por España y observar zonas desérticas donde abundan cárcavas, argallos y barrancos es muy habitual. Estos lugares sufren gran erosión debido a la histórica sobreexplotación de la superficie y desaparición de bosques, grandes retenedores de torrentes y escorrentías que sin ellos desgastan el terreno. La construcción de diques de retención con hormigón o piedra han sido empleadas como la opción más eficaz en zonas como los Pirineos, Levante o las cuencas del río Corneja (Ávila) y Carrión (Palencia).

Bibliografía

S. Galicia, J. Navarro-Hevia, A. Martínez-Rodríguez, J. Mongil-Manso, J. Santibáñez “‘Green’, rammed earth check dams: A proposal to restore gullies under low rainfall erosivity and runoff conditions”. Science of The Total Environment. Volume 676, 1 August 2019, Pages 584-594. https://doi.org/10.1016/j.scitotenv.2019.04.189

Categorías
Área - Ciencias Comunicación Reportajes

La ponderación más precisa de la difusión del agua en el cuerpo mejora la resonancia magnética

La ponderación más precisa de la difusión del agua en el cuerpo mejora la resonancia magnética

Las universidades de Valladolid (UVa) y Wisconsin-Madison mejoran las imágenes obtenidas en las resonancias magnéticas de difusión

Las resonancias magnéticas son una modalidad de imagen que permite analizar la composición y estructura del cuerpo. Sin embargo, sus resultados no siempre gozan de la calidad deseada. El movimiento natural de los órganos, producido por la palpitación del corazón o por la propia respiración, por ejemplo, y el tiempo de adquisición de las propias imágenes provocan ruido e interferencias. Un equipo internacional compuesto por ingenieros de Telecomunicaciones de la Universidad de Valladolid e ingenieros y médicos de la de Wisconsin-Madison (Estados Unidos) ha encontrado una manera para obtener imágenes mejor calidad y nitidez, y así facilitar  la caracterización y el diagnóstico de ciertas enfermedades.

Para ello, se han centrado en las resonancias magnéticas de difusión, que es una modalidad de imagen de resonancia magnética que mide la forma en la que se propaga el agua en el organismo. El cuerpo humano está compuesto en su mayor parte por este fluido. El equipo investigador ha creado un algoritmo para mejorar la medida de la difusión del líquido por órganos y tejidos. Esta labor es de gran complejidad, dado que las medidas son muy variables y poco reproducibles debido tanto a efectos fisiológicos como físicos.

La fluidez del agua en el organismo influye en la calidad de las resonancias magnéticas. Una mayor difusión implica menor señal e intensidad de la imagen, y  por lo tanto, unos resultados en la resonancia magnética de peor calidad. El objetivo del grupo de estudio del Laboratorio de Procesado de Imagen del que forma parte Óscar Peña-Nogales es conseguir unas resonancias con altas ponderaciones en difusión, necesarias para el adecuado diagnóstico de ciertas enfermedades, pero, asu vez, adquirir las imágenes en el menor tiempo de adquisición posible para obtener imágenes de mayor calidad.

Hígado y resonancias

El corazón y el hígado son de los dos órganos con más movimiento en el cuerpo humano. El corazón, debido al pálpito; y el hígado, a la respiración y, como consecuencia de su cercanía al corazón, también del pálpito. Para desarrollar esta investigación, el equipo multidisciplinar se centró en el hígado debido a la experiencia de sus colegas estadounidenses en el tema. La colaboración entre ambos equipos -UVa y Wisconsin- ha sido imprescindible ya que “ellos cuentan con mayor disponibilidad de recursos”, afirma Peña-Nogales. Por este motivo, mientras en Valladolid se realizó el desarrollo teórico y simulaciones, en Madison se analizaron voluntarios sanos y pacientes con lesiones hepáticas.

Uno de los obstáculos que afrontó la investigación ha sido precisamente el análisis de la difusión del agua en los órganos. Cuando se toman las resonancias, los aparatos no solo recogen el agua del tejido del órgano a estudiar, sino también el de la sangre de las venas que lo componen. Esta información no deseada puede confundir a la hora de realizar valoraciones médicas.

Mejor señal adquirida

Hasta ahora, existían técnicas para reducir el movimiento natural de los órganos a la hora de realizar una resonancia, pero prolongaban mucho el tiempo de adquisición de la imagen y por lo tanto se obtenía una menor señal, lo que hace que las imágenes tengan menor intensidad y calidad. Esta investigación, publicada recientemente en la revista científica Magnetic Resonance in Medicine, es novedosa no solo por buscar la reducción de movimiento sino también por reducir ese tiempo de adquisición.

De forma añadida, también acaba otros efectos físicos presentes en el proceso de adquisición, como son los campos magnéticos no deseable que distorsionan la imagen obtenida. Con pequeñas modificaciones en el algoritmo propuesto acaban con este y otros problemas físicos. Ahora, el objetivo principal es “seguir comprobando con casos clínicos que la técnica funciona, y seguir expandiendo la metodología para minimizar otras distorsiones que aparecen en las imágenes”, concluye Peña-Nogales.

Bibliografía

Peña‐Nogales, Ó, Zhang, Y, Wang, X, de Luis‐Garcia, R, Aja‐Fernández, S, Holmes, JH, Hernando, D. Optimized Diffusion‐Weighting Gradient Waveform Design (ODGD) formulation for motion compensation and concomitant gradient nulling. Magn Reson Med. 2019; 81: 989– 1003. https://doi.org/10.1002/mrm.27462

Zhang, Y, Peña‐Nogales, Ó, Holmes, JH, Hernando, D. Motion‐robust and blood‐suppressed M1‐optimized diffusion MR imaging of the liver. Magn Reson Med. 2019; 82: 302– 311. https://doi.org/10.1002/mrm.27735

Categorías
Área - Ingeniería y Arquitectura Comunicación Reportajes

Microondas y agua transforman residuos cerveceros en biocombustible

Microondas y agua transforman residuos cerveceros en biocombustible

La Universidad de Valladolid (UVa) emplea un  residuo llamado bagazo de cerveza para la obtención de biobutanol, carburante renovable parecido a la gasolina

El consumo de cerveza en España ha alcanzado cifras récord en los últimos años. En 2017, se consumieron 3 792 millones de litros de cerveza, según la Agencia Tributaria. Por cada 100 litros de cerveza producidos, se generan 20 kilos de residuos sólidos. Estos restos, con alto contenido en carbohidratos y proteínas, se emplean generalmente para la alimentación animal o como desechos. Un grupo de ingenieros químicos y ambientales del Instituto de Procesos Sostenibles (IPS) de la Universidad de Valladolid (UVa) ha encontrado un nuevo uso a estos restos que tradicionalmente se desechaban. Han conseguido transformar estos residuos en una energía limpia, mediante procesos de fermentación a partir de microondas y agua.

El grupo de investigación reconocido (GIR) de Tecnología de Procesos Químicos y Bioquímicos de la UVa ha publicado recientemente en la revista científica Chemical Engineering Journal un estudio que propone la valorización de un desecho, el bagazo de cerveza, para su transformación en combustibles renovables (biobutanol) y prebióticos (arabinoxilanos), que pueden ser empleados para la alimentación. Esta transformación constituye un ejemplo de economía circular en el que los residuos pasan a ser recursos, un concepto  económico en el que se busca la sostenibilidad del medio ambiente a través de la reducción de residuos y la valorización de estos.  El objetivo de la economía circular es la disminución del uso de recursos, consumo de energía y generación de residuos.

En el trabajo de investigación, el equipo científico usa bacterias para transformar los azúcares presentes en los residuos agrícolas como la cebada, en butanol. El proceso comienza con un pretratamiento que consiste en la aplicación de energía de microondas y agua al bagazo de cerveza, el residuo, para modificar su estructura. Las microondas son muy efectivas en esta fase del proceso ya que con ellas se consiguen temperaturas muy elevadas y por tanto, una forma más rápida de calentamiento. Una vez que la estructura del residuo queda modificada, las enzimas se encargan de liberar los azúcares simples necesarios para la fermentación. Así se obtiene el producto final: biobutanol, un biocombustible con características similares a la gasolina.

El biobutanol y sus beneficios

El biobutanol es un combustible renovable con un contenido energético similar al de la gasolina, que se puede emplear en motores de combustión con apenas modificaciones y mezclar directamente con este hidrocarburo. En este caso, el método empleado para su obtención solo usa como reactivo agua y energía de microondas. “Es un proceso limpio y respetuoso con el medio ambiente en el que se producen otras sustancias naturales de interés como son los arabinoxilanos, con potencial como prebióticos y propiedades antioxidantes y antimicrobianas”, explica la investigadora principal del proyecto Mónica Coca.

Uno de los mayores inconvenientes de la producción de biobutanol es el elevado coste de la materia prima. En ese sentido, han colaborado en el proyecto de investigación tanto la empresa vallisoletana Cerveza Milana como con Mahou San Miguel, que han colaborado en el desarrollo del estudio facilitando los desechos necesarios para desarrollar la Investigación. El estudio cuenta con la financiación de la Junta de Castilla y León y FEDER a través del proyecto ‘Transformación de las fracciones lignocelulósicas del bagazo de cerveza en productos con valor energético y alimentario’.

Bibliografía

López Linares Juan C., García Cubero M.Teresa, Lucas Susana, González Benito Gerardo, Coca Mónica. “Microwave assisted hydrothermal as greener pretreatment of brewer’s spent grains for biobutanol production”. Chemical Engineering Journal. Volume 368, 15 July 2019, Pages 1045-1055. DOI: https://doi.org/10.1016/j.cej.2019.03.032