Categorías
Área - Ingeniería y Arquitectura Comunicación Reportajes

La deficiencia de hierro en el viñedo puede tener efectos positivos en el vino

La deficiencia de hierro en el viñedo puede tener efectos positivos en el vino

Un equipo de investigación en viticultura y enología de la Universidad de Valladolid concluye que niveles bajos y moderados de carencia de hierro mejoran la calidad sensorial del vino

El éxito del vino no es producto únicamente de las características del medio y de la viña. También es el resultado de muchos años de investigación en el campo de la tecnología de los alimentos y las ciencias agrarias, y de mejoras tecnológicas que, combinadas con las características apropiadas del suelo y la vid dan como resultado un vino de alta calidad. En este contexto, investigadores del campus de Palencia de la Universidad de Valladolid han observado, en un estudio desarrollado recientemente en la Ribera del Duero, que la deficiencia de hierro en la vid puede tener efectos positivos en el vino.

Una de las investigaciones más recientes puesta en marcha por el Grupo de Investigación Reconocida en Viticultura y Enología (GIRVITEN) de la UVa, publicada en la revista científica Food Chemistry, muestra que la clorosis férrica moderada tiene efectos positivos en el vino elaborado con uva Tempranillo extraída de 20 subzonas de viñedos de secano ubicadas en Pesquera de Duero. “La firmeza de los resultados publicados en este paper se ve reforzada por los mostrados en otras publicaciones de nuestro equipo, donde se ha estudiado la influencia de la clorosis férrica sobre variables de la fisiología y el comportamiento agronómico de la planta. Los resultados de esta investigación previa justifican los efectos detectados en la composición y valoración sensorial del vino”, explica Pedro Martín, catedrático en el Departamento de Producción Vegetal y Recursos Forestales y coordinador del grupo de investigación.

¿Qué le ocurre al vino con la clorosis férrica?

Bajo condiciones de carencia de hierro o clorosis férrica, la baja disponibilidad del elemento disminuye la producción de clorofila, lo que afecta a la función fotosintética de las plantas, por la cual transforman la materia inorgánica en orgánica sirviéndose de la luz, y a la síntesis de carbohidratos. Esto altera el crecimiento normal de la planta, su capacidad productiva y la evolución de las características del fruto durante su maduración.

La calidad sensorial del vino depende, principalmente, de su aroma. Muchos de los compuestos químicos que contribuyen a este aroma están condicionados por el terreno y el entorno natural. De esta forma, la deficiencia de hierro en los viñedos producirá alteraciones en el producto final, en este caso, en el vino. Sin embargo, estas alteraciones no tienen por qué afectar de forma negativa. La clorosis férrica produce una disminución del pH del vino, lo que genera una percepción sensorial mejorada. “Como consecuencia de la disminución del pH se produce un aumento en la percepción de la acidez y del balance azúcar/acidez en boca. En la fase visual, un pH más bajo contribuye a incrementar la intensidad del color del vino, especialmente en su componente roja”, expone Pedro Martín.

Además, la reducción moderada de la disponibilidad de hierro, conlleva una mayor concentración de  compuestos volátiles específicos, que repercute en una mejora de aquellos descriptores relacionados con el aroma, tanto los que se perciben por vía directa como retronasal (sensaciones olfato-gustativas). “Según nuestro estudio, una incidencia de baja a moderada de deficiencia de hierro incrementa los tonos florales y disminuye el negativo carácter herbáceo en el aroma de los vinos”, afirma el director del grupo de investigación.

En resumen, las investigaciones del GIRVITEN han demostrado que un nivel moderado de clorosis férrica en el viñedo puede tener aspectos muy positivos sobre la calidad de la uva y el vino. Estos resultados obtenidos para el vino producido con uva Tempranillo podrían extrapolarse a otros tipos de uva, incluyendo también a variedades blancas, obteniendo resultados cualitativamente similares. “A partir de estos resultados sería interesante estudiar, por ejemplo, la interacción entre régimen hídrico y nivel deficiencia de hierro sobre la composición polifenólica y el perfil aromático de la uva y el vino”.

Bibliografía

Ramón Sánchez, José Manuel Rodríguez-Nogales, Encarnación Fernández-Fernández, María Rosa González, Laura Medina-Trujillo, Pedro Martín. Volatile composition and sensory properties of wines from vineyards affected by iron chlorosis, Food Chemistry, Volume 369, 2022. https://doi.org/10.1016/j.foodchem.2021.130850

Categorías
Área - Ingeniería y Arquitectura Comunicación Reportajes

Alcanzar la neutralidad de gases de efecto invernadero en Valladolid en 2050 requiere reducir las emisiones 20 veces más rápido

Alcanzar la neutralidad de gases de efecto invernadero en Valladolid en 2050 requiere reducir las emisiones 20 veces más rápido

Investigadores de la UVa en colaboración con técnicos del Ayuntamiento de Valladolid han estudiado la evolución de las emisiones de gases de efecto invernadero en la ciudad desarrollando una metodología novedosa

Frenar el avance del cambio climático es una de las prioridades a nivel internacional. Por ello, desde las administraciones supranacionales hasta las locales se están implicando a través de la creación de políticas medioambientales. En este contexto, investigadores del Grupo de Energía, Economía y Dinámica de Sistemas (GEEDS) de la UVa en colaboración con técnicos del Ayuntamiento de Valladolid han elaborado una metodología novedosa que permite suplir la escasez de fuentes de datos estadísticos detallados y precisos para informar la toma de esas decisiones.

Esta falta de datos a nivel local “es comprensible por varios motivos. El primero es por la propia naturaleza del cambio climático en la que lo principal son las tendencias globales, lo que hace que sea un problema de entidad claramente supralocal. Lo segundo es que las competencias de medio ambiente directamente relacionadas con las emisiones de GEI están atribuidas a los gobiernos estatal y autonómico, lo que hace que la información oficial relativa a esta materia sea propia de las escalas regionales y estatales. El tercer motivo, posiblemente el más relevante, y es la ausencia de metodologíasde contabilidad ambiental sistemáticas aplicables a distintas escalas», explica Gaspar Manzanera, técnico del Ayuntamiento de Valladolid y miembro del GEEDS.

El análisis puesto en marcha desde la UVa combina diferentes perspectivas para analizar tanto los flujos de energía que “entran” en la ciudad como estimaciones del consumo energético realmente imputable a la población en sus actividades privadas. El segundo propósito de la investigación es ”validar una herramienta sencilla que pueda utilizarse en otras ciudades y pueblos. El uso de factores como los propuestos son habituales en la literatura científica y también en documentos técnicos institucionales. Nuestra contribución está en discutir la validez de dichos factores para cada caso y utilizarlos de forma coherente. Por otro lado, también hacemos algunas aportaciones sobre metodologías bottom-up (de abajo a arriba) que son muy habituales pero a las que encontramos limitaciones a la escala que las utilizamos”, concreta Manzanera.

Valladolid, una ciudad dependiente de los combustibles fósiles

En primer lugar, cabe destacar la gran dependencia de los productos energéticos derivados de combustibles fósiles: el petróleo y el gas natural representan entre el 70 y el 78% de las fuentes de energía primaria. Sin embargo, las energías renovables siguen teniendo un papel limitado, representando menos del 5% a pesar de la tendencia creciente en su consumo. Si comparamos estos datos con los resultados obtenidos para Madrid y Valencia, encontramos que Valladolid presenta un consumo de gas natural per cápita mucho más elevado que las otras dos ciudades, lo cual podría deberse a la presencia de una gran industria y un número mucho menor de habitantes. Por otro lado, el consumo de petróleo por habitante también es significativamente superior en Valladolid. Las causas principales de este alto consumo de petróleo parecen ser la falta de ferrocarriles como modo de transporte público local y la ubicación de Valladolid en la A-62, importante corredor de mercancías. Por último, Valladolid presenta una situación mejor que las otras dos capitales de provincia en cuanto a las energías renovables, probablemente por las numerosas instalaciones de calefacción urbana de biomasa existentes.

Si la comparación se establece teniendo en cuenta el consumo de energía primaria per cápita en España y en Valladolid, se aprecia un consumo un 10% superior en esta ciudad. Las principales diferencias son el mayor consumo de derivados del petróleo en España por los modos de transporte marítimo y aéreo (que no se computa a Valladolid en el estudio por no tener mar y estar el aeropuerto fuera del municipio), y un consumo de gas natural más elevado en Valladolid por las necesidades de calefacción (el clima en invierno en Valladolid es más frío que en otros puntos del país) e industriales.

En segundo lugar, se aprecia una clara vinculación entre consumo de energía y actividad económica. Durante el periodo analizado (2010-2019), en el que se produce una disminución poblacional en Valladolid, el consumo de energía aumentó desde 2015 coincidiendo con un periodo de recuperación económica. De esta forma, el consumo total de energía final en 2019 y las emisiones de GEI derivadas del consumo alcanzaron niveles muy similares a los de 2010 y, de la misma forma, adoptando la curva forma de U.

Pacto de los Alcaldes de 2011

Valladolid suscribió en 2011 el denominado Pacto de los Alcaldes, por el cual las ciudades firmantes se comprometieron a una reducción de un 20% de las emisiones de gases de efecto invernadero para el año 2020. Los reultados de el análisis muestran que, lejos de conseguirse el objetivo, en el año 2019 la redución conseguida fue de un 6% per cápita. Alcanzar la neutralidad de GEI en Valladolid para 2050 requerirá reducir las emisiones de gases de efecto invernadero en un 13% anual, que es, aproximadamente, 20 veces más rápido que el promedio registrado entre 2010 y 2019 de 0,6% anual.

Por último, es importante tener en cuenta que los datos expuestos hasta el momento presentan algunas limitaciones debido principalmente a dos factores: las emisiones fugitivas y los límites geográficos. La presencia de emisiones fugitivas (liberación de gases de efecto invernadero que se da durante la extracción, el procesamiento y la entrega de los combustibles fósiles al punto de utilización final) implica una infraestimación de las emisiones que deberían ser entre un 20% y un 25% superiores.

Por otro lado, los límites geográficos implican también una infraestimación, ya que existe evidencia científica de que los países ricos tienen una huella energética, derivada de la energía “inserta” en los productos que se importan de países subdesarrollados o en vías de desarollo. Estudios previos confirman que la huella energética primaria total en 2008 en España era casi un 35% mayor que la demanda total de energía primaria (con una tendencia creciente desde 1995). De esta forma, podemos concluir que el análisis realizado con los datos disponibles presenta una infraestimación. Por lo que “para alcanzar los objetivos planteados para la mitigación del cambio climático, es necesario adoptar medidas contundentes para comprender y transformar las actividades consumidoras de energía a nivel local. Y, por tanto, cada ciudad, sea cual sea su tamaño, debe adoptar las medidas necesarias, reconociendo que estas deben ser puestas en marcha de forma coordinada por todos los niveles institucionales relevantes, especialmente los municipales, muy limitados por las competencias institucionales y el presupuesto disponible”, concluyen los investigadores.

Bibliografía

Manzanera-Benito, G .; Capellán-Pérez, I. Mapeo de los flujos de energía y emisiones de GEI de una ciudad mediana: el caso de Valladolid (España). Sostenibilidad 2021 , 13 , 13181. https://doi.org/10.3390/su132313181

Categorías
Área - Ciencias Sociales y Jurídicas Comunicación Reportajes

Las desigualdades en clave de género y territorio tienen su reflejo en el abandono escolar temprano

Las desigualdades en clave de género y territorio tienen su reflejo en el abandono escolar temprano

La UVa describe factores endógenos que afectan al abandono escolar temprano que es la última expresión de un proceso de desvinculación educativa que se puede detectar en etapas educativas anteriores

El abandono escolar temprano se define como la proporción de jóvenes (de 18 a 24 años) que ha abandonado las aulas al concluir la Educación Secundaria Obligatoria (ESO) sin proseguir en Formación Profesional, Bachillerato o formación no reglada. En 2020, este fenónemo alcanzó en España la cifra de 20,2% para los hombres y 11,6% para las mujeres, según datos del Instituto Nacional de Estadística (INE). Esta deserción constituye uno de los principales problemas sociales a los que se enfrentan el país y la Unión Europea, que se había propuesto para ese mismo año reducir el promedio de abandono escolar prematuro a menos del 10%. Este problema es especialmente acuciante en los países del sur de Europa: en España, Italia o Malta que tienden a tener las tasas más altas de la UE. Investigadores de la Universidad de Valladolid han estudiado recientemente los factores endógenos para mitigarlo.

El abandono escolar temprano es un fenómeno complejo que tiene múltiples causas y se ve afectado por diversos factores. Una forma de clasificar estos factores es diferenciar entre causas endógenas (originadas de forma interna, como por ejemplo la socialización de género) y causas exógenas (de origen externo, por ejemplo las políticas educativas). Existen hasta el momento numerosas investigaciones centradas en las causas exógenas, por lo que investigadores del Departamento de Sociología y Trabajo Social de la Universidad de Valladolid han realizado un estudio centrado en las variables endógenas del fenómeno y en cómo estas se ven moldeadas por las desigualdades regionales y de género. “Lo que queremos plantear es que el abandono escolar temprano no es un resultado puntual de los jóvenes entre 18 y 24 años, sino que está muy relacionado con los resultados educativos previos, desde la Educación Primaria. Estos resultados a su vez se ven influidos por factores internos y externos al sistema educativo, por lo que la respuesta no puede ser exclusivamente educativa, debe tener en cuenta la situación socioeconómica y cultural de cada contexto específico”, explica Siro Bayón,miembro del equipo investigador.

Brechas regional y de género

El género y la región son también condicionantes para el abandono escolar temprano, siendo en España, los jóvenes en Andalucía, Ceuta o Melilla, por ejemplo, los que más abandonan la educación de forma prematura. Por un lado, la socialización de género (proceso por el que las personas interiorizamos y asumimos expectativas sociales, actitudes y comportamientos asociados a nuestro género) parece jugar un papel crucial, ya que los menores están expuestos a diferentes influencias de las familias, amigos, maestros y otras personas con las que entran en contacto. “Las niñas están socializadas en unas normas, patrones de comportamiento y actitudes mejor adaptadas al contexto educativo. Es una de las múltiples razones que explican que las cifras de abandono escolar temprano y de muchos indicadores educativos sean menores en el caso de las mujeres que en el de los hombres. Sin embargo, este viento a favor parece no ser suficiente para contrapesar lo que pasa después en el mercado laboral, donde la segregación horizontal, la brecha salarial o el techo de cristal desgraciadamente marcan la realidad de las mujeres en el mercado de trabajo”, analiza Bayón.

Por otro lado, la dimensión regional también genera desigualdades en la tasa de abandono escolar. Estas diferencias entre regiones pueden atribuirse tanto a la composición socioeconómica de la población como a factores institucionales, por lo que la respuesta ha de tener en cuenta el contexto educativo, el cultural y el socioeconómico. “La reducción del abandono escolar no debe ser una prioridad solo de la política educativa, sino que debe formar parte de un conjunto coherente e integrado de políticas sociales, educativas y económicas. Las diferencias regionales son la expresión de unos contextos educativos, económicos, demográficos y sociales sumamente diferentes. Ello no se traduce en que desde la política no se pueda hacer nada. Al contrario, algunas regiones parece que presentan un contexto político-institucional más favorable frente a este problema social. En este sentido, en otra investigación, realizada junto a Helena Corrales (UVa) y Kristof De Witte (KU Leuven), evidenciamos que Asturias, Navarra y País Vasco abordan mejor este problema, más allá de la composición demográfica y su contexto socioeconómico”, aclara el investigador.

El abandono escolar es un fenómeno, también, endógeno

Los resultados del estudio, publicado en la revista European Journal of Education, sugieren que el abandono escolar prematuro no es un fenómeno puramente exógeno, sino que es la última expresión de un proceso de desvinculación educativa que se puede detectar en etapas educativas anteriores.

En España, regiones como País Vasco, Navarra, Madrid, Castilla y León registran mejores resultados, mientras que Andalucía, Baleares, Extremadura y Castilla-La Mancha puntuan por debajo de la media española en prácticamente todos los indicadores educativos (esperanza de vida escolar, tasa de idoneidad, tasa de graduación y pruebas de competencias PISA). La presencia de estos desequilibrios regionales en el desempeño escolar en todos los niveles de la educación, así como el hecho de que estas desigualdades parecen atribuirse en parte a la composición de la población requieren políticas con un enfoque en el contexto regional específico.

Bibliografía

Siro Bayón-Calvo,Jezabel Lucas-García,Rogelio Gómez-García (2021) ‘An endogenous analysis of early school leaving in Spain: The role of gender and regional inequalities’. European Journal of Education, 56 (3), 482-495. DOI: https://doi.org/10.1111/ejed.12461

Categorías
Área - Ingeniería y Arquitectura Comunicación Reportajes

Un sistema de monitorización no intrusiva permite una mayor autonomía de las personas mayores en el hogar

Un sistema de monitorización no intrusiva permite una mayor autonomía de las personas mayores en el hogar

Investigadores de la Universidad de Valladolid y del Centro Tecnológico Cartif desarrollan un sistema de sensores que permite vigilar los hábitos diarios de las personas mayores

El pasado año, 2.131.400 personas mayores de 65 años vivían en hogares unipersonales en España. Según datos del Instituto Nacional de Estadística (INE), esta cifra se ha incrementado en un 6,1% respecto al año 2019. En este contexto, es fundamental, que las personas mayores que viven solas puedan sentirse seguras en su hogar. Por ello, el Departamento de Ingeniería de Sistemas y Automática de la Universidad de Valladolid (UVa) y el Centro Tecnológico Cartif han desarrollado un sistema capaz de reconocer en tiempo real las actividades más habituales en la vida diaria de una persona mayor, así como comportamientos no deseados, para poder controlar sus hábitos o problemas como caídas, mejorando de esta forma la seguridad de estas personas.

Así, gracias a este sistema, médicos y terapeutas podrían “conocer los hábitos que tiene una persona mayor en su día a día. Pueden cerciorarse de que la persona está realizando correctamente las pautas de medicación a las horas correctas, por ejemplo, o conocer algún tipo de trastorno alimenticio si este no realiza de manera apropiada las comidas del día”, explica Raúl Gómez, investigador del Centro Tecnológico Cartif y del Instituto de las Tecnologías Avanzadas de la Producción.

El dispositivo presenta gran cantidad de beneficios para muchas personas mayores. Especialmente para aquellas que sufren enfermedades neurodegenerativas como las de Parkinson o de Alzheimer. Sin embargo, todavía es mucha la gente que se muestra reticente a estos sistemas alegando una intromisión en la intimidad de las personas. Una solución a este problema la plantean investigadores de la UVa en la revista Sensors recientemente: “La presencia de los sensores no intrusivos que hemos escogido genera menor rechazo entre las personas mayores que el uso de otro tipo de tecnologías, como pueden ser cámaras o micrófonos. Nuestra tecnología recoge información que no está asociada directamente a una persona. Es decir, no utilizamos por ejemplo la imagen de una persona recogida mediante una cámara ya que lo consideramos muy intrusivo. Optamos por sensores que monitoricen eventos que ocurren dentro de la casa, como puede ser la apertura de una puerta o armario o la detección de un movimiento en un determinado pasillo. Esto permite que las mediciones sean transparentes para el usuario”, aclara el profesor de la Escuela de Ingenierías Industriales.

Casas sensorizadas

El sistema propuesto por los investigadores del Centro Tecnológico Cartif y de la Universidad de Valladolid incluye un total de 28 sensores de movimiento, 3 sensores de puerta (colocados, por ejemplo, en cajones y armarios) y 2 de temperatura que se distribuyen por toda la casa, dando lugar a un total de 33 sensores. Este sistema registra una serie de datos cada vez que un sensor detecta un cambio en su estado o un valor medible. Se incluye la hora en la que se generó el evento, el sensor que se vio afectado, el nuevo estado del sensor y el inicio o el final de una actividad. “Si se está detectando presencia dentro de una determinada habitación, como puede ser la cocina, es muy poco probable (por no decir imposible) que la persona se esté duchando ya que no se encuentra en el cuarto de baño. Para conocer la actividad que se esta realizando en un determinado momento, se utiliza además información de lo sucedido con anterioridad. Por esta razón, nuestro sistema no tiene en cuenta la actividad que se ha realizado anteriormente, sino los eventos anteriores que han ido sucediendo dentro de la casa”, ejemplifica Raúl Gómez.

En el dispositivo, el uso de sensores infrarrojos pasivos permite conocer el área de la casa ocupada por un usuario. Estos son fáciles de instalar, son inmunes a las mascotas y tienen un bajo consumo. Por otro lado, para detectar actividades como salir de casa, abrir el frigorífico o armarios, se utilizan interruptores de contacto. Y por último, para detectar actividades como cocinar o ducharse, se utilizan sensores de temperatura.

El futuro de las casas sensorizadas

Actualmente, el equipo investigador está creando una base de datos propia, recopilando información sobre un abanico más amplio de actividades, ya que la utilizada en el presente estudio no recoge algunas de las actividades frecuentes que se pueden realizar en una casa. Además, otro de los retos para esta línea de investigación consiste en monitorizar viviendas en las que residen varias personas. Por último tal y como nos adelanta el investigador: “También estamos planteando un sistema de toma de decisión ante las actividades que está realizando la persona mayor. Por ejemplo, si se le ha olvidado tomar las medicinas, se podría elaborar un sistema que se lo recuerde, y si sigue sin hacerlo, llamar al sistema sanitario de forma automática”.

Esta investigación puede suponer un impulso importante a la autonomía de las personas de mayor edad, al permitir alargar su independencia durante más tiempo. “Es muy importante que nuestros mayores se sientan independientes para que su estado de ánimo sea bueno y saludable. Además, contar con un sistema capaz de informar de forma automática al servicio de emergencias cuando ha ocurrido algo dentro del hogar de una persona mayor que vive sola puede ser muy beneficioso y puede salvar vidas”, concluye Gómez.

Bibliografía

Ramos, R.G.; Domingo, J.D.; Zalama, E.; Gómez-García-Bermejo, J. ‘Daily Human Activity Recognition Using Non-Intrusive Sensors’. Sensors 2021, 21, 5270. https://doi.org/10.3390/s21165270

Categorías
Área - Ciencias de la Salud Comunicación Reportajes

El Meroctane causó numerosas lesiones oculares en pacientes debido a un fallo en el testeo toxicológico

El Meroctane causó numerosas lesiones oculares en pacientes debido a un fallo en el testeo toxicológico

Investigadores del Instituto de Oftalmobiologia Aplicada de la UVa concluyen que se necesitan sistemas de evaluación más específicos y por lotes para evitar nuevos incidentes de toxicidad aguda tras las intervenciones quirúrgicas

Los dispositivos médicos son instrumentos, herramientas, máquinas o implantes que se usan para prevenir, diagnosticar o tratar la enfermedad u otras afecciones. Los dispositivos médicos van desde los depresores hasta los marcapasos. Así, la principal diferencia entre estos dispositivos médicos, y los fármacos o medicamentos es que mientras que estos últimos son moléculas bioactivas que pueden interactuar con moléculas receptoras dando lugar a una acción o efecto, los dispositivos médicos no interactúan ni producen ningún efecto en el cuerpo. En los últimos años, se han notificado casos graves de toxicidad intraocular en todo el mundo tras el uso de diferentes perfluorocarbonos líquidos, que son «compuestos sintéticos formados por carbono y flúor que, debido a sus características físico-químicas son ideales para utilizarlos como dispositivos médicos en determinadas operaciones oculares ya que permiten que el cirujano reaplique la retina y pueda realizar complicadas maniobras con seguridad”, aclara Cristina Andrés Iglesias, investigadora del Instituto Universitario de Oftalmobiologia Aplicada de la Universidad de Valladolid (IOBA).

En 2013 el MEROCTANE, un líquido perfluorocarbonado fabricado en Turquía y comercializado a nivel mundial, provocó numerosos casos de toxicidad intraocular aguda que acabaron derivando en ceguera en muchos pacientes. Tal y como apunta Cristina Andrés Iglesias, el dispositivo “fue el primer producto del que se tiene información pública (que no científica), que causó toxicidad aguda en pacientes y la noticia saltó a los medios de comunicación de varios países”. En este contexto, investigadores del IOBA han analizado retrospectivamente una serie de 18 casos de Chile y España, así como una muestra sospechosa y otra no sosprechos de MEROCTANE. “No ha sido fácil encontrar una muestra sospechosa, ya que, evidentemente, las Agencias del Medicamento de todos los países los retiraron de todas partes. Sin embargo, un oftalmólogo chileno decidió guardar un vial por si alguna vez se conseguía analizar. Al conocer nuestros trabajos, nos contactó en un congreso y nos propuso que lo analizáramos y contribuyéramos, de alguna manera, apoder cerrar “el caso”, explica la investigadora del Grupo de Retina del IOBA.

El sistema regulatorio ha fallado

Numerosos pacientes, en España y Chile, se sometieron en el año 2013 a una cirugía vitreoretiniana (cirugía ocular que se realiza para tratar enfermedades de la retina y/o del vítreo, que es una sustancia gelatinosa que rellena la cavidad ocular comprendida entre la retina y la cara posterior del cristalino), para tratar en la mayoría de los casos un desprendimiento de retina. Tras las intervenciones, algunos pacientes sufrieron efectos compatibles con toxicidad retiniana aguda grave como isquemia retiniana, atrofia del nervio óptico, agujeros maculares, agudeza visual muy pobre…

El factor común a todos los pacientes que presentaron estos cuadros clínicos fue el uso del MEROCTANE. Sin embargo, parece difícil pensar que tras haber pasado  todos los controles de toxicidad fuese la causa principal de las lesiones. La especialista en toxicidad y biocompatibilidad de dispositivos médicos, Cristina Andrés Iglesias, aclara que “el test de evaluación biológica que se había realizado en estos dispositivos médicos falló a pesar de estar incluido en las normas de calidad ISO. Una de las características que no se tuvo en cuenta a la hora de testar estos productos es que son muy volátiles e hidrófobos y además, se estaba utilizando un test en el que no se estaba poniendo en contacto directo el producto con las células, algo que si ocurre cuando se utiliza en cirugía. Por eso los organismos notificados expidieron un certificado de que eran seguros.”

Con esta la información, los investigadores del Grupo de Retina del IOBA han desarrollado un método, actualmente patentado, de evaluación de toxicidad celular y en neuroretina que se utiliza pata testar diferentes tipos de productos sanitarios. Es un test de contacto directo y en el que se tienen en cuenta las características físico-químicas de los productos a evaluar.

Por otro lado, con el objetivo de garantizar a los pacientes una mayor seguridad, la comunidad investigadora reclama la necesidad de analizar estos productos por lotes, aspecto al que muchas empresas hacen caso omiso, argumentando que una vez evaluado un lote, se aplicará el mismo resultado a los demás. Sin embargo, la evidencia de que la toxicidad depende en gran medida de los lotes se ha demostrado previamente en varios compuestos como el ALA OCTA 3, el BIO OCTANE PLUS 2 y el MEROCTANE.

Actualmente, la comunidad científica es consciente de que el sistema regulatorio, en ocasiones falla, por lo que “se necesitan sistemas de evaluación y testeo más específicos. Esperamos que esto se consiga con la entrada en vigor de la nueva normativa Europea de Regulación de Productos Sanitarios y que el marcado CE sea una total garantía de seguridad este tipo de productos”, valora la investigadora Andrés-Iglesias.

Bibliografía

Coco-Martin, R.M., Andrés-Iglesias, C., Srivastava, G.K. et al. Intraocular toxicity caused by MEROCTANE perfluorocarbon liquid. Sci Rep 11, 599 (2021). https://doi.org/10.1038/s41598-020-79561-y

Categorías
Área - Ingeniería y Arquitectura Comunicación Reportajes

Técnicas de biorrefinería transforman residuos de zanahoria en materiales de valor añadido como biofilms o ácido láctico

Técnicas de biorrefinería transforman residuos de zanahoria en materiales de valor añadido como biofilms o ácido láctico

El Instituto de Bioeconomía de la UVa profundiza en los procesos de valorización de residuos orgánicos con el fin de convertirlos en activos de alto valor añadido

Cada año 1 300 millones de toneladas de alimentos (un tercio de la producción mundial) son desechados. Este problema se agrava aún más cuando hablamos de productos vegetales, ya que este tipo de residuos se producen en varias etapas de la cadena de valor y generan, además de un problema económico, otro medioambiental debido a la putrefacción. Los desechos vegetales se caracterizan por tener un alto grado de humedad y una alta carga orgánica, que los hace vulnerables a la actividad microbiana y, por tanto, difíciles de manipular. “Este problema hay que entenderlo de manera global. Debemos encontrar soluciones que nos permitan aprovechar los productos de la manera más eficiente posible. Algunos vegetales muy perecederos, por ejemplo, son un activo de alto valor añadido cuando se comercializan para el consumo humano. Sin embargo, a priori el excedente o los descartes servirían únicamente como fertilizantes (compost) o comida para animales generando grandes pérdidas económicas y emisiones potencialmente contaminantes. Así, debemos buscar procesos que nos permitan reconvertir las toneladas de residuos en activos de alto valor añadido como bioplásticos”, explica Juan García Serna, investigador del Instituto de Bioeconomía de la UVa. Esta reconversión de los residuos permitiría también comenzar a mitigar, y en un futuro llegar a atajar, otros problemas globales como la escasez de materiales, combustibles fósiles o la contaminación derivada del uso de los mismos.

La zanahoria es uno de los tubérculos más importantes cultivados a nivel mundial, con una producción anual de 36 millones de toneladas y un descarte del 30%. Este descarte se debe a tres causas principales: los residuos industriales de pulpa una vez extraído el zumo, el destrío (zanahoria entera o rota que no cumple con el estándar de calidad y se desecha durante su procesado) y las altas exigencias estéticas del mercado (no cumplen con el tamaño, diámetro, longitud o forma requeridos). En este contexto, la tesis doctoral de la investigadora Marta Ramos, dirigida por el propio Juan García Serna del Grupo de Ingeniería de Procesos a Presión de la Universidad de Valladolid, busca una solución a este problema explorando la valorización de biomasa a través de una biorrefinería basada en procesado con agua subcrítica, obteniendo productos de alto valor añadido a partir de residuos. El equipo ha publicado recientemente dos artículos científicos en acceso abierto sobre esta materia en la revista Journal of Cleaner Production.

La segunda vida de la zanahoria

La zanahoria, como muchos otros vegetales, se puede descomponer en una parte sólida y una parte líquida: la pulpa y el zumo. Una vez explotada la hortaliza por parte de la industria alimentaria se obtienen unos subproductos tanto de pulpa como de zumo que podrían llegar a tener una nueva vida tras pasar por procesos de fraccionamiento como la hidrólisis y la ultrafiltración y de estabilización como secado por spray o la liofilización.

La valorización de la pulpa se basa en un proceso de extracción de los compuestos de valor mediante una extracción hidrotermal. Este proceso se sirve de un caudal de agua presurizada entre 140 °C y 180 °C que pasa por un reactor con una carga de biomasa, en este caso la pulpa de la zanahoria. De estos residuos es especialmente interesante extraer azúcares, hemicelulosas y pectinas que son compuestos de gran valor para la economía circular. Pero, ¿qué se puede hacer con estos compuestos? Por un lado, los azúcares son un activo que se puede transformar en bioetanol, por ejemplo, gracias a la fermentación con levadura. Por otro lado, la hemicelulosa debido a su elasticidad podría ser reutilizada para la fabricación de biofilms para la industria alimentaria, tal y como explica García Serna. Para ello ha colaborado en la tesis de Marta Ramos con los profesores Henrick Grenman y Chunlin Xu de la universidad finlandesa Åbo Akademi y con el equipo del profesor Miguel Ángel Rodríguez del CellMat Laboratory UVa que forma parte del citado Instituto de Bioeconomía UVa. Por último, las pectinas presentan múltiples posibilidades tanto en la industria alimenticia, donde se utilizan como espesantes y gelificantes, como en la industria farmacéutica.

Los residuos del zumo de zanahoria, por su parte, también presentan múltiples opciones en cuanto a su reutilización. La valorización del zumo se basa en la recuperación de sus principales componentes, los carotenoides y los azúcares, mediante procesos de ultrafiltración y diafiltración, que consisten en la separación de los componentes del zumo mediante la utilización de membranas (ultrafiltración) y de membranas y agua (diafiltración). Los carotenoides son pigmentos naturales que destacan por sus componentes antioxidantes y por la protección frente a enfermedades cardiovasculares. Además, tienen una gran aplicación en las industrias alimentaria y cosmética. Mientras que los azúcares se pueden valorizar para la obtención de ácido láctico y, como apuntábamos en párrafos anteriores, de etanol mediante procesos fermentativos.

La bioeconomía circular

La Unión Europea y sus Estados miembros se han comprometido, a través de los Objetivos de Desarrollo Sostenible de las Naciones Unidas, a reducir a la mitad, de aquí a 2030, el desperdicio de alimentos per cápita y a reducir la pérdida de alimentos en las cadenas de producción y suministro. Además, las nuevas políticas y directivas apuntan hacia la promoción de la sostenibilidad desde a la bioeconomía, la circularidad, la química verde, la reducción de plásticos, cero residuos o protección a la biodiversidad. Por ello, “es imprescindible buscar formas de valorizar los residuos más allá de la cadena de producción. Es decir, si no podemos utilizarlos como alimento para ganado porque no hay suficientes animales o por problemas logísticos, debemos buscar nuevas alternativas y no conformarnos con dejarlos en un vertedero”, apunta Juan García Serna.

En el Instituto de Bioeconomía de la Universidad de Valladolid están consiguiendo avances en esta área gracias, entre otras cosas, a la patente del proceso de extracción hidrotermal multilecho que permite “extraer y fraccionar los compuestos solubles de la biomasa residual y no residual, utilizando agua como solvente y a nivel de laboratorio da la posibilidad de extraer muestras más grandes, en vez de obtener miligramos de muestra extraer gramos”, explica el catedrático de Ingeniería Química.

Bibliografía

Marta Ramos, Andrés Beatriz Aguilera Torre, Juan García-Serna. ‘Hydrothermal production of high-molecular weight hemicellulose-pectin, free sugars and residual cellulose pulp from discarded carrots’, Journal of Cleaner Production. Volume 290, 25 March 2021, 125179. DOI: https://doi.org/10.1016/j.jclepro.2020.125179

Marta Ramos, Andrés Beatriz Aguilera Torre, Juan García-Serna. ‘Production of purified hemicellulose-pectin fractions of different molecular weight from discarded carrots by hydrothermal treatment followed by multistep ultrafiltration/diafiltration’, Journal of Cleaner Production. Volume 321, 25 October 2021, 128923 DOI: https://doi.org/10.1016/j.jclepro.2021.128923 (open access)

Marta Ramos, Andrés Beatriz Aguilera Torre, Juan García-Serna. ‘Biorefinery of discarded carrot juice to produce carotenoids and fermentation products’, Journal of Cleaner Production, Volume 323, 10 November 2021, 129139 DOI: https://doi.org/10.1016/j.jclepro.2021.129139 (open access)

Categorías
Área - Ciencias de la Salud Comunicación Reportajes

Nanomedicina, una nueva esperanza para un diagnóstico precoz y un tratamiento más efectivo del cáncer

Nanomedicina, una nueva esperanza para un diagnóstico precoz y un tratamiento más efectivo del cáncer

Esta disciplina se presenta como una opción más eficaz y viable a los actuales tratamientos de quimioterapia en pacientes oncológicos tal y como muestran investigadores de la Universidad de Valladolid en un reciente estudio

Durante los dos últimos años la palabras ‘pandemia’ y ‘covid’ han formado una pareja indisoluble. Sin embargo, parecemos haber dejado de lado otras pandemias que desde hace años y años nos acechan. Una de las enfermedades mortales con las que convivimos es el cáncer, que ha alcanzado dimensiones pandémicas a nivel mundial. Según datos de la Organización Mundial de la Salud el cáncer es la segunda causa de muerte en el mundo, ocasionando cada año 10 millones de defunciones. Conscientes de este problema, investigadores de la Universidad de Valladolid (UVa) centran sus esfuerzos en buscar en la nanomedicina alternativas a los tratamientos oncológicos actuales que permitan mejorar el diagnóstico y el tratamiento. “Con esta pandemia hemos aprendido que la ciencia y la investigación es el camino para solucionar los problemas que se nos presentan como sociedad, y el cáncer es uno de ellos. La nanomedicina no solamente tiene implicaciones para el futuro, sino que ya tiene un gran impacto en la actualidad facilitando el tratamiento y el diagnostico de la enfermedad, lo cual se traduce directamente en mayores tasas de curación y menos incomodidades para los pacientes”, aclara Juan González Valdivieso, investigador de la UVa.

Una de las principales características del cáncer es la multiplicación rápida de células cancerosas que se extienden más allá de sus límites habituales y pueden invadir partes adyacentes del cuerpo o propagarse a otros órganos. Además, las células sanas no son lo suficientemente fuertes para competir con las células cancerosas por los nutrientes que se encuentran en la sangre, ya que se sabe que estas últimas tienen un estado metabólico más rápido y consumen todos los nutrientes. Hasta el momento, la fórmula más extendida y viable para combatir esta enfermedad es la quimioterapia. No obstante, este tratamiento, aunque en ocasiones es eficaz, presenta algunas limitaciones: una baja especificidad en el tratamiento de los diferentes tipos de cáncer y los efectos secundarios que provoca en los tejidos sanos.

Nanomedicina: un futuro alentador

Un gran número de investigadores a nivel mundial se afana en desarrollar terapias alternativas a la quimioterapia que den solución a estas dos limitaciones tratando de producir dispositivos médicos de precisión innovadores y desarrollando tratamientos más específicos. Y la solución parece pasar por la nanomedicina y los biomateriales, tal y como demuestran investigadores de la Universidad de Valladolid. No obstante, ¿qué es la nanomedicina? Se trata de una combinación de nanotecnología, biomedicina, biomateriales y ciencias farmacéuticas que tiene como objetivo mejorar la biodisponibilidad, la respuesta a la dosis y la especificidad de los agentes terapéuticos. “El uso de la nanomedicina no se limita únicamente a mejorar la especificidad de los fármacos, sino que también mejora la accesibilidad de estos en el organismo. Cuando un fármaco es inyectado, este interactúa con componentes de la sangre, disminuyendo la cantidad de fármaco que llegara al tumor e incluso cambiando sus propiedades. La nanomedicina ha demostrado que es capaz de mejorar la velocidad con la que los fármacos se mueven por el torrente sanguíneo y proteger a los fármacos de esas interacciones en la sangre. Otro de los grandes problemas de la quimioterapia en general es que los fármacos tienen muy baja solubilidad, por lo que se necesitan grandes dosis para conseguir efectividad antitumoral. En este sentido, la nanomedicina mejora la solubilidad de los fármacos, reduciendo la dosis necesaria de fármaco y por lo tanto la posible toxicidad en el paciente”, aclara Valdivieso, investigador del grupo de dispositivos avanzados para nanomedicina. El equipo al que pertenece acaba de publicar una revisión sobre la materia en la revista científica International Journal of Pharmaceutics.

Sin embargo, la nanomedicina, que se ha establecido como una de las grandes esperanzas de la lucha contra el cáncer, no es ciencia ficción ni la protagonista de un futuro hipotético. Aunque faltan ciencia y camino por recorrer, la nanomedicina ya se está empleando en medicina clínica en algunas de las opciones de la quimioterapia. “El fármaco Doxil se usa desde hace más de dos décadas en pacientes de leucemia aguda, cáncer de ovario o con sarcoma de Kaposi. Otro ejemplo es Abraxane, empleado en pacientes de cáncer de mama, páncreas o pulmón. Abraxane consiste en una nanopartícula [empleada para transportar anticuerpos o medicamentos] que contiene el fármaco Paclitaxel, y no solo ha demostrado mejorar la efectividad terapéutica del fármaco, sino que además no implica el uso de medicaciones previas, lo que sin duda agradecen los pacientes”, explica el biólogo.

Continuará…

Como avanza el investigador del grupo de dispositivos avanzados para nanomedicina, Juan González Valdivieso, esta investigación continúa y se espera próximamente la publicación de los resultados de una investigación de nanoparticulas desarrolladas en la Universidad de Valladolid en muestras de pacientes de cáncer de pancreas. “Se trata de la primera vez que se describe el potencial terapéutico de este tipo de estrategia quimioterapéutica en uno de los tipos de cáncer mas mortales del mundo. El trabajo describe la eficacia antitumoral en muestras procedentes de pacientes de cáncer de pancreas y, ademas, se ha confirmado en ratones la seguridad del tratamiento para el organismo. Este trabajo se ha realizado en colaboración con un grupo de investigadores de Londres del University College London y Royal Free Hospital”, adelanta González Valdivieso.      

Bibliografía

Juan Gonzalez-Valdivieso, Alessandra Girotti, Jose Schneider, Francisco Javier Arias. ‘Advanced nanomedicine and cancer: Challenges and opportunities in clinical translation’. International Journal of Pharmaceutics, Volume 599, 2021, 120438, ISSN 0378-5173, https://doi.org/10.1016/j.ijpharm.2021.120438

Categorías
Área - Ingeniería y Arquitectura Comunicación Reportajes

La reducción de la contaminación interior debe establecerse como una prioridad para investigadores y sociedad

La reducción de la contaminación interior debe establecerse como una prioridad para investigadores y sociedad

Un equipo científico de la Universidad de Valladolid alerta de la necesidad de encontrar mecanismos viables técnica y económicamente para combatir esta polución, hasta el momento la gran olvidada

Muchos de nosotros pasamos hasta el 90% del día en espacios cerrados: en casa, en el trabajo, en el colegio, en el transporte…, según datos de la Agencia Europea del Medio Ambiente. Sin embargo, con este dato encima de la mesa, ¿nos hemos preocupado lo suficiente por la calidad del aire interior? Javier González, investigador del Instituto de Procesos Sostenibles (IPS) de la Universidad de Valladolid (UVa), lo tiene claro: “Tradicionalmente, solo la contaminación del aire y el entorno exterior se ha tenido en cuenta, pero en muchos escenarios, los niveles de contaminación son mayores en el interior. Recientemente, debido a la situación causada por la COVID-19, se ha acentuado aún más este problema, así como la necesidad de tratamiento del aire interior para mantener una buena calidad de aire”.

Atendiendo a datos publicados recientemente por la Organización Mundial de la Salud, más de 4 millones de personas mueren prematuramente al año por enfermedades atribuibles a la contaminación del aire de los hogares. Además, este tipo de polución genera pérdidas multimillonarias a empresas y Estados debido a la reducción de la productividad de los empleados, a las bajas laborales, mayores gastos del sistema de sanidad pública… Se estima que en el año 2010 estos costes asociados a la contaminación ascendieron a 1431 billones de dólares en la región de Europa. En este contexto, investigadores del Departamento de Ingeniería Química y Tecnología Ambiental de la UVa han publicado una revisión sobre la contaminación del aire en interiores y las estrategias de control. “La investigación en esta área presenta una gran oportunidad de innovación que puede tener mucho impacto en el funcionamiento de los edificios en un futuro no muy lejano. La mayor eficiencia energética de los edificios y los mayores niveles de contaminación que pueden darse pueden hacer que las biotecnologías sean indispensables para obtener una buena calidad de aire de interior”, reflexiona el investigador.

Personas trabajando en una cocina. Fotografía: Cipher. Flickr. CC-BY-SA-2.0

Contaminación interior contra eficiencia energética

La contaminación del aire y la exposición humana al aire de baja calidad es una de las amenazas ambientales que más preocupan actualmente a investigadores y personal sanitario. Sin embargo, estos efectos cada vez serán mayores debido al continuo crecimiento de las ciudades y a la mejora del aislamiento de los edificios. La normativa de edificación moderna se basa en fomentar el ahorro energético, provocando la reducción sustancial del intercambio de aire y, consecuentemente, un aumento de la concentración de contaminantes interiores. “Las medidas para la mejora de eficiencia energética suelen conllevar menor intercambio de aire con el exterior, que es la medida más sencilla de prevenir la mala calidad de aire de interior. Con sistemas de ventilación forzada aún se necesitaría aclimatar el aire exterior, por lo que en un futuro de mayor eficiencia energética la solución sería depurar el aire interior. En este escenario las tecnologías de depuración deben aparecer como una solución que sea viable y económica, por lo que la investigación en esta área es fundamental”, propone Javier González.

Minero en un yacimiento de carbón en Paipa Fotografía: RMaxSteenkist. Flickr CC-BY-NC-2.0

¿Cuáles son los principales contaminantes?

La información disponible sobre la contaminación interior es, hasta ahora, muy limitada, pero existen evidencias de que materiales particulados, compuestos inorgánicos volátiles y compuestos orgánicos volátiles son los contaminantes más frecuentes. Y, ¿de dónde proceden estos contaminantes?

Las partículas ingresan en los ambientes interiores, por un lado, a través de la ventilación, y, por otro, a través de aparatos de combustión como hornos o estufas y el humo del tabaco. Este contaminante es especialmente preocupante cuando el combustible utilizado es biomasa. Por otro lado, los compuestos inorgánicos volátiles como el dióxido de carbono (CO2), el monóxido de carbono (CO) o el ozono pueden aparecer en dispositivos de cocina y calefacción defectuosos, gases de vehículos o chimeneas. Y los compuestos orgánicos volátiles, tales como el benceno, el naftaleno o el tolueno, se desprenden, entre otras cosas, de los materiales de construcción utilizados en los edificios, plásticos, pinturas, productos de limpieza y farmacéuticos… “La contaminación más frecuente podría deberse a las partículas, ya que pueden provenir de todo tipo de fuentes. También se encuentran con bastante frecuencia compuestos inorgánicos como CO2, CO, óxidos de nitrógeno y ozono. El material particulado y los compuestos inorgánicos volátiles han sido muy estudiados en contaminación exterior, por lo que han sido los primeros en estudiarse en ambientes interiores. En los últimos años se están detectando cada vez más compuestos orgánicos volátiles en entornos de interior, que provienen tanto de materiales del propio edificio como de productos de uso puntual (limpieza, higiene personal…)”, aclara el investigador del IPS.

En este contexto, es fundamental encontrar mecanismos de prevención y minimización de las emisiones de contaminantes en interiores que sean suficientes y técnica y económicamente viables. Se han propuesto varias estrategias para prevenir la emisión y disminuir la concentración de gases. En general, la ventilación es la medida más sencilla y viable, y combinada con un control de la temperatura y la humedad relativa da buenos resultados. No obstante, cuando esto no es posible por, por ejemplo, encontrarse el edificio en una zona con alta contaminación exterior, las tecnologías físico-químicas y los métodos de purificación de base biológica se establecen como alternativas. “Actualmente, en los edificios de nueva construcción ya se incorporan estas tecnologías como buena combinación de eficiencia energética y control de calidad de aire. En espacios de mayor contaminación externa sería beneficioso incorporar estas tecnologías. El inconveniente es que las tecnologías de tratamiento de aire de interior, especialmente las que más ventajas ofrecen como las biotecnologías, aún están en desarrollo y apenas existen dispositivos comerciales que puedan utilizarse en un escenario real”, concluye González.

Bibliografía

Javier González-Martín, Norbertus Johannes Richardus Kraakman, Cristina Pérez, Raquel Lebrero Raúl Muñoz. ‘A state–of–the-art review on indoor air pollution and strategies for indoor air pollution control’ Chemosphere Volume 262, January 2021, 128376. DOI: https://doi.org/10.1016/j.chemosphere.2020.128376

Categorías
Área - Ciencias Sociales y Jurídicas Comunicación Reportajes

Las hipotecas referenciadas al euríbor han experimentado sobrecostes hasta del 20% debido a las manipulaciones

Las hipotecas referenciadas al euríbor han experimentado sobrecostes hasta del 20% debido a las manipulaciones

Seis investigadores de la Universidad de Valladolid concluyen que la manipulación del tipo de interés entre 2005 y 2008 tuvo una clara repercusión en los préstamos hipotecarios hasta el año 2010

El 15 de septiembre de 2008 pasó a la historia por ser uno de los días más oscuros para los mercados financieros a nivel mundial. La quiebra del banco Lehman Brothers provocó la caída de los dos índices accionarios más importantes de Estados Unidos (el Dow Jones y el S&P500) en cuestión de horas; y tras ellos la caída de los principales índices bursátiles de todo el mundo. Esta caída derivó en el inicio de investigaciones a multitud de empresas financieras a lo largo y ancho del planeta que concluyeron con el reconocimiento de manipulación por parte de varios miembros del panel de instituciones bancarias que formaron el núcleo de información para el cálculo del euríbor. En 2011 la Comisión abrió un procedimiento sancionador a siete bancos por falseamiento de la competencia en el sector de los derivados sobre tipos de interés en euros (euríbor) Barclays, Deutsche Bank, Société Générale, Royal Bank of Scotland, Crédit Agricole, HSBC y JPMorgan. Los cuatro primeros reconocieron sus prácticas irregulares, colaboraron y llegaron a un acuerdo con la Comisión. Fruto de este acuerdo, el 4 de diciembre de 2013 Bruselas impuso a Barclays, Deutsche Bank, Société Générale y Royal Bank of Scotland la mayor sanción de su historia, 1.042.749 miles de euros en total, tras una reducción de la multa del 100%, 30%, 5% y 50%, respectivamente, por su colaboración en la investigación. Por otra parte, La Comisión Europea impuso el 7 de diciembre de 2016 una sanción total de 485.456 miles de euros a los tres bancos no colaboradores, Crédit Agricole, HSBC y JPMorgan. Estos tres bancos no habían cooperado activamente en la investigación de la Comisión.

En este contexto, un grupo formado por seis investigadores de los departamentos de Economía Aplicada, Fundamentos del Análisis Económico y Economía Financiera y Contabilidad de la Universidad de Valladolid ha comenzado una línea de investigación para la elaboraboración de modelos econométricos que permite cuantificar el impacto que ha tenido esta manipulación en los préstamos hipotecarios de muchos ciudadanos. La idea de estudiar este problema desde un punto de vista estadístico-econométrico asentado en los fundamentos de la Teoría económica y financiera partió de un buferte de abogados, el cual aportó  el documento titulado Guía práctica para cuantificar el perjuicio en las demandas por daños y perjuicios por incumplimiento de los artículos 101 o 102 del tratado de funcionamiento de la Unión Europea. “Este bufete de abogados observó que había existido una manipulación en el euríbor que la Comisión Europea había sancionado y, pese a que hasta el propio Joaquín Almunia [ex vicepresidente de la Comisión Europea] afirmó que no había existido daño para los ciudadanos, este grupo de abogados ha querido analizar el daño real ocasionado”, expone Araceli Rodríguez, investigadora del departamento de Fundamentos del Análisis Económico. A la luz de dicho documento, el equipo de investigadores consideró factible calcular el daño causado por la manipulación del Euribor, mediante la modelización econométrica expresamente admitida en esa Guía.

¿Qué es el euríbor?

“Condena por manipular el euríbor en un contrato hipotecario”, “el euríbor sube con fuerza a la espera del tapering”, “el euríbor sigue en terreno negativo por quinto año consecutivo”… A diario escuchamos en alguna ocasión esta palabra; pero, ¿sabemos qué significa realmente?

El euríbor o European InterBank Offered Rate es un tipo de interés aplicado a las operaciones entre bancos de Europa. Es decir, es el porcentaje medio al que los bancos europeos dicen prestarse dinero entre ellos a un plazo determinado. ¿Y cómo se puede manipular este dato? “Hasta 2019, el euríbor se calculaba diariamente en base a apreciaciones sobre los tipos de interés a los que los bancos estarían dispuestos a prestarse el dinero. En 2019, a raíz de las sanciones por prácticas colusorias impuestas a los bancos por la Comisión Europea, se reformó la metodología de cálculo del euríbor” y “ahora se calcula en base a transacciones reales entre entidades financieras”, explica la perito.

De esta forma, hasta 2019 se calculaba tomando como referencia los tipos de interés hipotéticos que hubieran aplicado los bancos por  el depósito de dinero de unos en otros. Las apreciaciones no se correspondían con transacciones reales sino que respondían más bien a estrategias o a posiciones deudoras o acreedoras de las entidades en los mercados de divisas y de derivados financieros por lo que estos datos no generaban ningún compromiso. De este modo, las entidades sancionadas, participaron en acuerdos en el sector de los derivados sobre tipos de interés en euros mediante diferentes prácticas de intercambio de información. En cambio, en la actualidad, al calcularse el Euribor en base a las transacciones reales entre entidades bancarias, la manipulación es mucho más complicada.

¿Cómo ha afectado esta manipulación a los ciudadanos?

Son muchas las personas que al comprar una casa firmaron una hipoteca cuyos intereses están directamente relacionados con el Euríbor. Esto quiere decir que el coste de la hipoteca subirá cuando el Euríbor suba y bajará cuando el Euríbor baje. Por ello, es de vital importancia conocer cómo se manipuló este índice entre septiembre de 2005 y mayo de 2008, ya que pudo suponer un sobrecoste en los préstamos hipotecarios de muchos ciudadanos.

Así, los seis investigadores de la UVa, dirigidos por el catedrático José Luis Rojo, han elaborado un modelo econométrico (con diferentes versiones y mejoras) que permite estimar la evolución del Euribor a 12 meses si no hubiese existido la  manipulación. De esta forma, han conseguido calcular la diferencia entre los pagos de los préstamos hipotecarios en el contexto manipulado y en el no manipulado. El periodo en el que se manipuló el euríbor estaba ya de por sí muy alto. Por lo que si a esto le sumamos la manipulación se pagó mucho más de lo que debería. Por ejemplo, para una hipoteca a 10 años con un principal de 100 000€ de capital pendiente en mayo de 2005, la cantidad de intereses pagados en exceso durante el periodo de manipulación (septiembre de 2005 a mayo de 2008) habría sido de 775€ (aproximadamente, un 13% del total de intereses efectivamente pagados en dicho periodo). La cantidad de intereses indebidamente pagados en el conjunto de la hipoteca habría alcanzado los 2778€ (alrededor de un 23% del total de intereses efectivamente pagados).

Bibliografía

Rodríguez-López, Araceli; Fernández-Abascal, Hermenegildo; Maté-García, Jorge-Julio; Rodríguez-Fernández, José-Miguel; Rojo-García, José-Luis; Sanz-Gómez, José-Antonio (2021) ‘Evaluating Euribor Manipulation: Effects on Mortgage Borrowers’. Finance Research Letters. Volume 40, May 2021, 101795 DOI: https://doi.org/10.1016/j.frl.2020.101795 , JCR Q1 (6/108)

Categorías
Área - Ciencias Comunicación Reportajes

Un espionaje molecular advierte de posibles complicaciones en los catalizadores de oro

Un espionaje molecular advierte de posibles complicaciones en los catalizadores de oro

Un equipo investigador de la UVa profundiza en el uso de este metal precioso para procesos industriales farmacéuticos o de química fina

La Química ha experimentado en el siglo XXI una fiebre del oro. Grupos de investigación de todo el mundo se han lanzado a describir nuevas aplicaciones de este metal precioso a raíz de descubrimientos en las dos últimas décadas sobre su capacidad para catalizar determinadas reacciones químicas, lo que ha contribuido a mejorar procesos industriales en farmacia o química fina. Un equipo del Instituto Universitario CINQUIMA, de la Universidad de Valladolid (UVa), se ha fijado en esta ocasión en las complicaciones que pueden surgir en determinadas catálisis en la que está presente el elemento 79 de la tabla periódica haciendo uso de la resonancia magnética nuclear (RMN), una técnica de espionaje molecular.

Muchas reacciones químicas no se producen porque la barrera energética que habría que superar es excesivamente alta. Sin embargo, en presencia de un catalizador sí pueden tener lugar. Un catalizador es “una sustancia que acelera una reacción química y abre una nueva ruta para la obtención del producto deseado, sin ser consumido en el proceso”, según lo define Camino Bartolomé, miembro del Instituto de Investigación CINQUIMA de la UVa.

Una de las líneas desarrolladas por la unidad de investigación consolidada UIC176 a la que pertenecen los autores del artículo consiste en diseñar y estudiar el comportamiento de nuevos catalizadores de diferentes metales, entre ellos el oro, cuyo denominador común es que poseen un arilo fluorado enlazado al metal. En concreto, en un trabajo publicado recientemente han estudiado cómo se produce la transferencia de un resto orgánico, el arilo fluorado, entre dos átomos de oro utilizando varias herramientas habituales en el desarrollo de las líneas de investigación del CINQUIMA. La RMN, explica Bartolomé, “permite espiar a las moléculas, ver cómo se van transformando”. Como si fueran agentes secretos, los investigadores emplearon los núcleos de fluor de la estructura como sofisticada lupa. Además, la técnica de difracción de rayos X “nos ha permitido fotografiar los productos de esta reorganización”, indica la investigadora. “Hemos combinado todas estas observaciones con cálculos teóricos para poder entender esta reorganización observada sobre el oro”, prosigue.

“Lo más importante de este trabajo ha sido que hemos corroborado que la reorganización de arilos depende de la elección del disolvente y de otros detalles que en ocasiones no se dan importancia en muchas reacciones químicas catalizadas por metales de transición”, precisa la profesora titular de Química Inorgánica. El trabajo, por lo tanto, constituye una advertencia sobre posibles complicaciones en procesos donde interviene un catalizador metálico y más concretamente de oro. Los resultados de este estudio científico se han publicado en la revista científica Chemical Communications.

Las investigadoras del IU CINQUIMA Camino Bartolomé (izquierda) y Sara Fernández

El oro y otros metales

Aunque es considerado un valor refugio en economía, el empleo del oro como catalizador es para el sector productivo más asequible que el rodio o el paladio, y presenta ventajas respecto al cobre, una materia prima más disponible en la naturaleza y, por lo tanto, más barata. “Cuando a principios del siglo XXI se comienzan a publicar trabajos que demuestran la extraordinaria actividad del oro en procesos de formación de enlaces carbono-carbono, este metal se sitúa en un lugar fundamental en catálisis homogénea y síntesis orgánica”, subraya Bartolomé. “El oro es capaz de activar triples enlaces carbono-carbono selectivamente frente a otros metales, lo que hace que en algunas de estas transformaciones catalizadas sea el candidato perfecto”.

La unidad de investigación consolidada no solo trabaja con el oro en el diseño y preparación de nuevos catalizadores, sino también con otros metales como el paladio, el rodio, el iridio, el níquel y el cobre, todos de interés para la industria farmacéutica. Esta línea de investigación, codirigida por Pablo Espinet y Camino Bartolomé, forma parte del trabajo de fin de máster de Sara Fernández Moyano, y en él ha colaborado muy activamente Marconi Peñas (que actualmente disfruta de un contrato postdoctoral financiado por el Irish Research Council con un grupo puntero en Química Computacional) todos en ese momento miembros del CINQUIMA.

Una disciplina mixta

El trabajo de investigación se sitúa dentro la Química Organometálica, una disciplina que actúa de nexo entre dos grandes ramas de la Química, la Orgánica y la Inorgánica. Fue el químico sueco Jöns Jacob Berzelius quien a principios del siglo XIX diferencia entre los de los compuestos los que contienen carbono, los orgánicos, y los que no, los inorgánicos. Ahora, las fronteras están más difusas. En la Química Organometálica se produce al menos un enlace entre un metal, más propio de la Química Inorgánica, y el carbono, base de la Química Orgánica.

Bibliografía

Sara Fernández-Moyano,Marconi N. Peñas-Defrutos,Camino Bartolomé y Pablo Espinet, ‘Striking ligand-disproportionative Cl/arylscrambling in a simple Au(III) system. Solvent role,driving forces and mechanisms’, Chem.Commun., 2021, 57, 125. DOI: 10.1039/D0CC06450E