Información

¿Podría haber algún efecto por el uso de infrarrojos de baja potencia para rastrear los movimientos oculares a largo plazo?

¿Podría haber algún efecto por el uso de infrarrojos de baja potencia para rastrear los movimientos oculares a largo plazo?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Básicamente, mirar en LED infrarrojos y una cámara con un filtro de paso de banda infrarrojo para rastrear los movimientos de los ojos; Mi preocupación es si habría algún efecto negativo potencial a largo plazo al iluminar constantemente el ojo con infrarrojos de baja potencia. TIA A


Habría dicho que la IR es segura, pero algunos estudios han sugerido lo contrario.

Este es un estudio vago sobre ojos de conejo:

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3116568/

https://academic.oup.com/annweh/article-abstract/35/1/1/170395

Por lo tanto, puede haber un límite de exposición dosimétrico de algún tipo al que debe apuntar. Los LED son muy controlables. Me sorprende que hablen de cataratas con una longitud de onda químicamente suave y no ionizante como la IR, porque recibimos IR todo el día del sol. Si controla los niveles para que sean inferiores a los de un día soleado, puede encontrar que puede usar el equivalente a 1 hora de exposición al sol para ejecutar muchas horas de seguimiento ocular. las cifras son cuestión de investigación.


Las ondas de calor son probablemente ondas infrarrojas. Tenemos estos a nuestro alrededor (con gran intensidad) todo el tiempo. Un infrarrojo de pequeña intensidad de un LED no causará ningún problema en absoluto, incluso a largo plazo. Nuestros ojos han evolucionado para soportar intensidades mucho mayores (es decir, alrededor de una temperatura de 45 ° C). Entonces, no hay necesidad de preocuparse.

Pero dado que el agua se pierde por las olas de calor, permita que el sujeto parpadee con frecuencia.


Monitoreo de volcanes

80 km, se separan, se deslizan uno al lado del otro o chocan sobre el interior caliente y viscoso de la Tierra. Los volcanes tienden a formarse donde las placas chocan o se separan (Fig. 2), pero también pueden crecer en el medio de una placa, como los volcanes hawaianos (Fig. 3).
De los más de 1.500 volcanes en todo el mundo que se cree que han estado activos en los últimos 10.000 años, 169 se encuentran en los Estados Unidos y sus territorios (Ewert et al., 2005) (ver Fig. 4). En la primavera de 2007, dos de estos volcanes, Kilauea y Mount St. Helens, están en erupción, mientras que varios otros, incluidos Mauna Loa, Fourpeaked, Korovin, Veniaminof y Anatahan, exhiben uno o más signos de inquietud, como terremotos anómalos, deformación de la superficie del volcán, o cambios en el volumen y la composición de las emisiones de gases volcánicos, que podrían predecir el inicio de otra erupción.

Figura 1. Mapa del mundo que muestra la ubicación de los volcanes, muchos alrededor del borde del Pacífico y a lo largo de los límites de otras placas tectónicas. Imagen cortesía del Programa Global de Vulcanismo de la Institución Smithsonian (http://www.volcano.si.edu/world/find_regions.cfm.) Para un mapa más detallado de volcanes, terremotos, cráteres de impacto y placas tectónicas, ver Simkin et al. (2006). Imagen preparada por Paul Kimberly, Programa Global de Vulcanismo de la Institución Smithsonian.

Figura 2. Sección transversal esquemática de la tectónica de placas de Simkin et al. (2006 (que muestra diferentes tipos de límites de placas. Imagen elaborada por José F Vigil y Robert I. Tilling. Los volcanes, en virtud de su geología y tipografía, muestran paisajes evocadores y albergan diversos ecosistemas, muchos de los cuales son delicados y únicos. Las erupciones volcánicas pueden arrasar paisajes y amenazar vidas, ecosistemas y propiedades. Por ejemplo, la erupción del monte St. Helens en 1980, aunque relativamente modesta en la escala de posibles eventos volcánicos en los Estados Unidos, liberó energía equivalente a una explosión de 24 megatones. devastando bosques y destruyendo la vida silvestre, incluidos casi 7,000 animales de caza mayor, en más de 600 km 2, matando a 57 personas e infligiendo más de $ 1 mil millones en daños a la economía, la agricultura, las empresas y las estructuras locales. Por lo tanto, los mismos procesos que producen la estética y los recursos ecológicos que asociamos con los volcanes también son capaces de destruir esos recursos en minutos.
La mayoría de los volcanes son capaces de producir erupciones que representan una amenaza significativa para los paisajes naturales, las vidas, los ecosistemas y las propiedades, pero afortunadamente, las erupciones suelen estar precedidas por semanas o meses de creciente inquietud, lo que permite pronosticar las erupciones si los volcanes están debidamente instrumentados y los datos se interpretan. por equipos de expertos en los campos de geología, sismología, geodesia y geoquímica de volcanes.

Figura 3. Vista esquemática en corte a lo largo de la cadena de islas de Hawai de Simkin et al. (2006) que muestra el penacho del manto inferido que ha sostenido el hotspot hawaiano en la placa predominante del Pacífico.

Las edades geológicas del volcán más antiguo de cada isla son progresivamente más antiguas hacia el noroeste, de acuerdo con el modelo de hotspot para el origen de la cadena de montes submarinos Hawaiian Ridge-Emperor. Preparado por Joel E. Robinson.

En los Estados Unidos, la Ley de Asistencia de Emergencia y Alivio de Desastres Robert T. Stafford exige que el Servicio Geológico de los Estados Unidos (USGS) emita advertencias oportunas de posibles desastres geológicos a la población afectada y las autoridades civiles. A través del mandato de esta ley, el USGS tiene la responsabilidad principal de monitorear la actividad volcánica en los Estados Unidos. El USGS mantiene redes de monitoreo que consisten en un gran número y una amplia variedad de instrumentos de monitoreo con el fin de recopilar los datos necesarios para pronosticar el comportamiento volcánico y emitir advertencias e información para reducir la pérdida de vidas, propiedades y el impacto económico de los peligros relacionados con los volcanes. Si bien los datos obtenidos de estas redes de monitoreo contribuyen a la investigación básica y promueven la comprensión científica de los volcanes, la justificación principal para el despliegue de instrumentos es la seguridad pública y la reducción de desastres.
En este capítulo, discutiremos los principales signos vitales asociados con las erupciones volcánicas, explicaremos los métodos para monitorearlos y daremos un caso de estudio. Los signos vitales descritos incluyen actividad sísmica, deformación del suelo, emisión de gas, columnas de gas, actividad hidrológica e inestabilidad de taludes. Los métodos de seguimiento van desde los bien establecidos hasta las últimas innovaciones que deberían convertirse en una rutina en los próximos años.

Figura 4. Mapa que muestra la ubicación de los volcanes en los Estados Unidos, clasificados por nivel de amenaza según lo determinado por el Sistema Nacional de Alerta Temprana de Volcanes del Servicio Geológico de los Estados Unidos. Estilo y frecuencia de la erupción

Los volcanes individuales hacen erupción diferentes combinaciones de flujos de lava, flujos piroclásticos y tefra (cenizas y eyecciones fragmentarias más gruesas). En algunos volcanes, los deslizamientos de tierra, los flujos de escombros y las inundaciones son tan peligrosos o más peligrosos que las erupciones volcánicas mismas. Los flujos de escombros son mezclas de lodo, rocas, cantos rodados y agua que viajan a velocidades de decenas a hasta 100 km / h. Los flujos de escombros altamente móviles que se originan en un volcán también se denominan lahares. La evaluación de probables eventos eruptivos y peligrosos (estilo de evento, tamaño y frecuencia) en volcanes individuales se logra mediante la construcción de mapas geológicos y la realización de evaluaciones de peligros.
Los factores que influyen en los estilos de erupción son: las diversas temperaturas y composiciones químicas de los magmas que alimentan un volcán, la velocidad a la que el magma llega a la superficie y factores locales, como la presencia de fallas o fracturas que pueden servir como vías fáciles para que el magma llegue a la superficie. superficie, o que permiten que los gases volcánicos escapen del magma de manera no explosiva. Estos factores de control generalmente se desconocen o no se comprenden lo suficiente de antemano para ayudar a desarrollar evaluaciones detalladas de peligros o pronósticos de erupciones. En cambio, el mapeo geológico y las investigaciones asociadas se utilizan para examinar, documentar y cuantificar la actividad pasada de un volcán. En estas investigaciones, se identifican características clave que distinguen depósitos particulares entre sí, y las relaciones superpuestas entre depósitos revelan las secuencias de eventos. El rastreo de depósitos individuales a lo largo del paisaje permite a los geólogos determinar el tamaño de eventos pasados ​​y así estimar las regiones que probablemente se verán afectadas por eventos similares en el futuro. Los geólogos recogen muestras adecuadas para la datación por edades mediante diversas técnicas de laboratorio. En conjunto, la información sobre los tipos de eventos (erupciones, deslizamientos de tierra, flujos de escombros), sus magnitudes y sus frecuencias se combinan para dar una historia de un volcán. Por lo general, se encuentran características inesperadas al determinar esta historia volcánica, y los estudios detallados de estas características mejoran la comprensión de los procesos volcánicos generales, lo que permite estrategias de monitoreo mejor diseñadas y pronósticos más precisos del comportamiento futuro.
Los eventos volcánicos son probabilísticos, es decir, el tiempo entre erupciones, colapsos de flancos, flujos de escombros o inundaciones puede ser más corto o más largo que el promedio, y los intervalos de tiempo pueden describirse mediante distribuciones de probabilidad (Nathenson, 2001). El enfoque más simple es dividir el número de eventos conocidos por el tiempo total abarcado para llegar a un intervalo de recurrencia promedio, pero este enfoque tiene importantes inconvenientes. Se sabe que algunos volcanes experimentan un comportamiento episódico, donde ocurren múltiples eventos muy espaciados en el tiempo, y luego no ocurren eventos durante un intervalo de tiempo mucho más largo que el promedio. La agrupación de eventos es probablemente típica de todos los volcanes hasta cierto punto, y subyace a la intuición de que es más peligroso acercarse a un volcán que entró en erupción recientemente que acercarse a un volcán que no ha entrado en erupción durante mucho tiempo. Además, la probabilidad de un evento está acoplada de alguna manera con la magnitud del evento, con erupciones más pequeñas, flujos de escombros, deslizamientos de tierra o inundaciones que ocurren con mayor frecuencia que las más grandes. Los datos globales ilustran que los períodos prolongados de tranquilidad suelen preceder a las erupciones más explosivas y peligrosas. Por ejemplo, de las 16 erupciones explosivas más grandes de los siglos XIX y XX, 12 fueron de volcanes sin erupciones históricas previamente conocidas (Simkin y Siebert, 1994). El mapeo geológico y las investigaciones de campo relacionadas, junto con la datación por edad, brindan la información necesaria para las estimaciones de probabilidad que vinculan el estilo, la magnitud y la frecuencia de los eventos.

Peligros de volcán

Los riesgos de los peligros de un volcán comúnmente se extienden mucho más allá de la cima de un volcán. Por ejemplo, los fondos de los valles hasta 80 km más allá de la cumbre del Monte Rainier corren el riesgo de inundarse por los flujos de lodo generados en sus flancos dentro del Parque Nacional Mount Rainier. Más de 150.000 personas viven en estas áreas de peligro de inundaciones y las principales líneas de vida del transporte las cruzan (Driedger y Scott, 2002). Los flujos de lava del actualmente inquieto volcán Mauna Loa en Hawai‘i pueden llegar a la altamente desarrollada costa de Kona en tan solo dos horas. El daño potencial que estos peligros pueden causar, en términos de pérdida de vidas y trastornos en la sociedad y la economía de la que depende, son consideraciones serias para las comunidades de ladera abajo.
Las nubes de ceniza en el aire son un peligro grave para las aeronaves. Los motores de los aviones a reacción han fallado después de volar a través de nubes a la deriva de cenizas incluso finamente dispersas a medio continente de los volcanes que las crearon. Grandes nubes de finas partículas de ceniza volcánica son transportadas por los vientos durante cientos o miles de kilómetros más allá de su fuente volcánica (Fig. 5). Las partículas de ceniza volcánica son fragmentos angulares y abrasivos de rocas, minerales y vidrio volcánico del tamaño de arena y limo que tienen la dureza de la hoja de una navaja de bolsillo (Kenedi et al., 2000 Neal et al., 1997). Estas partículas desgastan las palas de la turbina y las superficies principales de la aeronave, causan fallas en los componentes electrónicos y se funden y se fusionan en los motores, lo que causa una pérdida catastrófica y completa de potencia.
La ceniza volcánica es extremadamente abrasiva. La respiración prolongada de ceniza causa irritación e infección nasal, de garganta y de ojos, tanto en humanos como en animales. Puede ocurrir dificultad para respirar, dolor de garganta y bronquitis (de http://volcanoes.usgs.gov/ash/ citando a Blong, 1984). Las capas de ceniza de unos pocos milímetros de espesor retardarán el crecimiento de las plantas y, si se ingieren, pueden enfermar o matar animales, especialmente ganado y otros rumiantes domésticos y salvajes. Las caídas de ceniza más gruesas pueden asfixiar a las personas, las plantas y los animales. Las caídas de ceniza también pueden arruinar los motores de combustión interna, hacer que los techos se derrumben y las redes de comunicación fallen, y romper las líneas eléctricas. Las piedras lo suficientemente grandes como para herir gravemente o matar a personas, plantas y animales pueden ser expulsadas hasta unos pocos kilómetros de un volcán explosivo. Los vientos o incluso los vehículos que pasan pueden remover las cenizas en el aire (Kenedi et al., 2000).

Figura 5. Imagen de tipos de peligros volcánicos. De Myers y Brantley (1995). Los períodos de disturbios volcánicos, incluso aquellos que no conducen a erupciones, probablemente desencadenarán respuestas de emergencia que pueden conducir al cierre de áreas y evacuaciones de la comunidad. Los volcanes inquietos desafían a los funcionarios públicos porque los disturbios crean incertidumbre sobre cuánto tiempo durará la inquietud, cuándo terminará, su gravedad, quiénes se verán afectados e incluso si se producirá una erupción. Todas estas incertidumbres causan un gran impacto psicológico y económico en las áreas alrededor de un volcán. La incertidumbre trae consigo una intensa demanda de información precisa y fidedigna. Las autoridades civiles necesitan información para garantizar la seguridad pública, los dueños de negocios usan la información para tomar decisiones comerciales y los medios de comunicación buscan toda la información que pueden obtener todo el tiempo. Satisfacer todas estas demandas de información precisa y actualizada no es fácil.

Niveles de amenaza volcánica y monitoreo de volcanes

La amenaza volcánica es una combinación de fenómenos naturales destructivos que un volcán es capaz de producir (peligro volcánico) y las personas, la propiedad y la infraestructura en riesgo de estos fenómenos (exposición). Hacer coincidir el nivel de monitoreo requerido de un volcán con su nivel de amenaza proporciona la mayor seguridad para la mayoría de las personas y la infraestructura en riesgo, y distribuye de manera más eficiente los fondos y el tiempo de los científicos. Emparejar el monitoreo requerido con el nivel de amenaza se hizo posible en 2005 cuando el USGS cuantificó el peligro volcánico, la exposición al riesgo y los niveles de amenaza para los 169 volcanes geológicamente activos en los Estados Unidos y sus territorios (Ewert et al., 2005).
Según su puntuación de amenaza numérica, cada volcán se colocó en una de las cinco categorías de amenaza: muy alta, alta, moderada, baja y muy baja. Cincuenta y cinco de los volcanes de la nación se definen como una amenaza muy alta o alta: esto es casi un tercio de todos los volcanes potencialmente activos de EE. UU. Debido a que muchos volcanes no se han estudiado o se han estudiado de manera incompleta, es probable que los puntajes de amenaza aumenten a medida que los estudios futuros descubran actividad eruptiva o disturbios pasados ​​previamente desconocidos, y a medida que la población y la infraestructura en riesgo aumenten.
Para proporcionar una advertencia adecuada, los volcanes con niveles de amenaza altos o muy altos requieren un monitoreo detallado intenso en tiempo real las 24 horas del día. Las señales de sus instrumentos de monitoreo deben transmitirse en tiempo real a un observatorio volcánico regional para que los vulcanólogos puedan diagnosticar rápidamente el significado de los cambios más sutiles. Como regla general, los volcanes en estas dos categorías de amenazas requerirán al menos 12-20 estaciones sísmicas permanentes dentro de los 20 km del respiradero volcánico principal, incluidas varias estaciones muy cercanas a los levantamientos rutinarios de deformación del respiradero y que registren continuamente el Sistema de posicionamiento global permanente ( Las estaciones GPS) frecuentes mediciones aéreas y terrestres de gases e instrumentos volcánicos a lo largo de los valles de los ríos, sensibles a los sonidos únicos de los flujos de lodo que pasan, que activan alarmas para advertir a las personas río abajo. Los volcanes de amenaza moderada requerirán monitoreo en tiempo real para detectar señales débiles pre-eruptivas a medida que ocurren. La cobertura típica requerirá seis estaciones sísmicas dentro de los 20 km de un volcán, incluidas de tres a cuatro de altura en su flanco, al menos seis estaciones de GPS permanentes de registro continuo en las cercanías, mediciones de gas poco frecuentes según corresponda para cada volcán y detectores de flujo de lodo a lo largo del río. valles (Ewert et al., 2005).
Por supuesto, si los disturbios comenzaran o aumentaran, o si los datos de monitoreo sugirieran que un volcán determinado podría estar avanzando hacia una erupción, el monitoreo debería aumentarse lo más rápido posible para obtener datos actuales precisos. En respuesta a una mayor preocupación, se debería vigilar una variedad más amplia de fenómenos volcánicos. Se tendrían que instalar nuevos tipos de instrumentos, las redes de instrumentos existentes tendrían que aumentarse reconfigurando los instrumentos existentes y agregando otros nuevos, y las redes de transmisión de datos tendrían que fortalecerse, todo para permitir que los vulcanólogos interpreten los disturbios volcánicos y pronostiquen las posibles consecuencias. alrededor del reloj.
Los volcanes de baja amenaza y muy baja amenaza, por otro lado, requieren un nivel más bajo de monitoreo. Para estos volcanes, como para todos los volcanes, es necesario establecer datos de referencia sísmica, de deformación, de gas y de referencia hidrológica, después de lo cual los volcanes de baja amenaza solo requieren un monitoreo suficiente para detectar actividad anómala en tiempo casi real. Los volcanes de muy baja amenaza requerirían incluso menos vigilancia.
Debido a que los recursos eran insuficientes para instrumentar y monitorear todos los volcanes potencialmente activos a un nivel adecuado hasta hace muy poco, el monitoreo de volcanes por parte del USGS se realizó de manera reactiva, es decir, no se implementó un monitoreo adecuado hasta que se observó algún tipo de malestar en la superficie de la Tierra. . Por lo tanto, las señales precursoras pasaron desapercibidas y el intervalo entre los primeros signos de malestar observados y una crisis volcánica fue a menudo corto.
Por lo tanto, las autoridades civiles, los ciudadanos, las empresas y los científicos se vieron obligados a jugar un peligroso juego de "ponerse al día" con los volcanes. Las autoridades trabajaron horas extras para implementar medidas de defensa civil antes de que los disturbios escalasen a niveles peligrosos, mientras que los vulcanólogos se apresuraron a aumentar la instrumentación e instalar redes de comunicación mejoradas, a menudo con un gran costo y peligro para ellos mismos.
La determinación cuantitativa del nivel de amenaza específico para cada volcán de EE. UU. Permitiría al USGS distribuir recursos para que los volcanes más amenazantes pudieran ser monitoreados las 24 horas del día mucho antes de que muestren signos de disturbios. Este enfoque proactivo de monitoreo, de ser implementado, permitiría a los vulcanólogos enviar a las comunidades en riesgo información confiable desde el inicio de la inquietud, dándoles así la máxima cantidad de tiempo para activar los planes de respuesta y mitigación. El monitoreo proactivo por parte del USGS les da a los vulcanólogos la máxima cantidad de tiempo para aumentar el monitoreo si fuera necesario. Aunque no todos los volcanes inquietos entran en erupción, el monitoreo proactivo sigue siendo necesario para minimizar la reacción exagerada, que cuesta dinero, o la reacción insuficiente, que puede costar vidas. Sin embargo, el principal obstáculo para implementar un monitoreo proactivo en los Estados Unidos y en todo el mundo es encontrar los recursos para pagar el equipo y los científicos necesarios.
El monitoreo proactivo ofrece muchas ventajas prácticas sobre el monitoreo reactivo. Vigilancia:
• Minimiza el riesgo de erupciones inesperadas.
• Aumenta el tiempo para implementar medidas de defensa civil antes de que aumenten los disturbios y empeore una crisis volcánica.
• Permite la instalación segura de instrumentos y redes de comunicación en sitios planificados de antemano de manera ordenada. La mayoría de los volcanes de amenaza muy alta y de alta amenaza en los Estados Unidos son picos imponentes cubiertos de nieve y glaciares que son inaccesibles excepto durante una corta temporada de verano, mientras que el inicio de la inquietud volcánica puede ocurrir en cualquier época del año. La instalación y el mantenimiento del equipo durante el verano maximizan la probabilidad de que los sitios preferidos estén libres de nieve, garantiza la máxima seguridad para los vulcanólogos y el personal de apoyo, y brinda el tiempo adecuado para probar los instrumentos y las redes de comunicación.
• Aumenta la seguridad de los más de 80.000 pasajeros de aerolíneas por día que vuelan las rutas aéreas más transitadas a lo largo de los arcos volcánicos Cascade y Aleutian. Cuando se implemente por completo, el monitoreo proactivo de estos volcanes de arco permitirá a los vulcanólogos notificar a la Administración Federal de Aviación (FAA) dentro de los cinco minutos posteriores a una gran erupción explosiva, lo que permitirá a los aviones cambiar de rumbo rápidamente para evitar nubes de cenizas.
• Mejora la precisión y la puntualidad de las advertencias futuras. Durante los últimos 25 años, la comprensión de los procesos volcánicos básicos ha mejorado enormemente, basándose en parte en los datos obtenidos del monitoreo de volcanes a largo plazo. Los datos de monitoreo ayudan a los vulcanólogos a formular y probar modelos de cómo funcionan los volcanes. Mejores modelos, a su vez, mejoran la forma en que se monitorean los volcanes, identifican los métodos de monitoreo más efectivos y sugieren nuevas técnicas de monitoreo.
• Agrega credibilidad científica a las designaciones de los administradores de tierras de áreas seguras que pueden permanecer abiertas a los visitantes, en algunos casos incluso mientras un volcán continúa en erupción. Después de 18 años de relativa inactividad, Mount St. Helens volvió a despertar a fines de 2004 cuando el USGS detectó enjambres de pequeños terremotos, lo que alertó a los vulcanólogos sobre la presencia de magma debajo del volcán. El Servicio Forestal de los Estados Unidos cerró todos los accesos a la montaña. Durante el próximo año, una serie de cúpulas de lava se extruyeron episódicamente dentro del cráter del volcán, acompañadas de explosiones y desprendimientos de rocas (Schilling et al., 2006). Sin embargo, a mediados de 2006, el monitoreo del USGS indicó una desaceleración del crecimiento del domo, una disminución de las tasas de emisión de gas volcánico y el fin de las explosiones cuyos efectos se extienden más allá del cráter. Aunque el domo actual continuó creciendo a una velocidad de aproximadamente una carga de camión volquete por minuto, lo que dejó el cráter fuera de los límites por un tiempo, los vulcanólogos del USGS pudieron brindar orientación a los funcionarios del Servicio Forestal de los EE. UU., Permitiéndoles reabrir senderos al cumbre a mediados de 2006. Un sistema habilitado para la web para obtener permisos de escalada ayuda a garantizar la seguridad de los visitantes y permite una notificación rápida en caso de que cambie la actividad volcánica (Servicio Forestal de EE. UU., [2007–]).

Los volcanes inquietos y en erupción crean desafíos de gestión

Los volcanes inquietos y en erupción crean problemas a corto y largo plazo para los administradores de tierras y las autoridades civiles. Decidir cuál es la mejor manera de proteger la seguridad humana mientras se mantiene el acceso y se continúa con la vida diaria, incluso mientras continúa la inquietud, causa los desafíos más a corto plazo. Decidir dónde reconstruir las instalaciones dañadas y destruidas y cómo gestionar los recursos naturales destruidos y dañados crea desafíos a más largo plazo. Algunos ejemplos reales de problemas y respuestas a los disturbios volcánicos ilustran los desafíos que potencialmente enfrentan los administradores de tierras y las autoridades civiles. (Para obtener más ejemplos y más detalles, consulte el relato diario de los eventos y las respuestas que precedieron a la erupción cataclísmica del volcán Monte Santa Elena el 18 de mayo de 1980 en Klimasauskas, 2001).

Volcanes inquietos y en erupción:
Atraiga espectadores que ignoran ingenuamente los peligros de los volcanes, pero que, sin embargo, están ansiosos por ver la actividad por sí mismos de cerca.. El 1 de abril de 1980, seis semanas antes de que un inquieto monte St. Helens entrara en erupción cataclísmicamente, dos condados cercanos al volcán pidieron ayuda a la Guardia Nacional de su estado. Los condados habían mantenido seis bloqueos de carreteras durante todo el día durante solo cuatro días antes de darse cuenta de que no podían evitar que las personas ingresaran a las zonas de peligro designadas oficialmente. Un portavoz de la FAA estimó que hasta 100 aviones estaban en la zona de vuelo controlado alrededor del volcán el mismo día. Muchos aviones mantuvieron intencionalmente silencio de radio presumiblemente para escapar de la detección (Klimasauskas, 2001). Un estudio de excursionistas en el desierto en el Parque Nacional de los Volcanes de Hawai'i que ignoraron las señales de advertencia prominentes del Servicio de Parques Nacionales (NPS) e intentaron alcanzar los flujos de lava activos encontró que el 77% sufría deshidratación, más de la mitad regresó con raspaduras y abrasiones, y el 6% sufrió de huesos rotos. “Muchos excursionistas eran turistas sin experiencia dispuestos a ignorar las señales de advertencia y entrar en áreas de alto riesgo” (Heggie y Heggie, 2004). Incluso han muerto varios excursionistas (Johnson et al., 2000). Takahashi y col. (2003, fotos 44, 45 y 55) muestran el espectacular encuentro de la lava fundida con el océano que atrae a los visitantes del parque a ignorar las advertencias.
Exigir la designación de áreas de acceso restringido y exclusión completa, lo que a su vez requiere colocar letreros, difundir restricciones al público y aumentar el personal encargado de hacer cumplir la ley para garantizar que el público se mantenga fuera de peligro.. Los límites de las áreas cerradas deben ajustarse a medida que los disturbios volcánicos aumentan y disminuyen, a veces por razones distintas de la seguridad pública. El 8 de abril de 1980, en Mount St. Helens, "los funcionarios trasladaron el control de carretera en la ruta estatal 503 desde Jack’s Store de regreso al canal Swift al este de Cougar después de que los comerciantes locales amenazaran con demandarlos por pérdida de negocio" (Klimasauskas, 2001). Esta acción acercó el límite del área restringida al volcán. El 10 de abril de 1980, el costo informado de mantener los controles de carreteras en las proximidades de Mount St. Helens era de 9.000 dólares al día. Para ahorrar dinero, el Servicio Forestal de Estados Unidos cerró su centro de prensa y puso en tierra sus dos aviones de observación. El 15 de abril de 1980, un condado cerró algunos de sus controles de carretera alegando “gastos, acoso público y el patrón estable de explosiones en el volcán” (Klimasauskas, 2001). La cataclísmica erupción del monte St. Helens se produjo 34 días después. Este tipo de problemas se pueden mitigar. Por ejemplo, la estrecha colaboración entre los científicos del USGS que monitorean los volcanes hawaianos y el personal del Parque Nacional Hawai'i Volcanoes le permite al NPS publicar información actualizada regularmente sobre áreas seguras e inseguras en el sitio web del parque (http: // www. Nps.gov/ havo / closed_areas.htm).
Afecta a plantas, animales (incluso insectos) y humanos. En casos extremos, la ceniza volcánica aumenta la morbilidad y mortalidad de plantas y animales a corto plazo. La lava, la ceniza y otros materiales eruptivos son estériles cuando se depositan por primera vez. Solo después de la meteorización se convierten en los suelos volcánicos ricos y productivos típicamente asociados con los volcanes. A corto plazo, la ceniza volcánica tiene un efecto deletéreo en plantas y animales. Por ejemplo, los pinos que crecen sobre cenizas volcánicas depositadas recientemente crecen más lentamente y son más cortos que las mismas especies que crecen en suelos cercanos no afectados (Ishii et al., 2003). La ceniza también puede obstruir los arroyos y aumentar su acidez a niveles letales para los peces y las plantas acuáticas. El 2 de abril de 1980, “Los operadores de un criadero de peces a unas 5 millas del monte St. Helens informaron de una disminución del pH de 6,8 a 5,8 causada por la lixiviación de cenizas volcánicas río arriba. A un pH de 5.0, los peces morirían, por lo que los gerentes del criadero decidieron liberar el salmón cuando el pH bajó a 5.5 ”(Klimasauskas, 2001). Los rumiantes son vulnerables al envenenamiento químico cuando pastan en áreas donde ha caído ceniza volcánica y al hambre en áreas cubiertas por extensos depósitos de ceniza (Blong, 1984). Incluso los insectos se ven afectados por las cenizas, el número de algunas especies se reduce significativamente, mientras que otras, liberadas de insectos depredadores, se convierten en plagas (Fuentes, 1975). Véase también Brosnan (2000) para conocer el efecto de un volcán en la vida vegetal.
Crear estrés en los organismos encargados de hacer cumplir la ley y la gestión de la tierra y su personal para responder a las solicitudes públicas de información.. La información solicitada no es necesariamente relevante para la situación de emergencia, y los contactos de ciudadanos airados son comunes. El 31 de marzo de 1980, los periódicos locales informaron que las llamadas a las oficinas del Servicio Forestal de los EE. UU. Sobre el inquieto Mount St. Helens incluían llamadas de "ciudadanos frustrados que no podían acceder a sus cabañas dentro de áreas cerradas mientras se había permitido la entrada a miembros de la prensa ..." a " los apostadores que piden el número de explosiones en las últimas 24 horas, hasta los que achacan la inquietud del volcán a la profanación de tumbas indígenas en la zona ”(Klimasauskas, 2001).
Requerir decisiones bajo presión sobre cuándo reubicar o cerrar instalaciones y negocios, mover equipos portátiles valiosos y reubicar a las personas que trabajan y viven en áreas recientemente restringidas.. Las reubicaciones y los cierres, o simplemente la posibilidad incierta de que ocurran, pueden generar cambios significativos en el funcionamiento de las empresas y las agencias gubernamentales. Estos cambios comúnmente afectan la actividad económica local, lo que genera presiones para evitar pérdidas económicas al retrasar decisiones o rescindir decisiones ya tomadas.

Conclusiones

Una variedad de señales precursoras son generadas por los muchos procesos que ocurren cuando la roca fundida (magma) se abre paso a través de millas de la corteza terrestre antes de la erupción en la superficie. Muchas de estas señales son extremadamente sutiles y complejas y, en consecuencia, requieren costosas matrices de instrumentos sensibles para detectar y científicos con años de experiencia para interpretar. Las secciones en el resto de este capítulo describen las diferentes técnicas principales utilizadas por el USGS para detectar, cuantificar e interpretar cada tipo de señal. De una forma u otra, cada técnica rastrea los tipos, magnitudes y ubicaciones de los terremotos, el levantamiento y el hundimiento de la superficie del suelo o los cambios en el calor, el agua y los gases emitidos por los volcanes. Debido a que las técnicas miden diferentes procesos que ocurren durante el ascenso del magma, el monitoreo efectivo requiere la aplicación de muchas técnicas simultáneamente para evaluar los desarrollos casi en tiempo real en un volcán.
Así como los médicos monitorean los posibles riesgos futuros para la salud de los pacientes mediante el estudio de sus historias clínicas e interpretando los resultados de las pruebas de laboratorio a lo largo del tiempo, los vulcanólogos también aprenden sobre la posibilidad y el tamaño de la actividad volcánica futura al estudiar la actividad histórica de un volcán y medir y evaluar las señales que genera durante muchos años. Tanto los médicos como los vulcanólogos saben que el seguimiento de rutina a lo largo del tiempo es la mejor manera de detectar problemas potenciales en el futuro temprano, cuando se tratan con mayor facilidad. Si bien los pacientes pueden acudir a los laboratorios para las pruebas, los vulcanólogos solo pueden evaluar el estado de los volcanes en el campo colocando instrumentos de monitoreo sobre ellos y cerca de ellos. Idealmente, se establecen redes completas de instrumentos de monitoreo mientras los volcanes potencialmente activos aún están en silencio. Al pasar por alto las primeras señales de inquietud, los vulcanólogos se arriesgan a perder los primeros datos críticos necesarios para establecer tendencias "de referencia" y estimar con precisión el tamaño de una posible erupción. Por ejemplo, cuando Mount St. Helens volvió a despertar en 2004, no se pudieron instalar instrumentos de monitoreo adicionales con la suficiente rapidez para captar las señales iniciales del volcán. Esto impidió una determinación segura del volumen de magma que se introdujo debajo del volcán (Ewert et al., 2005), lo que a su vez agregó un error significativo a las estimaciones del tamaño de las erupciones potenciales.
Para obtener actualizaciones sobre la actividad de los volcanes de EE. UU. En los últimos siete días, consulte http://volcanoes.usgs.gov/vhpfeed.php.

ESTRESORES / POSIBLE CAMBIO

Los métodos de monitoreo de volcanes están diseñados para detectar y medir señales causadas por el movimiento del magma debajo de un volcán. El magma ascendente generalmente (1) desencadenará enjambres de terremotos y otros tipos de eventos sísmicos (2) causará deformación (hinchazón o hundimiento) de la cima o los flancos de un volcán y (3) provocará la liberación de gases volcánicos del suelo y los respiraderos. Al monitorear los cambios en el estado de un volcán, los científicos a veces pueden anticipar una erupción con días o semanas de anticipación y detectar remotamente la ocurrencia de ciertos eventos relacionados como erupciones explosivas y lahares (Guffanti et al., 2001). (Consulte la Tabla 1 para obtener un resumen de los signos vitales de los volcanes y los métodos de monitoreo).

DESCRIPCIONES DEL MONITOREO DE SEÑALES VITALES

Signo vital 1. Actividad de terremoto

Introducción
El movimiento de magma y fluidos asociados dentro de los volcanes a menudo ocurre con actividad sísmica concurrente y mensurable (sismicidad). En los volcanes inquietos, la evolución de la actividad sísmica por lo general, pero no siempre, precede a las erupciones. Las perturbaciones sísmicas más comunes son los terremotos en respuesta a los cambios de tensión causados ​​por el movimiento del magma debajo de un volcán.
Cuando el magma se entromete rápidamente en la roca circundante, la roca se rompe abruptamente, provocando un terremoto cuya señal es similar a la de un terremoto a lo largo de una falla tectónica (Fig. 6A). Este tipo de terremoto se llama terremoto volcano-tectónico (VT). Las firmas de terremotos VT se caracterizan por la aparición de ondas claras y, a menudo, impulsivas o abruptas, y contienen energía en una amplia gama de frecuencias sísmicas.
Un segundo tipo de terremoto asociado con áreas volcánicas es el resultado directo del magma u otros fluidos que fluyen a través de conductos en áreas volcánicas o hidrotermales activas (Fig. 6B). Las variaciones de presión en el magma que fluye o en los fluidos hidrotermales obligan a vibrar las grietas a través de las cuales estos fluidos se mueven. En comparación con los terremotos VT, estos terremotos aparecen con una frecuencia de oscilación dominante y más baja y se denominan terremotos de período largo (LP) (por ejemplo, Lahr et al., 1994 Harlow et al., 1996).
Además de los terremotos volcánicos, la oscilación del suelo continua o sostenida se observa a menudo en volcanes inquietos. Esto se conoce como temblor volcánico y está estrechamente relacionado con los terremotos LP. Se puede pensar en el temblor como una vibración de fisura sostenida impulsada por el magma en movimiento (Fig. 6B y partes de 6C). Las explosiones en el respiradero de un volcán o en profundidades poco profundas debajo del respiradero crean el cuarto tipo de terremotos volcánicos comunes. Naturalmente, estos se denominan terremotos de explosión. La Figura 6D muestra una grabación de un pequeño evento explosivo en el Monte Pinatubo que duró solo unos minutos. Sin embargo, las secuencias de terremotos explosivos pueden durar horas como sucedió en la erupción cataclísmica del monte St. Helens en 1980. Los terremotos explosivos generalmente van acompañados de una fuerte expulsión de vapor, gases volcánicos, cenizas y fragmentos de lava en diversas proporciones.
Para obtener información adicional sobre los métodos de monitoreo sísmico, consulte Braile (este volumen).

Nivel 3, Método 1: Monitoreo sísmico
Las erupciones volcánicas casi siempre van precedidas de un aumento de la sismicidad, y los indicadores más fiables de una erupción inminente son los terremotos y temblores superficiales (p. Ej., Chouet, 1996). Por lo general, los disturbios volcánicos comienzan en las profundidades de un volcán y progresan a profundidades menores a medida que se acerca el momento de la erupción. El objeto del monitoreo sísmico en los volcanes es registrar y monitorear los terremotos y temblores que acompañan a los volcanes.
agitación. Las redes sismográficas registran las señales irradiadas de fuentes sísmicas volcánicas, luego los especialistas analizan e interpretan estas señales y sus patrones.
Los sismólogos utilizan datos sísmicos de una red de sismómetros para localizar el hipocentro de un terremoto (el punto directamente debajo de la superficie de la Tierra donde comienza la ruptura de una falla) y su epicentro (el punto en la superficie de la Tierra directamente sobre el hipocentro). La sismicidad se puede detectar a mayores distancias y desde fuentes más profundas que otros signos de disturbios volcánicos. Por lo tanto, el monitoreo sísmico generalmente proporciona las primeras señales de disturbios volcánicos. Los patrones en evolución de hipocentros y epicentros ayudan a los científicos a inferir si el magma se mueve vertical o lateralmente. Catalogar eventos como VT o LP ayuda a distinguir entre fallas tectónicas y orígenes de terremotos de magma en movimiento.

Redes sismográficas
Las redes efectivas de monitoreo de volcanes se extienden desde el centro volcánico o respiradero activo hacia afuera hasta distancias de 20 km. Para determinar con precisión profundidades de fuente especialmente someras, varias estaciones de monitoreo sísmico en la red deben estar a unos pocos kilómetros del respiradero. Para ubicar epicentros e hipocentros con precisión, las estaciones deben distribuirse uniformemente alrededor de un volcán a diferentes distancias del respiradero. Las mejores prácticas requieren de 10 a 20 estaciones sismográficas alrededor de cada volcán potencialmente peligroso en los Estados Unidos.
Cada estación de monitoreo en una red está equipada con un sismómetro, electrónica para amplificar y convertir las señales para transmisión, componentes de telemetría y baterías y paneles solares para alimentar la estación. El sismómetro está enterrado entre 1 y 2 m por debajo de la superficie del suelo. Los componentes electrónicos y de energía de la estación están instalados en pequeñas carcasas sobre el suelo. La antena de transmisión y el panel solar, si no se instalan encima de la carcasa de la estación, se instalan en un mástil corto. Las estaciones están diseñadas para minimizar el impacto de la instalación y operación de la estación en áreas remotas o silvestres.

Figura 6. Ejemplos de firmas de eventos sísmicos observadas en el Monte Pinatubo en Filipinas, interpretadas y reproducidas de la Figura 3 de Harlow et al. (1996). (A) Terremoto de período largo (LP) y terremoto volcano-tectónico (VT). (B) Temblor que consiste en terremotos LP poco espaciados. (D) Señal de erupción explosiva. La secuencia de tiempo en cada registro sismográfico es de la parte superior izquierda a la inferior derecha, marcas de graduación espaciadas uniformemente a lo largo de cada marca de traza en intervalos de un minuto.

El sismómetro registra los movimientos del suelo y convierte los movimientos en señales eléctricas. Las señales convertidas se telemedidas en forma analógica o digital a un observatorio de volcán cercano. En general, las estaciones analógicas cuestan menos de comprar e instalar, usan menos energía y transmiten sus señales a distancias más largas que las estaciones digitales. Las estaciones digitales proporcionan datos de mayor calidad y, por lo tanto, registros más precisos de sacudidas sísmicas. Una vez instaladas, su mantenimiento es más sencillo que las estaciones analógicas. Muchas redes sismográficas utilizan combinaciones de estaciones analógicas y digitales. Una estación analógica cuesta entre $ 7,000 y $ 10,000, mientras que una estación digital cuesta entre $ 15,000 y $ 20,000 (todas las cantidades aquí están en dólares estadounidenses). En el futuro, es probable que las ventajas de rendimiento de las estaciones digitales sean más importantes que las diferencias de costos. Por lo tanto, es probable que aumente la proporción de estaciones sísmicas digitales en las redes de monitoreo de volcanes.

Procesamiento de datos sísmicos
Los datos telemedidos desde las estaciones de campo a un observatorio de volcanes se recopilan en sistemas informáticos personalizados que hacen posible el análisis en tiempo real y casi en tiempo real de los flujos de datos sísmicos y la publicación casi en tiempo real de los productos de análisis sísmico. Los productos de análisis importantes incluyen ubicaciones de epicentros e hipocentros, magnitudes de terremotos y visualizaciones espectrales y de amplitud sísmica continua. El análisis y la visualización de datos en tiempo real facilitan enormemente el pronóstico de erupciones a corto plazo y la evaluación de peligros en evolución.Los miembros del personal del observatorio revisan de forma interactiva los productos de análisis para verificar el resultado e ingresar información adicional que describa de manera más completa los eventos. Un sistema informático con estas capacidades consta de varias estaciones de trabajo y cuesta varias decenas de miles de dólares. Las computadoras también almacenan y archivan los datos. Los paquetes de software para la adquisición y el análisis de datos sísmicos están disponibles comercialmente. Alternativamente, el Servicio Geológico de los Estados Unidos ha desarrollado, mantenido y puesto a disposición paquetes de software similares.

Discusión
Si bien el aumento de la sismicidad comúnmente precede a las erupciones volcánicas, el tiempo desde los primeros terremotos hasta una erupción varía ampliamente. Un número creciente de terremotos volcano-tectónicos puede ocurrir meses o incluso años antes de una erupción. Sin embargo, no todos los volcanes cada vez más inquietos entran en erupción, la actividad sísmica puede aumentar y disminuir sin una erupción durante largos períodos de tiempo.
Los procesos volcánicos son complejos y variables y, por lo tanto, producen múltiples tipos, patrones y números de terremotos (por ejemplo, Chouet, 2003). La pérdida de las señales sísmicas tempranas cruciales de un volcán impide la capacidad de los científicos para pronosticar eventos con precisión. La protección de personas y propiedades requiere la instalación de redes de monitoreo sísmico en volcanes potencialmente peligrosos para medir la sismicidad de línea de base y monitorear aumentos sugestivos de sismicidad, mucho antes de que comiencen los disturbios o se noten signos obvios de disturbios importantes en la superficie de la Tierra.
El monitoreo sísmico de línea de base de las señales sísmicas de terremotos cerca de un volcán, así como del otro lado del mundo mientras viajan a través de un volcán, permite a los científicos detectar los inicios de disturbios y determinar la ubicación de fallas y posibles acumulaciones de magma. Los científicos de los volcanes utilizan este conocimiento para mejorar su evaluación de la probabilidad de erupción de un volcán, el volumen de magma en erupción y la ubicación de las áreas peligrosas.

Signo vital 2. Deformación del suelo

Introducción
A medida que el magma se mueve debajo de un volcán, crea espacio para sí mismo al desplazar la superficie de la Tierra. La cuantificación de las características de esta deformación en el espacio y el tiempo puede proporcionar información importante sobre la profundidad, el cambio de volumen y la geometría de los depósitos de magma debajo del suelo. Por ejemplo, cuando el magma se acumula debajo de un volcán, quizás como preludio de una erupción, la superficie suprayacente se infla como un globo. De manera similar, después de que el magma ha entrado en erupción, o cuando el magma se drena a niveles más profundos o se mueve lateralmente por debajo del suelo a otros lugares, la superficie se desinfla en respuesta a esta eliminación del volumen. Una explicación más detallada está disponible en http://hvo.wr.usgs.gov/howwork/subsidence/inflate_deflate.html. Los desplazamientos de la superficie de la Tierra pueden medirse mediante diversos métodos, incluidas tecnologías terrestres y espaciales. Cada método tiene ventajas y desventajas, por lo tanto, el control de la deformación no debe basarse en una sola técnica, sino que debe incorporar tantos métodos como sea posible. La utilización simultánea de varios métodos diferentes ofrece la mejor oportunidad de reconocer los desplazamientos de la superficie en un volcán y proporcionar información sobre la probabilidad y el momento de una erupción.

Figura 7. Los puntos de referencia están cementados en el suelo y proporcionan puntos conocidos que se pueden estudiar año tras año. (A) Punto de referencia de disco de latón típico,

10 cm de diámetro. La cruz en el centro del triángulo es el punto central de la marca y se utiliza como punto de referencia para estudios de deformación.

(B) Ocasionalmente, alfileres menos llamativos, solo

2 cm de diámetro y con punzón central en la parte superior, se utilizan como puntos de referencia. Estos son más difíciles de ver y menos propensos a ser robados.

Tecnologías de última generación
Aunque varios métodos clásicos de monitoreo de la deformación de los volcanes han sido reemplazados por métodos más nuevos debido a los avances tecnológicos, estos métodos de monitoreo más antiguos aún pueden ser útiles en algunos volcanes. Estos métodos clásicos incluyen la medición de distancia electrónica (EDM) y la triangulación. Ambos métodos requieren puntos de tierra ubicados con precisión como referencias para las mediciones. Estos puntos, denominados puntos de referencia, son comunes, especialmente en las cimas de colinas y picos de montañas. Los puntos de referencia suelen ser discos de latón o aluminio (Fig. 7A) con marcas de centrado (a menudo una cruz o un hoyuelo), pero también pueden ser pasadores menos obvios (Fig. 7B) o formas cinceladas en roca. Es importante que estas marcas no se alteren, porque se utilizan para repetir encuestas a lo largo del tiempo. Si las marcas se destruyen o mueven, no se pueden volver a ocupar y la capacidad de monitoreo de la deformación del volcán disminuye.

Nivel 3, método 1: medición electrónica de distancia (EDM)
El EDM mide la distancia entre dos puntos colocando un láser sobre un punto de referencia en un punto, apuntándolo a una matriz de reflectores sobre un punto de referencia en un segundo punto (quizás tan lejos como decenas de kilómetros), midiendo el tiempo de viaje de un pulso de láser entre los dos puntos de referencia y luego convertir el tiempo en distancia. Las distancias medidas tienen una precisión de unos pocos centímetros. La electroerosión requiere al menos dos personas, una en el láser y otra en el lugar del reflector. Debido a que las variaciones en las condiciones atmosféricas son la principal fuente de error en la electroerosión, se recomiendan las mediciones de temperatura y presión atmosférica en ambos puntos finales y a lo largo de la trayectoria del láser a través de la aeronave. Las mediciones repetidas entre un par de sitios muestran cómo cambia la distancia con el tiempo. El sitio web http://volcanoes.usgs.gov/activity/methods/deformation/index.php proporciona una explicación más detallada en la pestaña EDM.
Las redes de mediciones de longitud de línea EDM fueron lo último en tecnología para determinar la deformación del volcán en las décadas de 1960 y 1980. Debido a que la electroerosión ahora está desactualizada, el equipo de electroerosión es difícil de comprar. Los instrumentos pueden costar entre $ 20 000 y $ 30 000, según el modelo. Los reflectores cuestan más de $ 100 cada uno.

Nivel 3, método 2: triangulación
La triangulación utiliza instrumentos topográficos precisos para medir los ángulos horizontales de un triángulo cuyos vértices son puntos de referencia que pueden estar a decenas de kilómetros de distancia entre sí. Los cambios en los ángulos a lo largo del tiempo se utilizan para determinar la deformación horizontal de la superficie de la Tierra. También se pueden tomar medidas de ángulos verticales, por ejemplo, desde la base de una colina o montaña hasta su cima, para determinar los cambios de elevación a lo largo del tiempo. La triangulación requiere una inversión significativa de tiempo para datos relativamente pequeños (se requieren mediciones repetidas de cada uno de los vértices del triángulo). El instrumento que se usa para recolectar las medidas de los ángulos es un teodolito, que puede costar hasta $ 20,000.
Aunque la electroerosión y la triangulación alguna vez fueron métodos importantes de monitoreo de deformaciones, el Sistema de Posicionamiento Global (GPS) los ha reemplazado en gran medida. El GPS proporciona mejores datos que la mayoría de los métodos clásicos de monitoreo de deformaciones y requiere menos tiempo y personal (aunque se requiere entrenamiento más especializado y rutinas de computación avanzadas). Aún así, las redes de monitoreo de volcanes en los Estados Unidos se establecieron originalmente usando EDM. Al comparar los levantamientos EDM anteriores con las mediciones recientes utilizando GPS, es posible determinar la longitud de la línea o los cambios de ángulo desde el momento de la medición anterior, lo que puede ser bastante útil para determinar la deformación a largo plazo de un volcán determinado. Esta práctica también continúa la serie de tiempo de datos de deformación, lo que permite un reconocimiento más fácil de señales anómalas. Por ejemplo, en 1981 se estableció una red de electroerosión en Lassen Peak en el Parque Nacional Volcánico Lassen. Los resultados de InSAR analizados en 2004 sugirieron que el volcán se está hundiendo.

1,5 cm por año. Para obtener mediciones terrestres independientes, la red EDM se volvió a ocupar con GPS ese mismo año. Los resultados confirmaron el hundimiento y sugirieron que la deformación ha estado ocurriendo desde al menos la década de 1980.
Tanto las mediciones de electroerosión como las de triangulación requieren líneas de visión claras entre la estación del instrumento y las ubicaciones del objetivo. Por lo tanto, los puntos de referencia de EDM y triangulación tienden a estar en las cimas de colinas o montañas, que a menudo son de difícil y costoso acceso. En estos casos, es aconsejable abandonar estos sitios y establecer nuevas estaciones de GPS en lugares más accesibles. Esto reducirá la necesidad de acceso de helicópteros, disminuyendo tanto el gasto como la intrusión del monitoreo de deformaciones.

Nivel 3, método 3: nivelación
Otra técnica topográfica clásica es la nivelación, un método que mide las elevaciones verticales de los puntos de referencia. Sin embargo, a diferencia de la electroerosión y la triangulación, la nivelación todavía se usa regularmente en la actualidad. Los estudios de nivelación repetidos a lo largo de una serie de puntos de referencia pueden determinar los cambios de elevación a lo largo del tiempo con una precisión submilimétrica. Ningún otro método, con la posible excepción del GPS continuo, es tan sensible a la deformación vertical.
La nivelación se logra utilizando un par de varillas graduadas con precisión hechas de invar (un metal con un bajo coeficiente de expansión térmica), generalmente de 2 a 3 m de altura, y una “pistola” niveladora (una mira diseñada para tomar lecturas de las varillas). La pistola se coloca entre las dos varillas y se equilibra con precisión, y las graduaciones en cada varilla se leen mirando a través de la mira de la pistola (Fig. 8). La diferenciación de las lecturas de las varillas determina la diferencia de elevación entre las dos varillas. Una vez completada y registrada la lectura, una varilla salta sobre la otra, se reposiciona la pistola y se repite la medición. Continuando con estas mediciones a lo largo de un transecto entre puntos de referencia, es posible determinar las elevaciones relativas de una red de puntos de referencia. Con el tiempo, los estudios de nivelación repetidos muestran cómo cambian las elevaciones de referencia, tal vez como resultado de la actividad magmática debajo de la superficie.

Figura 8. Equipo de nivelación trabajando en el Parque Nacional de los Volcanes de Hawai'i. Las encuestas de nivelación requieren de cuatro a seis personas: una persona para operar la pistola niveladora, dos personas para sostener las varillas y una a tres personas para apoyar la encuesta al encontrar puntos de referencia, recolectar lecturas de temperatura, registrar mediciones y dirigir el tráfico (la mayoría de las líneas de nivelación están ubicados a lo largo de carreteras). Un equipo de nivelación experimentado puede medir típicamente entre 5 y 7 km por día, según la topografía y la precisión deseada. El equipo de nivelación puede requerir lectura y registro por parte del operador de la pistola y un asistente, o puede ser grabado digitalmente. En el último caso, las varillas niveladoras tienen códigos de barras en lugar de graduaciones numéricas. La pistola lee el código de barras y determina la diferencia de elevación entre las ubicaciones de las varillas, registrando la medición en una tarjeta de memoria.
Una pistola niveladora cuesta alrededor de $ 3,000. Las varillas niveladoras cuestan alrededor de $ 1,000 cada una, ya sea para un modelo digital (código de barras) o óptico (graduado). Los equipos auxiliares, incluidas las sondas de temperatura, los trípodes y las señales de tráfico, podrían costar hasta 1.000 dólares. Debido a que la escala de la barra debe ser lo más precisa posible, se recomienda la recalibración cada 2 a 4 años (según la precisión deseada y la frecuencia de uso). La calibración de las varillas solo puede ser realizada por un laboratorio universitario en Quebec y cuesta alrededor de $ 1,000.
La nivelación todavía se usa en numerosos volcanes en todo el mundo. Por ejemplo, en el Parque Nacional de los Volcanes de Hawái, los levantamientos de nivelación anuales son un método de monitoreo importante e informativo porque su gran precisión ha mostrado cambios en la magnitud y dirección de la deformación vertical del volcán Kilauea. Desde el inicio de la erupción Pu‘u ‘Ō‘ō en 1983 hasta 2003, la cumbre del volcán descendió hasta 1,5 m. Sin embargo, el patrón de desplazamiento cambió para elevarse a fines de 2003, lo que quizás indique un aumento en el suministro de magma al volcán que puede ser un precursor de cambios futuros en la actividad eruptiva. De hecho, la elevación continuó durante 2007, cuando estallaron nuevos respiraderos eruptivos en la zona de la grieta este, lo que provocó un cambio importante en el estilo eruptivo del volcán Kilauea. Las encuestas de nivelación también han ayudado
caracterizan los disturbios volcánicos en el Parque Nacional de Yellowstone, donde se han observado cambios similares de levantamiento a hundimiento, que se cree que están relacionados con la circulación subterránea de fluidos hidrotermales, durante breves períodos de tiempo (1 a 2 años).
Las aplicaciones más útiles de nivelación se encuentran en volcanes relativamente planos que están bien cubiertos por carreteras. Debido al gran compromiso de tiempo y personal que requiere el método, la nivelación sobre topografía extrema o terreno accidentado, que requiere una cantidad excesiva de tiempo, generalmente no justifica el costo. Por esta razón, la nivelación es una herramienta excelente para monitorear volcanes como la caldera de Yellowstone, pero no es óptima para su uso en estratovolcanes (volcanes empinados y cónicos construidos por la erupción de flujos de lava viscosa, tefra y flujos piroclásticos) como el Monte Rainier.

Nivel 3, Método 4: Inclinación
La inclinación del suelo se ha utilizado para monitorear la deformación del volcán durante casi 100 años. Thomas A. Jaggar, fundador del Observatorio de Volcanes de Hawai, utilizó por primera vez la inclinación para monitorear la actividad volcánica en Kilauea, Hawai‘i, en 1912. Desde entonces, la instrumentación y las técnicas para medir la inclinación han evolucionado a través de varias iteraciones. El método más rentable y moderno utiliza medidores de inclinación que se instalan en pozos poco profundos.
Un medidor de inclinación de pozo es análogo al nivel de un carpintero. El instrumento es un cilindro de 0,6 a 1 m de longitud (figura 9) y está lleno de un líquido electrolítico que contiene una burbuja. Los electrodos detectan el movimiento de la burbuja cuando el instrumento se inclina. Al colocar el medidor de inclinación en un pozo lleno de arena en el lecho rocoso,

2 m de profundidad (que acopla efectivamente el instrumento a la Tierra), se puede medir la inclinación de la superficie del suelo. Usando una red de inclinómetros, se pueden identificar las fuentes de inflación o deflación en los volcanes activos. Más información y ejemplos están disponibles en http://volcanoes.usgs.gov/activity/methods/deformation/index.php en la pestaña de inclinación.

Figura 9. Instalación de un medidor de inclinación de pozo en el Parque Nacional de los Volcanes de Hawai. El instrumento está siendo bajado por su cable a un orificio revestido. Los paneles solares, el mástil de telemetría y la caja de la electrónica se han instalado a la derecha. Los datos de inclinación pueden almacenarse en el sitio del instrumento en un registrador de datos y descargarse periódicamente, pero es mucho más práctico telemeter los datos, idealmente en tiempo real, a un observatorio volcánico. El procesamiento y la interpretación de los datos de inclinación es trivial, ya que los voltajes generados por el instrumento se traducen directamente en la magnitud y dirección de la inclinación del suelo mediante un simple factor de calibración. La simplicidad de los datos y el procesamiento hace que los inclinadores sean atractivos como instrumentos de monitoreo, pero tenga en cuenta que los inclinadores no registran los desplazamientos, solo la inclinación. Además, los instrumentos son bastante sensibles a los cambios ambientales, incluidas las fluctuaciones de temperatura entre el día y la noche, los cambios de presión atmosférica y las precipitaciones. Por lo tanto, los sitios de inclinadores deben estar equipados con pluviómetros, termómetros y barómetros para que los datos de inclinación sin procesar puedan interpretarse con respecto a los factores ambientales.
Un inclinómetro cuesta alrededor de $ 8,000, pero se necesita mucho equipo adicional para operar una estación de inclinación telemétrica. Un registrador de datos y radios (que pueden telemeter tanto la inclinación como los datos ambientales) para el sitio y una estación receptora cuestan 6,000 adicionales, y se necesita un taladro portátil (de cientos a algunos miles de dólares) para hacer el pozo. Las baterías y los paneles solares, a un costo de $ 1,000, son necesarios para mantener el instrumento en funcionamiento, y los sensores ambientales (termómetro, barómetro y pluviómetro) pueden costar algunos cientos de dólares.
El mejor ejemplo de inclinación como método de monitoreo de volcanes lo proporciona el Observatorio de Volcanes de Hawai. En el Parque Nacional de los Volcanes de Hawai‘i, casi 20 medidores de inclinación de pozos monitorean los volcanes Kilauea y Mauna Loa. Cada instrumento toma una lectura una vez por minuto, que es inmediatamente telemedida al Observatorio de Volcanes de Hawai. Estas mediciones de inclinación casi en tiempo real brindan de manera rutinaria advertencias a corto plazo de cambios en la actividad volcánica, como las nuevas intrusiones magmáticas en 1997 y 1999, y los episodios episódicos de deflación / inflación de 2008 en la cumbre de Kilauea que duraron de horas a dos días. Ninguna otra técnica actualmente en uso puede detectar tal actividad tal como ocurre.

Nivel 3, Método 5: Sistema de posicionamiento global (GPS)
A finales de la década de 1980, el Sistema de Posicionamiento Global (GPS) se convirtió en un método viable para medir la deformación de la superficie de la Tierra, reemplazando gradualmente a la electroerosión y la triangulación. La principal ventaja del GPS sobre todos los demás métodos de monitoreo de deformaciones es la capacidad de medir simultáneamente los desplazamientos horizontales y verticales con precisiones de unos pocos milímetros.
El GPS se utiliza en uno de dos modos: continuo y topográfico. El GPS continuo utiliza un receptor de GPS y una antena instalados permanentemente (Fig. 10A) en un lugar para rastrear el movimiento de esa estación a lo largo del tiempo. La ventaja del GPS continuo es que los cambios en la magnitud y la dirección del desplazamiento están bien resueltos. Sin embargo, la estación no se puede mover, por lo que no se pueden identificar variaciones en los patrones de deformación espacial. En el modo de levantamiento, una antena GPS en un trípode (Fig. 10B) se coloca sobre un punto de referencia durante un período corto de tiempo (por ejemplo, dos días) mientras la posición de la estación se registra continuamente. Luego, la instalación del GPS se traslada a otros sitios según sea necesario. La ocupación repetida de los mismos puntos de referencia proporciona información sobre cómo se han movido los puntos encuestados en una región, pero la resolución temporal será deficiente.

Figura 10. Métodos de monitoreo del Sistema de Posición Global (GPS). (A) Esta instalación continua de GPS en el Parque Nacional de los Volcanes de Hawai'i consta de una antena (disco blanco en el pedestal de la izquierda), paneles solares, caja de electrónica (debajo de los paneles solares) y mástil de telemetría.

(B) Un sitio GPS de levantamiento, con una antena GPS y un trípode configurados sobre un punto de referencia. La caja de la parte inferior derecha contiene el receptor GPS y la batería.

Ambos métodos de monitoreo GPS requieren una vista clara del cielo. Las obstrucciones como los edificios y la vegetación oscurecen las señales del satélite y dan como resultado una calidad de medición deficiente. Además, las mediciones de GPS a corto plazo tienden a estar contaminadas por trayectos múltiples (señales de satélite que no viajan líneas directas entre el satélite y la antena receptora). Es importante recopilar la mayor cantidad de datos posible para promediar dichos efectos. Los sitios de encuesta deben registrar datos durante al menos seis a ocho horas por día. Esto no es un problema para las instalaciones continuas, que registran datos las 24 horas del día.
Las posiciones del GPS se calculan utilizando un software de procesamiento que generalmente es proporcionado de forma gratuita por instituciones de investigación como la Administración Nacional de Aeronáutica y del Espacio (NASA) y el Instituto de Tecnología de Massachusetts. El software es altamente especializado y requiere una gran experiencia y formación para utilizarlo correctamente. Un receptor GPS y una antena cuestan alrededor de $ 4,000. Los sitios de GPS continuo requieren baterías, paneles solares y radiotelemetría, a un costo de alrededor de $ 3,000 por sitio. Para el equipo que se opera en modo de encuesta, solo se necesitan trípodes y baterías (alrededor de $ 500), además del receptor y la antena.
El GPS es la herramienta definitiva para medir los desplazamientos tridimensionales, por lo tanto, no es de extrañar que el GPS sea actualmente el método dominante para el seguimiento de la deformación en los volcanes.En el Parque Nacional de los Volcanes de Hawái, más de 50 estaciones de GPS continuas se complementan con más de 100 sitios que están ocupados durante unos días cada uno durante campañas de GPS anuales o impulsadas por eventos. Esta combinación de métodos proporciona la mejor resolución temporal y espacial posible de los patrones de deformación asociados con el vulcanismo activo. Levantamientos GPS de

40 sitios, en las cercanías de Mauna Loa complementados por tres estaciones continuas, detectaron por primera vez la inflación del volcán Mauna Loa, Hawai‘i, en 2002. En respuesta a esta actividad, la red GPS continua se amplió por

20 sitios más en los siguientes tres años. Las nuevas estaciones continuas brindan una mejor resolución de los desplazamientos de superficie a lo largo del tiempo, lo que dará como resultado pronósticos más confiables de la actividad futura de Mauna Loa.

Nivel 3, Método 6: Fotografía aérea / Detección y alcance de luz (LIDAR)
Los levantamientos de detección y distancia de luz (LIDAR) y la fotografía aérea se utilizan en volcanes inquietos para cuantificar áreas que experimentan una gran deformación de la superficie. Ambas técnicas también se utilizan en volcanes en erupción para cuantificar el volumen de material extruido como flujos de lava, domos volcánicos, etc. Los levantamientos LIDAR y la fotografía aérea se utilizan para construir modelos digitales de elevación (DEM) de la superficie del suelo. Los vulcanólogos utilizan DEM de encuestas sucesivas para calcular el cambio de volumen entre encuestas. Por ejemplo, durante la erupción de 2004-2008 del monte St. Helens, una serie temporal de DEM proporcionó la única medida confiable del volumen de lava, así como su tasa de extrusión. El seguimiento del volumen y la velocidad de extrusión ayuda a los vulcanólogos a pronosticar cuánto tiempo podría durar una erupción y el volumen total de lava que podría producirse.
La fotografía aérea es el método más básico y económico utilizado para construir DEM, esta es una tecnología madura en uso durante décadas. Se toma un par de fotos verticales ligeramente superpuestas desde un avión. Luego, se utiliza un estereoscopio o software de computadora especializado para crear un mapa topográfico de la superficie del suelo, a partir del cual se genera un DEM. Durante el período previo a la erupción del Monte Santa Helena el 18 de mayo de 1980, los DEM corroboraron el rápido aumento de la tasa de inflación en el flanco norte del volcán, lo que llevó al reconocimiento de que el lado norte del volcán era inestable antes de que ocurriera el colapso el 18 Mayo de 1980.
LIDAR es similar al radar, pero usa frecuencias de luz mucho más altas (generalmente ultravioleta, visible o infrarroja) para medir la elevación de la superficie del suelo. La luz, emitida por un láser montado en un avión, se refleja desde la superficie del suelo y el tiempo de viaje se mide con un telescopio óptico montado en el mismo avión. El tiempo de viaje de la luz se convierte en distancia (análoga a EDM), a partir de la cual se construye un DEM con una precisión de unos pocos centímetros. Los levantamientos LIDAR requieren una ubicación precisa de la aeronave, por lo que una estación GPS de referencia en tierra debe estar disponible dentro del área de levantamiento. Se requiere un software altamente especializado y una amplia formación de los operadores para procesar los resultados de LIDAR, por lo que la mayoría de las encuestas LIDAR son completadas por empresas privadas.
Generalmente, el menor costo de la fotografía aérea lo convierte en el método de elección para monitorear volcanes. Un vuelo para recolectar fotografías aéreas puede costar entre $ 1,000 y $ 5,000, mientras que los vuelos LIDAR cuestan decenas de miles de dólares. Los datos LIDAR también requieren varias semanas para procesarse, mientras que, según el nivel de precisión deseado, la fotografía aérea se puede convertir en un DEM en unos días. Sin embargo, la mayor precisión de LIDAR lo hace ideal para localizar características sutiles de bajo relieve en la superficie del suelo, como fallas con un desplazamiento superficial menor. En las primeras semanas posteriores al inicio de la actividad eruptiva renovada en el Monte St. Helens a fines de 2004, se utilizaron tanto LIDAR como fotografías aéreas para construir DEM, que proporcionaron datos importantes sobre el crecimiento del domo de lava en el cráter del volcán. Sin embargo, el gran costo de LIDAR provocó que los estudios de DEM se hicieran completamente mediante fotografía aérea dentro de los dos meses posteriores al inicio de la erupción.

Nivel 3, método 7: InSAR
El uso del radar interferométrico de apertura sintética (InSAR) se describe en detalle en la sección Técnicas de monitoreo de volcanes emergentes a continuación. Aunque InSAR está evolucionando rápidamente, los factores limitantes incluyen la disponibilidad de satélites, las distorsiones de los efectos atmosféricos y la necesidad de intervalos relativamente largos entre las mediciones para que la deformación sea evidente por encima de los límites de detección. Sin embargo, InSAR es eficaz para medir la deformación a largo plazo a gran escala en áreas extensas donde otros métodos serían prohibitivamente costosos, y es una buena técnica para la prospección de deformaciones donde no se ha identificado previamente, y como un precursor a largo plazo de actividad volcánica potencial, como se ilustra en el volcán South Sister (ver la sección Técnicas de monitoreo de volcanes emergentes). Con algunas excepciones, InSAR aún no es una herramienta operativa para la mayoría de los volcanes que muestran disturbios significativos, amenazan con entrar en erupción o realmente están en erupción porque las imágenes repetidas de InSAR de un volcán determinado solo se pueden capturar a intervalos aproximadamente mensuales cuando el satélite está sobre sus cabezas. prevenir el seguimiento de los cambios a corto plazo.
La teledetección vía satélite, descrita en la sección de técnicas emergentes de este capítulo, también se puede utilizar para monitorear la deformación de la superficie. Los vehículos aéreos no tripulados (UAV), también descritos en la sección de técnicas emergentes, son apropiados en áreas de difícil o peligroso acceso para monitorear cambios en domos de lava activos, flujos de lava y conductos de ventilación, como el crecimiento y colapso de una nueva lava. Hazme.

Resumen
Las combinaciones de métodos de monitoreo permiten un monitoreo integral de la evolución espacial y temporal de la deformación de un volcán, solo una combinación de métodos puede compensar las debilidades de un solo método. Claramente, varios métodos e instrumentos usados ​​para monitorear la deformación en volcanes activos tienen ventajas y desventajas. Por esta razón, las estrategias de seguimiento eficaces emplean una combinación de métodos continuos y de encuestas. Por ejemplo, en el Parque Nacional de los Volcanes de Hawai'i, el Observatorio de Volcanes de Hawai del Servicio Geológico de EE. UU. Utiliza 20 medidores de inclinación de pozo, más de 50 receptores GPS continuos, más de 100 sitios GPS de levantamiento y datos InSAR de varios satélites diferentes para monitorear la deformación en Kilauea y Volcanes Mauna Loa. La misma combinación de métodos se usa en Mount St. Helens, donde también se emplea la fotografía aérea para crear DEM y rastrear el volumen y la velocidad de la lava en erupción a lo largo del tiempo.

Signo vital 3. Emisión de gas a nivel del suelo

Introducción
El gas volcánico se libera naturalmente tanto de volcanes activos como de muchos inactivos. El vapor de agua es típicamente el gas volcánico más abundante, seguido del dióxido de carbono (CO2) y dióxido de azufre (SO2). Otros gases volcánicos comunes son el sulfuro de hidrógeno (H2S), cloruro de hidrógeno (HCl), fluoruro de hidrógeno (HF), monóxido de carbono (CO) e hidrógeno (H2), junto con muchos otros gases traza e isótopos, así como metales volátiles. Las concentraciones de estos gases pueden variar considerablemente de un volcán a otro. La mayoría de las áreas volcánicas potencialmente activas se caracterizan por una o más fumarolas de baja temperatura y un sistema hidrotermal bastante desarrollado. Los grandes sistemas volcánicos, como Yellowstone, tienen numerosos respiraderos y fumarolas que descargan gases volcánicos al aire en una amplia área geográfica. Algunos sistemas volcánicos activos, como Kilauea en Hawai‘i, tienen una variedad de respiraderos de gas y fumarolas que pueden variar en temperatura hasta varios cientos de grados.
Los gases volcánicos pueden ser dañinos para los seres humanos, los animales, las plantas y la propiedad. Por lo general, los peligros, que pueden variar desde leves hasta potencialmente mortales, se limitan a las áreas que rodean inmediatamente las fumarolas y respiraderos volcánicos. Sin embargo, los gases más pesados ​​que el aire como el CO2 puede acumularse en depresiones topográficas en los flancos de los volcanes y representar un peligro para la salud y la seguridad humanas. Gases ácidos, como SO2, cuando está presente en abundancia, puede combinarse con el agua en la atmósfera para producir lluvia ácida localizada a sotavento de los respiraderos volcánicos.
La roca fundida, o magma, debajo de los volcanes contiene abundantes gases que son la fuerza impulsora de las erupciones. Los volcanes se vuelven inquietos cuando el magma comienza a moverse desde las profundidades hacia la superficie de la Tierra. A medida que el magma se mueve hacia áreas menos profundas debajo del volcán, encuentra condiciones de presión más baja que permiten que más gases escapen hacia fracturas y grietas. Algunos de estos gases se descargan eventualmente en la superficie a través de fumarolas calientes, respiraderos activos o superficies porosas del suelo donde, si se miden, pueden proporcionar información valiosa sobre los procesos en curso a continuación. El magma ascendente también calienta la masa rocosa debajo del volcán y finalmente hace que el agua en los sistemas hidrotermales poco profundos debajo del volcán hierva, liberando gases adicionales. El personal de administración de tierras puede contribuir de manera significativa a identificar los primeros signos de disturbios volcánicos notando e informando la aparición de nuevas fumarolas, la aparición repentina de un olor a "huevo podrido", un aumento en la temperatura de las fumarolas o la aparición de nuevos suelos calientes, inexplicable muerte de animales y aparición de vegetación anómala y mortalidad de árboles.
Una variedad de métodos terrestres para medir gases volcánicos incluye: muestreo directo de gases de fumarolas seguido de análisis de laboratorio, medición de uno o más gases en una fumarola con instrumentos portátiles, establecimiento de estaciones de monitoreo de gas a largo plazo en respiraderos volcánicos y conducción de suelos -Ensayos de eflujo de gas. Cada método se analiza a continuación. Todos son adecuados para la evaluación a largo plazo de las condiciones volcánicas. Una estrategia que involucre mediciones de instrumentos en el sitio junto con análisis de laboratorio de muestras de gas fumarolas puede ser particularmente efectiva para la vigilancia geoquímica de volcanes.

Nivel 3, método 1: muestreo directo de gases e isótopos con fumarolas
El muestreo directo de gas es ideal para la vigilancia a largo plazo de sistemas volcánicos porque produce un análisis químico detallado de fumarolas y respiraderos específicos. Las muestras de gas volcánico se recolectan típicamente insertando un tubo químicamente inerte y duradero en una fumarola caliente. Después de dejar que el tubo se caliente hasta que la condensación en el tubo alcance el equilibrio con los gases que escapan, se conecta una botella de muestra evacuada especialmente diseñada o una botella de muestra de flujo continuo al tubo de recolección. Una vez que se toma la muestra, se envía a un laboratorio analítico para su análisis mediante cromatografía de iones y gases y métodos tradicionales de química húmeda. Puede encontrar más información en: http://volcanoes.usgs.gov/activity/methods/gas/sample.php. Los kits de muestras de gas de campo cuestan menos de $ 1,000, mientras que los instrumentos analíticos de laboratorio para realizar este tipo de análisis de gas cuestan alrededor de $ 30,000 cada uno.
Por lo general, se puede determinar el conjunto completo de los principales gases volcánicos de la muestra, incluidos el agua, el CO2, ASI QUE2, H2S, HCl, HF, CO y H2, otros gases como el nitrógeno (N2), oxígeno (O2), helio (He) y neón (Ne), si están presentes, además de otros gases traza. La temperatura de la fumarola juega un papel importante en la determinación de la calidad y utilidad de las muestras directas. Cuanto mayor sea la temperatura, mejor reflejará la muestra las condiciones del magma que suministra el gas.
El muestreo directo de gas de fumarolas no es adecuado para monitorear condiciones que cambian rápidamente porque los análisis de laboratorio a menudo demoran días o semanas en completarse. Sin embargo, los análisis detallados de la composición del gas a menudo brindan información crítica para evaluar los peligros volcánicos y construir modelos que brinden información sobre la condición del magma a la profundidad de la que se originaron los gases.
Los isótopos distinguen de forma única las fuentes de gas volcánico. Aunque los recipientes de recolección de muestras pueden ser ligeramente diferentes, el procedimiento y el costo son generalmente similares para recolectar muestras de gas de fumarolas para el análisis de isótopos. Los isótopos de elementos ligeros, como el hidrógeno, el carbono, el nitrógeno y el oxígeno, así como los de los gases nobles, como el helio, pueden proporcionar información sobre el origen del gas volcánico y el grado de dilución de los gases atmosféricos. En particular, las proporciones más altas de los isótopos de helio (3 He / 4 He) implican gases derivados de fuentes más profundas. Los isótopos se analizan con espectrómetros de masas, sofisticados instrumentos de laboratorio que pueden costar hasta $ 300.000.

Nivel 3, Método 2: Mediciones instrumentales in situ
Un instrumento portátil, como un cromatógrafo de gases (un instrumento analítico que separa mezclas de gas o líquido en componentes medibles) o un espectrómetro (un instrumento óptico diseñado para medir gases en longitudes de onda de luz específicas) puede medir uno o más gases directamente de la respiradero o fumarola. Un tubo de muestra se acopla directamente a la fuente de gas y el gas se dirige al puerto de muestra del instrumento, eliminando la necesidad de recolectar una muestra y transportarla a un laboratorio. Los instrumentos portátiles pueden configurarse para realizar mediciones durante varias horas y tienen la ventaja de producir resultados de inmediato, pero a menudo solo miden algunos de los gases volcánicos de interés. El costo de los cromatógrafos y espectrómetros portátiles de campo oscila entre $ 5,000 y $ 25,000.
Una nueva técnica importante para medir gases volcánicos es la espectroscopia infrarroja por transformada de Fourier de camino abierto (OP-FTS). Un espectrómetro infrarrojo por transformada de Fourier (FTIR), un tipo especial de espectrómetro infrarrojo con un conjunto de espejo móvil y un telescopio óptico, se monta en un trípode y se apunta a través de una columna de gas que emerge de una fumarola o respiradero volcánico. Se puede colocar una lámpara grande en el lado opuesto de la columna de gas para proporcionar una fuente de energía infrarroja para el instrumento. En otros casos, se pueden utilizar rocas calientes o incluso el sol como fuente de luz. El FTIR puede analizar rápidamente varios gases simultáneamente y tiene la ventaja, como los instrumentos descritos anteriormente, de producir resultados de inmediato. El costo de un sistema FTIR de campo es de aproximadamente $ 100,000.
Algunos eventos de emisión de gas son relativamente breves y se perderían con el muestreo ocasional de fumarolas o el despliegue a corto plazo de instrumentación en el sitio. Por lo tanto, las estaciones de monitoreo continuo de gas a menudo se implementan para identificar eventos de desgasificación de corta duración, así como cambios a largo plazo. Por lo general, estos consisten en uno o más sensores de gas químicos u ópticos que miden las concentraciones de gas en o cerca de una fumarola. Al igual que las estaciones de monitoreo sísmico o GPS, las estaciones de monitoreo de gas consisten en una carcasa de estación y baterías para alimentar los sensores y el equipo de recolección de datos, y cuestan entre $ 3,000 y $ 10,000 cada una. Sus datos suelen ser telemedidos por radio o satélite a una instalación fuera del sitio, o pueden ser registrados en el sitio por un registrador de datos.
Durante los disturbios volcánicos cuando el magma ascendente comienza a calentar el subsuelo del volcán, midiendo SO2 es particularmente importante, ya que cantidades crecientes de SO2 Los gases a menudo son diagnósticos de agitación acelerada. Por lo tanto, siempre se debe considerar el establecimiento de una serie de estaciones de monitoreo Flyspec telemedidas para mediciones continuas de gas una vez que se identifican los disturbios volcánicos. Flyspec, a veces llamado mini-DOAS (espectrómetro de absorción óptica diferencial) es un pequeño espectrómetro ultravioleta que mide SO2 en el aire. Cuando se usa como parte de una estación de monitoreo de gas fija, el Flyspec se puede configurar para escanear a través de la masa de aire a favor del viento de un respiradero volcánico o campo de fumarolas. Junto con los datos del viento de una estación meteorológica, el Flyspec puede producir una medida confiable del SO2 tasa de emisión o flujo. Los datos de Flyspec se pueden telemedir por radio o enlaces por satélite. Las estaciones de monitoreo Flyspec telemedidas cuestan entre $ 10,000 y $ 15,000 cada una, dependiendo del tipo de telemetría y si se requieren enlaces repetidores.

Nivel 3, Método 3: Mediciones de eflujo del suelo
Los estudios de medición de eflujo del suelo generalmente se realizan en áreas donde los gases volcánicos, generalmente CO2, se elevan desde la profundidad a través de fallas y fracturas y se descargan en la capa del suelo justo debajo de la superficie del suelo. Dado que CO2 es más pesado que el aire, puede acumularse en puntos bajos o en espacios confinados o fluir pendiente abajo como una corriente de densidad, presentando un peligro significativo para todos aquellos que ingresan a tales áreas. En 1990, un guardabosques del Servicio Forestal de los EE. UU. En el Bosque Nacional Inyo entró en una cabaña cubierta de nieve en dicha área y experimentó una asfixia cercana. Investigaciones posteriores revelaron concentraciones potencialmente letales de CO2 en las cercanías que requieren el cierre de un campamento cercano. Los encuentros mortales con CO2 volcánico incluyen gas que fluyó por una pendiente empinada y cruzó una carretera, matando a unas 150 personas que huían de una erupción en Dieng (Indonesia) en 1979, y liberaciones repentinas de CO2.2-Gas rico de
Los lagos Mimony y Nyos de Camerún que mataron a unas 40 y 1.700 personas, respectivamente, en 1984 y 1986.
Las zonas de descarga de gas del suelo pueden ser calientes o frías y, a menudo, se caracterizan por la vegetación y la mortalidad de los árboles. Debido a que los gases pueden escapar del suelo en un área amplia, una pequeña cámara de acumulación de suelo junto con un espectrómetro infrarrojo y una computadora portátil se usa típicamente para recolectar y medir el gas en decenas a cientos de sitios separados. Estas medidas se utilizan para construir un mapa del CO del suelo2 anomalía para determinar un flujo total de gas. Para obtener más detalles, consulte http://volcanoes.usgs.gov/activity/methods/gas/soil.php. El costo de la instrumentación de salida del suelo del campo varía entre $ 5,000 y $ 20,000. Los estudios de campo suelen ser realizados por un equipo de científicos durante varios días y se repiten una o varias veces al año durante varios años para evaluar la dinámica de la descarga de gas desde la profundidad.
Las mediciones de eflujo del suelo también son útiles para buscar fallas u otras zonas donde el gas volcánico se está filtrando a la superficie. A veces puede ser apropiado instalar estaciones automáticas de monitoreo de eflujo del suelo en zonas de descarga de gas del suelo para monitorear variaciones a corto plazo (por hora) en la desgasificación. Las estaciones de monitoreo automatizadas cuestan alrededor de $ 20,000 cada una.
La teledetección vía satélite, descrita en la sección de técnicas emergentes de este capítulo, también se puede utilizar para monitorear las emisiones térmicas y las nubes de gas y cenizas volcánicas.

Signo vital 4. Emisión de columnas de gas y nubes de ceniza

Introducción
Las emisiones de gas y cenizas se controlan mediante tres técnicas descritas en esta sección, y también mediante teledetección satelital, como se describe en la sección siguiente (Técnicas de monitoreo utilizadas para numerosos signos vitales). Los métodos 1 y 2 se utilizan para monitorear el dióxido de azufre y el dióxido de carbono, respectivamente, en las columnas volcánicas. Ambos gases son indicadores importantes de la actividad magmática. El método 3 describe cómo se pueden monitorear y rastrear las nubes de cenizas volcánicas, generalmente en combinación con la teledetección por satélite. Debido a la importancia de evitar que las aeronaves ingresen a las nubes volcánicas, se ha desarrollado un proceso internacional coordinado de múltiples agencias para rastrear las nubes de cenizas en tiempo real y comunicar información clave a los intereses de la aviación.
La velocidad a la que un volcán libera gases a la atmósfera está relacionada con el volumen de magma dentro de su sistema de depósito de magma. Midiendo los cambios en la tasa de emisión, generalmente en toneladas métricas por día (103 kg / d), de gases clave como el dióxido de azufre (SO2) y dióxido de carbono (CO2), es posible inferir cambios que pueden estar ocurriendo en el depósito de magma de un volcán y si el magma podría estar moviéndose hacia la superficie. Aunque a veces es posible medir SO2 descarga desde el suelo, se mide con mayor precisión y seguridad desde una plataforma aérea. CO exacto2 Las mediciones de la tasa de emisión requieren una plataforma aérea. Consulte http://volcanoes.usgs.gov/About/What/Monitor/Gas/plumes.html para obtener más información e ilustraciones sobre los métodos descritos en este signo vital.
Una columna de gas típica, ya sea exhalada de una fuente pequeña como una fumarola o descargada con fuerza de una fuente grande como un respiradero volcánico en erupción, se eleva a la altura donde su densidad alcanza el equilibrio con la atmósfera. La parte superior de la nube puede ser cortada y arrastrada por el viento. La tasa de emisión de gas se puede determinar midiendo la cantidad de un gas específico en la columna a favor del viento y la velocidad del viento.
La emisión de dióxido de azufre de los volcanes inactivos normalmente varía desde los límites de detección por debajo del instrumento hasta unos pocos cientos de toneladas métricas por día. Porque sí2 puede reaccionar con el agua y perderse como una fase gaseosa, a veces no está presente en los volcanes inactivos hasta que comienzan los disturbios. En cualquier caso, es importante medir SO2 y compañía2 durante períodos inactivos para establecer líneas de base para compararlas con mediciones futuras si se producen disturbios.

Nivel 3, método 1: mediciones con espectrómetro de correlación (COSPEC) y espectrómetro mini-UV (Flyspec)
La importancia de buscar SO2 en penachos volcánicos no se puede sobreestimar. Cuando TAN2 aparece en la columna durante los disturbios volcánicos, es el indicador definitivo de una fuente de magma poco profunda, lo que demuestra un calentamiento suficiente del edificio volcánico para establecer pasajes secos desde la profundidad hasta la superficie en los que SO2 ya no se elimina por reacciones con aguas subterráneas o un sistema hidrotermal. SO muy alto y sostenido2 Las tasas de emisión implican que el magma se ha infiltrado a un nivel alto debajo del volcán e indican la clara posibilidad de una erupción.
El COSPEC (o espectrómetro de correlación) se ha utilizado durante más de tres décadas para medir SO2 tasas de emisión de varios volcanes en todo el mundo. Originalmente diseñado para medir contaminantes industriales, el COSPEC mide la cantidad de luz ultravioleta absorbida por SO2 moléculas dentro de una columna volcánica que utilizan la luz solar dispersa como fuente de luz. El instrumento se calibra comparando todas las mediciones con uno o más SO conocidos.2 estándares montados en el instrumento. El COSPEC es un instrumento óptico con un telescopio orientado hacia arriba, por lo que normalmente se monta en un avión con el telescopio sobresaliendo por una ventana. Por lo general, se vuelan de 3 a 6 travesías por debajo de la pluma en ángulo recto con su dirección de viaje, para determinar el SO promedio2 concentración a lo largo de una sección transversal vertical de la pluma. La velocidad del viento se determina durante el vuelo mediante GPS. A partir de estas mediciones, se puede calcular una tasa de emisión muy precisa. Un COSPEC cuesta alrededor de $ 80,000 por el instrumento y algunos cientos de dólares por una placa de montaje hecha a medida que es única para cada tipo de aeronave.
El Flyspec, a veces llamado mini-DOAS (espectrómetro de absorción óptica diferencial), también mide SO2 en el rango de luz ultravioleta. Sin embargo, el instrumento Flyspec es considerablemente más pequeño y liviano que el COSPEC y se puede operar a través del puerto USB de una computadora portátil estándar. Puede instalarse en un helicóptero o en un avión de ala fija y volar por debajo de la columna utilizando la misma estrategia de medición que el COSPEC. Dependiendo de la configuración y de si es un modelo comercial o no, un Flyspec costará entre $ 5,000 y $ 12,000.
Los costos de vuelo para una medición típica de gas en el aire son generalmente de $ 1,000 a 3,000, pero los vuelos individuales en sistemas volcánicos con fuentes de gas ampliamente distribuidas, como Yellowstone, costarán $ 5,000 o más. Los intervalos entre vuelos de medición de gas de referencia en un volcán inactivo pueden ser de uno a tres años. En los volcanes que experimentan disturbios, los vuelos pueden realizarse cada uno o tres meses, y cuando los disturbios son intensos, pueden ser necesarios con una frecuencia diaria o semanal.

Nivel 3, Método 2: LI-COR
El dióxido de carbono es una de las especies de gas más importantes para pronosticar la actividad eruptiva porque puede proporcionar la indicación geoquímica más temprana del inicio de la inquietud dentro de un sistema volcánico. Debido a su baja solubilidad, CO2 se libera del magma muy temprano durante su ascenso a la superficie. Por lo tanto, una transición de CO2 desde las cantidades de la línea de base a niveles marcadamente más altos indica que es probable que el magma esté involucrado y en movimiento desde la profundidad. Un mayor aumento de CO2 a tasas de emisión aún más altas señales de que el magma está invadiendo un nivel alto debajo del volcán. No existe una alternativa confiable a los aviones para medir CO con precisión2 tasas de emisión. El acceso de las aeronaves a los volcanes inquietos es absolutamente esencial para monitorear de manera adecuada y segura las emisiones de gases.
El LI-COR es un pequeño espectrómetro infrarrojo que se ha convertido recientemente en el estándar para determinar el CO2 tasas de emisión en penachos volcánicos. El LI-COR toma muestras de aire y gases volcánicos a través de un tubo conectado al puerto de muestreo exterior de un helicóptero o avión bimotor de ala fija que puede analizar CO2 en la corriente de aire de muestra a una medición por segundo. A diferencia del COSPEC y Flyspec que se vuelan por debajo de la pluma, el LI-COR debe volar a través de la pluma en travesías a diferentes elevaciones perpendiculares a la dirección de la deriva, hasta que se analice una sección transversal vertical completa de la pluma. A partir de estos datos y una velocidad del viento determinada por GPS, una tasa de emisión de CO2 puede ser determinado.
Debido a que el LI-COR normalmente se volará con un COSPEC o Flyspec, los costos de vuelo de la aeronave y la frecuencia de las mediciones serán los mismos que los descritos anteriormente para COSPEC y Flyspec.

Nivel 3, Método 3: Radar Doppler
El radar Doppler monitorea la aparición de nubes volcánicas y rastrea sus movimientos, en contraste con los métodos descritos anteriormente, que monitorean diferentes componentes químicos dentro de una nube volcánica. Por lo tanto, el radar Doppler se utiliza para ayudar a decidir cuándo deben cerrarse las áreas peligrosas para las personas en tierra o para las aeronaves.
La detección de erupciones es una tarea fácil cuando un volcán entra en erupción con buen tiempo, durante el día y / o dentro de la vista de los observadores, pero es difícil para las erupciones nocturnas, con mal tiempo y / o en áreas remotas. En el caso de erupciones explosivas, como las que podrían ocurrir en los volcanes Lassen Peak, Crater Lake, Mount Rainier y Alaska, estas desventajas se pueden superar con sistemas de radar Doppler diseñados para monitorear el clima. El radar meteorológico detecta cenizas en el aire de la misma manera que detecta lluvia o nieve, aunque no puede distinguir entre cenizas y nubes meteorológicas.
Los sistemas de radar Doppler producen mapas que muestran cualquier cosa, incluida la lluvia, la nieve y las cenizas volcánicas, que se mueva y refleje el rayo del radar. Las imágenes se producen a intervalos regulares y se guardan como archivos de computadora que pueden verse como una secuencia de lapso de tiempo cuando otros datos de monitoreo indican una posible actividad volcánica. Por ejemplo, una sismicidad inusual en un volcán indica que ha sucedido algo, tal vez una erupción. Si la secuencia de imágenes de radar indica que una nube apareció repentinamente sobre el volcán simultáneamente con la sismicidad, entonces es casi seguro que la nube fue producida por una erupción explosiva. Por lo tanto, las erupciones se pueden detectar de día y de noche, tanto con tiempo bueno como con mal tiempo.
El costo de adquirir datos de radar varía de muy bajo a extremadamente alto. El Servicio Meteorológico Nacional (NWS) proporciona datos de radar Doppler para la mayor parte de los Estados Unidos sin costo en Internet. Sin embargo, la cobertura es limitada o inexistente en algunas áreas remotas. Los radares NWS producen imágenes a intervalos de 4, 5, 6 o 10 minutos, según las condiciones meteorológicas. Transcurre aproximadamente otro minuto antes de que las imágenes estén disponibles. Los proveedores comerciales que procesan y revenden datos de radar NWS aumentarán aún más el tiempo entre la adquisición y la entrega a los usuarios finales. Si las imágenes se obtienen de los radares del NWS, los problemas de telecomunicaciones pueden ser un impedimento, ya sea que las imágenes se obtengan de Internet, directamente de los servidores de datos del NWS o de un proveedor comercial. Además, los usuarios no tienen control sobre el flujo de datos del NWS y deben conformarse con
qué ofrecen los proveedores de datos. En consecuencia, los usuarios deben trabajar con intervalos de imagen sustancialmente más largos de lo deseable, lo que aumenta el tiempo necesario para la detección de erupciones.
Si un volcán no está cubierto por radares NWS, se necesitaría adquirir y operar un sistema de radar independiente. Se coloca una gran antena parabólica en un pedestal con una vista sin obstáculos de (al menos) la cima del volcán, por lo general a unas pocas decenas a 50 km del volcán. Por lo general, la antena se monta en la parte superior de un edificio o torre para que los objetos cercanos no bloqueen el haz del radar. Los cables de la antena están conectados a una “caja negra” electrónica dentro del edificio que controla la antena y adquiere los datos brutos. Una computadora personal procesa los datos sin procesar y los muestra en un monitor en varios formatos gráficos que los operadores capacitados pueden interpretar fácilmente.
El equipo de radar tiende a ser caro. Los sistemas menos costosos (y menos capaces) cuestan alrededor de $ 50,000. Los sistemas más capaces cuestan entre cinco y diez veces más. Los sistemas de radar privados requieren mantenimiento y reparación, y requieren personal para operarlos y mantenerlos. Sin embargo, los sistemas de radar pueden funcionar con poca atención durante períodos prolongados.
La teledetección vía satélite, descrita en la sección de técnicas emergentes de este capítulo, también se puede utilizar para monitorear cenizas volcánicas y nubes de gas.

Signo vital 5. Actividad hidrológica

Introducción
La mayoría de los volcanes son características fisiográficas altas con una cantidad considerable de nieve acumulada y recursos de agua subterránea apreciables. Las aguas superficiales pueden interceptar y absorber tanto el calor como los componentes químicos liberados por el magma. Al monitorear la descarga de agua, su composición y su temperatura, los trabajadores pueden detectar cambios en el sistema volcánico que acompañan a la actividad magmática renovada. El monitoreo puede incluir estaciones de medición en ríos y arroyos, monitoreo de pozos de agua subterránea en el fondo de pozo o sondas de temperatura simples (termistores) colocadas en arroyos o lagos. A veces, los cambios observados pueden preceder a las señales geofísicas que son los signos dominantes del despertar de un volcán.

Nivel 3, Método 1: Instrumentación de pozos y corrientes
Una corriente requiere algún método para medir su profundidad y volumen de flujo. Por lo general, se construye una pequeña estructura de hormigón que está conectada hidráulicamente al arroyo. Esta configuración permite mediciones reproducibles que no se ven afectadas por las tormentas. La transmisión de datos en tiempo real requiere un sistema de telemetría, generalmente un transmisor satelital y una fuente de energía (celdas solares, baterías o líneas de servicios eléctricos si están disponibles). La instrumentación adicional puede incluir una estación meteorológica o instrumentación de la calidad del agua para medir la lluvia, la conductividad o la turbidez.
Un medidor de corriente mide el nivel de un río o su profundidad en relación con algún dato medido. La descarga (el volumen de agua que pasa por un punto determinado por unidad de tiempo) también se monitorea comúnmente. Al medir cuidadosamente la sección transversal de un río y la velocidad del agua, se puede calcular una curva de clasificación que relaciona la etapa con las unidades de flujo, generalmente en pies cúbicos (ft 3) por segundo. Los expertos en recursos hídricos vuelven a medir las curvas de clasificación varias veces al año. Se pueden colocar sensores adicionales cerca de la estación de medición para medir la temperatura del aire y del agua, la química del agua o la precipitación, y estos parámetros se pueden comparar con la descarga a través de la estación de medición. Los instrumentos como termistores, sensores de presión y sensores químicos se pueden colocar en pozos, proporcionando información sobre las condiciones en un acuífero o sistema de agua subterránea. Los datos se pueden recopilar en un registrador de datos que se descarga o telemedida rutinariamente a los científicos a través de sistemas de radio o satélite. La información de los pozos o de los ríos se puede ver como series de tiempo en relación con otros parámetros de monitoreo como la sismicidad, la deformación o las observaciones satelitales para ver si los cambios en el flujo o la química del agua se correlacionan con los cambios en otros fenómenos medidos.
La información de los medidores de arroyos también se usa regularmente para avisos de inundaciones, manejo de vida silvestre (especialmente pesquerías) y para manejo de recursos hídricos.
Por lo general, el monitoreo hidrológico se lleva a cabo con un medidor de corriente, cuya construcción puede costar entre $ 30,000 y 40,000, más gastos operativos anuales de aproximadamente $ 15,000. El precio incluye transmisión de datos completa en tiempo real (generalmente por satélite) y pruebas periódicas para proporcionar curvas de clasificación para cada medidor, que pueden cambiar con el tiempo. Los sistemas de monitoreo de fondo de pozo para pozos cuestan menos de mantener porque no requieren curvas de calificación actualizadas. Los costos iniciales son de alrededor de $ 5,000 para la instrumentación para medir la temperatura y la profundidad del agua en un pozo existente. La perforación de varios pozos nuevos cuesta entre cientos de miles y millones de dólares y rara vez se realiza en los volcanes solo con fines de monitoreo. Los termómetros simples con registradores de datos dedicados se pueden colocar en el suelo o en corrientes por tan solo unos pocos cientos de dólares. Rara vez se telemedidos y, en cambio, recopilan datos de forma continua durante varias semanas o meses antes de la recuperación de datos.
Los datos sobre el agua se revisan de forma rutinaria junto con otros datos de seguimiento. Los datos se recopilan cada 15 minutos en medidores de corriente típicos. Es posible que se recopilen otros parámetros con mayor frecuencia. Se pueden construir sistemas de alarma de modo que las concentraciones químicas anómalas, los caudales o los cambios de presión se envíen inmediatamente al personal de supervisión.
Los medidores de corriente pueden volverse poco confiables después de grandes tormentas porque las tormentas pueden cambiar la forma del canal del río y hacer que la curva de clasificación sea inexacta. Los equipos de campo deben determinar una nueva curva de calificación. Las tormentas, la nieve y otras condiciones ambientales pueden interferir ocasionalmente con la transmisión de datos, por lo que el registro de monitoreo puede interrumpirse periódicamente. Los sensores de fondo de pozo pueden degradarse por altas temperaturas y
condiciones de alta presión y pueden fallar y necesitar reemplazo periódicamente. Los termistores para el monitoreo del suelo y las aguas superficiales pueden sufrir actos de vandalismo por parte de humanos o animales y pueden degradarse con el tiempo debido a las duras condiciones.
Los grandes cambios de temperatura, química o flujo que aparentemente no están relacionados con los parámetros climáticos pueden deberse a cambios en el sistema volcánico. Luego se realizan más estudios y evaluaciones.
Los medidores de corriente son comunes en todo el mundo desarrollado, pero menos en el resto del mundo. Sin embargo, no todos los medidores de corriente son útiles para monitorear volcanes a menos que se coloquen con ese objetivo en mente. Una estación de medición utilizada expresamente para el monitoreo de volcanes se encuentra en Norris Geyser Basin en el Parque Nacional Yellowstone (http://waterdata.usgs.gov/mt/nwis/uv?site_no=06036940). Los datos en tiempo real del pozo de agua Chance, monitoreados por el Observatorio Long Valley, se encuentran en http://lvo.wr.usgs.gov/cw3_main.htm.

Signo vital 6. Inestabilidad de la pendiente

Introducción
Los volcanes están sujetos a varios tipos de inestabilidad de pendientes, algunos vinculados a procesos eruptivos, otros al terreno escarpado y pendientes inestables que caracterizan a muchos edificios volcánicos. Esta sección aborda los flujos de escombros, que son mezclas de fragmentos de roca, lodo y agua que fluyen rápidamente y que se originan en pendientes pronunciadas. Conocidos como lahares cuando se originan en volcanes, se encuentran entre los peligros volcánicos más destructivos y persistentes. Los lahares amenazan vidas y propiedades no solo en los volcanes, sino también río abajo en los valles que drenan los volcanes, donde llegan repentinamente e inundan todo el fondo de los valles. Los flujos de escombros pueden destruir la vegetación y las estructuras a su paso, incluidos puentes y edificios. Sus depósitos pueden cubrir carreteras, áreas de recreación y vías férreas, y llenar o desviar canales de arroyos, reduciendo así su capacidad de transporte de inundaciones y navegabilidad.
Los lahares pueden aparecer como lahares primarios o secundarios. Los lahares primarios comienzan durante las erupciones volcánicas, como resultado de materiales eruptivos calientes que derriten la nieve y el hielo o rompen lagos u otras aguas embalsadas. Los lahares secundarios pueden desarrollarse en cualquier momento después de las erupciones, como resultado de fuertes lluvias o inundaciones glaciales que movilizan cenizas, suelos erosionables o labranza glacial. Se han registrado inundaciones repentinas de cuatro glaciares en el Parque Nacional Mount Rainier durante períodos de clima inusualmente caluroso o lluvioso en verano o principios de otoño, y han inundado caminos río abajo y áreas de recreación (Walder y Driedger, 1994a). A diferencia de otros peligros volcánicos que no están necesariamente limitados por la topografía, como la caída de cenizas y los flujos piroclásticos, los flujos de escombros generalmente están contenidos en el fondo de los valles y siguen caminos predecibles a lo largo de los canales de los arroyos, lo que hace que la mitigación de peligros sea práctica mediante la delimitación de posibles zonas de inundación y -Monitoreo del tiempo de los canales de flujo de escombros.
La susceptibilidad y los posibles desencadenantes de los flujos de escombros se pueden determinar para un volcán y se puede monitorear la posible actividad desencadenante. La presencia de un lago de cráter, cantidades significativas de nieve o hielo, o roca estructuralmente defectuosa, como material que ha sido alterado física y químicamente por gases y fluidos volcánicos, puede evaluarse mediante trabajo de campo geológico y mapeo. Los estudios de campo también pueden revelar depósitos de flujo de escombros de erupciones anteriores, proporcionando una perspectiva sobre los posibles peligros locales y regionales. Los depósitos de flujo de escombros a veces pueden extenderse por decenas de millas desde un volcán.
Para obtener información adicional sobre la inestabilidad de la pendiente, consulte el capítulo sobre el seguimiento de los movimientos de la pendiente.

Métodos seleccionados para monitorear el movimiento de pendientes
Los elementos o signos vitales del monitoreo del movimiento de pendientes relevantes para el monitoreo de volcanes incluyen (1) determinación de tipos de deslizamientos de tierra, (2) monitoreo de desencadenantes y causas de deslizamientos de tierra, (3) delineación de peligros de lahar y (4) monitoreo de lahar en tiempo real. Los dos primeros signos vitales se tratan en el capítulo sobre pendientes. A continuación se describen dos métodos para monitorear los peligros y movimientos de los lahar.

Nivel 3, Método 1: Delimitación de peligros de Lahar
LAHARZ es un método rápido, objetivo y reproducible que utiliza un sistema de información geográfica (GIS) con modelos digitales de elevación (DEM) para delinear las zonas de inundación de lahar (Iverson et al., 1998). El Servicio Geológico de EE. UU. Desarrolló el método para volcanes donde los datos, el tiempo, la financiación o el personal son inadecuados para aplicar los métodos tradicionales de mapeo geológico. Tanto los métodos de mapeo de LAHARZ como los tradicionales se basan en los mismos principios: (1) la inundación por lahares anteriores proporciona una base para predecir la inundación por lahares futuros (2) los peligros de lahares distales se limitan a los valles que se dirigen a los flancos de los volcanes (3) el volumen de lahares en gran medida controla la extensión de la inundación río abajo (4) los lahares voluminosos ocurren con menos frecuencia que los lahares pequeños y (5) nadie puede predecir el tamaño del siguiente lahar que descienda por un drenaje determinado.
El programa LAHARZ GIS es un método automatizado que combina análisis estadísticos de datos de inundaciones de lahar de nueve volcanes para desarrollar ecuaciones cuantitativas que predicen el área de la sección transversal del valle y el área planimétrica que sería inundada por lahares con varios volúmenes. El método GIS delimita simultáneamente las áreas de inundación para una variedad de volúmenes de lahar, representando así las gradaciones del peligro de inundación. El peligro de inundación es mayor en los fondos de los valles cercanos a un volcán y disminuye a medida que aumentan las elevaciones sobre los pisos del valle y las distancias desde el volcán. La representación automatizada de gradaciones en peligro es una de las principales ventajas de esta metodología SIG. El método requiere un DEM de suficiente precisión y resolución combinado con un conocimiento práctico de los programas GIS. El programa LAHARZ está disponible en el Observatorio del Volcán Cascades del Servicio Geológico de EE. UU.

Nivel 3, Método 2: Monitoreo en tiempo real de Lahars
La detección en tiempo real de lahares cerca de sus fuentes puede proporcionar advertencias oportunas a las personas en zonas de inundación delimitadas, si existen sistemas de comunicación y planes de evacuación adecuados. El monitoreo continuo y automatizado del flujo de escombros también puede proporcionar información útil para identificar las condiciones climáticas específicas que aumentan la probabilidad de lahares provocados por lluvias o inundaciones por erupciones glaciales provocadas por el agua de deshielo. Los científicos del Servicio Geológico de EE. UU. Han desarrollado un sistema económico, duradero, portátil y de instalación rápida para detectar y monitorear continuamente la llegada y el paso de flujos de escombros e inundaciones en valles que drenan volcanes (LaHusen, 1996). Este sistema automatizado, el Monitor de flujo acústico (AFM), detecta y analiza las vibraciones del suelo con una unidad compacta alimentada por energía solar que se instala cerca de canales específicos por donde pueden viajar los lahares. Utiliza un sensor resistente y un microprocesador in situ para analizar continuamente las señales de vibración y detectar flujos de escombros e inundaciones en función de la frecuencia, composición, amplitud y duración de la señal de vibración. Un sistema de radio bidireccional se comunica entre cada unidad de detección y una estación base a través de una red de radio. Se ha implementado un sistema AFM para detectar lahares a gran escala que podrían ocurrir en Mount Rainier, consulte http://ic.ucsc.edu/

syschwar / eart3 / ejercicios / Rainier_warning_sys.html.
Cada estación AFM mide la amplitud de la señal de vibración del suelo cada segundo y envía datos por radio a la estación base a intervalos regulares, por lo general 15 minutos. Si el instrumento detecta vibraciones que superan un cierto valor de umbral (ajustable para cada sitio individual) durante más de 40 segundos, el AFM transmite mensajes de alerta inmediatos. Continúa enviando datos de alerta a intervalos de 1 minuto mientras la señal permanezca por encima del nivel de umbral. Cuando la señal cae por debajo del nivel de umbral, el AFM reanuda el funcionamiento normal y transmite a intervalos menos frecuentes. El sistema AFM tiene distintas ventajas sobre otros sistemas de detección: (1) el sensor y el microprocesador están configurados para analizar específicamente las vibraciones máximas típicamente producidas por flujos de escombros e inundaciones, y filtrar otros ruidos o temblores que afectarían los flujos normales de sismógrafos (2) son monitoreados a medida que se acercan y se alejan de los sitios monitoreados individuales y (3) el equipo está listo para detectar flujos posteriores de inmediato sin ningún mantenimiento adicional.
Por lo general, se colocan dos o tres estaciones AFM en cada drenaje seleccionado para que la velocidad del lahar se pueda determinar a partir de los tiempos de llegada entre las estaciones, lo que proporciona un sistema robusto y redundante. Es posible que se necesiten uno o más repetidores de radio en la cima de una colina para transmitir las señales aguas abajo a una estación base donde se pueden iniciar las acciones apropiadas. El costo de instalar un sistema de monitoreo AFM básico es de aproximadamente $ 50,000 por drenaje cubierto.

TÉCNICAS DE MONITOREO UTILIZADAS PARA NUMEROSOS SIGNOS VITALES

Método 1. Detección remota vía satélite

Descripción
La teledetección por satélite es útil para monitorear y medir una variedad de fenómenos volcánicos, incluidas las emisiones térmicas, las cenizas volcánicas y las nubes de gas, y la deformación de la superficie. Por lo general, los satélites que utilizan sensores infrarrojos se utilizan para detectar y rastrear la actividad volcánica, y los sensores ultravioleta y de radar se utilizan para medir gases y superficies terrestres. Muchos procesos volcánicos emiten calor. Los procesos que emiten calor como parte de una erupción se denominan fuentes activas. Los ejemplos incluyen flujos piroclásticos, flujos de lava, domos de lava y fuentes de lava. Los procesos que emiten calor durante largos períodos de tiempo pero que normalmente no indican una erupción inminente se denominan fuentes pasivas. Los ejemplos incluyen aguas termales, géiseres, fumarolas, fracturas y lagos de cráteres.
Para fenómenos volcánicos menos explosivos, como flujos de lava y fuentes de lava, la teledetección satelital puede ayudar en la interpretación de datos sísmicos, especialmente para volcanes remotos o de difícil acceso. La teledetección puede determinar si un tipo de señal sísmica que se observa típicamente durante una erupción (temblor volcánico) está relacionado con un proceso relativamente lento, como el ascenso de magma en un conducto o una erupción explosiva más peligrosa. En otros casos (p. Ej., Kilauea, Monte Etna), la teledetección se ha utilizado para detectar cambios en el carácter del flujo de lava, desde el tipo alimentado desde un sistema de tubos subterráneos hasta un flujo superficial (Harris et al., 1997a), así como tasas de efusión de lava (Harris et al., 2000). Aunque este cambio en el carácter del flujo puede no ser evidente en los datos sísmicos, puede indicar una transición en el tipo y ubicación del peligro de flujo de lava.
La teledetección térmica de procesos activos en algunos casos ha identificado con éxito los precursores de la actividad volcánica peligrosa y ha ayudado en el pronóstico a corto plazo (días a semanas) de la actividad volcánica explosiva peligrosa (Schneider et al., 2000 Dehn et al., 2002 Dean et al. al., 2004). Por ejemplo, cuando el magma se entromete en un domo de lava, sus flancos pueden ensancharse demasiado, lo que lleva al colapso. Esto genera bloques calientes y flujos de cenizas (flujos piroclásticos) que pueden detectarse en imágenes de satélite. Un gran colapso de la cúpula puede desencadenar una erupción explosiva de mayor volumen a medida que el magma subyacente rico en gas se despresuriza rápidamente, lo que lleva a columnas de erupción y nubes de cenizas que viajan miles de kilómetros.
Las erupciones volcánicas explosivas pueden inyectar grandes volúmenes de ceniza volcánica y gas en la atmósfera, donde son dispersados ​​por los vientos. La ceniza volcánica es una mezcla no consolidada de fragmentos de roca, cristales y vidrio del tamaño de la arena y el polvo, que representan un grave peligro para las aeronaves y la maquinaria. Desde 1973 hasta 2003, se han documentado casi 100 encuentros de aeronaves con cenizas volcánicas en el aire, varios de los cuales casi resultaron en la pérdida de la aeronave. Los costos típicos por encuentro varían desde varias decenas de miles de dólares hasta tanto como $ 80,000,000 (Marianne Guffanti, U.S. Geological Survey, 2005, comunicación personal). Las nubes de cenizas a la deriva (aquellas que se han desprendido del respiradero) son indetectables por el radar a bordo de un avión y son difíciles de ver con poca luz y de noche. Para mitigar el peligro de cenizas volcánicas se utilizan la detección y el seguimiento por satélite de las nubes de cenizas a la deriva, el modelado del pronóstico de la dispersión de las nubes y la comunicación rápida de los análisis. Además del peligro en el aire, la caída de cenizas puede ocurrir como resultado de una nube de erupción. Esto puede variar desde una ligera formación de polvo hasta espesos depósitos de ceniza, incluso a grandes distancias del volcán (Houghton et al., 2000). El seguimiento por satélite y el modelado de las columnas de ceniza también ayudan a predecir la caída de cenizas. Los pronósticos y el modelado de patrones típicos de caída de cenizas pueden ayudar a los administradores a mitigar los efectos de la carga de cenizas en la salud humana y animal, la maquinaria y las estructuras.
También se emiten gases volcánicos durante una erupción explosiva, siendo el agua, el dióxido de carbono y el dióxido de azufre los más abundantes. Aunque estos gases no representan un peligro grave para las aeronaves, en grandes cantidades pueden ser un peligro crónico para la salud, la infraestructura y el medio ambiente. Una vez que se emite dióxido de azufre a la atmósfera, se combina con agua para producir un aerosol de ácido sulfúrico (sulfato). En grandes cantidades, estas gotas de ácido pueden afectar el clima global al reflejar la radiación solar entrante. Las gotas de ácido sulfúrico son muy pequeñas, por lo que pueden permanecer en el aire durante meses o años. Las estructuras o aeronaves en áreas que contienen aerosoles de sulfato podrían sufrir daños crónicos, como agrietamiento de las ventanas acrílicas, corrosión de los soportes y sellos de goma y acumulación de depósitos dentro de los manipuladores de aire o motores. Estos efectos son difíciles de documentar porque pueden ocurrir lentamente durante un período de años. La teledetección por satélite ofrece la capacidad de detectar y cuantificar las cantidades de dióxido de azufre liberadas durante una erupción, así como el aerosol de sulfato resultante. Esto incluye la desgasificación no explosiva de dióxido de azufre, que se ha monitoreado con éxito en Kilauea durante años. Aunque las mediciones de gas en tierra son las más útiles para el monitoreo de rutina, el análisis satelital proporciona una descripción sinóptica de la extensión de la columna de gas y ayuda a visualizar y medir la nube de niebla volcánica ("vog") producida por el respiradero o por la entrada de lava de Kilauea al océano (Ver Sutton et al., 1997).
El monitoreo térmico rutinario de fuentes pasivas utilizando tecnología satelital ha identificado, en algunos casos, precursores de erupciones durante disturbios volcánicos, cuando un aumento medible de las emisiones térmicas proporcionó evidencia de la intrusión de magma y la posterior liberación de gases calientes (Sparks, 2003). Sin embargo, en la práctica, las fuentes pasivas son difíciles de monitorear por satélite porque sus temperaturas son bajas y sus características son generalmente demasiado pequeñas para ser resueltas por los sensores térmicos disponibles, que típicamente tienen una resolución espacial de 60 m.

Métodos de seguimiento
La teledetección por satélite puede monitorear la actividad volcánica con frecuencia ya un costo bajo a moderado (Harris et al., 1997b). Gran parte de los datos satelitales están disponibles en línea casi en tiempo real, por lo que en muchos casos los gastos no incluyen las estaciones receptoras para los datos de enlace descendente. La teledetección satelital y el monitoreo sísmico se pueden combinar simbióticamente para determinar el tipo y el peligro potencial de una ceniza erupcionada. Las imágenes satelitales también brindan información sobre fenómenos que no se pueden observar de ninguna otra manera, como anomalías térmicas, emisiones de gases de gran volumen y nubes de cenizas volcánicas peligrosas. Se dispone de una variedad de datos satelitales complementarios (Tabla 2) para realizar estas observaciones. Estos datos se pueden clasificar generalmente como (1) frecuentes, casi en tiempo real, de baja resolución espacial, como sensores de Radiómetro Avanzado de Muy Alta Resolución (AVHRR), Espectrorradiómetro de Imágenes de Resolución Moderada (MODIS) y Satélite Ambiental Operacional Geoestacionario (GOES) o (2) imágenes poco frecuentes, no en tiempo real y de alta resolución espacial, como los sensores de satélite de teledetección terrestre (Landsat) y del radiómetro de reflexión de emisión térmica avanzada (ASTER). El uso combinado de ambos tipos de datos satelitales proporciona un método sólido para detectar la actividad volcánica y cartografiar los accidentes geográficos volcánicos y los depósitos de erupciones.
Algunos sensores satelitales miden la luz en longitudes de onda no visibles para el ojo humano. Las más útiles para monitorear volcanes son las longitudes de onda infrarrojas, un poco más largas de lo que los humanos pueden ver. La mayoría de las longitudes de onda infrarrojas son absorbidas por la atmósfera de la Tierra, a excepción de unas pocas "ventanas atmosféricas" donde la absorción de rayos infrarrojos es mínima.
Una ventana atmosférica útil es el infrarrojo de onda corta (SWIR) con longitudes de onda entre 3 y 5 micrones. SWIR se utiliza para monitorear características térmicas de alta temperatura como lava o flujos piroclásticos. Cuanto más caliente esté un objeto, más energía emitirá y en longitudes de onda más cortas. Por ejemplo, un objeto con una temperatura de 25 ° C, como la superficie de la Tierra, tiene un pico de emisión a una longitud de onda de

10 micrones. Sin embargo, una característica volcánica con una temperatura de 800 ° C tiene un pico de emisión en

3 micrones. Muchas características volcánicas tienen un tamaño de subpíxeles, lo que significa que cubren un área de menos de 1 km de lado para AVHRR o MODIS. La temperatura registrada por el satélite es una mezcla compleja de
temperaturas de un componente frío y caliente, y sus respectivas áreas. Si hay varios canales de datos disponibles en diferentes longitudes de onda, es posible aprovechar estas relaciones para estimar tanto la temperatura como el área de un componente volcánico caliente (Rothery et al., 1988).
Otra ventana atmosférica útil es el infrarrojo térmico (TIR) ​​con longitudes de onda entre 8 y 14 micrones. Los datos en estas longitudes de onda se utilizan para detectar cenizas volcánicas y nubes de dióxido de azufre. El método más común para diferenciar las nubes de cenizas volcánicas de las nubes meteorológicas es el método de "ventana dividida". Aquí se compara la diferencia de temperatura de brillo (BTD) entre 2 canales de satélite a longitudes de onda de 11 y 12 micrones. Las nubes volcánicas semitransparentes generalmente tienen BTD negativas, mientras que las nubes meteorológicas generalmente tienen BTD positivas (Prata, 1989). Aunque muchos factores afectan la magnitud de la señal BTD, incluyendo (pero no limitado a) la opacidad de la nube, las cantidades, tamaño y distribución de cenizas y agua en la nube y el contraste de temperatura entre la nube y la superficie de fondo, la cantidad de ceniza volcánica puede ser estimado a partir de datos de satélite utilizando un modelo complejo de transferencia radiativa (Wen y Rose, 1994). Se utiliza un método similar para detectar y medir nubes de dióxido de azufre por desgasificación pasiva (usando ASTER) o por erupciones explosivas (usando MODIS) usando longitudes de onda de 7.3 u 8.6 micrones, donde hay absorción debido al dióxido de azufre (Watson et al. ., 2004).
El análisis y el monitoreo de datos satelitales en tiempo real requieren un acceso rápido y confiable a grandes cantidades de datos satelitales. Los conjuntos de datos útiles incluyen sensores AVHRR y GOES en satélites meteorológicos operados por NOAA y MODIS en satélites de investigación operados por NASA. La recepción directa de señales de satélite es el método de adquisición de datos más fiable, pero también el más caro. Una estación receptora de satélites cuesta entre $ 50,000 y $ 150,000. Se necesita una antena receptora separada y el hardware de computadora asociado para cada flujo de datos, lo que aumenta los costos de $ 25,000 a $ 50,000 por antena. Los costos de instalación varían según las necesidades de infraestructura y los activos de un sitio en particular y pueden oscilar entre $ 5,000 y $ 15,000. Un administrador de estación dedicado opera los sistemas y archiva los datos. Los sueldos de los científicos y analistas de datos de teledetección son costos adicionales.
Los datos satelitales también se pueden adquirir en línea de agencias gubernamentales y universidades a un costo de alrededor de $ 10,000 a $ 20,000 por año. También se necesitan aproximadamente $ 10,000 para software informático especializado, más los costos de estaciones de trabajo informáticas y grandes dispositivos de almacenamiento para almacenar los datos recibidos a una velocidad de muchos gigabytes por día. También se necesita una red informática sólida y confiable capaz de manejar este volumen de datos.
Los datos en tiempo no real de satélites como Landsat y ASTER siguen siendo alternativas de menor costo. Los datos de Landsat y ASTER pueden revelar características más pequeñas (15–90 m) que los satélites que proporcionan datos casi en tiempo real (1 km). Por lo tanto, los datos de Landsat y ASTER se utilizan principalmente para mejorar la interpretación de los datos en tiempo real descritos anteriormente. Este enfoque tiene ventajas sobre los datos casi en tiempo real, como un menor costo ($ 50 a $ 300 por escena que cubre

34.000 km2), mayor resolución espacial y la capacidad de detectar regiones más pequeñas de temperatura superficial elevada y medir emisiones no eruptivas de gas de dióxido de azufre. Además, todo el procesamiento de datos se realiza con computadoras de escritorio que utilizan software especializado, pero relativamente económico ($ 500 a $ 2,000).
Las desventajas son la disponibilidad limitada de datos y la cobertura de nubes. Actualmente, los datos de Landsat y ASTER están disponibles solo cada 8 a 16 días. La cubierta de nubes, sin embargo, es la principal desventaja. En áreas cubiertas de nubes, las cenizas volcánicas y las nubes de gas producidas por erupciones explosivas solo se pueden observar una vez que se elevan por encima de las nubes meteorológicas. Cualquier actividad térmica en la superficie se ve parcial o completamente oscurecida por la presencia de nubes.
En resumen, para crear un sistema de monitoreo de volcanes efectivo casi en tiempo real vía satélite, el objetivo principal es repetir las observaciones con una resolución temporal adecuada para que coincida con el proceso volcánico que se está observando. Los precursores a largo plazo (por ejemplo, deformación, calentamiento gradual) nos permiten utilizar conjuntos de datos de mayor resolución. Los flujos de lava y las explosiones donde ocurren cambios en la escala de minutos requieren la resolución espacial aproximada de los satélites en órbita polar o geoestacionarios que proporcionan imágenes cada hora.

TÉCNICAS EMERGENTES DE MONITOREO DE VOLCÁN

Introducción

Las técnicas de monitoreo de volcanes están evolucionando rápidamente como consecuencia de la innovación tecnológica y nuestra comprensión cada vez mayor de los procesos que causan las erupciones. Esta sección describe tres ejemplos de nuevos métodos de monitoreo remoto que se están utilizando para monitorear volcanes activos. El primero usa vehículos aéreos no tripulados (UAV) para acceder a áreas peligrosas, el segundo usa mediciones repetidas de la distancia entre un satélite y el suelo (InSAR) y el tercero detecta ondas sonoras de baja frecuencia (infrasonido) para detectar explosiones.
Todos los métodos de seguimiento más tradicionales también están cambiando. Por ejemplo, la rápida expansión de las comunicaciones por satélite de tamaño reducido y la tecnología de Internet está impulsando una revolución en la forma en que se monitorean los volcanes. Actualmente, las imágenes sísmicas, de gas, de deformación e incluso visuales se monitorean en volcanes remotos, algunos ubicados a miles de kilómetros de las estaciones base, utilizando comunicaciones por satélite e Internet. Además, los nuevos acelerómetros de estado sólido de bajo costo, GPS y sistemas de radio de área local inalámbricos permiten el despliegue rápido de pequeños sensores con comunicación de datos en tiempo real, incluso dentro de los cráteres de volcanes activos.
El monitoreo de gases volcánicos también está cambiando rápidamente, y ahora están disponibles nuevos instrumentos, como los espectrómetros infrarrojos por transformada de Fourier (FTIR), que pueden medir de forma remota especies de gas, como el cloro, que anteriormente solo se podían detectar mediante un muestreo directo más peligroso. de las áreas de ventilación, estos instrumentos proporcionan una mejor comprensión del contenido de gas y la explosividad potencial de los volcanes.

Figura 11. Vehículo aéreo no tripulado montado en la catapulta de lanzamiento neumático en el estacionamiento del Observatorio Johnson Ridge en Mount St. Helens, donde fue lanzado y recuperado. Nivel 3, método 1: vehículos aéreos no tripulados (UAV)
El desarrollo de vehículos aéreos no tripulados autónomos ha permitido a los científicos explorar anomalías inexploradas en lugares de difícil acceso o de acceso peligroso. El monitoreo de volcanes promete beneficiarse del desarrollo de vehículos aéreos no tripulados. A finales de septiembre de 2004, Mount St. Helens comenzó su primera erupción sostenida desde 1986, y por primera vez se enviaron vehículos aéreos no tripulados al cráter de un volcán en erupción (McGarry, 2005 Patterson et al., 2005).Este experimento demostró que las aeronaves no tripuladas pequeñas (2,45 m de envergadura) y relativamente económicas pueden navegar con precisión a menos de un kilómetro por encima de un respiradero volcánico activo y mantenerse en la estación durante períodos prolongados utilizando rutas preprogramadas y vuelos estabilizados por computadora. Los UAV entregaron datos de imágenes infrarrojas y ópticas en tiempo real a una estación base móvil a 10 km del cráter (Figs. 11 y 12). Estos datos se utilizaron para monitorear los cambios visibles y térmicos en el domo de lava activo y el respiradero, como el crecimiento y colapso del nuevo domo de lava, y la extensión y crecimiento de las áreas calientes. Los UAV también ofrecen ventajas potenciales para su uso en áreas sensibles y peligrosas. Los niveles de ruido suelen ser más bajos que los de los aviones tripulados a altitudes de más de mil pies, los pequeños UAV utilizados en Mount St. Helens generalmente no se pueden escuchar sobre el ruido de fondo y el viento. Dado que no se necesita piloto y se usa poco combustible (hay muchas opciones de combustible: alcohol, gasolina o combustibles pesados), los menores riesgos, costos e impactos ambientales ofrecen ventajas significativas sobre otros métodos de monitoreo.
Los UAV con diferentes cargas útiles y capacidades aeronáuticas están ahora disponibles o están en desarrollo para uso civil y gubernamental. Estos incluyen configuraciones de ala fija y helicóptero, y una variedad de tipos y tamaños de plantas de energía, cargas útiles y capacidades de rango / duración de vuelo. Debido al bajo costo, la disponibilidad actual y la capacidad de lanzamiento desde ubicaciones pequeñas y remotas, los tipos más pequeños de UAV de alas fijas y helicópteros ofrecen un potencial considerable para el monitoreo discreto de volcanes. La clase de UAV de ala fija portátil de 2,45 m que se utiliza en Mount St. Helens cuesta aproximadamente $ 25,000 por avión con un
piloto automático, radio telemetría a bordo y seguimiento de vuelo / computadora de retransmisión de datos. Estos aviones son capaces de transportar una carga útil de hasta 4 kg, pero los modelos más grandes pueden acomodar cargas útiles de hasta 10 kg. El volumen de carga útil máximo del modelo más pequeño es

10 cm de diámetro × 20 cm de área de sección transversal, mientras que los modelos más grandes tienen una dimensión de carga útil de

45 × 28 × 12 cm. Como en cualquier avión, existen compensaciones entre velocidad, carga útil y duración. Sin embargo, son posibles duraciones de 10 a 20 horas a 30 a 60 nudos de día o de noche, y rangos de hasta 1000 km con rutas preprogramadas y rastreo GPS autónomo, aunque la retransmisión de datos en tiempo real se limita típicamente a 30 km de línea de distancia. -distancia visual sin repetidores de radio. Debido a que estos aviones no están tripulados, en ciertas condiciones de alto riesgo / alto beneficio se consideran prescindibles. Una estación base móvil completa con radiotelemetría, controlador de vuelo, adquisición / procesamiento de datos y catapulta de lanzamiento portátil (30 kg) cuesta alrededor de $ 85,000. Los servicios de soporte de vuelo como los descritos anteriormente están disponibles comercialmente.
El uso de vehículos aéreos no tripulados para el monitoreo de volcanes está actualmente limitado por la disponibilidad de pequeños sensores livianos. En Mount St. Helens solo se probaron cámaras ópticas y de infrarrojos sin calibrar, aunque se están desarrollando o modificando varios sensores en miniatura nuevos para su uso en vehículos aéreos no tripulados. Por ejemplo, las últimas generaciones de espectrómetros de dióxido de azufre (SO2) de peso ligero se adaptan fácilmente al uso de vehículos aéreos no tripulados y proporcionarán un método alternativo para el control de gases volcánicos. Otra aplicación lista para usar es el uso de fotografías digitales de alta resolución e imágenes estéreo para documentar, monitorear y medir los cambios, como las características de las áreas de ventilación peligrosas y la extensión de los flujos de lava y otros productos eruptivos. Una de las promesas que ofrece el monitoreo de volcanes basado en UAV es proporcionar observaciones durante el mal tiempo, sin embargo, este también es uno de los mayores desafíos. Actualmente, el rastreo por GPS y el vuelo autónomo disponibles permiten la operación de aviones UAV en clima nublado, aunque la operación en condiciones de hielo podría ser problemática. Un desafío técnico mayor consiste en desarrollar sensores que puedan ver a través de las nubes. Actualmente, los investigadores están probando un sistema de radar liviano basado en UAV, que ofrece la posibilidad de realizar observaciones en condiciones climáticas adversas.
Hasta la fecha, la mayor parte del desarrollo y las pruebas de vehículos aéreos no tripulados se han llevado a cabo en el espacio aéreo militar, donde los vuelos civiles están prohibidos o se controlan de cerca. Una de las principales preocupaciones sobre la operación de UAV en el espacio aéreo civil es proporcionar separación entre el UAV y las aeronaves comerciales y privadas que operan en la misma área. Las operaciones de UAV en Mount St. Helens fueron permitidas bajo un certificado de autorización otorgado por la FAA al operador de UAV para volar en la zona de restricción de vuelo temporal que rodea el volcán.

Figura 12. Imágenes fijas tomadas de un video capturado desde un vehículo aéreo no tripulado del nuevo domo de lava

300 m de largo. La imagen de la izquierda muestra una imagen mejorada, que acentúa la topografía, dando así a los vulcanólogos una sensación de la inclinación del domo de lava. (La pendiente determina la probabilidad de un colapso, que podría generar flujos piroclásticos peligrosos). La imagen de la derecha es una imagen infrarroja en escala de grises invertida, en la que los tonos más profundos de gris y negro representan material más caliente.

Esta imagen muestra el área caliente (negra) en forma de U donde se extruye lava nueva (indicada por V). También muestra que los depósitos de ceniza recientes (A), tan prominentes en el centro izquierdo de la imagen de la izquierda, son relativamente fríos.

3 cm por año, probablemente porque el magma se acumulaba debajo de la superficie. Como resultado, el Servicio Geológico de los EE. UU. Inició estudios anuales de GPS y nivelación en South Sister e instaló GPS e instrumentos sísmicos continuos. Ahora, cualquier signo de una erupción inminente debe reconocerse con mucha antelación. Sin embargo, InSAR tiene algunos inconvenientes importantes. En su estado actual de desarrollo, InSAR no es una herramienta operativa para monitorear la mayoría de los volcanes que muestran disturbios significativos, amenazan con entrar en erupción o realmente están en erupción. Las limitaciones actuales en la disponibilidad de satélites y las prioridades de tareas crean largos intervalos entre las adquisiciones de imágenes repetidas, lo que limita el papel actual de InSAR para respaldar la caracterización a largo plazo de la deformación, similar a las mediciones en modo de levantamiento como la nivelación o el GPS de levantamiento. Se puede tomar una imagen InSAR solo cuando un satélite está en el aire, por lo general en un promedio de unas pocas veces al mes.
Los efectos atmosféricos, incluidas las tormentas o las células con altas concentraciones de vapor de agua, también pueden introducir errores en las mediciones de InSAR. Tales condiciones no conducen a incoherencias, sino que introducen señales sesgadas en los datos que pueden interpretarse incorrectamente como deformaciones. Por lo tanto, es importante confirmar los resultados de cualquier interferograma individual con otros datos, incluidas las mediciones de deformaciones terrestres u otros interferogramas temporalmente independientes.
InSAR solo toma imágenes de los desplazamientos de la superficie que ocurren en la misma dirección que la línea de visión del radar, que generalmente está inclinada entre 15 ° y 45 ° desde la vertical. Por tanto, un interferograma contiene una combinación de componentes de deformación horizontal y vertical. La conversión de las mediciones de InSAR en desplazamientos horizontales y verticales separados, similares a los que proporciona el GPS, requiere al menos dos interferogramas que cubran el mismo período de tiempo y obtengan imágenes del suelo desde diferentes puntos del espacio. Tales condiciones son difíciles de satisfacer, por lo tanto, es mejor usar InSAR en combinación con otros métodos que monitorean de manera inequívoca los componentes horizontales, verticales o ambos de la deformación de la superficie.
Si bien InSAR puede ser más barato que otros métodos de monitoreo para volcanes remotos, la adquisición y el análisis de datos aún pueden ser bastante costosos. El procesamiento de datos requiere software especializado que puede incluir software gratuito, que viene sin soporte técnico y, por lo tanto, requiere un experto ya capacitado en su uso, o software con soporte técnico, que puede costar hasta $ 30,000 y aún requiere un operador con una buena experiencia laboral. con datos de radar. Las escenas de radar generalmente cuestan alrededor de $ 100 por fotograma de 100 km 2, dependiendo de cómo se adquieran. A partir de 2008, solo las agencias espaciales canadienses, europeas y japonesas operan satélites con capacidades InSAR, por lo que todos los datos deben adquirirse de esas organizaciones.
Las variaciones en las características de la superficie entre los pases de satélites causadas por el hielo, la nieve y la vegetación hacen que la señal del radar se interrumpa en algunas áreas, lo que impide la recuperación de una medición de deformación. Esta “incoherencia” es un problema significativo en los volcanes cubiertos de hielo y nieve o con vegetación, como el Monte Rainier, por lo que InSAR no es actualmente una herramienta de monitoreo confiable en tales sitios. Las futuras misiones de satélites y las nuevas técnicas de procesamiento de señales pueden reducir este problema en la próxima década.

Nivel 3, Método 3: Monitoreo de explosiones volcánicas con infrasonido
Muchos fenómenos naturales y actividades humanas crean ondas sonoras en la atmósfera a frecuencias subaudibles, generalmente entre 1 y 25 Hz. Llamado infrasonido, se genera por fuentes como el viento, las olas del océano, la industria pesada, los desprendimientos de rocas, los aviones, los meteoros y las explosiones. Las ondas infrasónicas pueden viajar largas distancias a través de la atmósfera y, debido a que la atmósfera tiene una estructura relativamente simple en comparación con la Tierra heterogénea, las ondas infrasónicas están mucho menos distorsionadas por su viaje a través de la atmósfera que las ondas sísmicas por su viaje a través de la Tierra. Por lo tanto, las señales infrasónicas creadas por una fuente volcánica, como una explosión, pueden ser mucho más simples y, por lo tanto, más fáciles de interpretar, cuando se reciben en un sensor infrasónico (como un micrófono o microbarógrafo) que las ondas sísmicas generadas por la misma explosión cuando se reciben en un sensor infrasónico. sismógrafo. Las explosiones en particular producen señales infrasónicas muy características, y los sensores infrasónicos instalados alrededor de volcanes activos han demostrado ser útiles para distinguir entre explosiones y otras fuentes sísmicas como desprendimientos de rocas, avalanchas y ráfagas de viento (Johnson et al., 2003).
Las explosiones también se registran a menudo en las estaciones sísmicas. Por ejemplo, dos explosiones que ocurrieron en Mount St. Helens en 2005 fueron detectadas primero por estaciones sísmicas. Sin embargo, los sismógrafos pueden verse tan inundados por las ondas sísmicas de los terremotos locales que cualquier temblor de tierra producido por las explosiones puede quedar completamente oculto. Durante las dos primeras semanas de la erupción 2004-2005 del monte St. Helens, la actividad sísmica fue tan intensa que las explosiones solo se pudieron detectar visualmente. Por lo tanto, otro beneficio clave del monitoreo infrasónico en los volcanes es que las explosiones seguirán apareciendo en los sensores infrasónicos cuando la intensa actividad sísmica haya hecho que las estaciones sísmicas sean prácticamente inútiles para la detección de explosiones.

Qué se puede aprender
La pregunta más importante que puede responder el monitoreo infrasónico en un volcán es: "¿Están ocurriendo explosiones en la actualidad?" Por lo tanto, los datos de los sensores infrasónicos deben transmitirse a los observatorios en tiempo real. Tener dos o más sensores infrasónicos en el mismo sitio mejora en gran medida la capacidad de evaluar si una señal dada es infrasónica (viajando a la velocidad del sonido) o subsónica (como las ráfagas de viento, que viajan a una fracción de la velocidad del sonido).
Las preguntas secundarias incluyen, "¿Dónde está ubicada la fuente de explosión?" y posiblemente, "¿Cuál es el tamaño de la explosión?" (Aunque, en algunos casos, no se ha encontrado una correlación directa entre el tamaño de una señal infrasónica de una explosión y el tamaño de una explosión [Johnson et al., 2005]). Para responder a estas preguntas secundarias, dos o más conjuntos de Se necesitan matrices, cada una de las cuales consta de al menos cuatro sensores infrasónicos.

Monitoreo infrasónico: mecánica
Los sensores infrasónicos detectan cambios mínimos de presión en la atmósfera en una escala de tiempo que va desde milisegundos hasta minutos o más y en frecuencias subaudibles, generalmente menos de 25 Hz. Las estaciones infrasónicas pueden consistir en sensores individuales (comúnmente ubicados junto con un sismómetro, ver Fig. 13) o conjuntos de sensores que, a través de técnicas de análisis de conjuntos, pueden proporcionar información sobre la ubicación de la fuente. Las señales de estas estaciones se suelen telemedir a un observatorio volcánico donde se registran, digitalizan, almacenan y analizan. Para el monitoreo de volcanes, de tres a cuatro sitios infrasónicos son generalmente suficientes para monitorear adecuadamente todos los sectores de un volcán, pero el número real variará según el tamaño y las características del volcán individual. Los sensores infrasónicos se pueden colocar a distancias de 20 km o más de un volcán, por lo que es factible instalar dicho equipo cerca de un volcán inquieto sin exponer al personal de campo a condiciones peligrosas.
Los micrófonos individuales cuestan entre $ 1,000 y $ 10,000, dependiendo de la cantidad de reducción de ruido y sensibilidad deseada. El equipo adicional, como radios o antenas parabólicas para transmitir datos, y baterías y paneles solares para alimentar el sitio, cuestan entre $ 4,000 y $ 10,000 adicionales. Los costos totales de instalación van desde $ 5,000 por un solo micrófono telemedido hasta más de $ 50,000 por un arreglo de cuatro micrófonos con paneles solares, baterías, infraestructura y telemetría satelital asociados.

Figura 13. Estación típica de un solo micrófono en Mount St. Helens en 2004. Este sitio es

2 km al norte-noreste del respiradero, pero no registró ninguna señal infrasónica relacionada con la explosión de las dos explosiones que ocurrieron después de su instalación. El micrófono se encuentra dentro de la caja de metal.

La manguera de remojo que se extiende desde la caja ayuda a reducir (pero no a eliminar) el ruido del viento. Foto de Seth Moran (Servicio Geológico de EE. UU.).

Para un sitio telemedido de baja potencia con un solo micrófono de baja sensibilidad, una instalación típica incluye: una radio analógica, un gabinete de equipo (típicamente un

0.3 m × 0.3 m × 1 m caja de metal) con una sola batería de plomo-ácido de 100 A-hora y una caja electrónica, un mástil de antena, antena, panel solar, micrófono (empaquetado en tubería de PVC) y

7–10 m de manguera de remojo (para reducir el ruido del viento). Para un sitio con una matriz de cuatro micrófonos de alta calidad, una instalación típica incluiría un módem de radio o satélite para transmitir datos, un gabinete de equipo algo más grande que el sitio de un solo micrófono, con hasta diez baterías de 100 A-hora, e infraestructura suficiente para montar varios paneles solares y una antena de radio.
Un observatorio al que se envían datos telemedidos necesita su propio receptor y equipo para procesar y almacenar las señales. Los costos del equipo son aproximadamente los mismos que para un sitio de sensor infrasónico, menos el costo del sensor. Si el sitio del sensor infrasónico y el observatorio no están en la línea del sitio, entonces se necesitarán estaciones repetidoras adicionales.
El objetivo principal es la detección de explosiones en tiempo real. Los analistas capacitados pueden examinar las señales entrantes o las computadoras pueden enviar mensajes de alarma automatizados al personal de guardia cuando se detecta una explosión. Sin embargo, las señales infrasónicas de micrófonos individuales pueden confundirse con el ruido del viento u otras fuentes no volcánicas. El ruido del viento (si no satura los sensores individuales) se puede distinguir fácilmente de las verdaderas señales infrasónicas al observar la diferencia en los tiempos de llegada de una señal dada en dos o más sensores infrasónicos en una matriz. Debido a que las ráfagas de viento se mueven a la velocidad del aire, las diferencias de tiempo serán mucho mayores para las ráfagas de viento que para las señales infrasónicas (que se mueven a la velocidad del sonido). Los datos de las matrices de cuatro o más sensores en una matriz se pueden procesar casi en tiempo real para identificar fases coherentes que recorren la matriz desde un acimut dado indetectable a simple vista. Para localizar explosiones, se requieren al menos dos sitios de matriz. Debido a que los volcanes son generalmente ambientes ventosos, múltiples sitios infrasónicos en diferentes puntos alrededor del volcán mejoran las posibilidades de que un sitio registre una explosión sin ruido de viento.
No se necesita monitoreo infrasónico en volcanes inactivos. Sin embargo, se debe mantener una reserva de sensores y equipos para estaciones infrasónicas para facilitar el despliegue rápido cuando un volcán despierta. Las instalaciones de campo típicas requieren de una a tres personas, mientras que el mantenimiento periódico de las estaciones de campo requiere de una o dos personas. El monitoreo se realiza mejor en un observatorio donde los datos de los sensores infrasónicos se pueden ver simultáneamente con los datos de sismógrafos, cámaras remotas, instrumentos GPS y otros equipos de monitoreo. Las mejores ubicaciones para la mayoría de los sitios de monitoreo infrasónico son fuera de la carretera, por lo que se necesita acceso en helicóptero al menos cada pocos años para reemplazar las baterías pesadas. A menudo se requieren visitas de mantenimiento más frecuentes para los sitios de gran altitud.
El infrasonido tiene algunos inconvenientes. El ruido del viento puede ocultar completamente las señales infrasónicas de las explosiones, por lo que la selección del sitio es fundamental para mitigar el ruido del viento. Por razones aún inexplicables, no todas las explosiones producen infrasonidos (Johnson et al., 2005). Finalmente, debido a que el infrasonido se produce por explosiones, solo es útil como detector de explosiones. Por lo tanto, el método no puede ayudar a pronosticar futuras explosiones u otros eventos volcánicos.

DISEÑO DEL ESTUDIO

El Servicio Geológico de EE. UU. Tiene la responsabilidad principal de monitorear los volcanes en los Estados Unidos, como lo exige la Ley Stafford. Ese mandato, y una amplia experiencia en el monitoreo de volcanes, convierte al USGS en la agencia líder para el desarrollo de diseños de estudios. El monitoreo efectivo de los volcanes requiere experiencia e instrumentación científica especializada, y recopilación y análisis de datos en el momento adecuado. El nivel de amenaza de un volcán determina el grado de monitoreo necesario para proteger vidas, propiedades e infraestructura de la actividad volcánica.
Los administradores de tierras y las autoridades civiles responsables de la seguridad pública deben trabajar con el USGS para centrarse en el monitoreo de volcanes, proporcionar el acceso necesario a los volcanes y sus alrededores, y facilitar la ubicación de los equipos de monitoreo. El monitoreo, combinado con estudios de los peligros de un volcán y el historial de erupciones, puede reducir el riesgo al advertir sobre la actividad inminente y su naturaleza y alcance potenciales. Los administradores de tierras deben planificar las respuestas adecuadas a la actividad volcánica futura, de modo que puedan tomar las medidas oportunas para proteger la vida y la propiedad cuando la actividad sea inminente.

Mount Rainier, Washington

Los estudios geológicos en Mount Rainier, Washington, ilustran muchos métodos de monitoreo de volcanes. El volcán está construido casi en su totalidad con flujos de lava de andesita y dacita, con depósitos subsidiarios de flujo piroclástico, tefra muy escasas y solo una cúpula de lava conocida (Sisson et al., 2001). Sus flujos de lava se extienden hasta 20 km desde la cumbre y tienen volúmenes individuales de hasta 9 km3. La mayoría de sus flujos de lava son mucho más pequeños, se extienden de 5 a 10 km desde la cima, con volúmenes individuales de unas pocas centésimas a unas décimas de km 3. Aunque estos flujos de lava eran demasiado pequeños para llegar a áreas ahora densamente pobladas, se encuentran dentro de una región de extenso hielo glacial. Futuras erupciones similares de lavas móviles conducirán al derretimiento de los glaciares, con las consiguientes inundaciones aguas abajo y flujos de escombros capaces de llegar a áreas densamente pobladas.
Cuando los flujos piroclásticos calientes estallaron desde el volcán, estos flujos comúnmente atravesaron glaciares, donde arrastraron, arrastraron y derritieron el hielo, transformando los flujos piroclásticos directamente en lahares móviles.Este proceso es rápido y se pueden dar pocas advertencias para los flujos de escombros creados por flujos piroclásticos que erupcionan repentinamente, aunque las evaluaciones de peligros pueden indicar áreas probables de inundación. Los peligros potencialmente asociados con este tipo de erupción
están ilustrados por la erupción de 1985 del Nevado del Ruíz (Colombia), en la que una erupción relativamente pequeña derritió el hielo y la nieve en el área de la cumbre, generando lahares que fluyeron decenas de kilómetros por los valles de los flancos, matando a más de 22,000 personas, el cuarto single más grande de la historia. -Tasa de muertos por erupción. Además, porciones de la parte superior del Monte Rainier se han transformado en rocas relativamente débiles y ricas en arcilla mediante la acción de las aguas ácidas calientes circulantes (un proceso conocido como alteración hidrotermal) (Fiske, et al., 1963 Crowley y Zimbelman, 1997 Finn et al. al., 2001). En el pasado, grandes áreas de rocas alteradas se colapsaron, produciendo lahares voluminosos y altamente móviles. Uno de esos colapsos hace 5600 años eliminó la cima, el núcleo y la pendiente noreste del volcán, creando el flujo de lodo Osceola que ahora subyace en gran parte de las tierras bajas del sur de Puget Sound al sur de Seattle y al este de Tacoma (Crandell y Waldron, 1956 Vallance y Scott, 1997) . Otro colapso de roca alterada hace 500 años, llamado Electron Mudflow, enterró repentinamente el área ahora ocupada por la ciudad de Orting, Washington, (población 4,000) con lodo, cantos rodados y madera caída de varios metros a varias decenas de metros de espesor ( Crandell, 1971 Scott et al., 1995). Ningún edificio convencional puede soportar tal lahar. Durante los últimos 10,000 años, Mount Rainier ha producido al menos 60 lahares de varios tamaños, incluidos los grandes eventos mencionados anteriormente con depósitos que se extienden hasta las tierras bajas de Puget Sound. En la actualidad,

150.000 personas viven en áreas que fueron barridas por lahares del Monte Rainier o por inundaciones asociadas inducidas por sedimentos lahares (Sisson et al., 2001).
La evaluación de los peligros del Monte Rainier es una prioridad debido al potencial de grandes pérdidas de vidas y propiedades por futuras erupciones y flujos de escombros. El mapeo geológico y las mediciones de edad muestran que el volcán moderno comenzó a crecer

Hace 500.000 años sobre los restos profundamente erosionados de uno anterior (Sisson et al., 2001). La construcción del volcán ocurrió durante cuatro o quizás cinco etapas alternas de crecimiento rápido y modesto. Las etapas de crecimiento rápido bien definidas se extendieron desde hace 500.000 a 420.000 años y desde hace 280.000 a 180.000 años. Estos episodios de rápido crecimiento vieron el montaje de un edificio alto y la erupción de casi todos los flujos de lava de gran volumen y viajes lejanos. Las etapas de crecimiento rápido también fueron episodios de alteración hidrotermal generalizada. Durante las etapas de crecimiento moderado, el edificio alto se erosionó extensamente y puede haber sido reducido en elevación. La producción volcánica ha sido en su mayoría modesta desde hace 180.000 años, pero la tasa de erupción aumentó notablemente hace 40.000 años, construyendo gran parte del actual Monte Rainier superior. Este aumento en la tasa de erupción podría marcar el comienzo de una quinta etapa de crecimiento rápido, o podría ser una fluctuación dentro del rango típico de las etapas de crecimiento moderado.
Los depósitos de tefra del Holoceno del Monte Rainier conservan evidencia adicional fácilmente cuantificable de erupciones episódicas. Once erupciones en los últimos 10,000 años arrojaron cenizas, piedra pómez, escoria y rocas más densas lo suficientemente altas en el aire como para depositar capas de tefra distintivas que pueden reconocerse en un área amplia (Mullineaux, 1974). Además de estos, hay 15 a 25 capas de cenizas delgadas de grano fino adicionales restringidas a las cercanías del volcán. Estas cenizas de grano fino son producto de erupciones débilmente explosivas, como pequeñas explosiones durante la liberación de flujos de lava, o cenizas de grano fino que surgen de pequeños flujos piroclásticos. El número exacto de estas cenizas delgadas es difícil de determinar porque son similares en apariencia y porque se erosionan fácilmente, por lo tanto, faltan varias capas en una localidad u otra. Las erupciones que crearon estas cenizas de grano fino se agruparon en el tiempo. Por ejemplo, hay cinco subgrupos reconocibles de cenizas delgadas depositadas durante el período

2700-2200 años B.P., seguido de cerca por una erupción considerable de piedra pómez 2200 años B.P. (J. Vallance y T. Sisson, resultados no publicados). Cada subgrupo consta de una a cinco capas de ceniza de composición química similar. Cada subgrupo probablemente representa los depósitos de una fase eruptiva que consiste en múltiples eventos explosivos. Múltiples lahares, un flujo piroclástico conocido y dos grupos de flujos de lava se correlacionan con los depósitos de ceniza de grano fino. Durante este período de 500 años, se produjeron fases eruptivas significativas cada 100 años, en promedio, y cada fase consistió en múltiples eventos explosivos. Este período altamente activo fue precedido por un lapso de casi 2000 años sin depósitos eruptivos conocidos. Antes de este período aparentemente inactivo, el volcán se encontraba en otro período de frecuentes erupciones que comenzó poco antes del colapso del edificio principal hace 5600 años que creó el flujo de lodo Osceola. Ese período eruptivo no se ha estudiado en detalle, pero incluyó la erupción de piedra pómez y ceniza concurrente con el evento de colapso del edificio de Osceola, así como en

Hace 4700 y 4500 años (Mullineaux, 1974). Otro período de erupciones frecuentes fue entre aproximadamente 7600-6600 años atrás, precedido por un período de inactividad, o solo pequeñas erupciones de cerca de 2000 años de duración (Sisson et al., 2001).
Los períodos eruptivos de hace 5600-4500 y 2700-2200 años estuvieron dominados por efusiones de lava que llenaron casi por completo el cráter dejado por el colapso de Osceola. Las erupciones posteriores tuvieron lugar hace 1600 y 1100 años, aunque la última fue muy pequeña. La erupción de hace 1600 años se infiere principalmente de depósitos de lahar, y la erupción de hace 1100 años probablemente fue de un flujo piroclástico que se transformó en un lahar (Hoblitt et al., 1998), aunque no se conserva ningún depósito de flujo piroclástico primario. El colapso principal del flanco hace 500 años que produjo el flujo de lodo de electrones no tiene erupciones asociadas conocidas.
Según el registro histórico, al menos tres docenas de desbordes glaciales ocurrieron en el siglo XX en Mount Rainier. Las inundaciones repentinas de los glaciares no están relacionadas con la actividad volcánica en Mount Rainier. Las inundaciones repentinas de los glaciares son el resultado de la liberación repentina de agua de los glaciares y se forman principalmente durante el clima cálido o las fuertes lluvias a fines del verano o principios del otoño, cuando la capa de nieve se ha reducido por el derretimiento del verano (Walder y Driedger, 1994b). En ausencia de una capa de nieve, el agua de deshielo o la lluvia se mueven rápidamente sobre los glaciares y a través de ellos. El agua estalla o surge del extremo glacial, arrastrando sedimentos sueltos de las paredes y los bancos de los canales y, por lo tanto, puede transformarse en un lahar a medida que el oleaje se mueve río abajo. Estas inundaciones repentinas representan un grave peligro para las instalaciones a lo largo de los valles de los arroyos cercanos al volcán. Puentes, carreteras e instalaciones para visitantes han sido destruidos o dañados en

10 ocasiones desde 1926.
El tiempo necesario para realizar el mapeo geológico para comprender el comportamiento eruptivo pasado de un volcán o sistema volcánico depende de los detalles necesarios para comprender el sistema y el tamaño y los problemas logísticos de un área en particular. En una zona relativamente plana con muchas carreteras que la atraviesan, el mapeo de 150 km 2 podría realizarse en unas pocas semanas. El tiempo de oficina para compilar el mapa en un sistema de información geográfica (GIS), preparar las rocas para el análisis químico y realizar la datación por edad requeriría unas pocas semanas más. Estos tiempos de trabajo reales se extienden a lo largo de un par de años, porque el proceso de mapeo geológico es iterativo entre el trabajo de campo, oficina y laboratorio, y el mapeo se realiza con frecuencia en muchos cuadrángulos que componen el área de interés. El tiempo nominal para el mapeo geológico puede extenderse muchas veces a medida que aumenta la complejidad de la geología o cuando el acceso se vuelve difícil debido a menos carreteras, terreno empinado o limitaciones de vida silvestre. Mount Rainier, por ejemplo, requiere habilidades técnicas de montañismo para un trabajo seguro. En algunas áreas, el uso de helicópteros puede mitigar los problemas de acceso, pero esto no siempre es posible en todas las áreas protegidas. El mapeo geológico requiere que se recolecten muestras de rocas para análisis químicos y estudios petrográficos. Durante las erupciones, el mapeo de los flujos de lava y la extrusión del domo se puede realizar mediante fotografía aérea y / o imágenes LIDAR con los resultados en un SIG, pero los resultados pueden tardar algunas semanas. Los flujos de lava activos cortos se pueden mapear caminando el contacto con una unidad de GPS y las coordenadas se colocan en un GIS. Los flujos de lava activos más prolongados se pueden mapear con una unidad de GPS en un helicóptero, y ambos métodos han demostrado ser muy efectivos para la erupción en curso en el Parque Nacional de los Volcanes de Hawái.

REFERENCIAS CITADAS

Blong, R.J., 1984, Volcanic hazards: a sourcebook on the effects of eruptions: Sidney, Australia, Academic Press, 424 p.

Braile, L.W., 2009, este volumen, Monitoreo sísmico, en Young, R., y Norby, L., Geological Monitoring: Boulder, Colorado, Geological Society of America, doi: 10.1130 / 2009.monitoring (10).

Brosnan, DM, 2000, Impactos ecológicos del volcán Montserrat: un relato pictórico de sus efectos en la vida terrestre y marina: Sustainable Ecosystems Institute, Portland, Oregon (disponible solo en la Web en http://www.sei.org/impacts .html consultado el 4 de febrero de 2009).

Chouet, B.A., 1996, Nuevos métodos y tendencias futuras en el monitoreo sismológico de volcanes, en Scarpa, R., y Tilling, R.I., eds., Monitoreo y mitigación de peligros volcánicos: Berlín, Springer-Verlag, p. 23–88.

Chouet, B.A., 2003, Sismología volcánica: Geofísica pura y aplicada, v. 160, p. 739–788, doi: 10.1007 / PL00012556.

Crandell, R.D., 1971, Lahares posglaciales del volcán Mount Rainier, Washington: Documento profesional del Servicio Geológico de los Estados Unidos 677, 75 p.

Crandell, D.R., y Waldron, H.H., 1956, Un reciente flujo de lodo volcánico de dimensiones excepcionales de Mount Rainier, Washington: American Journal of Science, v. 254, p. 349–362.

Crowley, J.K. y Zimbelman, D.R., 1997, Mapeo de rocas alteradas hidrotermalmente en Mount Rainier, Washington, con datos del espectrómetro de imágenes infrarrojas / visibles en el aire (AVIRIS): Geología, v. 25, p. 559–562, doi: 10.1130 / 0091-7613 (1997) 025 & lt0559: MHAROM & gt2.3.CO2.

Dean, KG, Dehn, J., Papp, KR, Smith, S., Izbekov, P., Peterson, R., Kearney, C. y Steffke, A., 2004, Observaciones satelitales integradas de la erupción del monte en 2001 Cleveland, Alaska: Revista de vulcanología e investigación geotérmica, v. 135, p. 51–74, doi: 10.1016 / j.jvolgeores.2003.12.013.

Dehn, J., Dean, K.G., Engle, K. e Izbekov, P., 2002, Precursores térmicos en imágenes de satélite de la erupción del volcán Shishaldin en 1999: Boletín de vulcanología, v. 64, p. 525–534, doi: 10.1007 / s00445-002-0227-0.

Driedger, C.L. y Scott, K.M., 2002, Mount Rainier — Aprendiendo a vivir con riesgo volcánico: U.S. Geological Survey Fact Sheet 034-02, 4 p. (disponible solo en la Web en http://www.fs.fed.us/gpnf/mshnvm/education/teachers-corner/library/documents/fs065-97-mt-rainier.pdf#search=%22%22volcano% 20hazards% 22% 20% 22Mount% 20Rainier% 22% 22 consultado el 4 de febrero de 2009).

Ewert, JW, Guffanti, M. y Murray, TL, 2005, Una evaluación de la amenaza volcánica y las capacidades de monitoreo en los Estados Unidos: Marco para un Sistema Nacional de Alerta Temprana de Volcanes: Informe de Archivo Abierto del Servicio Geológico de los Estados Unidos 2005-1164, 62 pag. (http://pubs.usgs.gov/of/2005/1164/ consultado el 6 de febrero de 2009).

Finn, C.A., Sisson, T.W. y Deszcz-Pan, M., 2001, Medidas aerogeofísicas de zonas alteradas hidrotermalmente propensas al colapso en el volcán Monte Rainier: Nature, v. 409, p. 600–603, doi: 10.1038 / 35054533.

Fiske, R.S., Hopson, C.A. y Waters, A.C., 1963, Geology of Mount Rainier National Park, Washington: U.S. Geological Survey Professional Paper 444, 93 p.

Fuentes, W.A., 1975, Effectos de cenizas del volcán Irazu [Costa Rica] en varios insectos: Revista Biología Tropicál, v. 2, p. 165-175. (Resumen en inglés disponible en la Web en http://www.ncbi.nlm.nih.gov/entrez/query.fcgi?cmd=Retrieve&db=pubmed&dopt=Abstract&list_uids=1224020&query_hl=5&itool=pubmed_DocSum. Consultado el 4 de febrero de 2009.)

Guffanti, MG, Brantley, SR y McClelland, L., eds., 2001, Volcanismo en parques nacionales: resumen del taller convocado por el Servicio de Parques Nacionales y Servicio Geológico de EE. UU., 26-29 de septiembre de 2000, Redding, California: EE. UU. Informe de archivo abierto del Servicio Geológico 01–435. (Disponible únicamente en la Web en http://geopubs.wr.usgs.gov/open-fi le / of01-435 / ofr01-435_report.html, consultado el 5 de febrero de 2009.)

Harlow, DH, Power, JA, Laguerta, EP, Ambubuyog, G., White, RA y Hoblitt, RP, 1996, Sismicidad precursora y pronóstico de la erupción del 15 de junio de 1991 del Monte Pinatubo, en Newhall, CG, y Punongbayan, RS, eds., Fire and Mud: Eruptions and Lahars of Mount Pinatubo, Filipinas, p. 285–305, http://pubs.usgs.gov/pinatubo/harlow/index.html (consultado el 4 de febrero de 2009).

Harris, AJL, Keszthelyi, L., Flynn, LP, Mouginis-Mark, PJ, Thornber, C., Kauahikaua, J., Sherrod, D., Trusdell, F., Sawyer, MW y Flament, P., 1997a , Cronología de la erupción del episodio 54 en el volcán Kilauea, Hawai'i, a partir de datos del satélite GOES-9: Geophysical Research Letters, v. 24, p. 3281–3284, doi: 10.1029 / 97GL03165.

Harris, AJL, Butterworth, AL, Carlton, RW, Downey, I., Miller, P., Navarro, P. y Rothery, DA, 1997b, Vigilancia de volcanes de bajo costo desde el espacio: estudios de caso de Etna, Krafl a, Cerro Negro, Fogo, Lascar y Erebus: Boletín de Vulcanología, v. 59, p. 49–64, doi: 10.1007 / s004450050174.

Harris, AJL, Murray, JB, Aries, SE, Davies, MA, Flynn, LP, Wooster, MJ, Wright, R. y Rothery, DA, 2000, Tendencias de la tasa de efusión en Etna y Krafla y sus implicaciones para los mecanismos eruptivos: Revista de Investigación de Vulcanología y Geotermia, v. 102, p. 237–270, doi: 10.1016 / S0377-0273 (00) 00190-6.

Heggie, T.W. y Heggie, T.M., 2004, Ver lava de forma segura: una epidemiología de las lesiones y enfermedades de los excursionistas en el Parque Nacional Hawai‘i Volcanoes: Wilderness & amp Environmental Medicine, v. 15, p. 77–81, http://www.wemjournal.org/pdfserv/i1080-6032-015-02-0077.pdf (consultado el 4 de febrero de 2009).

Helz, RL, 2005, Monitoring ground deformation from space: US Geological Survey Fact Sheet 2005–3025, 4 p., Http://pubs.usgs.gov/fs/2005/3025/2005-3025.pdf (consultado el 4 de febrero 2009).

Hoblitt, RP, Walder, JS, Driedger, CL, Scott, KM, Pringle, PT y Vallance, JW, 1998, Volcano hazards from Mount Rainier, Washington, revisado 1998: Informe de archivo abierto del Servicio Geológico de EE. UU. 98-428, 11 p., 2 láminas, escala 1: 100.000, 1: 400.000.

Houghton, BF, Wilson, CJN y Pyle, DM, 2000, Depósitos de caída piroclásticos, en Sigurdsson, H., Houghton, B., McNutt, SR, Rymer, H. y Stix, J., eds., Encyclopedia of Volcanoes, Nueva York, Academic Press, p. 555–570.

Ishii, H., Ooishi, M., Maruyama, Y. y Koike, T., 2003, Aclimatación de la morfología de los brotes y las agujas y la fotosíntesis de dos especies de Picea a las diferencias en la disponibilidad de nutrientes del suelo: Tree Physiology, v. 7, p. . 453–461.


1. Introducción

La estimulación de baja frecuencia, incluida la electricidad, el sonido, el campo magnético, la luz y el láser, se utiliza ampliamente en diferentes áreas de la medicina [1]. La actividad del EEG puede verse afectada por diferentes modalidades de estimulación, no solo electroestimulación [2], sonora y luminosa (visual) [3], sino también estimulación magnética [4]. La luz estroboscópica roja puede provocar una rápida y potente acumulación de ritmos alfa en la corteza occipital [5]. La estimulación con fotoestimulación de frecuencia variable creada a partir de diodos emisores de luz roja (LED) provocó que los ritmos alfa de los sujetos estuvieran muy influenciados por diferentes frecuencias de estimulación [6]. En cuanto al láser, solo hubo unos pocos informes sobre cambios en el electroencefalograma en la estimulación con láser. Litscher y col. encontraron que la velocidad del flujo sanguíneo cerebral y las amplitudes de las oscilaciones cerebrales de 40 & # x02009Hz del cerebro pueden mejorarse estimulando los ojos con luz roja o los puntos de acupuntura con láser, así como con acupuntura con aguja [7]. Sin embargo, no se han informado cambios de EEG en la estimulación somática con láser de bajo nivel (LLL).

LLL se ha aplicado a la medicina clínica durante mucho tiempo. La bioestimulación LLL fue propuesta por primera vez en 1969 por un científico húngaro, el profesor Mester, y luego la terapia LLL se hizo popular en todo el mundo después de 1970 [8]. Hubo muchas aplicaciones clínicas con la terapia LLL, por ejemplo, para mejorar el cuidado postoperatorio en cirugías de nervios periféricos [9] y para aumentar la resistencia a la tracción de la herida [10]. La LLL también se ha utilizado para aliviar diversos dolores crónicos [11 & # x0201313].

El uso combinado de EEG y la imagen de resonancia magnética funcional (fMRI) se ha propuesto como una herramienta eficaz para estudiar la dinámica del cerebro con alta resolución temporal y espacial [14]. En el análisis espacial de la resonancia magnética funcional del cerebro, la actividad cerebral afectada por la estimulación del punto de acupuntura Yongquan (KI1) en el dorso del pie de los sujetos se validó en nuestro estudio anterior [15]. El objetivo del presente estudio fue investigar las actividades de EEG afectadas por la estimulación del estimulador de matriz de láser de infrarrojo cercano (LAS) operado a 10 & # x02009Hz en análisis temporal (EEG). Se aplicó el LAS para estimular la palma y luego se analizó la variación de las actividades del EEG antes, durante y después de la irradiación con láser.


Fondo

Terapia de infrarrojos de bajo nivel

La terapia infrarroja de bajo nivel, o terapia de energía infrarroja monocromática (MIRE), es un tipo de láser de baja energía que utiliza luz en el espectro infrarrojo. La terapia MIRE implica el uso de dispositivos que entregan energía de luz no visible de longitud de onda única desde el extremo rojo del espectro de luz a través de almohadillas flexibles que se aplican a la piel. Cada pad contiene 60 diodos emisores de infrarrojos. Se cree que la terapia MIRE estimula la liberación de óxido nítrico de la hemoglobina de la sangre, lo que dilata los vasos sanguíneos, lo que reduce la hinchazón y aumenta la circulación. MIRE se ha propuesto para el tratamiento de afecciones como la neuropatía periférica, el manejo del dolor y la cicatrización de heridas. Un ejemplo de un dispositivo MIRE incluye, pero no se limita a, el Sistema de Terapia Anodyne.

El Sistema de Terapia Anodyne es un tipo de terapia infrarroja de bajo nivel, desarrollada por Integrated Systems Physiology Inc. (Aurora, CO), que ha sido promovida para aumentar la cicatrización de heridas, para revertir los síntomas de la neuropatía periférica en personas con diabetes y para tratamiento del linfedema. El fabricante afirma que el sistema de terapia Anodyne aumenta la circulación y reduce el dolor al aumentar la liberación de óxido nítrico.

Varios metanálisis han examinado la evidencia que respalda el uso de láseres de bajo nivel (frío), incluidos los láseres infrarrojos de bajo nivel, para el tratamiento de heridas crónicas que no cicatrizan. Estos metanálisis son unánimes al concluir que no hay pruebas suficientes para apoyar el láser de bajo nivel en el tratamiento de las úlceras venosas crónicas u otras heridas crónicas que no cicatrizan.

No hay evidencia de que la terapia con luz infrarroja sea más efectiva que otras modalidades de calor en el alivio sintomático del dolor musculoesquelético.Glasgow (2001) informó sobre los resultados de un ensayo clínico controlado aleatorio de terapia infrarroja de bajo nivel en 24 sujetos con dolor muscular inducido experimentalmente, y no encontró diferencias significativas entre los grupos de tratamiento y placebo.

No hay estudios publicados sobre la efectividad de la terapia de infrarrojos de bajo nivel para el tratamiento de la neuropatía periférica diabética. La serie de casos presentada por el fabricante del Sistema Anodyne en su sitio web no ha sido publicada en una revista médica revisada por pares.

Finalmente, no hay evidencia en la literatura médica revisada por pares sobre la efectividad de la terapia de infrarrojos para el tratamiento del linfedema. La Oficina de Coordinación Canadiense de Evaluación de Tecnologías Sanitarias (2002) encontró que "[t] aquí hay poca evidencia de ensayos clínicos controlados de alta calidad para estas terapias".

En un estudio aleatorizado, controlado con placebo, Leonard et al (2004) examinaron si los tratamientos con el Sistema de Terapia Anodyne (ATS) disminuirían el dolor y / o mejorarían la sensación disminuida debido a la neuropatía periférica diabética (DPN). Las pruebas incluyeron el uso del monofilamento Semmes Weinstein (SWM) 5.07 y 6.65 y un Instrumento de detección de neuropatía de Michigan modificado (MNSI). Se estudiaron 27 pacientes, 9 de los cuales eran insensibles al 6.65 SWM y 18 que eran sensibles a este filamento pero insensibles al 5.07 SWM. Cada extremidad inferior se trató durante 2 semanas con ATS simulado o activo, y luego ambos recibieron tratamientos activos durante 2 semanas adicionales. El grupo de 18 pacientes que podían sentir el 6,65 SWM pero eran insensibles al 5,07 SWM al inicio del estudio obtuvo una disminución significativa en el número de sitios insensibles después de 6 y 12 tratamientos activos (p & lt 0,02 y 0,001). Los tratamientos simulados no mejoraron la sensibilidad al SWM, pero los tratamientos activos posteriores sí lo hicieron (p & lt 0,002). Las medidas de MNSI de los síntomas neuropáticos disminuyeron significativamente (de 4,7 a 3,1 p & lt 0,001). El dolor informado en la escala analógica visual de 10 puntos (EVA) disminuyó progresivamente de 4,2 al inicio a 3,2 después de 6 tratamientos y a 2,3 después de 12 tratamientos (ambos p & lt 0,03). Al ingresar, el 90% de los sujetos informaron un deterioro sustancial del equilibrio después del tratamiento, esto disminuyó al 17%. Sin embargo, entre el grupo de 9 pacientes con mayor deterioro sensorial medido por la insensibilidad al 6,65 SWM al inicio del estudio, las mejoras en la sensación, los síntomas neuropáticos y la reducción del dolor no fueron significativas. Los autores concluyeron que los tratamientos con ATS mejoraron la sensación en los pies de los sujetos con DPN, mejoraron el equilibrio y redujeron el dolor.

Hay algunos inconvenientes en este estudio. Incluyen el pequeño tamaño del estudio y que involucró a un solo grupo de investigadores, argumentando la necesidad de replicar este estudio. Tampoco hay información sobre si las mejoras fueron duraderas. Además, aunque los resultados son alentadores, las pruebas sensoriales cuantitativas más discretas serían útiles para determinar el grado exacto de mejora sensorial experimentado después de la administración de los tratamientos ATS.

Bhardwaj et al (2005) afirmaron que una comprensión cada vez mayor de las interacciones láser-tejido que involucran porfirinas producidas por Propionibacterium acnes, y el desarrollo de láseres infrarrojos no ablativos para atacar las glándulas sebáceas, ha llevado al desarrollo de un número creciente de láser, luz y dispositivos de radiofrecuencia para el acné. Usados ​​como monoterapia o en combinación, estos dispositivos se muestran prometedores como método para eliminar el acné de una manera conveniente y no invasiva, aunque sigue existiendo una clara necesidad de datos a largo plazo y estudios aleatorios y ciegos.

Chow y Barnsley (2005) examinaron la eficacia de la terapia con láser de bajo nivel (LLLT) en el tratamiento del dolor de cuello mediante la revisión sistemática de la literatura. Se realizó una búsqueda de bases de datos bibliográficas computarizadas que cubren medicina, fisioterapia, salud relacionada, medicina complementaria y ciencias biológicas desde la fecha de inicio hasta febrero de 2004 para los ensayos controlados aleatorios (ECA) de LLLT para el dolor de cuello. Se aplicó una lista completa de términos de búsqueda y se desarrollaron a priori criterios explícitos de inclusión. Se identificaron un total de 20 estudios, 5 de los cuales cumplieron con los criterios de inclusión. Se informaron efectos positivos significativos en 4 de 5 ensayos en los que se utilizaron longitudes de onda infrarrojas (lambda = 780, 810 a 830, 904, 1.064 nm). La heterogeneidad en las medidas de resultado, el informe de los resultados, las dosis y los parámetros del láser impidieron el metanálisis formal. Los tamaños del efecto solo se pudieron calcular para 2 de los estudios. Los autores concluyeron que esta revisión proporciona pruebas limitadas de 1 ECA para el uso de láser infrarrojo para el tratamiento del dolor de cuello agudo (n = 71) y el dolor de cuello crónico de 4 ECA (n = 202). Señalaron que se necesitan estudios más amplios para confirmar los hallazgos positivos y determinar los parámetros, sitios y modos de aplicación del láser más efectivos.

  1. grupo A - [las primeras 3 horas pasaron 3 veces a la semana durante 3 semanas en una sala de estufa de azulejos con calefacción ('Período de estufa') y después de 2 semanas sin tratamiento, este grupo se observó durante otras 3 semanas ('período de control')] y
  2. grupo B (primero asignado al período de control y al período de la estufa después del período libre de tratamiento).

Las evaluaciones incluyeron el VAS para dolor general, dolor en las manos y función global de la mano, fuerza de agarre, la prueba de agarre de Moberg (MPUT), el índice australiano / canadiense de osteoartritis de la mano (AUSCAN) y el estudio de resultados médicos (MOS) Encuesta breve de estado de salud de 36 elementos (SF-36). Un total de 14 (31%) pacientes mejoraron en la EVA para el dolor general al final del período de estufa de azulejos en comparación con 10 pacientes (22%) durante el período de control (p = 0,314, prueba de chi2). El dominio del dolor AUSCAN mostró una mejora significativa después del período de estufa de azulejos (p = 0.034). Otros parámetros de dolor analizados (EVA para el dolor en las manos y SF-36 para el dolor corporal) mostraron una mejora moderada pero no significativa (p = 0,682 yp = 0,237, respectivamente) en comparación con el período de control. Los autores concluyeron que este estudio no probó efectos positivos de la exposición a la estufa de azulejos, aunque la mejora numérica en todas las medidas de dolor sugiere algunos posibles efectos positivos sobre este síntoma de OA de la mano.

Lampl y sus colegas (2007) evaluaron la seguridad y la eficacia del sistema láser NeuroThera para mejorar los resultados a los 90 días en pacientes con accidente cerebrovascular isquémico tratados dentro de las 24 horas posteriores al inicio del accidente cerebrovascular. El enfoque terapéutico del NeuroThera Laser System implica el uso de tecnología láser infrarroja y ha mostrado efectos beneficiosos en modelos animales de accidente cerebrovascular isquémico. Se aleatorizó un total de 120 pacientes con accidente cerebrovascular isquémico en una proporción de 2: 1 (n = 79 pacientes en el grupo de tratamiento activo yn = 41 en el grupo de control con placebo). Solo se incluyeron pacientes con una gravedad de accidente cerebrovascular basal medida por puntajes de la Escala de accidente cerebrovascular de los Institutos Nacionales de Salud (NIHSS) de 7 a 22. Se excluyeron los pacientes que recibieron activador del plasminógeno tisular. Las medidas de resultado fueron las puntuaciones de los pacientes en el NIHSS, la escala de Rankin modificada (mRS), el índice de Barthel y la escala de resultados de Glasgow a los 90 días después del tratamiento. La medida de resultado primaria fue el tratamiento exitoso, documentado por NIHSS. Esto se definió como una recuperación completa el día 90 (NIHSS 0 a 1), o una disminución en la puntuación NIHSS de al menos 9 puntos (día 90 frente al valor inicial), y se probó como una medida binaria (bNIH). Las medidas de resultado secundarias incluyeron mRS, índice de Barthel y escala de resultados de Glasgow. Los análisis estadísticos primarios se realizaron con la prueba de rango de Cochran-Mantel-Haenszel, estratificada por la puntuación NIHSS inicial o por el tiempo hasta el tratamiento para la bNIH y la mRS. Se realizaron análisis de regresión logística para confirmar los resultados. El tiempo medio de tratamiento fue superior a 16 horas (el tiempo medio de tratamiento fue de 18 horas para el activo y 17 horas para el control). El tiempo hasta el tratamiento osciló entre 2 y 24 horas. Más pacientes (70%) en el grupo de tratamiento activo tuvieron resultados exitosos que los controles (51%), medido prospectivamente en el bNIH (p = 0.035 estratificado por severidad y tiempo hasta el tratamiento p = 0.048 estratificado solo por severidad). De manera similar, más pacientes (59%) tuvieron resultados exitosos que los controles (44%) medidos a los 90 días como una puntuación binaria de mRS de 0 a 2 (p = 0,034 estratificado por gravedad y tiempo hasta el tratamiento p = 0,043 estratificado solo por gravedad ). Además, más pacientes en el grupo de tratamiento activo obtuvieron resultados exitosos que los controles, según lo medido por el cambio en la puntuación media de NIHSS desde el inicio hasta los 90 días (p = 0,021 estratificado por el tiempo hasta el tratamiento) y la puntuación completa de mRS ("cambio en Rankin") (p = 0.020 estratificado por severidad y tiempo de tratamiento p = 0.026 estratificado solo por severidad). La razón de posibilidades de prevalencia para bNIH fue de 1,40 (intervalo de confianza [IC] del 95%: 1,01 a 1,93) y para la mRS binaria fue 1,38 (IC del 95%: 1,03 a 1,83), controlando la gravedad inicial. Se obtuvieron resultados similares para el índice de Barthel y la escala de resultados de Glasgow. Las tasas de mortalidad y los eventos adversos graves (AAG) no difirieron significativamente (8,9% y 25,3% para el 9,8% activo y 36,6% para el control, respectivamente, para la mortalidad y los AAG). Los autores concluyeron que el estudio NEST-1 indicó que la terapia con láser infrarrojo ha demostrado seguridad y eficacia iniciales para el tratamiento del accidente cerebrovascular isquémico en humanos cuando se inicia dentro de las 24 horas posteriores al inicio del accidente cerebrovascular. Afirmaron que se justifica un ensayo confirmatorio más amplio para demostrar la seguridad y eficacia.

Un memorando de decisión de los Centros de Servicios de Medicare y Medicaid (2006) concluyó que “existe evidencia suficiente para concluir que el uso de dispositivos infrarrojos no es razonable y necesario para el tratamiento de los beneficiarios de Medicare para la neuropatía sensorial periférica diabética y no diabética, heridas y úlceras, y afecciones relacionadas similares, incluidos síntomas como el dolor derivado de estas afecciones ”.

Sesenta pacientes (120 extremidades) completaron el estudio. Las unidades Anodyne se utilizaron en casa todos los días durante 40 minutos durante 90 días. Velocidades de conducción nerviosa, VPT, monofilamentos de Semmes-Weinstein (SWM) (monofilamentos de 4, 10, 26 y 60 g), el Instrumento de detección de neuropatía de Michigan (MNSI), una escala de dolor analógica visual de 10 cm y un Se midieron instrumentos de calidad de vida específicos de neuropatía. Se empleó un diseño ANOVA múltiple anidado de medidas repetidas. Se probaron dos sitios (el dedo gordo del pie y el quinto metatarsiano) tanto en el pie izquierdo como en el derecho de cada paciente, de modo que se anidaron dos pies dentro de cada paciente y dos sitios dentro de cada pie. Para analizar las puntuaciones ordinales de SWM, se utilizó un análisis factorial no paramétrico para datos longitudinales. No hubo diferencias significativas en las medidas de QOL, MNSI, VPT, SWM o velocidades de conducción nerviosa en los grupos de tratamiento activo o simulado (p & gt 0.05). Los autores concluyeron que la terapia Anodyne MIRE no fue más eficaz que la terapia simulada en el tratamiento de la neuropatía sensorial en personas con diabetes.

En un estudio clínico controlado, doble ciego y aleatorizado, Franzen-Korzendorfer et al (2008) examinaron el efecto de la energía infrarroja monocromática en las mediciones de oxígeno transcutáneo y la sensación protectora en pacientes con diabetes y pérdida de la sensación protectora. Se reclutó a un total de 18 adultos (12 hombres, 6 mujeres con una edad media de 65 +/- 13 años, rango de 39 a 86 años) con diabetes y pérdida de la sensación protectora utilizando métodos de muestreo por conveniencia. Todos los pacientes sirvieron como su propio control. Las pruebas previas y posteriores al tratamiento evaluaron la sensación, el dolor y las mediciones de oxígeno transcutáneo en 2 sitios / pie. Los sujetos se sometieron a una serie de tratamientos de energía infrarroja monocromática de 30 minutos (tratamiento activo de 1 pie, simulacro de 1 pie). Se suministró energía infrarroja monocromática al nivel de energía preestablecido por el fabricante de 1,5 J / cm (2) / min a una longitud de onda de 890 nm. Las unidades simuladas no suministraron energía. Las puntuaciones se analizaron mediante pruebas t pareadas y el coeficiente de correlación de Pearson. No se observaron diferencias significativas entre los tratamientos activos y simulados para los valores de oxígeno transcutáneo, el dolor o la sensación. Los pies tratados con energía infrarroja monocromática, tanto activa como simulada, mejoraron significativamente la sensación en comparación con las puntuaciones de referencia previas a la prueba (p & lt 0,05). No se encontró relación estadística entre el oxígeno transcutáneo y la sensación. Los autores concluyeron que estos hallazgos no demostraron ningún efecto del tratamiento con energía infrarroja monocromática sobre las mediciones de oxígeno transcutáneo, el dolor o la sensación en adultos con diabetes y pérdida de la sensación protectora.

Ko y Berbrayer (2002) determinaron la efectividad de los guantes impregnados de cerámica en el tratamiento del síndrome de Raynaud. Un total de 93 pacientes cumplieron los criterios "Pal" para el síndrome de Raynaud. Se adoptó un período de tratamiento de 3 meses con el uso de guantes impregnados de cerámica. Los puntos finales primarios incluyeron calificaciones de dolor VAS y discapacidades del diario del brazo, hombro, mano (DASH) cuestionario de fuerza de agarre Jamar y prueba de destreza manual de la tabla Purdue. Los puntos finales secundarios fueron las mediciones de la temperatura de la piel por infrarrojos, la calificación del tratamiento en una escala Likert de 7 puntos. En 60 participantes con datos completos, se observaron mejoras en la calificación EVA (p = 0,001), la puntuación DASH (p = 0,001), la fuerza de agarre de Jamar (p = 0,002), la temperatura de la yema de los dedos de la piel infrarroja (p = 0,003), la destreza de la mano Purdue prueba (p = 0,0001) y la escala Likert (p = 0,001) con guantes de cerámica sobre los guantes de algodón placebo. Los autores concluyeron que los guantes "termoflujos" impregnados de cerámica tienen un efecto clínicamente importante en el síndrome de Raynaud. Los hallazgos de este estudio deben ser validados por estudios bien diseñados con un mayor número de pacientes y seguimientos más prolongados.

  1. los mecanismos de acción y las implicaciones de la penetración no se han abordado a fondo,
  2. la amplia gama de intensidades de tratamiento, longitudes de onda y dispositivos que se han evaluado dificultan las comparaciones, y
  3. aún no ha surgido un paradigma de consenso para el tratamiento.

Además, la falta de resultados positivos consistentes en los ECA, quizás debido a regímenes de tratamiento subóptimos, ha contribuido al escepticismo. Estos investigadores proporcionaron un resumen equilibrado de los resultados descritos en la literatura con respecto a las modalidades de tratamiento y la eficacia de R / NIR-IT para lesiones y enfermedades en el SNC. Han abordado las cuestiones importantes de la especificación de los parámetros de tratamiento, la penetración de la irradiación R / NIR en los tejidos y mecanismos del SNC, y han proporcionado los detalles necesarios para demostrar el potencial de R / NIR-IT para el tratamiento de la degeneración retiniana, daño a los tractos de materia blanca del SNC, los accidentes cerebrovasculares y la enfermedad de Parkinson.

Vujosevic et al (2013) revisaron los efectos metabólicos más importantes y los datos de seguridad clínica del láser de diodo de micropulso subumbral (D-MPL) en el edema macular diabético (EMD). El tratamiento con MPL no daña la retina y es absorbido selectivamente por el epitelio pigmentario de la retina (EPR). El láser de diodo de micropulso estimula la secreción de diferentes citocinas protectoras por parte del EPR. No se observaron puntos láser visibles en la retina en ninguna modalidad de imagen de fondo de ojo en diferentes estudios, y no hubo cambios en la integridad de la retina externa. La sensibilidad central de la retina (RS) media aumentó en el grupo D-MPL en comparación con el grupo de fotocoagulación estándar del Estudio de tratamiento temprano de la retinopatía diabética (ETDRS). Los autores concluyeron que MPL es una opción de tratamiento nueva y prometedora en DME, con longitudes de onda infrarrojas y amarillas que utilizan el ciclo de trabajo menos agresivo (5%) y parámetros de potencia fijos.

La guía del Work Loss Data Institute sobre "Espalda baja - lumbar y torácica (aguda y crónica)" (2013) señaló que la terapia de infrarrojos es una de las intervenciones / procedimientos que se consideraron, pero no se recomendaron.

Las pautas basadas en la evidencia para el tratamiento quiropráctico de adultos con dolor de cuello (Bryans et al, 2014) declararon que “Basado en hallazgos inconsistentes de 3 estudios de bajo riesgo de sesgo, no hay evidencia suficiente que respalde una recomendación para el uso del láser infrarrojo (830 nm) en el tratamiento del dolor de cuello crónico ”.

Choi et al (2016) observaron que el mantenimiento de un acceso vascular que funcione bien y un dolor mínimo por punción son objetivos importantes para lograr una diálisis adecuada y mejorar la calidad de vida en los pacientes en hemodiálisis (HD). La terapia de infrarrojo lejano puede mejorar la función endotelial y aumentar el flujo sanguíneo de acceso (Qa) y la permeabilidad en pacientes con HD. Estos investigadores evaluaron los efectos de la terapia FIR sobre el Qa y la permeabilidad, y el dolor por punción en pacientes con EH. Este ensayo clínico prospectivo reclutó a 25 pacientes ambulatorios que mantenían HD con fístula arteriovenosa. Los otros 25 pacientes se emparejaron como control por edad, sexo y diabetes. La terapia FIR se administró durante 40 minutos durante la HD 3 veces por semana y se continuó durante 12 meses. El Qa se midió mediante el método de dilución por ultrasonido, mientras que el dolor se midió mediante una escala de calificación numérica al inicio del estudio y luego una vez al mes. Un paciente fue trasladado a otra instalación y 7 pacientes interrumpieron la terapia FIR debido a un aumento de la temperatura corporal y malestar. La terapia de infrarrojo lejano mejoró la puntuación de dolor por punción de 4 a 2 después de 1 año. La terapia FIR aumentó el Qa en 3 meses y mantuvo este cambio hasta 1 año, mientras que los pacientes de control mostraron la disminución de Qa. La permeabilidad sin asistencia de 1 año con la terapia FIR no fue significativamente diferente del control. Los autores concluyeron que la terapia FIR mejoró el dolor por punción. Además, afirmaron que aunque la terapia FIR mejoró Qa, la permeabilidad no asistida no fue diferente en comparación con el control. Afirmaron que se necesita un estudio más grande y multicéntrico para evaluar el efecto de la terapia FIR.

Coagulación infrarroja para el tratamiento de hemorroides

La coagulación infrarroja es una de las varias terapias ambulatorias no quirúrgicas para el tratamiento de las hemorroides. Linares et al (2001) examinaron la efectividad de la ligadura con banda de goma (RBL) y la fotocoagulación infrarroja (IRC) en el tratamiento de hemorroides internas en 358 pacientes con un total de 817 hemorroides. Hubo un período de seguimiento de 36 meses. Doscientos noventa y cinco de 358 pacientes fueron tratados con RBL (82,4%), siendo este tratamiento eficaz en el 98% de los pacientes a los 180 días y muy bueno a los 36 meses. Hubo 6/295 recaídas a los 36 meses (2%). Todas las complicaciones menores y mayores se observaron dentro de los primeros 15 días de tratamiento: tenesmo rectal en 96/295 pacientes (32,5%), dolor anal leve en 115/295 (38,9%), autolimitación y sangrado leve tras el desprendimiento de la bandas en 30/295 (10%) y febrícula en un paciente. Sesenta y tres de 358 pacientes fueron tratados con IRC (17,6%). En este grupo se observaron recaídas en 6/63 pacientes (9,5%) a los 36 meses, todos ellos con hemorroides grado III que requirieron tratamiento adicional con RBL. Todas las complicaciones (inherentes a la técnica) se observaron en los primeros días: dolor anal leve en 40/63 pacientes (63,4%) y sangrado leve en 1/63 (1,6%). El tratamiento con RBL o IRC dependió del número de hemorroides y del grado de hemorroides. No se encontraron diferencias significativas con respecto a la efectividad entre RBL y IRC para el tratamiento de hemorroides de grado I-II, mientras que RBL fue más efectivo para hemorroides de grado III y IV (p & lt 0.05).Los autores concluyeron que el RBL y el IRC deben considerarse como un buen tratamiento para todos los grados de hemorroides, debido a su efectividad, su costo-beneficio y su pequeña morbilidad a corto y largo plazo.

En un estudio aleatorizado, Gupta (2003) comparó la coagulación infrarroja y la ligadura con bandas de goma en el tratamiento de pacientes con hemorroides en etapas tempranas. Cien pacientes con hemorragias hemorrágicas de segundo grado fueron asignados al azar de forma prospectiva a ligadura con banda de goma (n = 54) o coagulación infrarroja (n = 46). Los parámetros medidos incluyeron malestar y dolor posoperatorios, tiempo para regresar al trabajo, alivio en la incidencia de hemorragias y tasa de recurrencia. El dolor postoperatorio durante la primera semana fue más intenso en el grupo de ligadura con banda (2 a 5 versus 0 a 3 en una EVA). El dolor posdefecación fue más intenso con la ligadura con banda y también lo fue el tenesmo rectal (p = 0,0059). Los pacientes del grupo de coagulación infrarroja reanudaron sus funciones antes (2 frente a 4 días, p = 0,03), pero también tuvieron una mayor tasa de recurrencia o fracaso (p = 0,03). Los autores concluyeron que la ligadura con banda, aunque es más eficaz para controlar los síntomas y eliminar las hemorroides, se asocia con más dolor e incomodidad para el paciente. Como la coagulación infrarroja puede repetirse convenientemente en caso de recurrencia, podría considerarse un procedimiento de consultorio alternativo adecuado para el tratamiento de las hemorroides en etapa temprana.

La revisión técnica de la Asociación Estadounidense de Gastroenterología sobre el diagnóstico y el tratamiento de las hemorroides (Madoff y Fleshman, 2004) indicó que las hemorroides de primer y segundo grado (es decir, hemorroides de grado I y II) pueden tratarse con terapias no quirúrgicas como la fotocoagulación infrarroja. . La cirugía generalmente se reserva para personas que tienen hemorroides grandes de tercer o cuarto grado, hemorroides agudamente encarceladas y trombosadas, hemorroides con un componente externo extenso y sintomático, o personas que se han sometido a una terapia menos agresiva con malos resultados.

Onicomicosis

Nenoff et al (2014) observaron que desde 2010 la Administración de Alimentos y Medicamentos (FDA) ha aprobado los sistemas láser como capaces de producir un "aumento temporal de uñas claras" en pacientes con onicomicosis. La erradicación de hongos probablemente esté mediada por calor en sistemas láser infrarrojos, su eficacia ha sido confirmada termográficamente, histológicamente y en microscopía electrónica. Otro enfoque para descontaminar el órgano de la uña es interrumpir los hongos y las esporas mediante aplicaciones de pulso q-conmutado. Recientemente, se han probado combinaciones específicas de longitudes de onda para determinar su capacidad para interrumpir el potencial transmembrana mitocondrial a temperaturas fisiológicas mediante la generación de ATP y ROS. Si bien se han informado tasas de aclaramiento clínicamente extremadamente altas de aproximadamente 87,5 a 95,8%, las investigaciones in vitro no han podido confirmar el aclaramiento. La variedad de sistemas y parámetros aconsejados dificulta una evaluación sistemática. Las recomendaciones para protocolos de tratamiento seguros y prácticos, elementos de consentimiento informado y combinación con opciones de tratamiento convencionales son áreas de trabajo activo. Los autores concluyeron que actualmente hay una falta de datos sobre la eficacia a largo plazo de la terapia con láser de la onicomicosis, se necesitan protocolos de tratamiento certificados.

Una revisión de UpToDate sobre "Onicomicosis" (Goldstein, 2015) afirma que "Láser / terapia de luz: aunque dopado con neodimio: el granate de itrio aluminio (Nd: YAG) y los láseres de diodo han surgido como opciones de tratamiento para la onicomicosis, los datos sobre la eficacia de estas intervenciones son limitadas y los mecanismos de acción y los regímenes óptimos para estos tratamientos siguen sin estar claros. Hasta que se disponga de datos más sólidos que respalden la eficacia de la terapia con láser para la onicomicosis, no podemos recomendar el uso rutinario de esta modalidad. El respaldo a la eficacia de tales dispositivos láser se limita principalmente a estudios no controlados que documentan la mejoría clínica en proporciones variables de pacientes. Un pequeño ensayo aleatorizado encontró una mejoría en la onicomicosis después del uso de un láser de diodo de infrarrojo cercano de longitud de onda dual. En contraste, un ensayo aleatorizado en el que 27 pacientes con onicomicosis que involucraban 125 uñas fueron asignados al azar a dos tratamientos con un láser Nd: YAG de 1.064 nm (17 pacientes) o ningún tratamiento (10 pacientes) no encontró una diferencia estadísticamente en la proporción de pacientes con aclaramiento micológico de todas las uñas afectadas después de tres meses. Además, una tendencia no significativa hacia un mayor aclaramiento proximal de la uña en el grupo de tratamiento activo detectada en el punto de tiempo de 3 meses se disipó a los 12 meses. Es de destacar que las respuestas no pudieron evaluarse en 5 de los 17 pacientes en el grupo de tratamiento con láser debido a que no regresaron para el seguimiento. Más estudios con ensayos aleatorizados que comparen dispositivos láser con placebo y otros tratamientos de onicomicosis, así como estudios de seguimiento a largo plazo, serán útiles para aclarar la eficacia, los mecanismos, los regímenes óptimos y las indicaciones de la terapia con láser ”.

Úlceras por presión

El Panel Asesor Nacional de Úlceras por Presión, el Panel Asesor Europeo de Úlceras por Presión y la guía de práctica clínica de Pan Pacific Pressure Injury Alliance sobre "Tratamiento de las úlceras por presión" (2014) declararon que "Debido a la insuficiencia actual de evidencia para apoyar o refutar el uso de la terapia de infrarrojos en en el tratamiento de las úlceras por presión, no se recomienda la terapia de infrarrojos para uso rutinario en este momento ”.

Otras indicaciones

Shui y sus colegas (2015) observaron que la fisioterapia (fisioterapia), una terapia de medicina complementaria y alternativa, se ha aplicado ampliamente para diagnosticar y tratar diversas enfermedades y defectos. La creciente evidencia sugiere que los rayos infrarrojos lejanos (FIR) convenientes y no invasivos, un tipo vital de fisioterapia, mejoran la salud de los pacientes con enfermedades cardiovasculares, diabetes mellitus y enfermedad renal crónica. Sin embargo, los mecanismos moleculares por los que funciona FIR siguen siendo esquivos. Estos investigadores revisaron y resumieron los resultados de investigaciones previas y desarrollaron los mecanismos moleculares de la terapia FIR en varios tipos de enfermedades. Los autores concluyeron que la terapia FIR puede estar estrechamente relacionada con el aumento de la expresión de la sintasa de óxido nítrico endotelial, así como con la producción de óxido nítrico y puede modular los perfiles de algunos miARN circulantes, por lo que puede ser un complemento beneficioso para los tratamientos para algunas enfermedades crónicas que produce sin efectos adversos.

Trastornos de la conciencia

Werner et al (2016) afirmaron que para promover el estado de alerta y la conciencia en pacientes con trastornos graves de la conciencia (DOC), la estimulación frontal con láser en el infrarrojo cercano (N-LT) o la terapia de ondas de choque enfocadas transcraneales (F-SWT) podrían ser una opción. . El estudio comparó ambas técnicas en pacientes con DOC crónica grave. Se asignó un total de 16 pacientes con DOC a 2 grupos (A y B). Una línea de base de 3 semanas siguió un N-LT frontal (0,1 mJ / mm2, 10 minutos por sesión), 5 veces por semana durante 4 semanas (grupo A) o un F-SWT (0,1 mJ / mm2 , 4.000 estímulos por sesión) 3 veces por semana durante 4 semanas (grupo B). La variable principal fue la Escala de Recuperación del Coma revisada (r-CRS, 0-23), evaluada a ciegas. Ambos grupos mejoraron en el r-CRS con el tiempo, pero no revelaron diferencias entre los grupos. Un paciente del grupo B tuvo una convulsión focal en la tercera semana de terapia. Un paciente con mutismo acinético mejoró más y 3 pacientes con hipoxia global no mejoraron en absoluto. Los autores concluyeron que ambas opciones podrían ser una opción para aumentar el estado de alerta y la conciencia de los pacientes con DOC crónica. Un mutismo acinético parecía ser una hipoxia cerebral positiva y severa, un predictor negativo, las convulsiones epilépticas son un posible efecto secundario no deseado. El autor afirmó que se necesitan más estudios clínicos.

Trastorno afectivo estacional

En una revisión Cochrane, Nussbaumer et al (2015) evaluaron la seguridad y eficacia de la fototerapia (en comparación con ningún tratamiento, otros tipos de fototerapia, antidepresivos de segunda generación, melatonina, agomelatina, terapias psicológicas, intervenciones en el estilo de vida y generadores de iones negativos). ) para prevenir el trastorno afectivo estacional (TAE) y mejorar los resultados centrados en el paciente entre los adultos con antecedentes de TAE. Una búsqueda en el Registro Especializado del Grupo de Revisión Cochrane de Depresión, Ansiedad y Neuorosis (CCDANCTR) incluyó todos los años hasta el 11 de agosto de 2015. El CCDANCTR contenía informes de ECA relevantes derivados de Embase (1974 a la fecha), Medline (1950 a la fecha) , PsycINFO (1967 a la fecha) y el Registro Cochrane Central de Senderos Controlados (CENTRAL). Además, estos investigadores buscaron en el Cumulative Index to Nursing and Allied Health Literature (CINAHL), Web of Knowledge, Cochrane Library y Allied and Complementary Medicine Database (AMED) (hasta el 26 de mayo de 2014). Estos investigadores también realizaron una búsqueda en la literatura gris y realizaron búsquedas manuales en las listas de referencias de todos los estudios incluidos y los artículos de revisión pertinentes. Para mayor eficacia, los autores incluyeron ECA en adultos con antecedentes de TAE de tipo invernal que no presentaban síntomas al comienzo del estudio. Para los eventos adversos, los autores también intentaron incluir estudios no aleatorios. Tenían la intención de incluir estudios que compararan cualquier tipo de terapia de luz (p. Ej., Luz blanca brillante, administrada por visores o cajas de luz, luz infrarroja, estimulación del amanecer) versus ningún tratamiento / placebo, antidepresivos de segunda generación (SGA), terapias psicológicas, melatonina , agomelatina, cambios de estilo de vida, generadores de iones negativos u otra de las terapias de luz antes mencionadas. Los autores también planearon incluir estudios que analizaran la terapia de luz en combinación con cualquier intervención de comparación y la compararon con la misma intervención de comparación que la monoterapia. Dos autores de la revisión examinaron los resúmenes y las publicaciones de texto completo según los criterios de inclusión. Dos autores de la revisión extrajeron los datos de forma independiente y evaluaron el riesgo de sesgo de los estudios incluidos. Estos investigadores identificaron 2.986 citas después de la deduplicación de los resultados de la búsqueda. Se excluyeron 2.895 registros durante la revisión del título y el resumen. Evaluaron 91 artículos de texto completo para su inclusión en la revisión, pero solo 1 estudio que proporcionó datos de 46 personas cumplió con los criterios de elegibilidad. El ECA incluido tuvo limitaciones metodológicas. Estos investigadores lo calificaron como de alto riesgo de sesgo de realización y detección debido a la falta de cegamiento, y como de alto riesgo de sesgo de deserción porque los autores del estudio no informaron las razones de los abandonos y no integraron los datos de los abandonos en el análisis. . El ECA incluido comparó el uso preventivo de luz blanca brillante (2500 lux a través de visores), luz infrarroja (0,18 lux a través de visores) y ningún tratamiento con luz. En general, ambas formas de fototerapia preventiva redujeron numéricamente la incidencia de TAE en comparación con ninguna fototerapia. En total, el 43% (6/14) de los participantes en el grupo de luz brillante desarrollaron SAD, así como el 33% (5/15) en el grupo de luz infrarroja y el 67% (6/9) en el grupo sin tratamiento. La terapia con luz brillante redujo el riesgo de incidencia de TAE en un 36%; sin embargo, el IC del 95% fue muy amplio e incluyó tanto los posibles tamaños del efecto a favor de la terapia con luz brillante como aquellos a favor de la no terapia con luz (cociente de riesgos (RR) 0,64, 95 % CI: 0,30 a 1,38). La luz infrarroja redujo el riesgo de TAE en un 50% en comparación con ninguna fototerapia, pero en este caso también el IC fue demasiado amplio para permitir estimaciones precisas del tamaño del efecto (RR 0,50; IC del 95%: 0,21 a 1,17). La comparación de ambas formas de fototerapia preventiva entre sí arrojó tasas similares de incidencia de episodios depresivos en ambos grupos (RR 1,29; IC del 95%: 0,50 a 3,28). La calidad de la evidencia para todos los resultados fue muy baja. Las razones para disminuir la calidad de la evidencia incluyeron alto riesgo de sesgo del estudio incluido, imprecisión y otras limitaciones, como la autocalificación de los resultados, la falta de verificación del cumplimiento durante la duración del estudio y el informe insuficiente de las características de los participantes. Los investigadores no proporcionaron información sobre eventos adversos. Estos investigadores no pudieron encontrar estudios que compararan la fototerapia con otras intervenciones de interés como SGA, terapias psicológicas, melatonina o agomelatina. Los autores concluyeron que la evidencia sobre la fototerapia como tratamiento preventivo para pacientes con antecedentes de TAE es limitada. Las limitaciones metodológicas y el pequeño tamaño de la muestra del único estudio disponible han excluido las conclusiones del autor de la revisión sobre los efectos de la fototerapia para el TAE.

Nussbaumer-Streit y colegas (2019) observaron que el TAE es un patrón estacional de episodios depresivos mayores recurrentes que ocurren con mayor frecuencia durante el otoño o el invierno y remiten en primavera. La prevalencia de TAE oscila entre el 1,5% y el 9%, según la latitud. El aspecto estacional predecible del TAE ofrece una oportunidad prometedora para la prevención. Esta revisión (1 de 4 revisiones sobre la eficacia y seguridad de las intervenciones para prevenir el TAE) se centró en la fototerapia como intervención preventiva. La fototerapia es una terapia no farmacológica que expone a las personas al modo de suministro de luz artificial y la forma de luz varía. Estos investigadores examinaron la seguridad y eficacia de la fototerapia (en comparación con ningún tratamiento, otros tipos de fototerapia, antidepresivos de segunda generación, melatonina, agomelatina, terapias psicológicas, intervenciones en el estilo de vida y generadores de iones negativos) para prevenir el TAE y mejorar el paciente. resultados centrados en adultos con antecedentes de TAE. Buscaron en Ovid Medline (1950-), Embase (1974-), PsycINFO (1967-) y el Registro Cochrane Central de Ensayos Controlados (CENTRAL) hasta el 19 de junio de 2018. Una búsqueda anterior de estas bases de datos se realizó a través de Cochrane Registro de ensayos controlados de trastornos mentales comunes (CCMD-CTR) (todos los años hasta el 11 de agosto de 2015). Además, estos investigadores buscaron en el Cumulative Index to Nursing and Allied Health Literature, Web of Science, Cochrane Library, Allied and Complementary Medicine Database y registros de ensayos internacionales (hasta el 19 de junio de 2018). También realizaron una búsqueda en la literatura gris y realizaron búsquedas manuales en las listas de referencias de los estudios incluidos y los artículos de revisión pertinentes. En cuanto a la eficacia, estos investigadores incluyeron ECA en adultos con antecedentes de TAE de tipo invernal que no presentaban síntomas al comienzo del estudio. Para los EA, estos investigadores también pretendían incluir estudios no aleatorios. Estos investigadores tenían la intención de incluir estudios que compararan cualquier tipo de terapia de luz (p. Ej., Luz blanca brillante, administrada por visores o cajas de luz, luz IR, estimulación del amanecer) versus ningún tratamiento / placebo, antidepresivos de segunda generación, terapias psicológicas, melatonina , agomelatina, cambios de estilo de vida, generadores de iones negativos u otra de las terapias de luz antes mencionadas. También planearon incluir estudios que examinaran la terapia de luz en combinación con cualquier intervención de comparación. Dos autores de la revisión examinaron los resúmenes y las publicaciones de texto completo, extrajeron los datos de forma independiente y evaluaron el riesgo de sesgo de los estudios incluidos. Identificaron 3.745 citas después de la deduplicación de los resultados de la búsqueda, excluyeron 3.619 registros durante la revisión del título y el resumen. Estos investigadores evaluaron 126 artículos de texto completo para su inclusión en la revisión, pero solo un estudio que proporcionó datos de 46 personas cumplió con los criterios de elegibilidad. El ECA incluido tuvo limitaciones metodológicas. Estos investigadores lo calificaron como de alto riesgo de sesgo de realización y detección debido a la falta de cegamiento, y como de alto riesgo de sesgo de deserción porque los autores del estudio no informaron las razones de los abandonos y no integraron los datos de los abandonos en el análisis. . El ECA incluido comparó el uso preventivo de luz blanca brillante (2500 lux a través de visores), luz IR (0,18 lux a través de visores) y ningún tratamiento de luz. En general, la terapia con luz blanca y con luz IR redujo la incidencia de TAE numéricamente en comparación con ninguna terapia de luz. En total, el 43% (6/14) de los sujetos en el grupo de luz brillante desarrollaron TAE, así como el 33% (5/15) en el grupo de luz IR y el 67% (6/9) en el grupo sin tratamiento. La terapia con luz brillante redujo el riesgo de incidencia de TAE en un 36%; sin embargo, el IC del 95% fue muy amplio e incluyó tanto los posibles tamaños del efecto a favor de la terapia con luz brillante como aquellos a favor de la no terapia con luz (RR 0,64; IC del 95%: 0,30 a 1,38 23 sujetos, evidencia de muy baja calidad). La luz infrarroja redujo el riesgo de TAE en un 50% en comparación con ninguna fototerapia, pero el IC también fue demasiado amplio para permitir estimaciones precisas del tamaño del efecto (RR 0,50; IC del 95%: 0,21 a 1,17 24 sujetos, evidencia de muy baja calidad) . La comparación de ambas formas de fototerapia preventiva entre sí produjo tasas similares de incidencia de episodios depresivos en ambos grupos (CR 1,29; IC del 95%: 0,50 a 3,28 29 sujetos, evidencia de muy baja calidad). Las razones para reducir la calidad de la evidencia incluyeron alto riesgo de sesgo del estudio incluido, imprecisión y otras limitaciones, como la autoevaluación de los resultados, la falta de verificación del cumplimiento durante la duración del estudio y el informe insuficiente de las características de los sujetos. Los investigadores no proporcionaron información sobre EA. No encontraron estudios que compararan la fototerapia con otras intervenciones de interés como los antidepresivos de segunda generación, las terapias psicológicas, la melatonina o la agomelatina. Los autores concluyeron que la evidencia sobre la terapia de luz como tratamiento preventivo para personas con antecedentes de TAE era limitada. Las limitaciones metodológicas y el pequeño tamaño de la muestra del único estudio disponible han excluido las conclusiones del autor de la revisión sobre los efectos de la fototerapia para el TAE. Estos investigadores afirmaron que, dado que la evidencia comparativa de la fototerapia frente a otras opciones preventivas era limitada, la decisión a favor o en contra de iniciar el tratamiento preventivo del TAE y el tratamiento seleccionado deberían basarse en gran medida en las preferencias del paciente.

Cáncer

Tsai y Hamblin (2017) observaron que la radiación IR es radiación electromagnética con longitudes de onda entre 760 y 100.000 nm, mientras que la terapia LLLT o fotobiomodulación (PBM) generalmente emplea luz en longitudes de onda rojas y cercanas al IR (100 a 600 nm) para modular la actividad biológica. Muchos factores, condiciones y parámetros influyen en los efectos terapéuticos de la IR, incluida la fluencia, la irradiancia, el tiempo y la repetición del tratamiento, la pulsación y la longitud de onda. La creciente evidencia sugiere que la IR puede llevar a cabo efectos de fotoestimulación y PBM beneficiando particularmente la estimulación neuronal, la curación de heridas y el tratamiento del cáncer. Las células nerviosas responden particularmente bien a la IR, que se ha propuesto para una variedad de aplicaciones de neuroestimulación y neuromodulación, y en esta revisión se discutieron los avances recientes en la estimulación y regeneración neuronales.

Hou y colaboradores (2017) afirmaron que los teranósticos basados ​​en nanopartículas se han desarrollado rápidamente en la última década y se han utilizado ampliamente en el diagnóstico y tratamiento del cáncer de hígado, cáncer de mama y otros tumores. Sin embargo, para los cánceres de piel, existen estudios limitados. Estos investigadores sintetizaron con éxito una nanopartícula teranóstica mediante la rejilla de IR820 en la superficie de óxido de hierro magnético recubierto de quitosano, IR820-CS-Fe3O4, que muestra una excelente capacidad de formación de imágenes por resonancia magnética (MRI) y efectos citotóxicos contra el melanoma bajo irradiación con un infrarrojo cercano ( NIR) láser (808 nm) in vitro.Además, se observó una buena estabilidad de hasta 8 días y una citotoxicidad insignificante, estas características son importantes para las aplicaciones biomédicas de las nanopartículas. Los autores concluyeron que proporcionaron una plataforma teranóstica novedosa y potencial para el tratamiento y la detección del melanoma.

Zhang y sus colegas (2017) observaron que aunque el cáncer de mama triple negativo (TNBC) es un pequeño porcentaje de todos los cánceres de mama, hasta la fecha, el TNBC es uno de los tipos de cáncer de mama más desafiantes para la investigación básica y clínica porque los pacientes de TNBC muestran un alto riesgo de recaída, supervivencia general (SG) más corta y opciones terapéuticas limitadas después de completar la quimioterapia convencional en comparación con pacientes con otros subtipos de cáncer de mama. El receptor del factor de crecimiento epidérmico (EGFR) es un objetivo prometedor para el tratamiento de TNBC. Aunque la terapia fototérmica NIR (NIR-PTT) que utiliza nanobarras de oro conjugadas con anticuerpos anti-EGFR (GN anti-EGFR), ha atraído un interés considerable para el tratamiento de TNBC no invasivo y dirigido a través de una activación de la vía apoptótica, no está claro si el NIR-PTT combinado con anti-EGFR-GN modula la inducción de la autofagia que contribuye a la muerte celular. Estos investigadores examinaron la muerte celular autofágica en células cultivadas de TNBC y tumores de xenoinjerto de ratón durante NIR-PTT combinado con anti-EGFR-GN. Descubrieron que la citotoxicidad inducida por NIR-PTT combinado con anti-EGFR-GN se rescató mediante el tratamiento con un inhibidor de la autofagia, 3-metiladenina (3-MA). El NIR-PTT combinado con anti-EGFR-GN indujo niveles notables de actividad de autofagia, como lo demuestra un gran número de vesículas autofágicas y un aumento significativo de proteínas específicas de autofagia, proteína asociada a microtúbulos, cadena ligera 3 (LC3), p62, beclin-1 , y el gen5 relacionado con la autofagia (Atg5), que acompaña a la inhibición de la vía de señalización de AKT-mTOR responsable de inducir la autofagia. Además, en tumores de xenoinjerto de ratón, el NIR-PTT combinado con anti-EGFR-GN también aumentó los niveles de LC3 y beclin-1. Los autores concluyeron que estos hallazgos, por primera vez, demostraron que el NIR-PTT combinado con anti-EGFR-GNs inducía notablemente la autofagia que conducía a la muerte de las células cancerosas dirigidas a EGFR.

Xu et al. (2017) afirmaron que si bien la inmunoterapia se ha convertido en un paradigma muy prometedor para el tratamiento del cáncer (p. Ej., Cáncer colorrectal) en los últimos años, se ha reconocido desde hace mucho tiempo que la terapia fotodinámica (TFD) tiene la capacidad de desencadenar respuestas inmunitarias antitumorales. . Sin embargo, la TFD convencional activada por la luz visible tiene una profundidad de penetración limitada y sus respuestas inmunes generadas pueden no ser lo suficientemente robustas para eliminar los tumores. Las nanopartículas de conversión ascendente (UCNP) se cargan simultáneamente con clorina e6 (Ce6), un fotosensibilizador, e imiquimod (R837), un agonista del receptor 7 tipo Toll. Las nanopartículas UCNP-Ce6-R837 multitarea obtenidas bajo irradiación NIR con profundidad de penetración tisular mejorada permitirían una destrucción fotodinámica eficaz de los tumores para generar un conjunto de antígenos asociados a tumores, que en presencia de esas nanopartículas que contienen R837 como adyuvantes son capaz de promover fuertes respuestas inmunes antitumorales. Más significativamente, la TFD con UCNP-Ce6-R837 en combinación con el bloqueo del punto de control de la proteína 4 asociada a los linfocitos T citotóxicos (CTLA-4) no solo mostró una excelente eficacia en la eliminación de los tumores expuestos al láser NIR, sino que también dio como resultado un fuerte anti- inmunidades tumorales para inhibir el crecimiento de tumores distantes que quedan después del tratamiento con TFD. Además, dicha estrategia de inmunoterapia contra el cáncer tiene una función de memoria inmunitaria a largo plazo para proteger a los ratones tratados de la reexposición a las células tumorales. Los autores concluyeron que estos hallazgos presentaban una estrategia de TFD basada en UCNP inmunoestimulante en combinación con el bloqueo del punto de control CTLA-4 para destruir eficazmente los tumores primarios bajo exposición a la luz, inhibir tumores distantes a los que la luz apenas puede alcanzar y prevenir la reaparición del tumor a través del efecto de memoria inmune.

Migrañas

  1. En el grupo de control (grupo A, 22 casos en total), se utilizó nimodipina en el tratamiento de la migraña crónica durante 2 meses.
  2. En el grupo de terapia con luz infrarroja polarizada (grupo B, 22 casos en total), se adoptó la luz infrarroja polarizada en el tratamiento de la migraña crónica durante 50 a 60 días.
  3. En el grupo de tratamiento con toxina botulínica (grupo C, 24 casos en total), se inyectó toxina botulínica tipo A guiada por ultrasonido e hiponoma en los músculos frontales, temporales y occipitales en el tratamiento de la migraña crónica y
  4. en el grupo de tratamiento conjunto (grupo D, 23 casos en total), la inyección de toxina botulínica tipo A guiada por ultrasonido e hiponoma en el grupo C y la luz infrarroja polarizada en el grupo B se utilizaron aquí en el tratamiento de la migraña crónica.

La terapia con luz infrarroja polarizada duró de 50 a 60 días y el tiempo de estudio fue de 6 meses. La encuesta incluiría las condiciones de los pacientes con migraña crónica 3 meses antes del tratamiento y 1, 3 y 6 meses después del tratamiento. Se pidió a los pacientes que llenaran el MIDAS (cuestionario de evaluación de la discapacidad por migraña) y se les calificó en la escala de evaluación de la calidad de vida (QOL), de modo que los investigadores pudieran comparar la frecuencia de los ataques, la duración del ataque, la gravedad del ataque, el uso de analgésicos y su recuperación de la migraña crónica, y luego observe sus reacciones adversas. Un total de 11 casos abandonaron durante el tratamiento, 3 casos en el grupo A, 2 casos en el grupo B, 4 casos en el grupo C y 2 casos en el grupo D. A 1, 3 y 6 meses después del tratamiento, las puntuaciones MIDAS en el grupo A, B, C y D fueron significativamente más bajos que antes del tratamiento. Por tanto, las diferencias fueron estadísticamente significativas (p & lt 0,01). Los puntajes en la escala de calificación de calidad de vida fueron significativamente más altos que los puntajes previos al tratamiento, por lo que la diferencia fue estadísticamente significativa (p & lt 0.01). Los puntajes MIDAS y los puntajes de la escala de calificación de calidad de vida en el grupo D se compararon con los del grupo A, B y C respectivamente, y las diferencias fueron estadísticamente significativas (p & lt 0.05) 2 pacientes se registraron con mareos, y el mareo desapareció después de 2 semanas. sin ningún tratamiento. Las líneas de la frente y las patas de gallo de 21 pacientes disminuyeron o desaparecieron en diversos grados después de la inyección. Los autores concluyeron que la combinación de la inyección de toxina botulínica tipo A guiada por ultrasonido e hiponoma y la luz polarizada infrarroja en el tratamiento de la migraña crónica demostró un efecto clínico significativo. Además, afirmaron que se necesitan más estudios en muestras grandes y multicéntricos en la aplicación clínica. Este fue un estudio pequeño (n = 23 en el grupo de tratamiento conjunto con 2 abandonos) y sus hallazgos fueron confundidos por el uso combinado de Botox y terapia infrarroja.

Además, UpToDate revisa sobre "Migraña crónica" (Garza y ​​Schwedt, 2018), "Tratamiento agudo de la migraña en adultos" (Bajwa y Smith, 2018a) y "Tratamiento preventivo de la migraña en adultos" (Bajwa y Smith, 2018b). Sin mencionar los infrarrojos como opción terapéutica.

Neuropatía periférica no diabética

Miriutova et al (2002) informaron los hallazgos de 73 pacientes con mieloradiculopatía isquémica por compresión que recibieron tratamiento que incluía radiación láser infrarroja en los campos paravertebrales, puntos motores de los nervios afectados y puntos biológicamente activos Y63, Y67, YB34, YB42, YB43, E34, E42 (1.0 a 5.0 mW / cm2 5- y 5,000-Hz), electroestimulación de los puntos nerviosos motores e inervados por ellos músculos por impulsos de doble cuadratura con un espacio fijo de 5 ms. Los autores concluyeron que la terapia con láser infrarrojo de impulso alivió el síndrome de dolor y estimuló los procesos de reparación en las estructuras nerviosas afectadas. La estimulación eléctrica más modificada activó un crecimiento regenerativo de las fibras nerviosas, reinervación de los músculos de las extremidades. Este fue un estudio no controlado.

Foto et al (2007) compararon la precisión, confiabilidad y características esenciales de 9 termómetros infrarrojos portátiles disponibles comercialmente que se utilizan para manejar el pie neuropático. Los termómetros se compararon utilizando 2 fuentes de control de temperatura que simulaban las condiciones fisiológicas que se encuentran en una clínica de cuidado de los pies. Con cada fuente de control configurada de forma independiente, los rangos de diferencia de temperatura de 0 grados, 2 grados, 4 grados y 6 grados C se muestrearon al azar y se analizaron para cada termómetro por 2 probadores. El orden de las pruebas se asignó al azar para los probadores y los instrumentos. Hubo diferencias en el cambio de temperatura media entre termómetros (p & lt 0,001) y entre probadores (p = 0,0247). Las diferencias en el cambio de temperatura media entre los instrumentos (menos de 0,5 grados C), aunque pequeñas, podrían afectar la interpretación de la temperatura de la piel si se hicieran comparaciones de temperatura utilizando 2 instrumentos diferentes. La diferencia en el cambio de temperatura entre los probadores (0,06 grados C) no fue lo suficientemente grande como para afectar las decisiones en la práctica clínica. Se compararon el tiempo de respuesta del instrumento, la relación distancia-punto, el diámetro del sensor, la resolución de la pantalla, la emisividad y el costo. Los autores concluyeron que los termómetros infrarrojos de uso general y de bajo costo utilizados en este estudio mostraron buena precisión, confiabilidad y rendimiento y eran apropiados para su uso en una clínica de cuidado de los pies. Este estudio no proporcionó datos que respalden la eficacia de estos dispositivos en el tratamiento de la neuropatía periférica.

Schencking et al (2008) informaron sobre el caso de una paciente de 67 años que sufría de una radiculopatía persistente y agudamente exacerbada (L5 / S1 derecha) debido a metástasis de cáncer de mama (pT1bL0N1R1G2M1 / ER óseo 95%, PR 95% , Her2-new-score 3+) en la columna lumbar. Los tratamientos tradicionales no habían logrado producir suficientes efectos terapéuticos. Estos investigadores realizaron 6 sesiones de hipertermia de cuerpo entero por infrarrojos-A filtrada con agua utilizando un sistema comercial (Iratherm 1000 Von Ardenne Institute for Applied Medical Research, Dresden, Alemania). La longitud de onda era de 600 a 1300 nm, la temperatura central del cuerpo prevista era de 38,5 grados C. La intensidad del dolor se evaluó mediante una escala analógica visual (EVA). La intensidad del dolor (EVA) disminuyó de 9 (inicial) a 3 puntos después de las primeras 3 sesiones de tratamiento. El paciente estaba completamente libre de dolor después de 6 sesiones. No se observaron efectos secundarios. En el seguimiento a las 3 y 24 semanas, el paciente seguía sin dolor. Los autores concluyeron que la hipertermia de cuerpo entero por infrarrojos A podría ser un procedimiento terapéutico eficaz con efectos secundarios raros para el dolor neuropático inducido por tumores. Sin embargo, su uso debe investigarse más a fondo en ensayos clínicos controlados.

Ataxia espinocerebelosa

Liu y sus colegas (2019) observaron que la ataxia espinocerebelosa tipo 3 (SCA3) es una enfermedad neurodegenerativa de poliglutamina resultante del plegamiento incorrecto y la acumulación de una proteína patógena, que causa disfunción cerebelosa, y esta enfermedad actualmente no tiene tratamientos efectivos. Se ha descubierto que la radiación del infrarrojo lejano (FIR) protege la viabilidad de las células SCA3 al prevenir la agregación de la proteína ataxina-3 mutante y promover la autofagia. Sin embargo, este posible tratamiento aún carece de evidencia in vivo. Estos investigadores examinaron el efecto de la terapia FIR en SCA3 in vivo utilizando un modelo de ratón durante 28 semanas. Los ratones de control portaban un alelo ATXN3 de tipo salvaje sano que tenía un tracto de poliglutamina con 15 repeticiones CAG (15Q), mientras que los ratones transgénicos SCA3 poseían un alelo con un tracto patológico de poliglutamina con 84 repeticiones CAG (84Q) expandidas. Los resultados mostraron que los ratones 84Q SCA3 mostraron una coordinación motora, habilidades de equilibrio y rendimiento de la marcha deficientes, junto con la pérdida asociada de células de Purkinje en el cerebelo, en comparación con los controles normales de 15Q; sin embargo, el tratamiento con FIR fue suficiente para prevenir esos defectos. FIR mejoró significativamente el rendimiento en términos de área de contacto máxima, longitud de zancada y soporte de la base en las patas delanteras, traseras o ambas. Además, el tratamiento con FIR apoyó la supervivencia de las células de Purkinje en el cerebelo y promovió la autofagia, como se refleja en la inducción de marcadores autofágicos, LC3II y Beclin-1, concomitante con la reducción de la acumulación de p62 y ataxina-3 en las células de Purkinje del cerebelo, que podría contribuir parcialmente al mecanismo de rescate. Los autores concluyeron que estos hallazgos revelaron que FIR confería efectos terapéuticos en un modelo animal transgénico SCA3 y, por lo tanto, tiene un potencial considerable para uso clínico futuro.

Lesión cerebral traumática

Yao y sus colegas (2018) afirmaron que la lesión cerebral traumática (LCT) se ha convertido en un importante problema de salud y socioeconómico que afecta a los jóvenes y al personal militar. Numerosos pacientes con TCE experimentaron la secuela de una lesión cerebral llamada deterioro cognitivo, que redujo las funciones de atención, memoria de trabajo, motivación y ejecución. En los últimos años, la terapia con láser de infrarrojo cercano transcraneal (tNiRLT) como una posible terapia se aplicó gradualmente en el tratamiento del deterioro cognitivo posterior a un TCE. En la presente revisión, los mecanismos biológicos de tNiRLT transcraneal para TBI se sintetizan principalmente en base al impacto fotónico en TBI crónico leve. Es posible que ocurran varios eventos moleculares emocionantes durante el procedimiento, como la estimulación de la producción de ATP, el flujo sanguíneo cerebral regional (FSC), el punto de acupuntura, la neurogénesis y la sinaptogénesis, y también existió la reducción de los antiinflamatorios. Se describieron algunos experimentos con animales y estudios clínicos de tNiRLT para TBI. Varios laboratorios han demostrado que tNiRLT es eficaz no solo para mejorar las funciones neurológicas, sino también para aumentar la memoria y la capacidad de aprendizaje en el modelo de TBI de animales roedores. En un informe de caso de 2 pacientes y una serie de 11 casos, se mejoraron las funciones cognitivas. También se observó eficacia sobre los efectos cognitivos y emocionales en un estudio clínico controlado, doble ciego. Los autores concluyeron que se están llevando a cabo varios ensayos aleatorios, paralelos, doble ciego y controlados de forma simulada, con el objetivo de evaluar la eficacia de la tLED en las funciones cognitivas y el estado neuropsiquiátrico en participantes con LCT. Por lo tanto, tNiRLT es un método prometedor aplicado al deterioro cognitivo después de una LCT.

En un estudio de serie de casos, Hipskind y sus colegas (2019) examinaron el resultado de la aplicación de la terapia de luz roja / infrarroja cercana utilizando diodos emisores de luz (LED) pulsados ​​con 3 frecuencias diferentes transcranealmente para tratar la LCT en veteranos militares. Un total de 12 sujetos sintomáticos diagnosticados con TCE crónico de más de 18 meses después del trauma recibieron terapia PBM transcraneal pulsada (tPBMT) utilizando 2 almohadillas de terapia de neopreno que contienen 220 infrarrojos y 180 LED rojos, que generan una potencia de salida de 3,3 W y una densidad de potencia media de 6,4 mW / cm2 durante 20 minutos, tres veces por semana durante 6 semanas. Las medidas de resultado incluyeron puntuaciones de pruebas neuropsicológicas estandarizadas y medidas cualitativas y cuantitativas de tomografía computarizada por emisión de fotón único (SPECT) del flujo sanguíneo cerebral regional (rCBF). El tPBMT pulsado mejoró significativamente las puntuaciones neuropsicológicas en 6 de 15 subescalas (40,0% p & lt 0,05 de 2 colas). El análisis SPECT mostró un aumento en rCBF en 8 de 12 (66,7%) sujetos del estudio. El análisis cuantitativo de SPECT reveló un aumento significativo en rCBF en este subgrupo de sujetos de estudio y una diferencia significativa entre los recuentos de rayos gamma / cc antes y después del tratamiento [t = 3,77, gl = 7, p = 0,007, IC del 95%: 95,543,21 a 21.931,82]. Los autores señalaron que este fue el primer estudio en informar un análisis SPECT cuantitativo de rCBF en regiones de interés después de tPBMT pulsado con LED en TBI. Llegaron a la conclusión de que el tPBMT pulsado que utiliza LED se mostró prometedor en la mejora de la función cognitiva y rCBF varios años después de TBI, además, se necesitan estudios controlados más grandes.

Los autores concluyeron que las limitaciones de este estudio incluían el uso de una pequeña muestra voluntaria (n = 12) sin grupos de control o tratamiento simulado para la comparación. Este fue un diseño de serie de casos en el que todos los sujetos recibieron el mismo tratamiento y no se realizó el cegamiento de los sujetos ni de los médicos que administraban el tratamiento. El sesgo inconsciente del experimentador y los efectos placebo deben controlarse en estudios futuros. No se utilizaron formas alternativas de evaluaciones neuropsicológicas debido a limitaciones de presupuesto, personal y tiempo, lo que introdujo efectos potenciales en la práctica. Una tercera limitación fue la posibilidad de que la regresión a la media pudiera explicar parcialmente los resultados de los análisis cuantitativos de SPECT debido al punto de corte de los criterios de selección de z menor o igual a 1,00. Teóricamente, la eliminación de los criterios de selección aliviaría este problema, sin embargo, es uno de los identificadores de mejores prácticas para la disminución de rCBF asociada con TBI. Otra posible limitación fue la reproducibilidad de SPECT, aunque la investigación mostró que la reproducibilidad de SPECT estaba entre ± 1,3% y 5%.

Regeneración ósea

Tani y sus colegas (2018) señalaron que el PBM se ha utilizado con fines de regeneración ósea en diferentes campos de la medicina y la odontología, pero los resultados contradictorios exigen una mirada escéptica sobre sus posibles beneficios. En un estudio in vitro, estos investigadores compararon la potencialidad de PBM mediante láseres de diodo rojo (635 ± 5 nm) o infrarrojo cercano (NIR, 808 ± 10 nm) y diodos emisores de luz violeta-azul (405 ± 5 nm) que operan en una onda continua con una densidad de energía de 0,4 J / cm², sobre la viabilidad, proliferación, adhesión y diferenciación osteogénica de osteoblastos humanos y células del estroma mesenquimatoso (hMSC). Los tratamientos con PBM no alteraron la viabilidad (ensayos PI / Syto16 y MTS). Los análisis de inmunofluorescencia confocal y RT-PCR indicaron que el PBM rojo en ambos tipos de células aumentaba las agrupaciones ricas en vinculina, la expresión de marcadores osteogénicos (Runx-2, fosfatasa alcalina, osteopontina) y la deposición de estructura de nódulos de tipo hueso mineralizado y en las hMSC inducían la formación de fibras de estrés y Reguló positivamente la expresión del marcador de proliferación Ki67. Curiosamente, las respuestas de los osteoblastos a la luz roja fueron mediadas por la activación de la señalización de Akt, que pareció modular positivamente los niveles de especies reactivas de oxígeno. Las células irradiadas con luz azul violeta se comportaron esencialmente como las no tratadas y las irradiadas con NIR mostraron modificaciones del ensamblaje del citoesqueleto, expresión de Runx-2 y patrón de mineralización. Los autores concluyeron que, aunque dentro de las limitaciones de una experimentación in vitro, este estudio puede sugerir PBM con láser de 635 nm como una opción potencialmente efectiva para promover / mejorar la regeneración ósea.

Trastorno temporomandibular

Sousa y colaboradores (2019) se considera que el trastorno temporomandibular (TMD) es la principal causa de dolor orofacial de origen no dental y un problema de salud pública. La sintomatología es dolor muscular y / o articular, restricción del rango de movimiento mandibular (ROM) y cambios en el patrón de movimiento mandibular. Debido a su complejidad, ya existen tratamientos que utilizan diversas formas de terapia. La fotobiomodulación mediante fuentes de luz, como láser de bajo nivel o diodos emisores de luz (LED), con diferentes longitudes de onda, en forma única o combinada, permite explorar un recurso terapéutico más. El objetivo de este estudio es evaluar los efectos de la PBM con el uso simultáneo de LED rojos e infrarrojos, sobre el dolor, la amplitud de los movimientos mandibulares y sobre la actividad eléctrica de los músculos masticatorios en individuos con TTM.Se propone un ensayo clínico aleatorizado, controlado, doble ciego, que involucrará a 33 individuos (n = 11 por grupo) de ambos sexos, de 18 a 45 años en 3 grupos: grupo LED grupo placebo y grupo control, sometidos a 6 no -Sesiones consecutivas de PBM por un total de 2 semanas de tratamiento. Los Criterios de Diagnóstico de Investigación para Trastornos Temporomandibulares-RDC / TMD se utilizarán para evaluar y determinar el dolor de TMD de los sujetos se evaluará utilizando la EVA, el ROM mandibular se determinará con la ayuda de un calibre digital y la actividad eléctrica de la masticación. Los músculos se verificarán mediante electromiografía (EMG). Para PBM se utilizará una placa mixta de 18 LED rojos-660 nm y 18 LED infrarrojos-850 nm con potencia de 3,5 mW por LED, 4,45 mW / cm, exposición radiante de 5,35 J / cm. El área irradiada será de 14,13 cm, y la energía de 75,6 J, en la región de la ATM y en los músculos maseteros bilaterales y temporales. Los sujetos de todos los grupos serán reevaluados después de la primera intervención terapéutica y al final del tratamiento. Los autores esperan del uso de PBM con LED, infrarrojos y rojos, para reducir el dolor, mejorar la función de la articulación temporomandibular en pacientes con TTM y así mejorar las condiciones generales del paciente.

Coagulación infrarroja para el tratamiento de la displasia anal

Goldstone y colaboradores (2011) afirmaron que habían informado previamente sobre la coagulación infrarroja (IRC) de lesiones escamosas intraepiteliales de alto grado anal (HSIL) en hombres VIH positivos y negativos para el virus de la inmunodeficiencia humana (VIH) que tienen relaciones sexuales. con hombres (HSH) con una mediana de seguimiento de 1,5 años. En un estudio de cohorte retrospectivo, estos investigadores determinaron las tasas de recurrencia de HSIL después de un seguimiento a largo plazo del IRC y si los pacientes progresaron a un cáncer invasivo. Este estudio se llevó a cabo en un entorno de práctica en el consultorio. Los pacientes evaluados eran HSH que se sometieron al menos a una ablación de HSIL anales IRC entre 1999 y 2005 con un seguimiento adicional de al menos 1 año. Los resultados primarios medidos fueron la recurrencia de HSIL y la progresión a carcinoma anal de células escamosas (CCE). Se incluyó un total de 96 HSH (44 VIH positivos) con una mediana de seguimiento de 48 y 69 meses en HSH VIH negativos y VIH positivos 35% de los VIH positivos y 31% de los VIH negativos del original La cohorte se perdió durante el seguimiento. En los HSH VIH negativos, 32 (62%) tuvieron una recurrencia en una media de 14 meses. Las tasas de recurrencia después del segundo y tercer tratamiento fueron del 48% y el 57%. En los HSH VIH positivos, 40 (91%) tuvieron una recurrencia en una media de 17 meses. Las tasas de recurrencia después del 2º, 3º y 4º CRI fueron del 63%, 85% y 47%. Después de la primera ablación, los HSH VIH positivos tenían 1,9 veces más probabilidades de tener una recurrencia que los HSH VIH negativos (p = 0,009). Un año después de la primera ablación, el 61% de los HSH VIH positivos tenían HSIL recurrentes en comparación con el 38% de los HSH VIH negativos. Un año después de la segunda ablación, el 49% de los HSH VIH positivos tenían HSIL recurrentes en comparación con el 28% de los HSH VIH negativos. En los HSH VIH negativos y VIH positivos, la probabilidad de curar una lesión individual después de la primera ablación fue del 80% y del 67%. La mayor parte de la recurrencia se debió al desarrollo de lesiones metacrónicas que ocurrieron en el 82% y el 52% de los sujetos VIH positivos y VIH negativos después de su primer tratamiento con IRC. El número medio de lesiones recurrentes tanto para los HSH VIH positivos como para los VIH negativos nunca fue mayor de 2. Ningún HSH desarrolló SCC y no hubo EAG. En la última visita, el 82% de los HSH VIH positivos y el 90% de los HSH VIH negativos estaban libres de HSIL. Los autores concluyeron que la ablación IRC era un tratamiento eficaz para las HSIL, y ningún paciente progresó a cáncer. Los pacientes VIH positivos tenían una probabilidad significativamente mayor de tener una recurrencia, y la recurrencia se produjo más rápidamente en estos pacientes. Estos investigadores afirmaron que los principales inconvenientes de este estudio eran su diseño retrospectivo y que se trataba de un estudio observacional con pérdidas de seguimiento significativas (35% de los sujetos VIH positivos y 31% de los VIH negativos de la cohorte original).

Alam et al. (2016) observaron que existe ambigüedad con respecto al manejo óptimo de la neoplasia intraepitelial anal (NIA) III. En una revisión sistemática, estos investigadores compararon las pautas de la sociedad internacional / nacional actualmente disponibles en la literatura sobre el manejo, tratamiento y vigilancia de AIN III. Además, examinaron la calidad de los estudios utilizados para compilar las directrices y aclararon la terminología utilizada en la evaluación histológica. Estos investigadores llevaron a cabo una búsqueda electrónica en PubMed y Embase utilizando los términos de búsqueda "neoplasia intraepitelial anal", "AIN", "cáncer anal", "directrices", "vigilancia" y "gestión". Se incluyeron revisiones de la literatura y guías o guías prácticas en revistas revisadas por pares desde el 1 de enero de 2000 hasta el 31 de diciembre de 2014 que evalúan el tratamiento, la vigilancia o el manejo de pacientes con NIA relacionada con el virus del papiloma humano (VPH). Las guías identificadas en la búsqueda se evaluaron para determinar la calidad de la evidencia que las respalda utilizando los niveles de evidencia 2011 del Oxford Center for Evidence-based Medicine. La búsqueda en la base de datos identificó 5.159 artículos y 2 guías adicionales se obtuvieron de las guías oficiales del organismo. Una vez aplicados los criterios de inclusión, se revisaron 28 artículos a texto completo, 25 de estos fueron excluidos, quedando 3 guías para su inclusión en la revisión sistemática: las publicadas por la Asociación de Coloproctología de Gran Bretaña e Irlanda, la Sociedad Estadounidense de Cirujanos de Colon y Recto y la Sociedad Italiana de Cirugía Colorrectal. No se identificaron pautas sobre el manejo de AIN III de asociaciones y sociedades del virus del papiloma humano. Las 3 guías coincidieron en que un alto índice de sospecha clínica era esencial para el diagnóstico de NIA con antecedentes específicos de la enfermedad, examen físico, tacto rectal (DRE) y citología anal. Hubo un intercambio de terminología de AIN de alto grado (HGAIN) (que incorporó AIN II / III) y AIN III en la literatura, lo que generó confusión en el uso de la terapia. El tratamiento varió desde inmunomodulación y TFD hasta destrucción dirigida de áreas de HGAIN / AIN II / III mediante IRC, electrocauterio, crioterapia o escisión quirúrgica, pero con poco consenso entre las guías. Las recomendaciones sobre las estrategias de vigilancia fueron igualmente discordantes, desde un examen físico semestral hasta una anoscopia ± biopsia anual. Más del 50% de las recomendaciones se basaron en pruebas de nivel III o IV y muchas se recopilaron utilizando estudios que tenían más de 10 años de antigüedad. Los autores concluyeron que, a pesar de la concordancia con respecto al diagnóstico, hubo una variación significativa en las guías sobre las recomendaciones sobre el tratamiento y la vigilancia de los pacientes con HGAIN / AIN II / III. Los 3 conjuntos de directrices se basaron en pruebas obsoletas de bajo nivel que se originaron en los años ochenta y noventa.

Goldstone y sus colegas (2019) observaron que la ablación anal de HSIL puede reducir la incidencia de cáncer invasivo; sin embargo, existen pocos datos sobre la eficacia del tratamiento y la regresión natural sin tratamiento. En un estudio aleatorizado, multicéntrico y abierto, estos investigadores examinaron los efectos de la IRC en las HSIL anales (HSIL índice) en adultos infectados por el VIH de 27 años o más con 1 a 3 HSIL anales comprobadas por biopsia sin historia previa de HSIL. Los sujetos fueron aleatorizados 1: 1 a ablación HSIL con IRC (tratamiento) o sin tratamiento (monitorización activa [AM]). Los sujetos fueron seguidos cada 3 meses con anoscopia de alta resolución. Los sujetos de tratamiento se sometieron a biopsias anales de HSIL sospechosas nuevas o recurrentes. Los sujetos con AM se sometieron a biopsias sólo en el mes 12. El criterio de valoración principal fue la eliminación completa del índice HSIL en el mes 12. Estos investigadores asignaron al azar a 120 sujetos. El aclaramiento de índice completo de HSIL se produjo con más frecuencia en el grupo de tratamiento que en el AM (diferencia de riesgo del 62% frente al 30%, IC del 95% del 32%: 13% a 48% p & lt 0,001). El aclaramiento completo o parcial (aclaramiento mayor o igual a 1 índice HSIL) ocurrió con más frecuencia en el grupo de tratamiento (82% versus 47% de diferencia de riesgo, 35% 95% CI: 16% a 50% p & lt 0,001). Tener una sola lesión índice, en comparación con tener de 2 a 3 lesiones, se asoció significativamente con el aclaramiento completo (riesgo relativo, 1,96; IC del 95%: 1,22 a 3,10). Los EA más comunes relacionados con el tratamiento fueron dolor anal leve o moderado y sangrado. Ningún AAG se consideró relacionado con el tratamiento o la participación en el estudio. Los autores concluyeron que la ablación por IRC de HSIL anales resultó en una mayor eliminación de HSIL que la observación sola.

Los autores declararon que este estudio tenía varios inconvenientes. Como se mencionó anteriormente, más sujetos con 2 o 3 lesiones índice se asignaron al azar a AM, lo que podría afectar los resultados. Era posible que la diferencia absoluta en las HSIL estuviera sobreestimada, dado que al inicio del estudio el grupo de AM tenía más HSIL que el grupo de tratamiento, pero en el modelo multivariable el RR de la depuración de HSIL seguía siendo significativo. Estos investigadores inscribieron a sujetos con lesiones pequeñas, que podrían sobrestimar la respuesta, porque es más probable que las lesiones pequeñas se resuelvan con tratamiento o que retrocedan sin tratamiento que las lesiones grandes. Todos estos investigadores tenían bastante experiencia en el tratamiento de HSIL y los sujetos eran en su mayoría hombres blancos infectados por el VIH con enfermedad limitada que recibían terapia antirretroviral con supresión viral y reconstitución inmunitaria satisfactorias, lo que hacía que los resultados fueran menos generalizables a otros proveedores y poblaciones. La solidez general de este estudio se basó en el hecho de que fue el primer estudio prospectivo, de múltiples sitios y aleatorizado con poder para determinar si la ablación de HSIL era o no superior a la AM sola para eliminar las HSIL en individuos infectados por el VIH.

Corral et al. (2019) afirmaron que la neoplasia intraepitelial anal (AIN) (o neoplasia intraepitelial escamosa de grado bajo / alto (L / HSIL)) es el precursor del cáncer anal invasivo temprano. Se han descrito diferentes opciones terapéuticas para la ablación local de lesiones localizadas. En una revisión sistemática, estos investigadores analizaron la seguridad y eficacia de la CRI para el tratamiento de la displasia anal. Llevaron a cabo una búsqueda de la literatura en 2019 utilizando PubMed y Cochrane para identificar todos los ensayos elegibles publicados que informan datos sobre el tratamiento de la displasia anal con IRC. El porcentaje de CCE del ano que se desarrolló en el seguimiento y los resultados sobre las complicaciones mayores después del tratamiento fueron los resultados primarios. Se identificaron un total de 24 artículos de los cuales se seleccionaron 6 con un total de 360 ​​pacientes incluidos, con una mediana de edad de 41,8 años 3 estudios fueron prospectivos y 3 retrospectivos, solo 1 fue un ensayo aleatorizado. Todos los artículos incluyeron hombres, 4 artículos incluyeron mujeres VIH positivas y solo 1 artículo incluyó hombres no infectados por VIH. Ningún paciente desarrolló complicaciones importantes después de la terapia con IRC. El dolor fue el síntoma más común encontrado después del procedimiento en las diferentes series y el sangrado leve que no requirió transfusión fue la complicación más común que se presentó en el 4 al 78% de los pacientes. La mediana de seguimiento fue de entre 4,7 y 69 meses. Ningún paciente desarrolló SCC después de IRC. HSIL recurrente varió del 10 al 38% 2 estudios informaron resultados del seguimiento de pacientes no tratados que mostraron que entre el 72 y el 93% de ellos tenían HSIL persistente en el último seguimiento y el 4.8% desarrolló CCE. Los autores concluyeron que el IRC era un método seguro y eficaz para la ablación de la displasia anal de alto grado que podría ayudar a prevenir el cáncer anal. Se recomienda una vigilancia continua debido al riesgo de recurrencia.

Además, una revisión de UpToDate sobre "Lesiones intraepiteliales escamosas anales: diagnóstico, detección, prevención y tratamiento" (Palefsky y Cranston, 2020) afirma que "Coagulación infrarroja, hifrecación, coagulación con plasma de argón y ablación por radiofrecuencia: para lesiones que también lo son grande para TCA, se puede utilizar la coagulación infrarroja basada en la oficina (IRC). Este dispositivo está aprobado por la Administración de Drogas y Alimentos de los Estados Unidos (FDA) para el tratamiento de hemorroides y verrugas anales. El tratamiento consiste en la aplicación directa de un pulso de irradiación de 1,5 segundos en el rango infrarrojo al epitelio anal displásico, lo que da como resultado la destrucción del tejido a una profundidad de aproximadamente 1,5 mm. A continuación, el tejido coagulado se puede desbridar con unas pinzas de biopsia de Tischler. Las posibles complicaciones relacionadas con el procedimiento incluyen hemorragia e infección inmediatas y tardías. El IRC aún no está aprobado por la FDA para el tratamiento del SIL anal. Múltiples estudios han demostrado la seguridad y eficacia de IRC tanto en personas infectadas como no infectadas por VIH. Por ejemplo, en un ensayo aleatorizado de etiqueta abierta de 120 adultos infectados por el VIH con HSIL anal, el aclaramiento de HSIL de índice completo fue más frecuente en el grupo de tratamiento que en el grupo de seguimiento (62 versus 30%, diferencia de riesgo 32%, 95% IC 13 a 48%). Como otro ejemplo, en un estudio retrospectivo de 96 hombres, el tratamiento con IRC fue seguido por una recurrencia en una media de 14 meses en el 62% de los que no estaban infectados por el VIH y en el 91% de los que estaban infectados por el VIH. Aunque se requirieron múltiples retratamientos en la mayoría de los casos, ninguno de los hombres progresó a carcinoma de células escamosas. No hubo eventos adversos graves ”.


Contenido

En la década de 1800, se realizaron estudios del movimiento ocular utilizando observaciones directas. Por ejemplo, Louis Émile Javal observó en 1879 que la lectura no implica un barrido suave de los ojos a lo largo del texto, como se suponía anteriormente, sino una serie de paradas cortas (llamadas fijaciones) y movimientos sacádicos rápidos. [1] Esta observación planteó preguntas importantes sobre la lectura, preguntas que se exploraron durante la década de 1900: ¿En qué palabras se detienen los ojos? ¿Por cuanto tiempo? ¿Cuándo regresan a palabras ya vistas?

Edmund Huey [2] construyó un rastreador ocular temprano, usando una especie de lente de contacto con un agujero para la pupila. La lente estaba conectada a un puntero de aluminio que se movía en respuesta al movimiento del ojo. Huey estudió y cuantificó las regresiones (solo una pequeña proporción de movimientos sacádicos son regresiones) y demostró que algunas palabras de una oración no están fijadas.

Los primeros rastreadores oculares no intrusivos fueron construidos por Guy Thomas Buswell en Chicago, utilizando rayos de luz que se reflejaban en el ojo y luego los grababan en una película. Buswell realizó estudios sistemáticos sobre la lectura [3] y la visualización de imágenes. [4]

En la década de 1950, Alfred L. Yarbus [5] realizó una importante investigación sobre el seguimiento ocular y su libro de 1967 se cita a menudo. Mostró que la tarea asignada a un sujeto tiene una gran influencia en el movimiento de los ojos del sujeto. También escribió sobre la relación entre fijaciones e interés:

"Todos los registros muestran de manera concluyente que el carácter del movimiento del ojo es completamente independiente o muy ligeramente dependiente del material de la imagen y cómo se hizo, siempre que sea plano o casi plano". [6] El patrón cíclico en el examen de imágenes "depende no sólo de lo que se muestra en la imagen, sino también del problema que enfrenta el observador y la información que espera obtener de la imagen". [7]

En la década de 1970, la investigación sobre el seguimiento ocular se expandió rápidamente, en particular la investigación sobre la lectura. Rayner ofrece una buena descripción general de la investigación en este período. [13]

En 1980, Just y Carpenter [14] formularon el influyente Fuerte hipótesis ojo-mente, que "no hay desfase apreciable entre lo que se fija y lo que se procesa". Si esta hipótesis es correcta, entonces cuando un sujeto mira una palabra u objeto, él o ella también piensa en él (proceso cognitivo), y exactamente durante el tiempo que dure la fijación registrada. Los investigadores a menudo dan por sentada la hipótesis que utilizan el seguimiento ocular. Sin embargo, las técnicas de la mirada contingente ofrecen una opción interesante para desenredar las atenciones abiertas y encubiertas, para diferenciar lo que se fija y lo que se procesa.

Durante la década de 1980, la hipótesis ojo-mente a menudo se cuestionaba a la luz de la atención encubierta, [15] [16] la atención a algo que uno no está mirando, lo que la gente suele hacer. Si la atención encubierta es común durante las grabaciones de seguimiento ocular, la ruta de exploración y los patrones de fijación resultantes a menudo mostrarían no dónde ha estado nuestra atención, sino solo dónde ha estado mirando el ojo, sin indicar el procesamiento cognitivo.

La década de 1980 también vio el nacimiento del uso del seguimiento ocular para responder preguntas relacionadas con la interacción entre humanos y computadoras. Específicamente, los investigadores investigaron cómo los usuarios buscan comandos en los menús de las computadoras. [17] Además, las computadoras permitieron a los investigadores utilizar los resultados del seguimiento ocular en tiempo real, principalmente para ayudar a los usuarios discapacitados. [17]

Más recientemente, ha habido un crecimiento en el uso del seguimiento ocular para estudiar cómo los usuarios interactúan con diferentes interfaces de computadora. Las preguntas específicas que hacen los investigadores están relacionadas con lo fáciles que son las diferentes interfaces para los usuarios. [17] Los resultados de la investigación del seguimiento ocular pueden conducir a cambios en el diseño de la interfaz. Sin embargo, otra área de investigación reciente se centra en el desarrollo web. Esto puede incluir cómo reaccionan los usuarios a los menús desplegables o dónde centran su atención en un sitio web para que el desarrollador sepa dónde colocar un anuncio. [18]

Según Hoffman, [19] el consenso actual es que la atención visual está siempre ligeramente (100 a 250 ms) por delante del ojo. Pero tan pronto como la atención se mueva a una nueva posición, los ojos querrán seguirla. [20]

Todavía no podemos inferir procesos cognitivos específicos directamente de una fijación en un objeto particular en una escena. [21] Por ejemplo, una fijación en una cara en una imagen puede indicar reconocimiento, agrado, disgusto, perplejidad, etc. Por lo tanto, el seguimiento ocular a menudo se combina con otras metodologías, como los protocolos verbales introspectivos.

Gracias al avance de los dispositivos electrónicos portátiles, los rastreadores oculares portátiles montados en la cabeza actualmente pueden lograr un rendimiento excelente y se utilizan cada vez más en aplicaciones de investigación y mercado dirigidas a entornos de la vida diaria. [22] Estos mismos avances han llevado a un aumento en el estudio de los pequeños movimientos oculares que ocurren durante la fijación, tanto en el laboratorio como en entornos aplicados. [23]

En el siglo XXI, el uso de inteligencia artificial (IA) y redes neuronales artificiales se ha convertido en una forma viable de completar tareas y análisis de seguimiento ocular. En particular, la red neuronal convolucional se presta al seguimiento ocular, ya que está diseñada para tareas centradas en imágenes. Con la IA, las tareas y los estudios de seguimiento ocular pueden generar información adicional que puede que no hayan sido detectados por los observadores humanos. La práctica del aprendizaje profundo también permite que una red neuronal determinada mejore en una tarea determinada cuando se le dan suficientes datos de muestra. Sin embargo, esto requiere un suministro relativamente grande de datos de entrenamiento. [24]

Los posibles casos de uso de la IA en el seguimiento ocular cubren una amplia gama de temas, desde aplicaciones médicas [25] hasta seguridad del conductor [24] y teoría de juegos. [26] Si bien la estructura de la CNN puede encajar relativamente bien con la tarea de seguimiento ocular, los investigadores tienen la opción de construir una red neuronal personalizada que se adapte a la tarea específica en cuestión. En esos casos, estas creaciones internas pueden superar a las plantillas preexistentes para una red neuronal. [27] En este sentido, queda por ver si existe una forma de determinar la estructura de red ideal para una tarea determinada.

Los rastreadores oculares miden las rotaciones del ojo de varias maneras, pero principalmente se dividen en una de tres categorías: (i) medición del movimiento de un objeto (normalmente, una lente de contacto especial) adherida al ojo (ii) óptica seguimiento sin contacto directo con el ojo y (iii) medición de potenciales eléctricos utilizando electrodos colocados alrededor de los ojos.

Seguimiento adjunto a los ojos Editar

El primer tipo utiliza un accesorio para el ojo, como una lente de contacto especial con un espejo integrado o un sensor de campo magnético, y el movimiento del accesorio se mide asumiendo que no se desliza significativamente cuando el ojo gira. Las mediciones con lentes de contacto ajustados han proporcionado registros extremadamente sensibles del movimiento ocular, y las bobinas de búsqueda magnéticas son el método de elección para los investigadores que estudian la dinámica y la fisiología subyacente del movimiento ocular. Este método permite medir el movimiento del ojo en direcciones horizontal, vertical y de torsión. [28]

Seguimiento óptico Editar

La segunda categoría amplia utiliza algún método óptico sin contacto para medir el movimiento del ojo. La luz, normalmente infrarroja, se refleja en el ojo y se detecta mediante una cámara de vídeo o algún otro sensor óptico especialmente diseñado. Luego, la información se analiza para extraer la rotación del ojo de los cambios en los reflejos. Los rastreadores oculares basados ​​en video generalmente usan el reflejo corneal (la primera imagen de Purkinje) y el centro de la pupila como características para rastrear a lo largo del tiempo. Un tipo de rastreador ocular más sensible, el rastreador ocular de Purkinje dual, [29] utiliza reflejos de la parte frontal de la córnea (primera imagen de Purkinje) y la parte posterior del cristalino (cuarta imagen de Purkinje) como características para rastrear. Un método de seguimiento aún más sensible es tomar imágenes de las características del interior del ojo, como los vasos sanguíneos de la retina, y seguir estas características a medida que el ojo gira. Los métodos ópticos, en particular los basados ​​en la grabación de vídeo, se utilizan ampliamente para el seguimiento de la mirada y se prefieren por ser no invasivos y económicos.

Medición de potencial eléctrico Editar

La tercera categoría utiliza potenciales eléctricos medidos con electrodos colocados alrededor de los ojos. Los ojos son el origen de un campo de potencial eléctrico constante que también se puede detectar en la oscuridad total y si los ojos están cerrados. Puede modelarse para ser generado por un dipolo con su polo positivo en la córnea y su polo negativo en la retina. La señal eléctrica que se puede derivar usando dos pares de electrodos de contacto colocados en la piel alrededor de un ojo se llama electrooculograma (EOG). Si los ojos se mueven desde la posición central hacia la periferia, la retina se acerca a un electrodo mientras que la córnea se acerca al opuesto. Este cambio en la orientación del dipolo y, en consecuencia, el campo de potencial eléctrico da como resultado un cambio en la señal EOG medida. A la inversa, mediante el análisis de estos cambios en el movimiento ocular se pueden rastrear. Debido a la discretización dada por la configuración común del electrodo, se pueden identificar dos componentes de movimiento separados, uno horizontal y uno vertical. Un tercer componente EOG es el canal EOG radial, [30] que es el promedio de los canales EOG referenciados a algún electrodo posterior del cuero cabelludo. Este canal de EOG radial es sensible a los potenciales de pico sacádicos que surgen de los músculos extraoculares al inicio de los movimientos sacádicos, y permite una detección confiable incluso de movimientos sacádicos en miniatura. [31]

Debido a las posibles desviaciones y las relaciones variables entre las amplitudes de la señal EOG y los tamaños sacádicos, es difícil utilizar EOG para medir el movimiento ocular lento y detectar la dirección de la mirada. Sin embargo, EOG es una técnica muy sólida para medir el movimiento ocular sacádico asociado con los cambios de mirada y la detección de parpadeos. A diferencia de los rastreadores oculares basados ​​en video, EOG permite registrar los movimientos oculares incluso con los ojos cerrados y, por lo tanto, se puede utilizar en la investigación del sueño. Es un enfoque muy liviano que, a diferencia de los rastreadores oculares actuales basados ​​en video, requiere solo una potencia computacional muy baja, funciona bajo diferentes condiciones de iluminación y se puede implementar como un sistema portátil integrado e independiente. [32] [33] Por lo tanto, es el método de elección para medir el movimiento ocular en situaciones móviles de la vida diaria y las fases REM durante el sueño. La principal desventaja de EOG es su precisión en la dirección de la mirada relativamente pobre en comparación con un rastreador de video. Es decir, es difícil determinar con buena precisión exactamente hacia dónde está mirando un sujeto, aunque se puede determinar el tiempo de los movimientos oculares.

Los diseños actuales más utilizados son los eye-trackers basados ​​en vídeo. Una cámara enfoca uno o ambos ojos y registra el movimiento de los ojos cuando el espectador mira algún tipo de estímulo. La mayoría de los rastreadores oculares modernos utilizan el centro de la pupila y luz no colimada infrarroja / infrarroja cercana para crear reflejos corneales (CR). El vector entre el centro de la pupila y los reflejos de la córnea se puede utilizar para calcular el punto de mirada en la superficie o la dirección de la mirada. Por lo general, se necesita un procedimiento de calibración simple del individuo antes de usar el rastreador ocular. [34]

Se utilizan dos tipos generales de técnicas de seguimiento ocular infrarrojo / infrarrojo cercano (también conocido como luz activa): pupila brillante y pupila oscura. Su diferencia se basa en la ubicación de la fuente de iluminación con respecto a la óptica. Si la iluminación es coaxial con la trayectoria óptica, entonces el ojo actúa como un retrorreflector ya que la luz se refleja en la retina creando un efecto de pupila brillante similar al ojo rojo. Si la fuente de iluminación está desviada de la trayectoria óptica, entonces la pupila aparece oscura porque la retrorreflexión de la retina se dirige lejos de la cámara. [35]

El seguimiento de la pupila brillante crea un mayor contraste entre el iris y la pupila, lo que permite un seguimiento ocular más robusto con toda la pigmentación del iris y reduce en gran medida la interferencia causada por las pestañas y otras características que oscurecen. [36] También permite el seguimiento en condiciones de iluminación que van desde oscuridad total hasta muy brillante.

Otro método, menos utilizado, se conoce como luz pasiva. Utiliza luz visible para iluminar, algo que puede causar algunas distracciones a los usuarios. [35] Otro desafío con este método es que el contraste de la pupila es menor que en los métodos de luz activa, por lo tanto, el centro del iris se usa para calcular el vector. [37] Este cálculo necesita detectar el límite del iris y la esclerótica blanca (seguimiento del limbo). Presenta otro desafío para los movimientos oculares verticales debido a la obstrucción de los párpados. [38]

Infrarrojo / infrarrojo cercano: pupila brillante.

Infrarrojo / infrarrojo cercano: pupila oscura y reflejo corneal.

Luz visible: centro del iris (rojo), reflejo corneal (verde) y vector de salida (azul).

Las configuraciones de seguimiento ocular varían enormemente: algunas están montadas en la cabeza, otras requieren que la cabeza esté estable (por ejemplo, con una mentonera) y algunas funcionan de forma remota y automática para rastrear la cabeza durante el movimiento. La mayoría usa una frecuencia de muestreo de al menos 30 Hz. Aunque 50/60 Hz es más común, hoy en día muchos rastreadores oculares basados ​​en video funcionan a 240, 350 o incluso 1000/1250 Hz, velocidades necesarias para capturar los movimientos oculares de fijación o medir correctamente la dinámica sacádica.

Los movimientos oculares generalmente se dividen en fijaciones y movimientos sacádicos, cuando la mirada se detiene en una determinada posición y cuando se mueve a otra posición, respectivamente. La serie resultante de fijaciones y movimientos sacádicos se denomina ruta de exploración. La persecución suave describe el ojo que sigue un objeto en movimiento. Los movimientos oculares de fijación incluyen microsacadas: pequeñas sacadas involuntarias que se producen durante el intento de fijación. La mayor parte de la información del ojo está disponible durante una fijación o una búsqueda suave, pero no durante una sacada. [39]

Las rutas de exploración son útiles para analizar la intención cognitiva, el interés y la prominencia. Otros factores biológicos (algunos tan simples como el género) también pueden afectar la ruta de exploración. El seguimiento ocular en la interacción persona-computadora (HCI) normalmente investiga la ruta de exploración con fines de usabilidad o como método de entrada en pantallas dependientes de la mirada, también conocidas como interfaces basadas en la mirada. [40]

La interpretación de los datos que son registrados por los diversos tipos de eye-trackers emplea una variedad de software que los anima o los representa visualmente, de modo que el comportamiento visual de uno o más usuarios puede resumirse gráficamente. El video generalmente se codifica manualmente para identificar las AOI (Área de interés) o recientemente se usa inteligencia artificial. La presentación gráfica rara vez es la base de los resultados de la investigación, ya que están limitados en términos de lo que se puede analizar; la investigación que se basa en el seguimiento ocular, por ejemplo, generalmente requiere medidas cuantitativas de los eventos del movimiento ocular y sus parámetros. más comúnmente utilizado:

Representaciones animadas de un punto en la interfaz. Este método se utiliza cuando se examina el comportamiento visual de forma individual indicando dónde el usuario centró su mirada en cada momento, complementado con un pequeño camino que indica los movimientos sacádicos previos, como se ve en la imagen.

Representaciones estáticas de la trayectoria sacádica Esto es bastante similar al descrito anteriormente, con la diferencia de que es un método estático. Se requiere un mayor nivel de experiencia que con los animados para interpretar esto.

Mapas de calor Una representación estática alternativa, utilizada principalmente para el análisis aglomerado de los patrones de exploración visual en un grupo de usuarios. En estas representaciones, las zonas "calientes" o zonas con mayor densidad designan dónde los usuarios enfocaron su mirada (no su atención) con mayor frecuencia. Los mapas de calor son la técnica de visualización más conocida para los estudios de seguimiento ocular. [41]

Mapas de zonas ciegas o mapas de enfoque Este método es una versión simplificada de los mapas de calor donde se muestran de forma clara las zonas visualmente menos atendidas por los usuarios, lo que permite una mejor comprensión de la información más relevante, es decir, se nos informa sobre qué zonas no fueron vistas por Los usuarios.

Mapas de prominencia De manera similar a los mapas de calor, un mapa de prominencia ilustra las áreas de enfoque mostrando de manera brillante los objetos que llaman la atención sobre un lienzo inicialmente negro. Cuanto más enfoque se le dé a un objeto en particular, más brillante aparecerá. [42]

Los eye-trackers miden necesariamente la rotación del ojo con respecto a algún marco de referencia. Esto generalmente está relacionado con el sistema de medición. Por lo tanto, si el sistema de medición está montado en la cabeza, como con EOG o un sistema basado en video montado en un casco, entonces se miden los ángulos de los ojos en la cabeza. Para deducir la línea de visión en coordenadas mundiales, la cabeza debe mantenerse en una posición constante o también se deben rastrear sus movimientos. En estos casos, la dirección de la cabeza se agrega a la dirección del ojo en la cabeza para determinar la dirección de la mirada.

Si el sistema de medición está montado en una mesa, como con las bobinas de búsqueda esclerales o los sistemas de cámara montada en la mesa (“remotos”), los ángulos de mirada se miden directamente en coordenadas mundiales. Normalmente, en estas situaciones, los movimientos de la cabeza están prohibidos. Por ejemplo, la posición de la cabeza se fija mediante una barra de mordida o un soporte para la frente. Entonces, un marco de referencia centrado en la cabeza es idéntico a un marco de referencia centrado en el mundo. O coloquialmente, la posición del ojo en la cabeza determina directamente la dirección de la mirada.

Algunos resultados están disponibles sobre los movimientos del ojo humano en condiciones naturales en las que también se permiten los movimientos de la cabeza. [43] La posición relativa del ojo y la cabeza, incluso con la dirección constante de la mirada, influye en la actividad neuronal en áreas visuales superiores. [44]

Se han realizado muchas investigaciones sobre los mecanismos y la dinámica de la rotación ocular, pero el objetivo del seguimiento ocular suele ser estimar la dirección de la mirada. Los usuarios pueden estar interesados ​​en qué características de una imagen llaman la atención, por ejemplo. Es importante darse cuenta de que el rastreador ocular no proporciona una dirección absoluta de la mirada, sino que solo puede medir los cambios en la dirección de la mirada. Para saber con precisión qué está mirando un sujeto, se requiere algún procedimiento de calibración en el que el sujeto mira a un punto o serie de puntos, mientras que el eye tracker registra el valor que corresponde a cada posición de la mirada. (Incluso aquellas técnicas que siguen las características de la retina no pueden proporcionar la dirección exacta de la mirada porque no hay una característica anatómica específica que marque el punto exacto donde el eje visual se encuentra con la retina, si es que existe un punto único y estable). La calibración confiable es esencial para obtener datos válidos y repetibles del movimiento ocular, y esto puede ser un desafío significativo para sujetos no verbales o aquellos que tienen una mirada inestable.

Cada método de seguimiento ocular tiene ventajas y desventajas, y la elección de un sistema de seguimiento ocular depende de consideraciones de costo y aplicación. Existen métodos fuera de línea y procedimientos en línea como AttentionTracking. Existe una compensación entre costo y sensibilidad, ya que los sistemas más sensibles cuestan muchas decenas de miles de dólares y requieren una experiencia considerable para funcionar correctamente. Los avances en la tecnología informática y de video han llevado al desarrollo de sistemas de costo relativamente bajo que son útiles para muchas aplicaciones y bastante fáciles de usar. [45] La interpretación de los resultados aún requiere cierto nivel de experiencia, sin embargo, porque un sistema mal alineado o mal calibrado puede producir datos tremendamente erróneos.

Seguimiento ocular mientras conduce un automóvil en una situación difícil Editar

El movimiento ocular de dos grupos de conductores ha sido filmado con una cámara frontal especial por un equipo del Instituto Federal de Tecnología de Suiza: los conductores novatos y experimentados registraron el movimiento ocular mientras se acercaban a una curva de una carretera estrecha. La serie de imágenes se ha condensado a partir de los fotogramas de la película original [47] para mostrar 2 fijaciones oculares por imagen para una mejor comprensión.

Cada una de estas imágenes fijas corresponde a aproximadamente 0,5 segundos en tiempo real.

La serie de imágenes muestra un ejemplo de las fijaciones oculares n. ° 9 a n. ° 14 de un principiante típico y un conductor experimentado.

La comparación de las imágenes superiores muestra que el conductor experimentado revisa la curva e incluso le queda la Fijación No. 9 para mirar a un lado, mientras que el conductor novato necesita revisar la carretera y estimar su distancia hasta el automóvil estacionado.

En las imágenes del medio, el conductor experimentado ahora está completamente concentrado en el lugar donde se puede ver un automóvil que se aproxima. El conductor novato concentra su vista en el automóvil estacionado.

En la imagen inferior, el principiante está ocupado estimando la distancia entre la pared izquierda y el automóvil estacionado, mientras que el conductor experimentado puede usar su visión periférica para eso y aún concentrar su vista en el punto peligroso de la curva: si un automóvil aparece allí, tiene que ceder, yo. mi. deténgase a la derecha en lugar de pasar el automóvil estacionado. [48]

Estudios más recientes también han utilizado el seguimiento ocular montado en la cabeza para medir los movimientos oculares durante las condiciones de conducción del mundo real. [49] [23]

Seguimiento ocular de personas jóvenes y mayores mientras caminan Editar

Mientras caminan, los sujetos de edad avanzada dependen más de la visión foveal que los sujetos más jóvenes. Su velocidad al caminar se ve disminuida por un campo visual limitado, probablemente causado por una visión periférica deteriorada.

Los sujetos más jóvenes hacen uso de su visión central y periférica mientras caminan. Su visión periférica permite un control más rápido sobre el proceso de caminar. [50]

Una amplia variedad de disciplinas utilizan técnicas de seguimiento ocular, incluida la psicología de la ciencia cognitiva (en particular, la psicolingüística, el paradigma del mundo visual), la interacción humano-computadora (HCI), los factores humanos y la ergonomía, la investigación de mercados y la investigación médica (diagnóstico neurológico). [51] Las aplicaciones específicas incluyen el seguimiento del movimiento ocular en la lectura de idiomas, la lectura de música, el reconocimiento de la actividad humana, la percepción de publicidad, la práctica de deportes, la detección de distracciones y la estimación de la carga cognitiva de conductores y pilotos y como medio de operar computadoras por personas con discapacidad motora severa. [23]

Aplicaciones comerciales Editar

En los últimos años, la mayor sofisticación y accesibilidad de las tecnologías de seguimiento ocular ha generado un gran interés en el sector comercial. Las aplicaciones incluyen usabilidad web, publicidad, patrocinio, diseño de paquetes e ingeniería automotriz. En general, los estudios comerciales de seguimiento ocular funcionan presentando un estímulo objetivo a una muestra de consumidores, mientras que un seguidor ocular se utiliza para registrar la actividad del ojo. Ejemplos de estímulos objetivo pueden incluir sitios web, programas de televisión, eventos deportivos, películas y comerciales, revistas y periódicos, paquetes, estantes, exhibiciones, sistemas de consumo (cajeros automáticos, cajas registradoras, quioscos) y software. Los datos resultantes se pueden analizar estadísticamente y representar gráficamente para proporcionar evidencia de patrones visuales específicos. Al examinar las fijaciones, movimientos sacádicos, dilatación de la pupila, parpadeos y una variedad de otros comportamientos, los investigadores pueden determinar mucho sobre la eficacia de un medio o producto determinado. Si bien algunas empresas completan este tipo de investigación internamente, hay muchas empresas privadas que ofrecen servicios y análisis de seguimiento ocular.

Un campo de la investigación comercial de seguimiento ocular es la usabilidad web. Si bien las técnicas tradicionales de usabilidad a menudo son bastante poderosas para proporcionar información sobre los patrones de clic y desplazamiento, el seguimiento ocular ofrece la capacidad de analizar la interacción del usuario entre los clics y cuánto tiempo pasa un usuario entre los clics, lo que proporciona una valiosa información sobre qué funciones son las más importantes. llamativo, cuyas características causan confusión y que se ignoran por completo. Específicamente, el seguimiento ocular se puede utilizar para evaluar la eficiencia de la búsqueda, la marca, los anuncios en línea, la usabilidad de la navegación, el diseño general y muchos otros componentes del sitio. Los análisis pueden tener como objetivo un prototipo o un sitio de la competencia además del sitio principal del cliente.

El seguimiento ocular se usa comúnmente en una variedad de diferentes medios publicitarios. Los comerciales, los anuncios impresos, los anuncios en línea y los programas patrocinados son propicios para el análisis con la tecnología actual de seguimiento ocular. Un ejemplo es el análisis de los movimientos oculares sobre los anuncios en las páginas amarillas. Un estudio se centró en las características particulares que hacían que las personas vieran un anuncio, si veían los anuncios en un orden particular y cómo variaban los tiempos de visualización. El estudio reveló que el tamaño del anuncio, los gráficos, el color y el texto influyen en la atención a los anuncios. Saber esto permite a los investigadores evaluar con gran detalle la frecuencia con la que una muestra de consumidores se fija en el logotipo, producto o anuncio de destino. Como resultado, un anunciante puede cuantificar el éxito de una campaña determinada en términos de atención visual real. [52] Otro ejemplo de esto es un estudio que encontró que en una página de resultados de motor de búsqueda, los fragmentos de autoría recibieron más atención que los anuncios pagados o incluso el primer resultado orgánico. [53]

Otro ejemplo más de investigación comercial de seguimiento ocular proviene del campo de la contratación. Un estudio analizó cómo los reclutadores revisan los perfiles de Linkedin y presenta los resultados como mapas de calor. [54]

Aplicaciones de seguridad Editar

En 2017, los científicos construyeron una red neuronal integrada profunda (DINN) a partir de una red neuronal profunda y una red neuronal convolucional.[24] El objetivo era utilizar el aprendizaje profundo para examinar imágenes de los conductores y determinar su nivel de somnolencia "clasificando los estados de los ojos". Con suficientes imágenes, la DINN propuesta idealmente podría determinar cuándo parpadean los controladores, con qué frecuencia parpadean y durante cuánto tiempo. A partir de ahí, podría juzgar qué tan cansado parece estar un conductor determinado, realizando de manera efectiva un ejercicio de seguimiento ocular. La DINN fue capacitada con datos de más de 2.400 sujetos y diagnosticó correctamente sus estados entre el 96% y el 99,5% de las veces. La mayoría de los otros modelos de inteligencia artificial funcionaron a tasas superiores al 90%. [24] Idealmente, esta tecnología podría proporcionar otra vía para la detección de somnolencia del conductor.

Aplicaciones de teoría de juegos Editar

En un estudio de 2019, se construyó una red neuronal convolucional (CNN) con la capacidad de identificar piezas de ajedrez individuales de la misma manera que otras CNN pueden identificar rasgos faciales. [26] Luego fue alimentado con datos de entrada de seguimiento ocular de treinta jugadores de ajedrez de varios niveles de habilidad. Con estos datos, la CNN utilizó la estimación de la mirada para determinar las partes del tablero de ajedrez a las que un jugador estaba prestando mucha atención. Luego generó un mapa de prominencia para ilustrar esas partes del tablero. En última instancia, la CNN combinaría su conocimiento del tablero y las piezas con su mapa de prominencia para predecir el próximo movimiento de los jugadores. Independientemente del conjunto de datos de entrenamiento en el que se entrenó el sistema de red neuronal, predijo el siguiente movimiento con mayor precisión que si hubiera seleccionado cualquier movimiento posible al azar, y los mapas de relevancia dibujados para cualquier jugador y situación determinados eran más del 54% similares. [26]

Tecnología de asistencia Editar

Las personas con discapacidad motora severa pueden utilizar el seguimiento ocular para interactuar con las computadoras [55], ya que es más rápido que las técnicas de escaneo de un solo interruptor y es intuitivo de operar. [56] [57] La ​​discapacidad motora causada por la parálisis cerebral [58] o la esclerosis lateral amiotrófica a menudo afecta el habla, y los usuarios con discapacidad grave del habla y motor (SSMI) utilizan un tipo de software conocido como ayuda de comunicación alternativa y aumentativa (AAC), [59] que muestra iconos, palabras y letras en la pantalla [60] y utiliza software de conversión de texto a voz para generar una salida hablada. [61] En tiempos recientes, los investigadores también exploraron el seguimiento ocular para controlar brazos robóticos [62] y sillas de ruedas eléctricas. [63] El seguimiento ocular también es útil para analizar los patrones de búsqueda visual, [64] detectar la presencia de nistagmo y detectar los primeros signos de discapacidad de aprendizaje mediante el análisis del movimiento de la mirada durante la lectura. [sesenta y cinco]

Aplicaciones de aviación Editar

El seguimiento ocular ya se ha estudiado para la seguridad del vuelo comparando las rutas de exploración y la duración de la fijación para evaluar el progreso de los pilotos en formación, [66] para estimar las habilidades de los pilotos, [67] para analizar la atención conjunta de la tripulación y la conciencia situacional compartida. [68] También se exploró la tecnología de seguimiento ocular para interactuar con los sistemas de visualización montados en el casco [69] y las pantallas multifuncionales [70] en aviones militares. Se realizaron estudios para investigar la utilidad del rastreador ocular para el bloqueo de objetivos Head-up y la adquisición de objetivos Head-up en sistemas de visualización montados en casco (HMDS). [71] Los comentarios de los pilotos sugirieron que, aunque la tecnología es prometedora, sus componentes de hardware y software aún no han madurado. [ cita necesaria ] La investigación sobre la interacción con pantallas multifuncionales en un entorno de simulador mostró que el seguimiento ocular puede mejorar los tiempos de respuesta y la carga cognitiva percibida de manera significativa en los sistemas existentes. Además, la investigación también investigó la utilización de medidas de fijación y respuestas pupilares para estimar la carga cognitiva del piloto. La estimación de la carga cognitiva puede ayudar a diseñar cabinas adaptables de próxima generación con una seguridad de vuelo mejorada. [72] El seguimiento ocular también es útil para detectar la fatiga del piloto. [73] [23]

Aplicaciones automotrices Editar

En los últimos tiempos, la tecnología de seguimiento ocular se investiga en el dominio de la automoción tanto de forma pasiva como activa. La Administración Nacional de Seguridad del Tráfico en las Carreteras midió la duración de la mirada para realizar tareas secundarias mientras se conduce y la usó para promover la seguridad al desalentar la introducción de dispositivos que distraen demasiado en los vehículos [74]. Además de la detección de distracciones, el seguimiento ocular también se usa para interactuar con IVIS. [75] Aunque la investigación inicial [76] investigó la eficacia del sistema de seguimiento ocular para la interacción con HDD (Head Down Display), todavía requería que los conductores apartaran la vista de la carretera mientras realizaban una tarea secundaria. Estudios recientes investigaron la interacción controlada por la mirada con HUD (Head Up Display) que elimina la distracción de los ojos fuera de la carretera. [77] El seguimiento ocular también se usa para monitorear la carga cognitiva de los conductores para detectar posibles distracciones. Aunque los investigadores [78] exploraron diferentes métodos para estimar la carga cognitiva de los conductores a partir de diferentes parámetros fisiológicos, el uso de parámetros oculares exploró una nueva forma de utilizar los rastreadores oculares existentes para monitorear la carga cognitiva de los conductores además de la interacción con IVIS. [79] [80]

Aplicaciones de entretenimiento Editar

El videojuego de 2021 Before Your Eyes registra y lee el parpadeo del jugador, y lo usa como la forma principal de interactuar con el juego. [81] [82]


Reconocimiento de gestos de mirada remota de bajo costo en tiempo real

Las secuencias predefinidas de movimientos oculares, o "gestos de la mirada", pueden ser realizadas conscientemente por humanos y monitoreadas de manera no invasiva mediante video oculografía remota. Los gestos de la mirada tienen un gran potencial en la interacción humano-computadora, HCI, siempre que los usuarios potenciales puedan asimilarlos fácilmente, monitorearlos con equipos de seguimiento de la mirada de bajo costo y los algoritmos de aprendizaje automático sean capaces de distinguir la estructura espacio-temporal de los gestos de la mirada intencional de actividad de la mirada típica realizada durante HCI estándar. En este trabajo, se lleva a cabo una evaluación del desempeño de un algoritmo de reconocimiento de patrones bayesianos bioinspirado conocido como Memoria Temporal Jerárquica (HTM) sobre el reconocimiento en tiempo real de los gestos de la mirada a través de un estudio de usuario. Para mejorar el rendimiento de la HTM tradicional durante el reconocimiento en tiempo real, se propone una extensión del algoritmo para adaptar la HTM a la estructura temporal de los gestos de la mirada. La extensión consiste en un nodo superior adicional en la topología HTM que almacena y compara secuencias de datos de entrada por alineación de secuencia usando programación dinámica. La codificación espacio-temporal de un gesto en una secuencia sirve para manejar la evolución temporal de las instancias de gestos de la mirada. El HTM extendido permite una discriminación confiable de los gestos de la mirada intencional de la interacción de la mirada humano-máquina que de otro modo sería estándar, alcanzando una precisión de reconocimiento de hasta el 98% para un conjunto de datos de 10 categorías de gestos de la mirada, velocidades de finalización aceptables y una baja tasa de falsos positivos durante la mirada estándar –Interacción de la computadora. Estos resultados positivos, a pesar del hardware de bajo costo empleado, respaldan la noción de usar gestos de mirada como un nuevo paradigma de HCI para los campos de accesibilidad e interacción con teléfonos inteligentes, tabletas, pantallas proyectadas y computadoras de escritorio tradicionales.

Gráficamente abstracto

Reflejos

► Este trabajo presenta una extensión del paradigma HTM tradicional para mejorar el rendimiento de HTM & # x27s en el reconocimiento en tiempo real de los gestos de la mirada sacádica. ► El HTM extendido adapta los algoritmos HTM a los problemas en los que la estructura espacio-temporal de las instancias se desarrolla a lo largo del tiempo. ► Nuestro sistema de reconocimiento de gestos de la mirada es capaz de reconocer de forma robusta los gestos de la mirada en tiempo real. ► El propósito de dicho sistema es proporcionar un canal de comunicación entre humanos y computadoras, dirigido específicamente a usuarios con discapacidades o entornos donde los canales de entrada tradicionales no son adecuados o podrían aumentarse. ► El enfoque de HTM ampliado propuesto no está diseñado específicamente para tratar los gestos de la mirada de manera específica, ya que es altamente independiente del hardware y del preprocesamiento de los datos de entrada.


Evaluaciones

Es necesaria una evaluación detallada por parte de un terapeuta ocupacional o un patólogo del habla con conocimientos de tecnología de asistencia y sistemas de control de la mirada para ver si es probable que la tecnología de control de la mirada sea la opción correcta para un individuo. Si es así, el terapeuta recomendará una prueba de tecnología de control de la mirada para determinar si cumplirá con sus objetivos. Estos objetivos podrían incluir el uso de tecnología de control de la mirada para comunicarse y completar las actividades diarias en el hogar, la escuela, la comunidad o el trabajo. Luego, el terapeuta recomendará sistemas y software que se adapten a la persona y luego la ayudará a dominar el dispositivo. El terapeuta también se asegurará de que la persona esté en una posición óptima y sentada cómodamente, y educará a su familia, cuidadores, maestros y otras personas sobre cómo usar el sistema de control ojo-mirada.

El equipo puede utilizar las siguientes evaluaciones para evaluar el uso de la tecnología de control de la mirada:

    (IPPA): mide si los dispositivos resuelven los problemas que está experimentando una persona (GAS): mide el grado en que se logran los objetivos de una persona

¿Cómo afectan las ondas de radio al cuerpo humano?

Las ondas de radio tienen longitudes de onda más largas que las ondas infrarrojas. Las ondas de radio son una especie de radiación electromagnética. En el espectro electromagnético, las ondas de radio se encuentran entre las frecuencias desde 300 GHz hasta tan solo 3 kHz. Además, las respectivas longitudes de onda oscilan entre 1 milímetro y 100 kilómetros.

Generalmente, las ondas de radio artificiales son generadas por expertos y se utilizan para comunicaciones de radio fijas y móviles, radiodifusión, radar y otros sistemas de navegación, etc. A continuación se dan varios efectos de la radiación electromagnética en el cuerpo humano. Las ondas de radio generadas por radio contienen las frecuencias más bajas del espectro electromagnético y son mucho más seguras.

Efectos principales sobre problemas de salud en general:

Generalmente, los síntomas de bajos niveles de exposición a campos electromagnéticos son atribuidos por el propio público en sus hogares. Los síntomas observados incluyen dolores de cabeza, ansiedad, suicidio y depresión, náuseas, fatiga y pérdida de la libido.

Ionizante

Generalmente, los rayos X y los rayos gamma tienden a causar daños graves a su cuerpo. La exposición excesiva a estos rayos puede dañar el ADN y las células. Estos rayos también pueden causar enfermedades, quemaduras o cáncer.

No ionizante

Las ondas de radio no ionizantes no tienen suficientes protones para romper las células o dañar el ADN. Estos incluyen las ondas de radio que son emitidas por el teléfono móvil y no emiten radiaciones de alta energía y probablemente sean seguras en gran medida.

Resultado del embarazo

La alta exposición a los campos electromagnéticos en varios niveles ambientales no aumenta el riesgo de ningún resultado adverso, como abortos espontáneos, malformaciones, bajo peso al nacer y enfermedades congénitas. Las condiciones como la prematuridad y el bajo peso al nacer en los hijos de los trabajadores no están científicamente probadas que sean causadas por las exposiciones en el campo.

Cataratas

Las personas que están expuestas a altos niveles de radiofrecuencia y radiación de microondas generalmente sufren de irritación general de los ojos y cataratas. Pero no hay evidencia de que estos efectos ocurran a niveles experimentados por el público en general.

Cáncer y campos electromagnéticos

Los efectos de los campos electromagnéticos y su evidencia de cualquier efecto siguen siendo muy controvertidos. No se ha encontrado ningún aumento grande en el riesgo de cáncer en niños o adultos. Existe un pequeño aumento en el riesgo de leucemia infantil con la exposición a campos magnéticos de baja frecuencia en el hogar.

Además, no está científicamente probado que estos resultados indiquen una relación causa-efecto entre la exposición a los campos y las enfermedades. A temperaturas muy altas, las ondas de RF pueden calentar los tejidos corporales. Es poco probable que las ondas de RF emitidas por los teléfonos móviles causen cáncer, ya que son ondas no ionizantes y tienen una tendencia muy baja a dañar el ADN.

Depresión e hipersensibilidad electromagnética

Existe una evidencia muy pequeña para apoyar la idea de hipersensibilidad electromagnética. Muestra que los individuos no muestran reacciones consistentes bajo condiciones de exposición a campos electromagnéticos debidamente controladas. No existe ningún mecanismo biológico que explique la hipersensibilidad.

Efecto sobre el sistema nervioso

Es un tema de discusión activa desde hace mucho tiempo que se informa que las ondas de radio afectan las preparaciones de nervios aislados, el sistema nervioso central, la química e histología del cerebro y la barrera hematoencefálica. Recientemente, los expertos han realizado un estudio sobre preparaciones cardíacas aisladas que han proporcionado evidencia de bradicardia como resultado de la exposición a radiación de RF a densidades de potencia no térmica.

Problemas visuales causados ​​por ondas de radio.

Durante más de 30 años, el desarrollo de cataratas se observa como resultado de una alta exposición del ojo a las ondas de radio. Además, los campos de microondas de CW tienen umbrales similares para producir cataratas.

Sistema endocrino

Generalmente, una vez finalizada la exposición a RF, la alteración de las concentraciones hormonales es reversible. Los sistemas que son importantes en el mantenimiento de la homeostasis alteran las complejas interacciones de los sistemas hipotalámico, pituitario, suprarrenal y tiroideo.

Sistema inmune

El efecto de las ondas de radio se informa en los sistemas de prueba Vitro y Vivo. Además, también se han notado la transformación de linfoblastos y cambios en la capacidad de respuesta a los mitógenos. Generalmente, los campos ELF sinusoidales no tienen efectos significativos sobre la competencia inmunológica después de la exposición in vivo de algunos animales de laboratorio.

Sistemas hematológicos y cardiovasculares

Muchos científicos se han esforzado mucho para evaluar los efectos de los niveles de radiación de RF tanto termogénicos como no termogénicos sobre la química sanguínea y el recuento de células sanguíneas. No se encontró que las características sanguíneas medidas en el estudio cambiaran en respuesta a la exposición crónica a RF.

Carcinogénesis animal

Solo algunos estudios han demostrado alguna evidencia de posible potencial carcinogénico y otros no han mostrado ningún efecto. Además, todos los estudios se probaron con campos electromagnéticos más grandes que los campos GWEN relevantes. La interpretación de algunos informes se complica por la tensión inducida térmicamente.

Las ondas electromagnéticas de altas frecuencias pueden afectar su cuerpo de una manera mucho más adversa que las ondas de frecuencias más bajas. Las ondas no ionizantes generalmente no tienen éxito en dañar el ADN y las células del cuerpo y son mucho más seguras que las ondas ionizantes.


Tipo1: Temperatura

(i) Termopar: están hechos de dos cables (cada uno de una aleación o metal homogéneo diferente) que forman una unión de medición al unirse en un extremo. Esta unión de medición está abierta a los elementos que se están midiendo. El otro extremo del cable termina en un dispositivo de medición donde se forma una unión de referencia. La corriente fluye a través del circuito ya que la temperatura de las dos uniones es diferente. El milivoltaje resultante se mide para determinar la temperatura en la unión. El diagrama del termopar se muestra a continuación.

Hay muchas formas de incluir las bayas de goji en su dieta:

  • Cómelos crudos.
  • Úselos en la cocina.
  • Bebe jugo de fruta de goji.
  • Toma un suplemento de goji.
  • Úselos en una infusión de hierbas.

Fuentes

Base de datos completa de medicamentos naturales: "Lycium (Goji): Monografía".

Estándar natural: "Monografía profesional: Goji (Lycium spp.)"

Optometría y ciencia de la visión: "Efectos de la baya de Goji sobre las características maculares y los niveles plasmáticos de antioxidantes".

The World Journal of Men's Health: "La administración de extractos de Goji (Lycium chinense Mill.) Mejora la función eréctil en un modelo de rata envejecida".

FoodData Central: "Bayas de Goji".

Medicina oxidativa y longevidad celular: "Las bayas de Goji como una posible medicina antioxidante natural: una visión de sus mecanismos moleculares de acción".