La UAM disecciona el lenguaje del Lub-Dub, para escuchar el corazón con algoritmos
Especialista participó en el ciclo Lunes en la Ciencia en la Unidad Iztapalapa de la UAM
El Lub-Dub es el mensaje sonoro que genera el corazón en cada latido


Número 712
La Unidad Iztapalapa de la Universidad Autónoma Metropolitana (UAM), a través de la Coordinación de Divulgación de las Ciencias y las Humanidades, presentó a la doctora Aida Jiménez González, especialista en ingeniería biomédica, dentro del ciclo Lunes en la Ciencia. Su investigación, Disección Computacional del Lub-Dub, el mensaje sonoro que genera el corazón en cada latido, se centra en el monitoreo fetal y el seguimiento antenatal mediante fonografía y electrocardiografía abdominal.
El corazón produce un ritmo audible al bombear sangre por todo el cuerpo mediante sus cuatro válvulas, que aseguran un flujo unidireccional. La presión sanguínea que abre las válvulas pulmonar y aórtica genera el sonido Lub, o primer sonido cardiaco (S1). Cuando disminuye el flujo y se abren las válvulas tricúspide y mitral, se produce el Dub, o segundo sonido cardiaco (S2).
Este mensaje sonoro permite conocer el estado del corazón, revela el ritmo, la duración y la función valvular.
La doctora Jiménez González explicó que la disección computarizada permite distinguir la secuencia de eventos valvulares del Lub-Dub, que no puede detectarse con una auscultación tradicional. El proceso comienza con el registro de los sonidos mediante un transductor electroacústico, un micrófono diseñado para captar sonidos cardiacos colocado en los puntos de auscultación.
La señal acústica se convierte en eléctrica, se amplifica y se filtra para enviarse a una computadora. Allí se puede graficar, almacenar y procesar de forma digital. El resultado se conoce como fonocardiograma, representación gráfica de los sonidos producidos por el corazón.
“Ya se resolvió la captación del sonido en un entorno gráfico. El reto actual es la disección confiable de los eventos valvulares a partir del fonocardiograma, para identificar la activación de cada una de las cuatro válvulas”, argumentó.
La investigadora detalló que trabaja en el desarrollo de un programa capaz de diseccionar los sonidos S1 y S2 en sus componentes valvulares, identificar qué parte corresponde a cada válvula y etiquetar los elementos obtenidos para evaluar el desempeño del sistema.
El desafío radica en determinar qué información se proporcionará al algoritmo para realizar esta tarea. “Consideramos que S1 y S2 son mezclas de fuentes valvulares sonoras producidas por generadores acústicos distintos, que se activan de manera asíncrona y sin relación física”, apuntó.
Bajo esta premisa, los sonidos se asumen estadísticamente independientes. Esa característica es la base del modelo computacional, que busca maximizar la independencia entre los componentes recuperados para aislar el sonido correspondiente a cada válvula en S1 y S2.
Los ensayos iniciales muestran segmentos separados que permiten visualizar el gráfico de cada válvula en los sonidos S1 y S2. Esto facilita un análisis más detallado de los componentes valvulares y podría, en el futuro, ofrecer información complementaria para fortalecer los métodos de diagnóstico empleados en imagenología médica.