¡El electrocardiograma se vuelve multilingüe! es así

Los modelos multilingües pueden superar a sus homólogos unilingües, un fenómeno conocido informalmente como la bendición del multilingüismo.

El electrocardiograma (ECG) es una rica fuente de información sobre el estado de salud de un paciente. Sin embargo, a menudo se necesita un cardiólogo experimentado para interpretar los datos. Por lo tanto, el uso de métodos de procesamiento de lenguaje natural y visión por computadora sería invaluable.

Un estudio reciente de un equipo de investigadores de la Universidad de Oxford sugiere un método para convertir una señal cardíaca en un informe de texto clínico en varios idiomas.

Se propone un método de aprendizaje de la representación lingüística. Los tokens en una secuencia se seleccionan al azar y se reemplazan por tokens de diferentes idiomas . Por lo tanto, la red clasifica el idioma del token. El enfoque sugerido es comparable a los modelos avanzados. Puede capturar condiciones médicas de alto nivel reflejadas en ECG y generar texto diverso. Se muestra que los modelos multilingües a veces pueden superar a los modelos unilingües.

Las señales cardíacas, como el electrocardiograma, transmiten una cantidad significativa de información sobre la condición de un paciente que generalmente se resume en forma de informe clínico, un proceso engorroso y propenso a errores. Para simplificar este proceso de rutina, proporcionamos una red neuronal profunda capaz de señalar señales cardíacas en la leyenda; recibir una señal cardíaca de entrada y generar un informe clínico de salida. Estamos ampliando este proceso aún más para generar informes multilingües. Con este fin, el equipo creará y hará un conjunto de datos multilingüe disponible para el públicopara informes clínicos. En ausencia de suficientes datos etiquetados, las redes neuronales profundas pueden beneficiarse de un procedimiento de inicio en caliente o preentrenamiento en el que los parámetros se aprenden por primera vez en una tarea arbitraria. Ofrecemos esta tarea en forma de un pre-entrenamiento discriminatorio multilingüe en el que los tokens de informes clínicos son reemplazados aleatoriamente por los de otros idiomas y la red tiene la tarea de predecir el idioma de todos los tokens. Demostramos que nuestro método funciona a la par con métodos avanzados de preentrenamiento como MLM, ELECTRA y MARGE, al tiempo que genera informes clínicos diversos y plausibles. También demostramos que los modelos multilingües pueden superar a sus homólogos unilingües, un fenómeno llamado informalmente la bendición del multilingüismo.

Deja un comentario