Overview of TESTLINK at IberLEF 2023: Linking Results to Clinical Laboratory Tests and Measurements

Empreu sempre aquest identificador per citar o enllaçar aquest ítem http://hdl.handle.net/10045/137199
Información del item - Informació de l'item - Item information
Títol: Overview of TESTLINK at IberLEF 2023: Linking Results to Clinical Laboratory Tests and Measurements
Títol alternatiu: Resumen de TESTLINK en IberLEF 2023: Creación de relaciones entre análisis de laboratorio y mediciones clínicas y sus resultados
Autors: Altuna Díaz, Begoña | Agerri Gascón, Rodrigo | Salas-Espejo, Lidia | Saiz, José Javier | Lavelli, Alberto | Magnini, Bernardo | Speranza, Manuela | Zanoli, Roberto | Karunakaran, Goutham
Paraules clau: Named Entity Recognition | Information Extraction | Clinical NLP | Supervised Learning | Reconocimiento de Entidades Nombradas | Extracción de Información | PLN Clínico | Aprendizaje Supervisado
Data de publicació: de setembre-2023
Editor: Sociedad Española para el Procesamiento del Lenguaje Natural
Citació bibliogràfica: Procesamiento del Lenguaje Natural. 2023, 71: 313-320. https://doi.org/10.26342/2023-71-24
Resum: The TESTLINK task conducted at IberLEF2023 focuses on relation extraction from clinical cases in Spanish and Basque. The task consists in identifying clinical results and measures and linking them to the tests and measurements from which they were obtained. Three teams took part in the task and various (supervised) deep learning models were evaluated; interestingly, none of the teams explored the use of few-shot learning. The evaluation shows that in-domain fine-tuning and larger training datasets improve the results. In fact, the fact that supervised models significantly outperformed the baseline based on few-shot learning shows the crucial role still played by the availability of annotated training data. | La tarea TESTLINK de IberLEF2023 se centra en la extracción de relaciones de casos clínicos en español y euskera. La tarea consiste en identificar resultados y medidas clínicas y relacionarlos con las pruebas y mediciones de las que se obtuvieron. Tres equipos han participado en la tarea y se han evaluado varios modelos (supervisados) de aprendizaje profundo. Curiosamente, ninguno de los equipos exploró el uso del aprendizaje few-shot. La evaluación muestra que el fine-tuning en el dominio y conjuntos de datos de entrenamiento más grandes mejoran los resultados. De hecho, el hecho de que los modelos supervisados superaran significativamente la baseline basada en el aprendizaje few-shot muestra el papel crucial que aún desempeña la disponibilidad de datos de entrenamiento anotados.
Patrocinadors: This work has been partially funded by the Basque Government postdoctoral grant POS 2022 2 0024.
URI: http://hdl.handle.net/10045/137199
ISSN: 1135-5948
DOI: 10.26342/2023-71-24
Idioma: eng
Tipus: info:eu-repo/semantics/article
Drets: © Sociedad Española para el Procesamiento del Lenguaje Natural. Distribuido bajo Licencia Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0
Revisió científica: si
Versió de l'editor: https://doi.org/10.26342/2023-71-24
Apareix a la col·lecció: Procesamiento del Lenguaje Natural - Nº 71 (2023)

Arxius per aquest ítem:
Arxius per aquest ítem:
Arxiu Descripció Tamany Format  
ThumbnailPLN_71_24.pdf1,02 MBAdobe PDFObrir Vista prèvia


Aquest ítem està subjecte a una llicència de Creative Commons Llicència Creative Commons Creative Commons