Overview of TESTLINK at IberLEF 2023: Linking Results to Clinical Laboratory Tests and Measurements

Please use this identifier to cite or link to this item: http://hdl.handle.net/10045/137199
Información del item - Informació de l'item - Item information
Title: Overview of TESTLINK at IberLEF 2023: Linking Results to Clinical Laboratory Tests and Measurements
Other Titles: Resumen de TESTLINK en IberLEF 2023: Creación de relaciones entre análisis de laboratorio y mediciones clínicas y sus resultados
Authors: Altuna Díaz, Begoña | Agerri Gascón, Rodrigo | Salas-Espejo, Lidia | Saiz, José Javier | Lavelli, Alberto | Magnini, Bernardo | Speranza, Manuela | Zanoli, Roberto | Karunakaran, Goutham
Keywords: Named Entity Recognition | Information Extraction | Clinical NLP | Supervised Learning | Reconocimiento de Entidades Nombradas | Extracción de Información | PLN Clínico | Aprendizaje Supervisado
Issue Date: Sep-2023
Publisher: Sociedad Española para el Procesamiento del Lenguaje Natural
Citation: Procesamiento del Lenguaje Natural. 2023, 71: 313-320. https://doi.org/10.26342/2023-71-24
Abstract: The TESTLINK task conducted at IberLEF2023 focuses on relation extraction from clinical cases in Spanish and Basque. The task consists in identifying clinical results and measures and linking them to the tests and measurements from which they were obtained. Three teams took part in the task and various (supervised) deep learning models were evaluated; interestingly, none of the teams explored the use of few-shot learning. The evaluation shows that in-domain fine-tuning and larger training datasets improve the results. In fact, the fact that supervised models significantly outperformed the baseline based on few-shot learning shows the crucial role still played by the availability of annotated training data. | La tarea TESTLINK de IberLEF2023 se centra en la extracción de relaciones de casos clínicos en español y euskera. La tarea consiste en identificar resultados y medidas clínicas y relacionarlos con las pruebas y mediciones de las que se obtuvieron. Tres equipos han participado en la tarea y se han evaluado varios modelos (supervisados) de aprendizaje profundo. Curiosamente, ninguno de los equipos exploró el uso del aprendizaje few-shot. La evaluación muestra que el fine-tuning en el dominio y conjuntos de datos de entrenamiento más grandes mejoran los resultados. De hecho, el hecho de que los modelos supervisados superaran significativamente la baseline basada en el aprendizaje few-shot muestra el papel crucial que aún desempeña la disponibilidad de datos de entrenamiento anotados.
Sponsor: This work has been partially funded by the Basque Government postdoctoral grant POS 2022 2 0024.
URI: http://hdl.handle.net/10045/137199
ISSN: 1135-5948
DOI: 10.26342/2023-71-24
Language: eng
Type: info:eu-repo/semantics/article
Rights: © Sociedad Española para el Procesamiento del Lenguaje Natural. Distribuido bajo Licencia Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0
Peer Review: si
Publisher version: https://doi.org/10.26342/2023-71-24
Appears in Collections:Procesamiento del Lenguaje Natural - Nº 71 (2023)

Files in This Item:
Files in This Item:
File Description SizeFormat 
ThumbnailPLN_71_24.pdf1,02 MBAdobe PDFOpen Preview


This item is licensed under a Creative Commons License Creative Commons