Overview of TESTLINK at IberLEF 2023: Linking Results to Clinical Laboratory Tests and Measurements

Por favor, use este identificador para citar o enlazar este ítem: http://hdl.handle.net/10045/137199
Registro completo de metadatos
Registro completo de metadatos
Campo DCValorIdioma
dc.contributor.authorAltuna Díaz, Begoña-
dc.contributor.authorAgerri Gascón, Rodrigo-
dc.contributor.authorSalas-Espejo, Lidia-
dc.contributor.authorSaiz, José Javier-
dc.contributor.authorLavelli, Alberto-
dc.contributor.authorMagnini, Bernardo-
dc.contributor.authorSperanza, Manuela-
dc.contributor.authorZanoli, Roberto-
dc.contributor.authorKarunakaran, Goutham-
dc.date.accessioned2023-09-14T11:08:54Z-
dc.date.available2023-09-14T11:08:54Z-
dc.date.issued2023-09-
dc.identifier.citationProcesamiento del Lenguaje Natural. 2023, 71: 313-320. https://doi.org/10.26342/2023-71-24es_ES
dc.identifier.issn1135-5948-
dc.identifier.urihttp://hdl.handle.net/10045/137199-
dc.description.abstractThe TESTLINK task conducted at IberLEF2023 focuses on relation extraction from clinical cases in Spanish and Basque. The task consists in identifying clinical results and measures and linking them to the tests and measurements from which they were obtained. Three teams took part in the task and various (supervised) deep learning models were evaluated; interestingly, none of the teams explored the use of few-shot learning. The evaluation shows that in-domain fine-tuning and larger training datasets improve the results. In fact, the fact that supervised models significantly outperformed the baseline based on few-shot learning shows the crucial role still played by the availability of annotated training data.es_ES
dc.description.abstractLa tarea TESTLINK de IberLEF2023 se centra en la extracción de relaciones de casos clínicos en español y euskera. La tarea consiste en identificar resultados y medidas clínicas y relacionarlos con las pruebas y mediciones de las que se obtuvieron. Tres equipos han participado en la tarea y se han evaluado varios modelos (supervisados) de aprendizaje profundo. Curiosamente, ninguno de los equipos exploró el uso del aprendizaje few-shot. La evaluación muestra que el fine-tuning en el dominio y conjuntos de datos de entrenamiento más grandes mejoran los resultados. De hecho, el hecho de que los modelos supervisados superaran significativamente la baseline basada en el aprendizaje few-shot muestra el papel crucial que aún desempeña la disponibilidad de datos de entrenamiento anotados.es_ES
dc.description.sponsorshipThis work has been partially funded by the Basque Government postdoctoral grant POS 2022 2 0024.es_ES
dc.languageenges_ES
dc.publisherSociedad Española para el Procesamiento del Lenguaje Naturales_ES
dc.rights© Sociedad Española para el Procesamiento del Lenguaje Natural. Distribuido bajo Licencia Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0es_ES
dc.subjectNamed Entity Recognitiones_ES
dc.subjectInformation Extractiones_ES
dc.subjectClinical NLPes_ES
dc.subjectSupervised Learninges_ES
dc.subjectReconocimiento de Entidades Nombradases_ES
dc.subjectExtracción de Informaciónes_ES
dc.subjectPLN Clínicoes_ES
dc.subjectAprendizaje Supervisadoes_ES
dc.titleOverview of TESTLINK at IberLEF 2023: Linking Results to Clinical Laboratory Tests and Measurementses_ES
dc.title.alternativeResumen de TESTLINK en IberLEF 2023: Creación de relaciones entre análisis de laboratorio y mediciones clínicas y sus resultadoses_ES
dc.typeinfo:eu-repo/semantics/articlees_ES
dc.peerreviewedsies_ES
dc.identifier.doi10.26342/2023-71-24-
dc.relation.publisherversionhttps://doi.org/10.26342/2023-71-24es_ES
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses_ES
Aparece en las colecciones:Procesamiento del Lenguaje Natural - Nº 71 (2023)

Archivos en este ítem:
Archivos en este ítem:
Archivo Descripción TamañoFormato 
ThumbnailPLN_71_24.pdf1,02 MBAdobe PDFAbrir Vista previa


Este ítem está licenciado bajo Licencia Creative Commons Creative Commons