A computational psycholinguistic evaluation of the syntactic abilities of Galician BERT models at the interface of dependency resolution and training time

Por favor, use este identificador para citar o enlazar este ítem: http://hdl.handle.net/10045/127402
Información del item - Informació de l'item - Item information
Título: A computational psycholinguistic evaluation of the syntactic abilities of Galician BERT models at the interface of dependency resolution and training time
Título alternativo: Una evaluación psicolingüístico-computacional de las capacidades sintácticas de los modelos BERT para el gallego en la intersección entre la resolución de dependencias y el tiempo de entrenamiento
Autor/es: de-Dios-Flores, Iria | García González, Marcos
Palabras clave: BERT models | Galician | Targeted syntactic evaluation | Agreement dependencies | Modelos BERT | Gallego | Evaluación sintáctica dirigida | Dependencias de concordancia
Fecha de publicación: sep-2022
Editor: Sociedad Española para el Procesamiento del Lenguaje Natural
Cita bibliográfica: Procesamiento del Lenguaje Natural. 2022, 69: 15-26. https://doi.org/10.26342/2022-69-1
Resumen: This paper explores the ability of Transformer models to capture subject-verb and noun-adjective agreement dependencies in Galician. We conduct a series of word prediction experiments in which we manipulate dependency length together with the presence of an attractor noun that acts as a lure. First, we evaluate the overall performance of the existing monolingual and multilingual models for Galician. Secondly, to observe the effects of the training process, we compare the different degrees of achievement of two monolingual BERT models at different training points. We also release their checkpoints and propose an alternative evaluation metric. Our results confirm previous findings by similar works that use the agreement prediction task and provide interesting insights into the number of training steps required by a Transformer model to solve long-distance dependencies. | Este trabajo analiza la capacidad de los modelos Transformer para capturar las dependencias de concordancia sujeto-verbo y sustantivo-adjetivo en gallego. Llevamos a cabo una serie de experimentos de predicción de palabras manipulando la longitud de la dependencia junto con la presencia de un sustantivo intermedio que actúa como distractor. En primer lugar, evaluamos el rendimiento global de los modelos monolingües y multilingües existentes para el gallego. En segundo lugar, para observar los efectos del proceso de entrenamiento, comparamos los diferentes grados de consecución de dos modelos monolingües BERT en diferentes puntos del entrenamiento. Además, publicamos sus puntos de control y proponemos una métrica de evaluación alternativa. Nuestros resultados confirman los hallazgos anteriores de trabajos similares que utilizan la tarea de predicción de concordancia y proporcionan una visión interesante sobre el número de pasos de entrenamiento que necesita un modelo Transformer para resolver las dependencias de larga distancia.
Patrocinador/es: This research was funded by the project “Nós: Galician in the society and economy of artificial intelligence” (Xunta de Galicia/Universidade de Santiago de Compostela), by grant ED431G2019/04 (Galician Government and ERDF), by a Ramón y Cajal grant (RYC2019-028473-I), and by Grant ED431F 2021/01 (Galician Government).
URI: http://hdl.handle.net/10045/127402
ISSN: 1135-5948
DOI: 10.26342/2022-69-1
Idioma: eng
Tipo: info:eu-repo/semantics/article
Derechos: © Sociedad Española para el Procesamiento del Lenguaje Natural
Revisión científica: si
Versión del editor: https://doi.org/10.26342/2022-69-1
Aparece en las colecciones:Procesamiento del Lenguaje Natural - Nº 69 (2022)

Archivos en este ítem:
Archivos en este ítem:
Archivo Descripción TamañoFormato 
ThumbnailPLN_69_01.pdf7,97 MBAdobe PDFAbrir Vista previa


Todos los documentos en RUA están protegidos por derechos de autor. Algunos derechos reservados.