La metonimia, figura retorica che usa un concetto per riferirsi a un altro strettamente collegato, è un mezzo usato per rendere la comunicazione più efficace. Tuttavia, da un punto di vista computazionale, l’interpretazione di questa figura retorica non sempre risulta immediata. L’obiettivo di questa tesi è valutare la performance di alcuni modelli di linguaggio, come BERT (Devlin et al., 2018) e RoBERTa (Liu et al., 2019), sull’interpretazione della metonimia. In contrapposizione a ricerche precedenti che trattano l’interpretazione della metonimia come classificazione, questo studio mira invece a studiare quali informazioni i modelli di linguaggio citati riescono a ricavarne. L’esperimento è stato condotto su un dataset formato da 509 metonimie (Pedinotti & Lenci, 2020) e ogni modello ha interpretato ciascuna espressione metonimica con 5 referenti diversi. L’accuratezza delle risposte è stata calcolata sulla base delle relazioni tra iperonimi e iponimi riportate su WordNet (Fellbaum, 1998). Inoltre, gli embedding contestuali sono stati analizzati per capire a quale livello i modelli riescono a interpretare meglio la metonimia. I risultati ottenuti contribuiscono ad avanzare la comprensione sul funzionamento di modelli come BERT e quale tipo di informazioni pragmatico-semantiche del linguaggio umano siano in grado di processare.

Metonymy Resolution with BERT and RoBERTa: what language models can infer about the interpretation of metonymy.

Ganio Mego, Eleonora
2023/2024

Abstract

La metonimia, figura retorica che usa un concetto per riferirsi a un altro strettamente collegato, è un mezzo usato per rendere la comunicazione più efficace. Tuttavia, da un punto di vista computazionale, l’interpretazione di questa figura retorica non sempre risulta immediata. L’obiettivo di questa tesi è valutare la performance di alcuni modelli di linguaggio, come BERT (Devlin et al., 2018) e RoBERTa (Liu et al., 2019), sull’interpretazione della metonimia. In contrapposizione a ricerche precedenti che trattano l’interpretazione della metonimia come classificazione, questo studio mira invece a studiare quali informazioni i modelli di linguaggio citati riescono a ricavarne. L’esperimento è stato condotto su un dataset formato da 509 metonimie (Pedinotti & Lenci, 2020) e ogni modello ha interpretato ciascuna espressione metonimica con 5 referenti diversi. L’accuratezza delle risposte è stata calcolata sulla base delle relazioni tra iperonimi e iponimi riportate su WordNet (Fellbaum, 1998). Inoltre, gli embedding contestuali sono stati analizzati per capire a quale livello i modelli riescono a interpretare meglio la metonimia. I risultati ottenuti contribuiscono ad avanzare la comprensione sul funzionamento di modelli come BERT e quale tipo di informazioni pragmatico-semantiche del linguaggio umano siano in grado di processare.
2023-03-14
File in questo prodotto:
File Dimensione Formato  
887189-1271507.pdf

accesso aperto

Tipologia: Altro materiale allegato
Dimensione 2.04 MB
Formato Adobe PDF
2.04 MB Adobe PDF Visualizza/Apri

I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.14247/12110