TK MILAB Speaker Series: A huBERT-modell használata az emócióelemzésben - kísérlet kis erőforrásigényű szövegklasszifikálásra magyar nyelvű hírkorpuszon
A TK MILAB Speaker Series sorozat következő állomása 2021. október 12-én 10:00 órától „A huBERT-modell használata az emócióelemzésben - kísérlet kis erőforrásigényű szövegklasszifikálásra magyar nyelvű hírkorpuszon (Using BERT for emotion analysis – A novel, resource constrained emotion classification approach with tests on a Hungarian media corpus)” címmel kerül megrendezésre.
Előadók:
Ring Orsolya és Kis György Márk (TK PTI-POLTEXTLAB)
Moderátor:
Máté Ákos (TK PTI-POLTEXTLAB)
Angol nyelvű absztrakt:
Transformers (BERT) immediately provided language processing researchers with a new state-of-the-art tool. Though practically limitless in application opportunities, BERT requires significant infrastructure and IT knowledge to be employed. This paper provides results and comparisons of BERT on an emotion classification task with constrained resources. We use a new corpus of Hungarian newspaper articles to test its efficiency. Results from our custom-built classification solution suggest that even without fine-tuning of a Hungarian BERT-model–huBERT–contextual word embeddings extracted mid-process provide a significant increase in weighted F1-scores compared to conventional pre-processing through stemming and classification. The 0.14-0.16 increase in model-wide F1-scores for 10 to 13 classes provides an immediate upgrade over conventional and dictionary-based methods and paves the way for constructing complex architectures without the need for expensive hardware.
Az előadás magyar nyelven, online, Zoom alkalmazáson kerül megrendezésre, az eseményen való részvétel regisztrációhoz kötött. Részvételi szándékát az űrlap kitöltésével jelezheti. Az esemény linkjét külön e-mailben küldjük a regisztrált résztvevőknek.