İnce Ayarlı Bert ve ile Çok Etiketli Duygu Sınıflandırmasıkarşılaştırmalı Öğrenme
No Thumbnail Available
Date
2024
Authors
Journal Title
Journal ISSN
Volume Title
Publisher
Open Access Color
OpenAIRE Downloads
OpenAIRE Views
Abstract
Duygular insan etkileşiminin temelini oluşturmakta ve bunların sınıflandırılması ve tanınması doğal dil işlemede (NLP). önemli zorluklar yaratmaktadır. Bu araştırma, metinsel verilerde çok etiketli duygu sınıflandırması için karşılaştırmalı öğrenme ile BERT tabanlı örneklenmemiş (uncased) modellerin ince ayarının etkinliğini değerlendirmektedir. SemEval 2024 Görev 3, Alt Görev 1 için sağlanan, Ekman'ın temel duygularını (Sevinç, Üzüntü, Öfke, Korku, İğrenme ve Şaşkınlık) içeren 1.374 elle işaretlemeli konuşmayı içeren durum komedisi Friends'ten alınan verileri kullanarak, ContrastiveBERT'in nüanslı duygusal durumları daha iyi yakalayıp yakalayamayacağını, sınıf dengesizliklerini ele alıp alamayacağını ve bu altı duyguyu sınıflandırmada standart BERT'ten daha iyi performans gösterip gösteremeyeceği değerlendirilmiştir. ContrastiveBERT yaklaşımı, temel BERT modeline kıyasla %9,1 daha yüksek F1 puanı, %11,3 ROC AUC artışı ve %10,17 doğruluk artışı ile önemli performans iyileştirmeleri göstermiştir. Bu araştırma, BERT'in tek bir metin parçası içerisinde birden fazla duyguyu yakalamadaki performansına ilişkin anlayışımızı geliştirmeye katkıda bulunarak, duygu analizinde daha geniş bir uygulama alanının önünü açmaktadır
Emotions are fundamental to human interaction, and their classification and recognition pose significant challenges in natural language processing (NLP). This research evaluates the effectiveness of fine-tuning BERT-base uncased models with contrastive learning for multi-label emotion classification in textual data. Using data from the sitcom Friends, which includes 1,374 manually annotated conversations featuring Ekman's basic emotions—Joy, Sadness, Anger, Fear, Disgust, and Surprise—provided for SemEval 2024 Task 3, Subtask 1, we assess whether ContrastiveBERT can better capture nuanced emotional states, address class imbalances, and outperform standard BERT in classifying these six emotions. The ContrastiveBERT approach demonstrated notable performance improvements, with a 9.1% higher F1 score, 11.3% increase in ROC AUC, and a 10.17% improvement in accuracy compared to the baseline BERT model. This research contributes to enhancing our understanding of ContrastiveBERT's performance in capturing multiple emotions within a single text segment, paving the way for its broader application in emotion analysis
Emotions are fundamental to human interaction, and their classification and recognition pose significant challenges in natural language processing (NLP). This research evaluates the effectiveness of fine-tuning BERT-base uncased models with contrastive learning for multi-label emotion classification in textual data. Using data from the sitcom Friends, which includes 1,374 manually annotated conversations featuring Ekman's basic emotions—Joy, Sadness, Anger, Fear, Disgust, and Surprise—provided for SemEval 2024 Task 3, Subtask 1, we assess whether ContrastiveBERT can better capture nuanced emotional states, address class imbalances, and outperform standard BERT in classifying these six emotions. The ContrastiveBERT approach demonstrated notable performance improvements, with a 9.1% higher F1 score, 11.3% increase in ROC AUC, and a 10.17% improvement in accuracy compared to the baseline BERT model. This research contributes to enhancing our understanding of ContrastiveBERT's performance in capturing multiple emotions within a single text segment, paving the way for its broader application in emotion analysis
Description
Keywords
Yönetim Bilişim Sistemleri, Management Information Systems
Turkish CoHE Thesis Center URL
Fields of Science
Citation
WoS Q
Scopus Q
Source
Volume
Issue
Start Page
End Page
52