İnce Ayarlı Bert ve ile Çok Etiketli Duygu Sınıflandırmasıkarşılaştırmalı Öğrenme

No Thumbnail Available

Date

2024

Journal Title

Journal ISSN

Volume Title

Publisher

Open Access Color

OpenAIRE Downloads

OpenAIRE Views

Research Projects

Organizational Units

Journal Issue

Events

Abstract

Duygular insan etkileşiminin temelini oluşturmakta ve bunların sınıflandırılması ve tanınması doğal dil işlemede (NLP). önemli zorluklar yaratmaktadır. Bu araştırma, metinsel verilerde çok etiketli duygu sınıflandırması için karşılaştırmalı öğrenme ile BERT tabanlı örneklenmemiş (uncased) modellerin ince ayarının etkinliğini değerlendirmektedir. SemEval 2024 Görev 3, Alt Görev 1 için sağlanan, Ekman'ın temel duygularını (Sevinç, Üzüntü, Öfke, Korku, İğrenme ve Şaşkınlık) içeren 1.374 elle işaretlemeli konuşmayı içeren durum komedisi Friends'ten alınan verileri kullanarak, ContrastiveBERT'in nüanslı duygusal durumları daha iyi yakalayıp yakalayamayacağını, sınıf dengesizliklerini ele alıp alamayacağını ve bu altı duyguyu sınıflandırmada standart BERT'ten daha iyi performans gösterip gösteremeyeceği değerlendirilmiştir. ContrastiveBERT yaklaşımı, temel BERT modeline kıyasla %9,1 daha yüksek F1 puanı, %11,3 ROC AUC artışı ve %10,17 doğruluk artışı ile önemli performans iyileştirmeleri göstermiştir. Bu araştırma, BERT'in tek bir metin parçası içerisinde birden fazla duyguyu yakalamadaki performansına ilişkin anlayışımızı geliştirmeye katkıda bulunarak, duygu analizinde daha geniş bir uygulama alanının önünü açmaktadır
Emotions are fundamental to human interaction, and their classification and recognition pose significant challenges in natural language processing (NLP). This research evaluates the effectiveness of fine-tuning BERT-base uncased models with contrastive learning for multi-label emotion classification in textual data. Using data from the sitcom Friends, which includes 1,374 manually annotated conversations featuring Ekman's basic emotions—Joy, Sadness, Anger, Fear, Disgust, and Surprise—provided for SemEval 2024 Task 3, Subtask 1, we assess whether ContrastiveBERT can better capture nuanced emotional states, address class imbalances, and outperform standard BERT in classifying these six emotions. The ContrastiveBERT approach demonstrated notable performance improvements, with a 9.1% higher F1 score, 11.3% increase in ROC AUC, and a 10.17% improvement in accuracy compared to the baseline BERT model. This research contributes to enhancing our understanding of ContrastiveBERT's performance in capturing multiple emotions within a single text segment, paving the way for its broader application in emotion analysis

Description

Keywords

Yönetim Bilişim Sistemleri, Management Information Systems

Turkish CoHE Thesis Center URL

Fields of Science

Citation

WoS Q

Scopus Q

Source

Volume

Issue

Start Page

End Page

52

Collections