Aydın, Assoc. Mehmet NafizKhan, Ammara Naseem2025-03-152025-03-152024https://tez.yok.gov.tr/UlusalTezMerkezi/TezGoster?key=E_eEUHQic_C-LvhxNQn1W41GbyyussP-f1ptGho62eXYsTHOsGm6DvSEuafk4CHJhttps://hdl.handle.net/20.500.12469/7248Duygular insan etkileşiminin temelini oluşturmakta ve bunların sınıflandırılması ve tanınması doğal dil işlemede (NLP). önemli zorluklar yaratmaktadır. Bu araştırma, metinsel verilerde çok etiketli duygu sınıflandırması için karşılaştırmalı öğrenme ile BERT tabanlı örneklenmemiş (uncased) modellerin ince ayarının etkinliğini değerlendirmektedir. SemEval 2024 Görev 3, Alt Görev 1 için sağlanan, Ekman'ın temel duygularını (Sevinç, Üzüntü, Öfke, Korku, İğrenme ve Şaşkınlık) içeren 1.374 elle işaretlemeli konuşmayı içeren durum komedisi Friends'ten alınan verileri kullanarak, ContrastiveBERT'in nüanslı duygusal durumları daha iyi yakalayıp yakalayamayacağını, sınıf dengesizliklerini ele alıp alamayacağını ve bu altı duyguyu sınıflandırmada standart BERT'ten daha iyi performans gösterip gösteremeyeceği değerlendirilmiştir. ContrastiveBERT yaklaşımı, temel BERT modeline kıyasla %9,1 daha yüksek F1 puanı, %11,3 ROC AUC artışı ve %10,17 doğruluk artışı ile önemli performans iyileştirmeleri göstermiştir. Bu araştırma, BERT'in tek bir metin parçası içerisinde birden fazla duyguyu yakalamadaki performansına ilişkin anlayışımızı geliştirmeye katkıda bulunarak, duygu analizinde daha geniş bir uygulama alanının önünü açmaktadırEmotions are fundamental to human interaction, and their classification and recognition pose significant challenges in natural language processing (NLP). This research evaluates the effectiveness of fine-tuning BERT-base uncased models with contrastive learning for multi-label emotion classification in textual data. Using data from the sitcom Friends, which includes 1,374 manually annotated conversations featuring Ekman's basic emotions—Joy, Sadness, Anger, Fear, Disgust, and Surprise—provided for SemEval 2024 Task 3, Subtask 1, we assess whether ContrastiveBERT can better capture nuanced emotional states, address class imbalances, and outperform standard BERT in classifying these six emotions. The ContrastiveBERT approach demonstrated notable performance improvements, with a 9.1% higher F1 score, 11.3% increase in ROC AUC, and a 10.17% improvement in accuracy compared to the baseline BERT model. This research contributes to enhancing our understanding of ContrastiveBERT's performance in capturing multiple emotions within a single text segment, paving the way for its broader application in emotion analysisenYönetim Bilişim SistemleriManagement Information Systemsİnce Ayarlı Bert ve ile Çok Etiketli Duygu Sınıflandırmasıkarşılaştırmalı ÖğrenmeMulti–label Emotion Classification With Fine-Tuned Bert Andcontrastive LearningMaster Thesis52916258https://tez.yok.gov.tr/UlusalTezMerkezi/TezGoster?key=E_eEUHQic_C-LvhxNQn1W41GbyyussP-f1ptGho62eXYsTHOsGm6DvSEuafk4CHJ