Yetkin, Emrullah FatihYetkin, Emrullah FatihHindistan, Yavuz Selim2024-06-242024-06-242023https://hdl.handle.net/20.500.12469/5925Yapay Zeka (AI) ve Makine Öğreniminin (ML) hızla yaygınlaşması, mahremiyetin korunmasına ilişkin endişeleri artırdı. Bu teknolojiler, endüstriyel IoT, sosyal medya ve çevrimiçi platformlar gibi kaynaklardan kişisel ve hassas bilgiler içeren ve gizlilik riskleri getiren kapsamlı veri kümelerine dayanır. Güçlü gizlilik koruma önlemlerinin alınması, AI ve ML uygulama risklerini azaltmak için çok önemlidir. Bu tez, AI ve ML sistemlerinde gizliliğin korunmasını incelemektedir. Araştırmamız, ML doğruluğunu korurken bir gizlilik koruma yöntemi geliştirmek için herkese açık veri kümelerinden yararlandı. Gizliliği artırmak için, yaklaşımımızı Diferansiyel Gizlilik (DP) ve Üretken Düşman Ağları (GAN) ile güçlendirdik. Etkinliğini altı gizlilik ölçüsü kullanarak değerlendirdik. Yaklaşımımız, ML performansından ödün vermeden gizliliği koruyarak fizibilite ve etkinlik göstermektedir. Ayıklanan özellik alt kümeleri, ML modelleriyle hassas verileri açığa çıkarabildiğinden, gizli hassas bilgilerin ortaya çıkarılması vurgulanmıştır. Yöntemin mahremiyet endişelerini ele almadaki etkinliğini deneysel bir çalışmada gösteriyoruz. Bulgular, AI ve ML sistemlerinde gizliliğin anlaşılmasına katkıda bulunur. Araştırma, bilgileri korumak için içgörüler ve yaklaşımlar sunarak güvenilir ML sonuçları sağlar. Bu çalışma, gizlilik bilgisini ilerleterek, gizliliğin korunmasında AI ve ML teknolojilerinin sorumlu gelişimini destekler.The rapid expansion of Artificial Intelligence (AI) and Machine Learning (ML) has raised concerns about privacy preservation. These technologies rely on extensive datasets containing personal and sensitive information from sources like industrial IoT, social media, and online platforms, introducing privacy risks. Ensuring robust privacy protection measures is crucial to mitigate AI and ML application risks. This thesis investigates privacy preservation within AI and ML systems. Our research utilized publicly available datasets to develop a privacy protection method while maintaining ML accuracy. To enhance privacy, we strengthened our approach with Differential Privacy (DP) and Generative Adversarial Networks (GAN). We evaluated its effectiveness using six privacy metrics. Our approach demonstrates feasibility and efficacy, upholding privacy without compromising ML performance. Uncovering hidden sensitive information was emphasized, as extracted feature subsets can expose sensitive data with ML models. We demonstrate the method's effectiveness in addressing privacy concerns in an experimental study. The findings contribute to understanding privacy in AI and ML systems. The research offers insights and approaches to protect information, ensuring reliable ML outcomes. By advancing privacy knowledge, this work supports the responsible deployment of AI and ML technologies in safeguarding privacy.enBilgi ve Belge YönetimiBilgisayar Mühendisliği Bilimleri-Bilgisayar ve KontrolYönetim Bilişim SistemleriInformation and Records ManagementComputer Engineering and Computer Science and ControlManagement Information SystemsMakine öğrenmesinde endüstriyel veri mahremiyetinin üretken düşman ağları ve diferansiyel gizlilik kullanarak korunmasıPrivacy preservation for industrial data using generative adversarial networks and differential privacy in machine learningDoctoral Thesis191