Makine öğrenmesinde endüstriyel veri mahremiyetinin üretken düşman ağları ve diferansiyel gizlilik kullanarak korunması
No Thumbnail Available
Date
2023
Authors
Journal Title
Journal ISSN
Volume Title
Publisher
Open Access Color
OpenAIRE Downloads
OpenAIRE Views
Abstract
Yapay Zeka (AI) ve Makine Öğreniminin (ML) hızla yaygınlaşması, mahremiyetin korunmasına ilişkin endişeleri artırdı. Bu teknolojiler, endüstriyel IoT, sosyal medya ve çevrimiçi platformlar gibi kaynaklardan kişisel ve hassas bilgiler içeren ve gizlilik riskleri getiren kapsamlı veri kümelerine dayanır. Güçlü gizlilik koruma önlemlerinin alınması, AI ve ML uygulama risklerini azaltmak için çok önemlidir. Bu tez, AI ve ML sistemlerinde gizliliğin korunmasını incelemektedir. Araştırmamız, ML doğruluğunu korurken bir gizlilik koruma yöntemi geliştirmek için herkese açık veri kümelerinden yararlandı. Gizliliği artırmak için, yaklaşımımızı Diferansiyel Gizlilik (DP) ve Üretken Düşman Ağları (GAN) ile güçlendirdik. Etkinliğini altı gizlilik ölçüsü kullanarak değerlendirdik. Yaklaşımımız, ML performansından ödün vermeden gizliliği koruyarak fizibilite ve etkinlik göstermektedir. Ayıklanan özellik alt kümeleri, ML modelleriyle hassas verileri açığa çıkarabildiğinden, gizli hassas bilgilerin ortaya çıkarılması vurgulanmıştır. Yöntemin mahremiyet endişelerini ele almadaki etkinliğini deneysel bir çalışmada gösteriyoruz. Bulgular, AI ve ML sistemlerinde gizliliğin anlaşılmasına katkıda bulunur. Araştırma, bilgileri korumak için içgörüler ve yaklaşımlar sunarak güvenilir ML sonuçları sağlar. Bu çalışma, gizlilik bilgisini ilerleterek, gizliliğin korunmasında AI ve ML teknolojilerinin sorumlu gelişimini destekler.
The rapid expansion of Artificial Intelligence (AI) and Machine Learning (ML) has raised concerns about privacy preservation. These technologies rely on extensive datasets containing personal and sensitive information from sources like industrial IoT, social media, and online platforms, introducing privacy risks. Ensuring robust privacy protection measures is crucial to mitigate AI and ML application risks. This thesis investigates privacy preservation within AI and ML systems. Our research utilized publicly available datasets to develop a privacy protection method while maintaining ML accuracy. To enhance privacy, we strengthened our approach with Differential Privacy (DP) and Generative Adversarial Networks (GAN). We evaluated its effectiveness using six privacy metrics. Our approach demonstrates feasibility and efficacy, upholding privacy without compromising ML performance. Uncovering hidden sensitive information was emphasized, as extracted feature subsets can expose sensitive data with ML models. We demonstrate the method's effectiveness in addressing privacy concerns in an experimental study. The findings contribute to understanding privacy in AI and ML systems. The research offers insights and approaches to protect information, ensuring reliable ML outcomes. By advancing privacy knowledge, this work supports the responsible deployment of AI and ML technologies in safeguarding privacy.
The rapid expansion of Artificial Intelligence (AI) and Machine Learning (ML) has raised concerns about privacy preservation. These technologies rely on extensive datasets containing personal and sensitive information from sources like industrial IoT, social media, and online platforms, introducing privacy risks. Ensuring robust privacy protection measures is crucial to mitigate AI and ML application risks. This thesis investigates privacy preservation within AI and ML systems. Our research utilized publicly available datasets to develop a privacy protection method while maintaining ML accuracy. To enhance privacy, we strengthened our approach with Differential Privacy (DP) and Generative Adversarial Networks (GAN). We evaluated its effectiveness using six privacy metrics. Our approach demonstrates feasibility and efficacy, upholding privacy without compromising ML performance. Uncovering hidden sensitive information was emphasized, as extracted feature subsets can expose sensitive data with ML models. We demonstrate the method's effectiveness in addressing privacy concerns in an experimental study. The findings contribute to understanding privacy in AI and ML systems. The research offers insights and approaches to protect information, ensuring reliable ML outcomes. By advancing privacy knowledge, this work supports the responsible deployment of AI and ML technologies in safeguarding privacy.
Description
Keywords
Bilgi ve Belge Yönetimi, Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrol, Yönetim Bilişim Sistemleri, Information and Records Management, Computer Engineering and Computer Science and Control, Management Information Systems
Turkish CoHE Thesis Center URL
Fields of Science
Citation
WoS Q
Scopus Q
Source
Volume
Issue
Start Page
End Page
191