डेटा संरक्षण कानून में गैर-भेदभाव का सिद्धांत

0
1435
Data Protection laws
Image Source- https://rb.gy/hjvknq

यह लेख केआईआईटी स्कूल ऑफ लॉ, भुवनेश्वर के Raslin Saluja द्वारा लिखा गया है। यह लेख डेटा संरक्षण (प्रोटेक्शन) कानूनों में गैर-भेदभाव के सिद्धांत (प्रिंसिपल) की मान्यता और इसके समग्र प्रभाव (ओवरऑल इंपैक्ट) का विश्लेषण (एनालाइज) करता है। इसका अनुवाद Sakshi kumari द्वारा किया गया है, जो फेयरफील्ड इंस्टीट्यूट ऑफ मैनेजमेंट एंड टेक्नोलॉजी से बीए एलएलबी कर रही है।

परिचय (इंट्रोडक्शन)

डेटा संरक्षण कानून (डेटा प्रोटेक्शन लॉज) यह सुनिश्चित करते हुए संघर्ष का सामना करते हैं कि निजता (प्राइवेसी) की रक्षा करने से उद्योगों (इंडस्ट्री) के नवाचार (इनोवेशन) और विकास (ग्रोथ) पर कोई हानिकारक प्रभाव तो नहीं पड़ रहा है। देशों को एक कानूनी ढांचे की आवश्यकता है जो अनिवार्य रूप से निजता के प्रभाव और उनके संबंधित डेटा अर्थव्यवस्थाओं (इकोनॉमी) में इससे संबंधित संभावित नुकसान को संबोधित करता हो। डेटा संरक्षण कानूनों के अन्य उद्देश्यों में, उनसे शामिल संस्थानों (इंस्टीट्यूशन) के मौलिक अधिकारों (फंडामेंटल राइट्स) की रक्षा करने की भी अपेक्षा की जाती है। उनमें से एक गैर-भेदभाव सिद्धांत है जो बताता है कि व्यक्तिगत डेटा को संसाधित (प्रोसेसिंग) और प्रबंधित (मैनेजिंग) करते समय कानूनों और विनियमों (रेगुलेशन) के आवेदन (एप्लिकेशन) में कोई अनुचित पक्षपात नहीं होना चाहिए, ऐसे सिद्धांतों को बनाए रखने के लिए इस तरह के तंत्र (मैकेनिज्म) को लागू करना चाहिए। इस प्रकार, यह लेख उक्त तत्वों से जुड़े मौजूदा मुद्दों और संभावित समाधानों की व्याख्या करता है।

संक्षिप्त इतिहास (ब्रीफ हिस्ट्री) 

डेटा संरक्षण और गैर-भेदभाव सिद्धांत के रूप में निजता का अधिकार मौलिक अधिकारों का प्रतीक है। निजी जीवन के अधिकार को यूरोपियन कन्वेंशन ऑन ह्यूमन राइट्स, 1950 द्वारा मान्यता दी गई है। इस प्रकार डेटा संरक्षण का सिद्धांत उक्त कन्वेंशन के निजी जीवन के अधिकार से उपजा है। इस परिणाम ने यूरोपियन कोर्ट ऑफ ह्यूमन राइट्स को विशिष्ट (स्पेसिफिक) डेटा सुरक्षा सिद्धांतों को मानव अधिकारों का दर्जा देने के लिए प्रेरित किया है। चूंकि यूरोपीय संघ (ईयू) के सभी सदस्य भी यूरोपीय परिषद (काउंसिल ऑफ यूरोप) के सदस्य हैं, जो मानवाधिकारों पर यूरोपीय कन्वेंशन के आवेदन के अधीन हैं, उन्हें भी इसका पालन करना होता है।

इसके अलावा, यूरोपीय संघ के मौलिक अधिकारों के चार्टर के रूप में नियमों का अपना सेट है जो अपने लोगों को निजी जीवन का अधिकार और व्यक्तिगत डेटा की सुरक्षा का एक विशिष्ट अधिकार भी प्रदान करता है। विशेष रूप से, अनुच्छेद (आर्टिकल) 7, 8, और 21 क्रमशः निजता, व्यक्तिगत डेटा की सुरक्षा और गैर-भेदभाव के अधिकारों को निर्धारित करते हैं। इन अधिकारों के अधिक व्यापक (कॉम्प्रिहेंसिव) और स्पष्ट संस्करण (वर्जन) काउंसिल ऑफ़ यूरोप डेटा प्रोटेक्शन कन्वेंशन 108 और यूरोपीय संघ के जनरल डेटा प्रोटेक्शन रेगुलेशन (जीडीपीआर) में पाए जा सकते हैं, जो डेटा सुरक्षा कानूनों की कानूनी रीढ़ हैं। यहां तक ​​कि यूरोपीय संघ की ट्रीटीज भी अधिकारों की रक्षा की सामान्य गारंटी के लिए एक संरचना (स्ट्रकचर) प्रदान करती हैं।

अन्य देशों के लिए, आर्थिक सहयोग और विकास संगठन (आर्गेनाइजेशन फॉर इकोनोमिक कॉपोरेशन एंड डेवलपमेंट) (ओईसीडी) व्यक्तिगत डेटा की निजता और सीमा पार प्रवाह के संरक्षण (प्रोटेक्शन ऑफ प्राइवेसी एंड ट्रांसबॉर्डर फ्लोज ऑफ पर्सनल डेटा) पर दिशानिर्देश प्रदान करता है, जहां राष्ट्र जो इन्हें अपने घरेलू शासन में लागू करते हैं, उन्हें यह सुनिश्चित करना होता है कि कोई अनुचित भेदभाव नहीं है और व्यक्तियों और डेटा विषयों को शामिल करने वाली ऐसी प्रथाओं से सक्रिय (एक्टिव) रूप से बचना चाहिए। उदाहरण के लिए, यह उल्लेख करता है कि राष्ट्रीयता और निवास (डोमिसाइल), लिंग, नस्ल (रेस), पंथ (क्रीड), या ट्रेड यूनियन संबद्धता (एफिलेशन) जैसे आधारों पर कोई अनुचित भेदभाव नहीं होना चाहिए।

मौलिक अधिकार बनाम मानवाधिकार पहलू

अपनी समझ के लिए, हम वर्तमान संदर्भ में मौलिक अधिकारों और मानवाधिकारों को समानार्थक शब्द के रूप में उपयोग करते हैं। हालांकि जीडीपीआर विशेष रूप से ऐसे प्रमुख अधिकारों से संबंधित नहीं है, लेकिन इसके उद्देश्य के तहत जैसा कि अनुच्छेद 1 पैरा 2 में उल्लेख किया गया है, यह चार्टर द्वारा मान्यता प्राप्त अधिकारों के आलोक (लाइट) में केंद्रीय कानून को लागू करते समय इसकी प्रयोज्यता (एप्लीकेबिलिटी) की ओर संकेत करता है। डेटा संरक्षण कानून हमेशा विभिन्न संस्थानों और संगठनों द्वारा व्यक्तिगत डेटा के उपयोग के बारे में निष्पक्षता और मानवाधिकारों के स्तंभों (पिलर) की रक्षा करने का दावा करता है। ये कानून डेटा विषयों (जिन लोगों का डेटा उपयोग में है) को सशक्त (एंपॉवर) बनाता है और डेटा नियंत्रकों (संगठनों) को लगाए गए दायित्वों (ऑब्लिगेशन) का पालन करने की आवश्यकता होती है।

इन सिद्धांतों की नींव और मूल आठ प्रमुख सिद्धांतों पर आधारित हैं, जिनके लिए डेटा के वैध, निष्पक्ष और पारदर्शी प्रसंस्करण (ट्रांसपेरेंट प्रोसेसिंग) की आवश्यकता होती है। गैर-भेदभावपूर्ण सिद्धांत डेटा प्रसार (डेटा डिस्सेमीनेशन), सूचना विषमता (एलाइंग) को दूर करने, और डेटा संरक्षण प्रभाव मूल्यांकन (इवेल्यूएशन) के संदर्भ में अपना स्थान पाता है, जो सभी अनुचित पूर्वाग्रहों (बायसेस) और अवैध भेदभाव के संबंधित जोखिमों का विश्लेषण, पहचान और उन्हें कम करेगा। जीडीपीआर में ऐसे कई प्रावधान हैं जो गरीबों की आर्थिक स्थिरता (स्टेबिलिटी) और गतिशीलता (मोबिलिटी) को बढ़ाते हुए उनके खिलाफ डिजिटल भेदभाव को सीमित करने की क्षमता रखते हैं।

गैर-भेदभाव सिद्धांत

भेदभाव में अनिवार्य रूप से समान स्थिति के मामलों के बीच अंतर शामिल होता है, यानी ऐसे मामले जो महत्वपूर्ण बिंदुओं पर एक दूसरे से भिन्न नहीं होते हैं। हालांकि, यह अभी भी कई अवसरों पर सवाल उठाता है कि समान होना यानी एक बराबर होने का क्या अर्थ है। कई गैर-भेदभाव क़ानून केवल कुछ संरक्षित वर्गों (विशेषताओं) पर लागू होते हैं, जैसे कि जातीयता (एथनिसिटी), लिंग (जेंडर) या यौन अभिविन्यास (सेक्सुअल ओरिएंटेशन) है। यूरोपीय संघ के भेदभाव-विरोधी कानून के क्षेत्र में, कानून से संबंधित एक समान व्याख्या दी गई है जो विशिष्ट संरक्षित आधारों (जैसे, जाति, लिंग, विकलांगता, या आयु) और समान उपचार के सामान्य सिद्धांत पर भेदभाव के बारे में बात करती है। यह सामान्य सिद्धांत इस विचार में निहित है कि समान स्थितियों को अलग तरीके से नहीं माना जाना चाहिए और विभिन्न स्थितियों को एक ही तरह से नहीं माना जाना चाहिए जब तक कि यह निष्पक्ष रूप से उचित न हो। यह केवल एक सीमांत (मार्जिनल) परीक्षण द्वारा मूल्यांकन किया जाता है: जब तक उपचार में अंतर में कुछ तर्कसंगतता (रेशनेलिटी) होती है और पूरी तरह से मनमाना नहीं होता है, अंतर्निहित तर्क की गुणवत्ता (क्वालिटी) का और अधिक मूल्यांकन नहीं किया जाता है।

निकट भविष्य

प्रौद्योगिकी (टेक्नोलॉजी) के आगमन के साथ, हम देखते हैं कि आर्टिफिशियल इंटेलिजेंस (एआई) सिस्टम का विकास बढ़ रहा है। हालांकि इसके बहुत अधिक लाभ हैं, लेकिन यह अपने साथ समस्याओं का सेट भी लाता है। इन प्रणालियों (सिस्टम) को अनिवार्य रूप से मदद में रेखांकित किया गया है, रचनात्मकता, सरलता और मानव स्वभाव ऐसी सभी चीजें हैं जिन्हें मशीनें इस समय दोहरा नहीं सकती हैं। एआई संभावित रूप से अपने आप कार्य नहीं कर सकता है क्योंकि यह मानवीय हस्तक्षेप के बिना माना जाता है क्योंकि उनके पास स्वयं के दिमाग की कमी है।

इस प्रणाली की तैनाती में विभिन्न उद्देश्यों के लिए विभिन्न प्रक्रियाओं में व्यक्तिगत डेटा संसाधित शामिल है। इसमें एल्गोरिथम गणनाओं के आधार पर स्वचालित (ऑटोमैटिक) निर्णय लेने की आवश्यकता होती है, जिसके लिए हमें यह सुनिश्चित करने की आवश्यकता होती है कि सिस्टम किसी व्यक्ति की अपेक्षाओं को पूरा करने वाले सटीक और गैर-भेदभावपूर्ण परिणाम प्रदान करने के लिए अच्छी तरह से सुसज्जित (इक्विप्ड) है। इस प्रकार संतोषजनक परिणाम प्रदान करने के लिए इसमें बहुत अधिक पारदर्शिता और निष्पक्षता की आवश्यकता होती है। अनुपालन (कंप्लायंस) सुनिश्चित करने की आवश्यकता तब और भी महत्वपूर्ण हो जाती है जब एआई का उपयोग विशेष श्रेणी के डेटा जैसे व्यक्तिगत संवेदनशील जानकारी को संसाधित करने की दिशा में होता है। इन मामलों में, यूके का जीडीपी काम में आता है क्योंकि यह अनुच्छेद 7, 9 और 10 के रूप में ऐसे अधिकारों को बनाए रखने में कामयाब रहा है। यहां तक ​​कि यह अनुच्छेद 22 के तहत अलग से स्वचालित निर्णय लेने को भी मान्यता देता है। इस प्रावधान के तहत, यह एल्गोरिथम भेदभाव को रोकने का प्रयास करता है और इस प्रकार यह भेदभाव के निषेध पर आधारित माना जा सकता है, जिसे चार्टर के अनुच्छेद 21(1) के तहत यूरोपीय संघ के कानून के मौलिक अधिकार के रूप में मान्यता प्राप्त है। जीडीपीआर के उपयुक्त लगने के कारण इस प्रकार हैं:

  • इसमें सामान्य नियम शामिल हैं जो न केवल मनुष्यों द्वारा किए गए व्यक्तिगत डेटा के संसाधित पर लागू होते हैं बल्कि स्वचालित माध्यमों से भी लागू होते हैं;
  • यह सह-नियामक (को-रेगुलेटरी) नियम प्रदान करता है जिसके लिए डेटा नियंत्रकों को अपने दम पर संसाधित के लिए उपयोग किए जाने वाले साधनों के जोखिमों का विश्लेषण करने और उन्हें कम करने की आवश्यकता होती है, इस प्रकार उन्हें जीडीपीआर द्वारा निर्धारित सामान्य सुरक्षा मानकों (स्टैंडर्ड) की सीमा के भीतर स्व-विनियमन (सेल्फ रेग्यूलेट) करने का विवेक मिलता है।

जीडीपीआर के अनुच्छेद 22 का प्रभाव और संरचना

यह प्रावधान सभी स्वचालित व्यक्तिगत निर्णय लेने और प्रोफाइलिंग पर लागू होता है। यह एल्गोरिथम निर्णयों की घटना को सीमित करने का प्रयास करता है जिसमें कोई वास्तविक मानवीय हस्तक्षेप शामिल नहीं है; यह उन उदाहरणों को सीमित करके ऐसा करता है जिनमें इस प्रकार की व्यक्तिगत डेटा संसाधित वैध हो सकती है। इस प्रकार, यह मानदंड सीधे तौर पर पक्षपाती या अनुचित निर्णयों से बचने से संबंधित नहीं है। अनुच्छेद 22(3) के साथ भी यही परिदृश्य (सिनेरियो) है। हालांकि, डेटा की एक विशेष श्रेणी के संबंध में अनुच्छेद 22(4) के शब्द यूरोपीय संघ के भेदभाव-विरोधी कानून में उल्लिखित संरक्षित आधारों के साथ ओवरलैप करते हुए प्रतीत होते हैं, जैसा कि चार्टर के अनुच्छेद 21(1) में दर्शाया गया है। इससे यह स्पष्ट होता है कि अनुच्छेद 22(4) का उद्देश्य एल्गोरिथम भेदभाव को रोकना है, क्योंकि यह महत्वपूर्ण एल्गोरिथम निर्णयों को डेटा पर आधारित होने से रोकता है जो किसी व्यक्ति के भेदभाव-विरोधी कानून के तहत संरक्षित से संबंधित होने का खुलासा करता है, सिवाय इसके कि जहां की 9(1)(a) या 9(1)(g) में उल्लिखित संकीर्ण अपवाद (नैरो एक्सेप्शन)  लागू होते हैं।

संवेदनशील व्यक्तिगत डेटा खुद को विशेष श्रेणी का दर्जा देता है क्योंकि वे सीधे किसी व्यक्ति के अंतरंग विवरण (इंटिमेट डिटेल्स) को भी इंगित (इंडिकेट) करते हैं। इस व्याख्या के तहत, अनुच्छेद 22(4) इस धारणा पर टिका हुआ है कि, एल्गोरिथम द्वारा उपयोग किए गए डेटा सेट से ऐसी जानकारी को हटाने से भेदभाव नहीं होता है। हालांकि, यह सही ढंग से देखा गया है कि यह डेटा-शुद्धिकरण तंत्र, गैर-भेदभाव के अधिकार की प्रभावी रूप से रक्षा करने में विफल रहता है।

अनुच्छेद 22(4) की प्रभावशीलता और इसकी सीमाएं

उन परिस्थितियों में जहां एक भविष्य कहनेवाला या मशीन-लर्निंग डिवाइस जो एक एल्गोरिथ्म पर काम करता है, जिसको वैरिएबल के आधार पर परिणाम तय करने के लिए छोड़ दिया जाता है, यह सीख सकता है कि कैसे भेदभाव करना है। अक्सर, भले ही डेवलपर्स इस निष्पक्ष प्रतिक्रिया को शामिल करने का इरादा नहीं रखते हैं, एल्गोरिथ्म को प्रशिक्षित (ट्रेन) करने के लिए उपयोग किया जाने वाला डेटा संरक्षित श्रेणियों के एक या अधिक तत्वों के खिलाफ आंतरिक (इंट्रिंसिकली) रूप से पक्षपाती हो सकता है। इसके परिणामस्वरूप स्वचालित निर्णय लेने के चरण के दौरान संरक्षित समूहों से संबंधित व्यक्तियों के साथ अनुचित व्यवहार होता है। जिस तरह से डेटा डिज़ाइन किया गया है जिसका उपयोग एआई सिस्टम को प्रशिक्षित और परीक्षण करने के लिए किया जाता है, वे बिना किसी उचित औचित्य (जस्टिफिकेशन) के कुछ समूहों के साथ कम अनुकूल व्यवहार कर सकते हैं। उदाहरण के लिए, जहां संरक्षित श्रेणियों (जैसे यौन अभिविन्यास या धार्मिक विश्वास) और लक्ष्य वैरिएबल (जैसे नौकरी प्रदर्शन) के बीच संबंध विकसित होते हैं।

ऐसे उदाहरण भी हो सकते हैं जहां एक प्रॉक्सी डेटा संरक्षित श्रेणियों से जुड़ जाता है जैसे कि जहां किसी व्यक्ति का पता उस स्थान से संबंधित है जो विशिष्ट मूल के लोगों के साथ घनी आबादी वाला है, और इस प्रकार स्वचालित डेटा उस व्यक्ति को उस विशिष्ट मूल के साथ जोड़ता है और पूर्वाग्रह पैदा कर सकता है और उस आधार पर भेदभाव कर सकता है। यह असंतुलित प्रशिक्षण डेटा के कारण हो सकता है जो पिछले भेदभाव, डेवलपर्स की सांस्कृतिक धारणाओं, वैरिएबल के पूर्वाग्रही लेबलिंग, या यहां तक ​​​​कि अनुचित परिभाषा आदि को प्रतिबिंबित (रेस्ट्रिक्ट) कर सकता है। नतीजतन, पूरी प्रक्रिया दूसरों से भिन्न हो जाती है। इसलिए, एक निश्चित समूह लगातार भेदभाव का शिकार हो सकता है, भले ही यह अनुच्छेद 22(4),द्वारा निर्धारित निषेध है, यकीनन, सम्मानित है। हालांकि, इस बिंदु पर, हमें यह महसूस करने की आवश्यकता है कि जीडीपीआर इस संभावना को पहचानता है और इसलिए इसे रोकने के लिए उपयुक्त तकनीकी और संगठनात्मक उपायों का उपयोग करने की भी आवश्यकता है।

इन चिंताओं के अलावा, व्यापक प्रवर्तन (वाइड एनफोर्समेंट) और अनुपालन घाटा (कंप्लायंस डेफिसिट) भी है। इस बिंदु पर, महत्वपूर्ण प्रतिबंध लगाने की शक्ति की कमी के अलावा कई डेटा संरक्षण अधिकारी पर भारी बोझ हैं। डेटा सुरक्षा कानून अनिवार्य रूप से व्यक्तिगत डेटा पर लागू होता है जो विभिन्न पहलुओं में स्वचालित निर्णय लेने को अपने दायरे से बाहर कर देता है। ये कानून विभिन्न स्थितियों में उपयुक्तता (सूटेबिलिटी) के लिए अमूर्त (एब्सट्रैक) मानदंडों का भी उपयोग करते हैं।

एक प्रस्तावित उपाय- अनुच्छेद 22(4) जीडीपीआर की अधिकार-आधारित व्याख्या (इंटरप्रेटेशन)

हालांकि जैसा कि पहले उल्लेख किया गया है, प्रावधान भेदभावपूर्ण एल्गोरिथम निर्णयों को रोकने का प्रयास करते हैं, हालांकि, इस निषेध (प्रोहिबिशन) की एक शाब्दिक व्याख्या किसी भी ठोस भेदभाव-विरोधी प्रभाव से इनकार करती है। यहां मौलिक अधिकारों के दृष्टिकोण से यह सुझाव दिया गया है कि अनुच्छेद 22(4) की व्याख्या उस डेटा को कवर करने के रूप में की जानी चाहिए जो तुरंत एक विशेष श्रेणी से संबंधित होने के साथ-साथ डेटा जो अप्रत्यक्ष रूप से एल्गोरिथम निर्णय बनाने की प्रक्रिया के संदर्भ में इस तरह के संबंध को प्रकट करता है। इस तरह के भेदभावपूर्ण व्यवहार से बचने या रोकने के लिए इस व्यापक व्याख्या के तहत, बाद के प्रकार के डेटा को या तो डेटा सेट से बाहर रखा जाना चाहिए या इस तरह से संसाधित किया जाना चाहिए जिससे विशेष श्रेणियों के साथ किसी भी सहसंबंध (कोरिलेशन) की संभावना कम हो जाए।

यह विशेष समझ यूरोपीय संघ के न्यायालय के गूगल स्पेन एसएल बनाम एजेंसिया एस्पनोला डी प्रोटेकियोन डी डेटोस (2014) के निर्णय का भी पालन करती प्रतीत होती है, जिसने लगातार यह माना है कि मौलिक अधिकारों को बनाए रखने में उनकी प्रभावशीलता को प्राप्त करने के लिए डेटा सुरक्षा प्रावधानों की व्याख्या की जानी चाहिए। डेटा संरक्षण कानून लागू करते समय न्यायालय के अधिकार-आधारित तर्क पर लिस्बन संधि को अपनाने के बाद ध्यान केंद्रित किया गया है, जिसने चार्टर को “संधिओं के समान कानूनी मूल्य” प्रदान किया है, जिससे जीडीपीआर में दिए गए मौलिक अधिकारों के उद्देश्य को मजबूत किया जा सके।

इस प्रकार अनुच्छेद 22(4) को डेटा विषयों के प्रति किसी भी पर्याप्त सुरक्षात्मक प्रभाव से रहित होने से रोकने का सबसे अच्छा तरीका यह सुझाव दिया गया है कि किसी भी एल्गोरिथम निर्णय लेने के अभ्यास में, “व्यक्तिगत डेटा की विशेष श्रेणियों” की परिभाषा को प्रावधान के भेदभाव-विरोधी उद्देश्य को ध्यान में रखते हुए,  संदर्भ-आधारित, दूरसंचार और अधिकार-आधारित तरीके के रूप में वस्तुनिष्ठ  शब्द के आधार पर पढ़ा जाना चाहिए।

भारत में स्थिति

भारत के डेटा सुरक्षा पहलुओं को प्रमुख रूप से नए प्रस्तावित कानून के साथ निपटाया जाता है जिसे पर्सनल डेटा प्रोटेक्शन बिल, 2019 (पीडीपीबी) कहा जाता है। जस्टिस के.एस. पुट्टस्वामी बनाम यूनियन ऑफ़ इंडिया (2017) के मामले में दिए गए फैसले ने भारत में निजता न्यायशास्त्र (ज्यूरिस्प्रूडेंस) के परिदृश्य (लैंडस्केप) को बदल दिया था। जहां तक ​​भेदभाव का सवाल है, भारत का संविधान इसे अनुच्छेद 14 और 15 के तहत शिक्षा, सार्वजनिक स्थानों और रोजगार के संदर्भ में सार्वजनिक जीवन के विशिष्ट आधारों और पहलुओं पर मान्यता देता है, हालांकि, बिल इस संतुलन को नहीं दर्शाता है।

पीडीपीबी जिन विनियमों को लागू करना चाहता है, वे व्यावसायिक आवश्यकताओं के कारण हुए नुकसान पर आधारित हैं। हालांकि, नुकसान की परिभाषा के गलत दिशा-निर्देशों के कारण विभिन्न निहितार्थ (इंप्लीकेशंस) हो सकते हैं। अभी तक इस शब्द से जुड़ी कोई निश्चित व्याख्या नहीं है, लेकिन भेदभावपूर्ण व्यवहार बिल की धारा 3(20)(vi) के तहत नुकसान के दायरे में आता है। हालांकि, यह अस्पष्ट बना हुआ है कि किस रूप और प्रकार के भेदभाव को वास्तव में रोकने की कोशिश की जाती है।

हालांकि, जहां तक ​​स्वचालित निर्णय लेने का संबंध है, पीडीपीबी स्वचालित निर्णय लेने की प्रक्रियाओं से होने वाले नुकसान को संबोधित नहीं करता है। यह इससे निपटने के लिए कोई कड़े विशिष्ट प्रावधान प्रदान नहीं करता है। बस इतना है कि पीडीपीबी के तहत पूरी तरह से मूल्यांकन करने के लिए बड़े पैमाने पर प्रोफाइलिंग की आवश्यकता होती है। यह डेटा विषयों को स्वचालित प्रोफाइलिंग पर आपत्ति करने का कोई अधिकार नहीं देकर उन्हें सशक्त बनाने में विफल रहता है, इसका एकमात्र अपवाद बच्चे हैं। ऐसे कई महत्वपूर्ण मुद्दे हैं जिनका उत्तर अभी भी दिया जाना है।

निष्कर्ष (कंक्लूज़न)

भारत के लिए, यह अभी भी काफी हद तक विकासशील अवस्था में है। वर्तमान में भारत किसी भी क्षेत्र में किसी भी अंतरराष्ट्रीय मानकों को पूरा करने के लिए सभी या अधिकांश सामान्य गोपनीयता सिद्धांतों से संबंधित व्यक्तिगत डेटा को महत्वपूर्ण सुरक्षा प्रदान नहीं करता है। हालांकि, अन्य देशों के लिए, हाल के घटनाक्रम एक आशाजनक भविष्य दिखाते हैं। हमें यह भी समझना होगा कि भेदभाव के मुद्दों को अभी जड़ तक आना बाकी है। इसलिए, व्यक्ति को सर्वोत्तम संभव सुरक्षा प्रदान करने के लिए, डेटा संरक्षण और भेदभाव-विरोधी दोनों कैसे काम करते हैं, इसकी अच्छी समझ होना महत्वपूर्ण है।

संदर्भ (रेफरेंस)

कोई जवाब दें

Please enter your comment!
Please enter your name here