विपणन में डीपफेक के कानूनी निहितार्थ

0
1654

यह लेख Sukanya Das द्वारा लॉसिखो से हाऊ टू यूज ए.आई. टू ग्रो योर लीगल प्रैक्टिस पर ट्रेनिंग प्रोग्राम पर एक कोर्स करने के लिए लिखा गया है। इस लेख में विपणन (मार्केटिंग) में डीपफेक के कानूनी निहितार्थ पर चर्चा की गई है। इस लेख का अनुवाद Divyansha Saluja के द्वारा किया गया है।

परिचय

इस डिजिटल युग में, डीपफेक तकनीक को नवीन अवसरों के साथ और कुछ महत्वपूर्ण चुनौतियों के साथ भी पेश किया गया है, खासकर विपणन के क्षेत्र में। जबकि डीपफेक प्रौद्योगिकियां फिल्म निर्माण की तरह पूरे मनोरंजन उद्योग में एक नया मार्ग बना सकती हैं, जो निर्माण गृह के लिए बहुत सस्ती हो सकती है, दुर्भाग्य से, यह तकनीक अश्लील वीडियो, नकली समाचार, बदमाशी, अभद्र भाषा, बाल शोषण और वित्त उद्योग में भी संभावित उपयोग के लिए बहुत बदनाम हो गई है। आजकल, डीपफेक तकनीक (जनरेटिव एडवरसैरियल नेटवर्क (जीएएन)) का उपयोग नकली सामग्री, जोड़ तोड़ वाले वीडियो और चित्र बनाने के लिए उत्तरोत्तर किया जा रहा है जिन्हें नकली और वास्तविक के बीच अंतर नहीं किया जा सकता है; उदाहरण के लिए, हाल ही में अभिनेत्री रश्मिका मंदाना की विशेषता वाला एक वायरल डीपफेक वीडियो ऑल-सोशल मीडिया प्लेटफॉर्म पर सामने आया, जिसने जनता के बीच भारी चिंता पैदा कर दी। एक और उदाहरण: 2018 में, एक वीडियो वायरल हुआ जिसमें अमेरिकी राष्ट्रपति ओबामा के एक बयान देने वाले डीपफेक-जनरेटेड वीडियो को दर्शाया गया था। यहां डीपफेक के परिदृश्य का पता लगाया जाएगा, प्रकार, लाभ, अंतर्राष्ट्रीय कानून, विपणन, ए.आई. में कानून की भूमिका और वित्त और प्रतिष्ठा पर प्रभाव पर ध्यान केंद्रित किया जाएगा।

डीपफेक क्या हैं और इसके प्रकार

डीपफेक एक प्रकार का सिंथेटिक मीडिया है जो यथार्थवादी चित्र, वीडियो या ऑडियो बनाने के लिए कृत्रिम बुद्धिमत्ता (आर्टिफिशियल इंटेलीजेंस) (ए.आई.) का उपयोग करता है। उनका उपयोग अक्सर नकली समाचार बनाने या किसी और का प्रतिरूपण करने के लिए किया जाता है। विभिन्न तकनीकों का उपयोग करके डीपफेक बनाए जा सकते हैं, लेकिन यथार्थवादी चेहरे या आवाज उत्पन्न करने का तरीका सीखने के लिए डीप लर्निंग मॉडल का उपयोग करना सबसे आम है। इस मॉडल का उपयोग तब नकली वीडियो या ऑडियो क्लिप बनाने के लिए किया जा सकता है जो वास्तविक प्रतीत होगी।

डीपफेक एक अपेक्षाकृत नई तकनीक है, लेकिन दुनिया पर उनका पहले से ही महत्वपूर्ण प्रभाव पड़ा है। उनका उपयोग गलत सूचना फैलाने, लोगों को ब्लैकमेल करने और यहां तक कि चुनावों में हस्तक्षेप करने के लिए किया गया है। जैसे-जैसे डीपफेक अधिक परिष्कृत होते जाते हैं, संभावना है कि उनका उपयोग और भी अधिक दुर्भावनापूर्ण उद्देश्यों के लिए किया जाएगा।

डीपफेक के बारे में कई चिंताएं हैं। एक चिंता यह है कि उनका इस्तेमाल फर्जी खबरें बनाने या गलत सूचना फैलाने के लिए किया जा सकता है। उदाहरण के लिए, एक डीपफेक वीडियो बनाया जा सकता है ताकि यह प्रकट हो सके कि एक राजनेता ने कुछ ऐसा कहा जो उन्होंने वास्तव में नहीं कहा था। इसका उपयोग चुनाव को प्रभावित करने या किसी की प्रतिष्ठा को नुकसान पहुंचाने के लिए किया जा सकता है।

एक और चिंता यह है कि डीपफेक का इस्तेमाल लोगों को ब्लैकमेल करने के लिए किया जा सकता है। उदाहरण के लिए, यह प्रकट करने के लिए एक डीपफेक वीडियो बनाया जा सकता है कि कोई ऐसा कुछ कर रहा है जो उन्होंने वास्तव में नहीं किया था। इसका उपयोग व्यक्ति से पैसे निकालने या उन्हें कुछ ऐसा करने के लिए ब्लैकमेल करने के लिए किया जा सकता है जो वे नहीं करना चाहते हैं।

डीपफेक का इस्तेमाल चुनावों में हस्तक्षेप करने के लिए भी किया जा सकता है। उदाहरण के लिए, एक डीपफेक वीडियो बनाया जा सकता है ताकि यह दिखाई दे कि एक उम्मीदवार कार्यालय के लिए अयोग्य है। इसका उपयोग लोगों को उम्मीदवार को वोट देने से हतोत्साहित करने या चुनाव जीतने की संभावनाओं को नुकसान पहुंचाने के लिए किया जा सकता है।

डीपफेक से निपटने के कई तरीके हैं। एक तरीका यह है कि जनता को डीपफेक और इसकी गलत सूचना फैलाने के लिए उनका उपयोग कैसे किया जा सकता है के बारे में शिक्षित किया जाए। दूसरा तरीका डीपफेक का पता लगाने के लिए उपकरण विकसित करना है। अंत में, उन कानूनों और विनियमों का समर्थन करना महत्वपूर्ण है जो डीपफेक के दुरुपयोग को रोकने में मदद करेंगे।

विपणन में डीपफेक के कानूनी निहितार्थ जटिल और दूरगामी हैं। डीपफेक यथार्थवादी डिजिटल छवियां या वीडियो हैं जो कृत्रिम बुद्धिमत्ता (ए.आई.) का उपयोग करके यह प्रकट करने के लिए बनाए गए हैं कि कोई ऐसा कुछ कर रहा है या कह रहा है जो उन्होंने नहीं किया। जबकि नकली का उपयोग मनोरंजन के उद्देश्य से किया जा सकता है, उनका उपयोग गलत सूचना फैलाने, चुनावों में हेरफेर करने या प्रतिष्ठा को नुकसान पहुंचाने के लिए भी किया जा सकता है।

डीपफेक के बारे में सबसे बड़ी कानूनी चिंताओं में से एक यह है कि उनका उपयोग झूठे विज्ञापन बनाने के लिए किया जा सकता है। उदाहरण के लिए, एक गहरे नकली का उपयोग यह प्रकट करने के लिए किया जा सकता है कि एक सेलिब्रिटी किसी उत्पाद का समर्थन कर रहा है जब उनका वास्तव में उत्पाद से कोई संबंध नहीं है। यह उपभोक्ताओं को गुमराह कर सकता है और उन्हें खरीदारी करने के लिए प्रेरित कर सकता है जो उन्होंने अन्यथा नहीं किया होगा।

डीपफेक के बारे में एक और कानूनी चिंता यह है कि उनका इस्तेमाल व्यक्तियों को परेशान करने या बदनाम करने के लिए किया जा सकता है। उदाहरण के लिए, एक डीपफेक का उपयोग एक वीडियो बनाने के लिए किया जा सकता है जो किसी को कुछ शर्मनाक या अवैध करते हुए दिखाता है। यह व्यक्ति की प्रतिष्ठा को नुकसान पहुंचा सकता है और उनके लिए नौकरी पाना या रिश्ते बनाए रखना मुश्किल बना सकता है।

इन विशिष्ट कानूनी चिंताओं के अलावा, डीपफेक गोपनीयता और अभिव्यक्ति की स्वतंत्रता के बारे में व्यापक प्रश्न भी उठाते हैं। उदाहरण के लिए, यह स्पष्ट नहीं है कि डीपफेक पहले संशोधन द्वारा संरक्षित हैं या नहीं। यदि डीपफेक को भाषण माना जाता है, तो उन्हें पहले संशोधन के तहत संरक्षित किया जा सकता है, भले ही उनका उपयोग गलत सूचना फैलाने या व्यक्तियों को परेशान करने के लिए किया जाता हो।

विपणन में डीपफेक के कानूनी निहितार्थों पर अभी भी बहस चल रही है। हालांकि, यह स्पष्ट है कि डीपफेक में हानिकारक उद्देश्यों के लिए उपयोग किए जाने की क्षमता है। नतीजतन, सांसदों, नियामकों और विपणकर्ताओं के लिए कानूनों और विनियमों को विकसित करने के लिए मिलकर काम करना महत्वपूर्ण है जो डीपफेक द्वारा उत्पन्न जोखिमों को दूर कर सकते हैं।

विपणन में डीपफेक के कानूनी निहितार्थों को संबोधित करने के लिए यहां कुछ विशिष्ट सिफारिशें दी गई हैं:

  • स्पष्ट कानून और नियम विकसित करें जो झूठे विज्ञापन के लिए डीपफेक के उपयोग को प्रतिबंधित करते हैं।
  • डीपफेक के खतरों के बारे में जन जागरूकता अभियान बनाएं।
  • डीपफेक बनाते और उपयोग करते समय विपणक को नैतिक दिशानिर्देशों का उपयोग करने के लिए प्रोत्साहित करें।
  • डीपफेक का पता लगाने और उसे रोकने के तरीकों में अनुसंधान का समर्थन करें।

ये कदम उठाकर, हम यह सुनिश्चित करने में मदद कर सकते हैं कि डीपफेक का उपयोग उपभोक्ताओं को नुकसान पहुंचाने या हमारे लोकतंत्र को कमजोर करने के लिए नहीं किया जाता है।

प्रकार

  • ऑडियो-विजुअल हेरफेर: अन्य लोगों के शीर्ष पर लोगों की आवाज़ों और चेहरों को एक के ऊपर करके ऑडियो/वीडियो रिकॉर्डिंग को संशोधित करता है (मॉर्फिंग)। होठ तुल्यकालन (लिप सिंकिंग) किसी अन्य व्यक्ति को नेत्रहीन या मुखर रूप से कुछ कहने का एक और तरीका है जो मूल रूप से वीडियो या ऑडियो सामग्री में शामिल नहीं है।
  • सिंथेटिक मीडिया: इस प्रकार का डीपफेक पूरी तरह से अलग और मनगढ़ंत सामग्री उत्पन्न करता है, उदाहरण के लिए, वीडियो और चित्र। ये वास्तविकता से बहुत दूर हैं। उदाहरण के लिए, चेहरे की अदला बदली में किसी के चेहरे को किसी अन्य व्यक्ति के चेहरे से बदलना या शायद किसी अन्य फोटो/वीडियो सामग्री के साथ शामिल करना शामिल है। एक और उदाहरण: 2017 के अंत में, एक उपयोगकर्ता ने सेलिब्रिटी पोर्न डीपफेक पेश करना शुरू कर दिया और वहाँ कई शौक़ीन भी हैं जो केवल डीपफेक-संबंधित अश्लील साहित्य बनाने पर ध्यान केंद्रित करते हैं।

उपरोक्त बिंदुओं पर संक्षिप्त चर्चा

एक रिपोर्ट सामने आई थी कि न्यू जर्सी हाई स्कूल और वेस्टफील्ड हाई स्कूल के छात्र अपने स्वयं के सहपाठियों की नकली नग्न या अश्लील छवियां बनाने के लिए मूल तस्वीरों में हेरफेर करने के लिए ए.आई. का उपयोग कर रहे हैं और जाहिर तौर पर तस्वीरें गर्मियों में समूहों के आसपास सामने आ रही थीं। ए.आई. तकनीक इतनी उन्नत हो गई है कि अब किशोर ऑनलाइन स्रोतों से ली गई अश्लील छवियों को बदल रहे हैं और अपने स्वयं के कम उम्र के सहपाठियों की नग्न तस्वीरें बना रहे हैं। एनबीसी के स्रोत से, माता-पिता को स्कूल प्रशासक द्वारा अपने बच्चों के पाठ्यक्रम में चैटजीपीटी को शामिल करने के बारे में सूचित किया गया था; इसलिए, सबसे पहले, वे चिंतित थे कि इससे उनके बच्चे की शिक्षा प्रभावित होगी और उनके स्कूल की गतिविधियों के लिए निबंध लिखना आसान हो जाएगा। बहरहाल, नकली नग्न तस्वीरों से जुड़ी घटना के बारे में जानने के बाद, चीजें बहुत अधिक चिंताजनक हो गईं।

भारत में, इलेक्ट्रॉनिक रूप में किसी भी यौन या अश्लील सामग्री को प्रकाशित या प्रसारित करना आईटी अधिनियम की धारा 67A के तहत दंडनीय है। पहली बार दोषी पाए जाने पर एक अवधि के लिए कारावास का दंड होगा जिसे 5 साल तक बढ़ाया जा सकता है और साथ ही जुर्माना भी देय होगा जो दस लाख रुपये तक हो सकता है। दूसरी बार दोषी पाए जाने पर कारावास की अवधि सात साल तक बढ़ाई जा सकती है और जुर्माना भी 10 लाख रुपए तक बढ़ाया जा सकता है। एक और तरीका किसी भी सामग्री को प्रकाशित या प्रसारित करना है जो यौन उत्तेजना का कारण बनता है लेकिन बिल्कुल या स्पष्ट रूप से इंगित नहीं किया गया है, क्योंकि अश्लील साहित्य को भी अश्लील माना जाता है और आईटी अधिनियम की धारा 67  के तहत दंडनीय है। इसके लिए एक अवधि के लिए कारावास हो सकता, जिसे तीन साल तक बढ़ाया जा सकता है और जुर्माना भी देय होगा जिसे पांच लाख रुपये तक बढ़ाया जा सकता है। बाद में दोषी पाए जाने पर पांच साल की कैद और दस लाख रुपये का जुर्माना बढ़ाया जा सकता है। सचिन तेंदुलकर के डीपफेक वीडियो (मानहानि (डिफेमेशन) की सजा) फैलाने के लिए जिम्मेदार गेमिंग वेबसाइट के मालिक के खिलाफ आईपीसी की धारा 500 का हालिया मामला लगाया गया था। यह ध्यान दिया जाना चाहिए कि आईपीसी की धारा 465 (जालसाजी के लिए सजा), धारा 469 (प्रतिष्ठा को नुकसान पहुंचाने के उद्देश्य से जालसाजी), और आईटी अधिनियम की धारा 66C और 66E उन अपराधों को संबोधित करने वाले हैं जो कंप्यूटर संसाधनों और सूचना से संबंधित हैं। धारा 66C विशेष रूप से पहचान की चोरी से संबंधित है और धारा 66E गोपनीयता के उल्लंघन के लिए सजा को संबोधित करती है। इसलिए, इन धाराओं का उपयोग किसी भी व्यक्ति के खिलाफ कानूनी कार्रवाई करने के लिए किया जा सकता है, यदि आवश्यक हो, जब कोई या उपयोगकर्ता किसी अन्य व्यक्ति के अपमानजनक बयान देने या किसी की प्रतिष्ठा को नुकसान पहुंचाने जैसे डीपफेक के लिए ए.आई. तकनीक का दुरुपयोग करने की कोशिश करता है। सूचना प्रौद्योगिकी अधिनियम, 2000 की धारा 67B में बच्चों के अश्लील कार्यों को इलेक्ट्रॉनिक रूप में यौन विषय-वस्तु अथवा अश्लील साहित्य दर्शाने के लिए दंड का प्रावधान है। पोक्सो अधिनियम, 2012 की धारा 13, 14 और 15 इन सभी अधिनियमों को महिलाओं और बच्चों के अधिकारों की रक्षा के लिए लागू किया जा सकता है, और इन अपराधों पर मुकदमा भी चलाया जा सकता है, और धारा 292  और 294 भी दंड संहिता, 1860 के तहत अश्लील सामग्री के लिए दंडनीय हैं।

2024 के लोकसभा चुनावों ने एक चुनौतीपूर्ण स्थिति दिखाई, जिसने निश्चित रूप से डीपफेक के कारण खतरा पैदा कर दिया। कुछ राजनीतिक उम्मीदवारों को उनके डीपफेक वीडियो और ऑडियो दिखाते हुए चित्रित करना कि वे एक विशेष समुदाय के खिलाफ टिप्पणी कर रहे थे और इससे दंगे भड़काने का तीव्र सांप्रदायिक तनाव हो सकता है। चुनावी प्रक्रिया के दौरान इस प्रकार का व्यवधान संभवतः सामाजिक सद्भाव के लिए खतरा पैदा कर सकता है और सार्वजनिक अव्यवस्था भी पैदा कर सकता है। इस प्रकार के दंगों को आईपीसी की धारा 153A (धर्म, जाति, जन्म स्थान और निवास के आधार पर विभिन्न समूहों के बीच नफरत को बढ़ावा देना) और धारा 505 (सार्वजनिक शरारत करने वाले बयान) के तहत जानबूझकर अपराध माना जा सकता है। हालाँकि, भारतीय कानूनी प्रणाली में अभी भी कई पहलुओं की कमी है, हालाँकि मेटी सलाहकार एक साथ अस्थायी समर्थन देते हुए मुद्दों को हल करने की पूरी कोशिश कर रहे हैं। इसलिए, अंत में, कानून को गंभीर होने और ए.आई. के संबंध में तेजी से आगे बढ़ने की आवश्यकता है।

डीपफेक में कई अन्य बहुमुखी प्रतिभाएं हैं, और डीपफेक प्रौद्योगिकियां कई घटनाओं को पुन: पेश करने में सक्षम हैं और जनता की राय या धारणाओं को बदल सकती हैं, बाजार में व्यापक महत्वपूर्ण रणनीतियाँ उपलब्ध हैं। डीपफेक बनाने वालों को 4 तरीकों से भी अलग किया जा सकता है:

  • सार्वजनिक डीपफेक शौकीन;
  • दुर्भावनापूर्ण ठग;
  • सरकारी अभिनेता जैसे राजनेता;
  • असली खिलाड़ी, जैसे टेलीविजन प्रतिष्ठान।

डीपफेक तकनीक के लाभ और मुद्दे

मीडिया मनोरंजन उद्योग

डीपफेक तकनीकों का उपयोग फिल्मों या किसी काल्पनिक वेब सीरीज में दृश्य प्रभावों को बढ़ा सकता है और यह कहानी को और अधिक रोचक बनाता है। लेकिन किसी अन्य तरीके से, डीपफेक तकनीक अभिनेताओं/कलाकारों के पक्ष में नुकसान भी पैदा कर सकती है। नेटफ्लिक्स के ब्लैक मिरर के साथ हाल ही में एक मुद्दा हुआ है; इससे पता चलता है कि ए.आई. पीढ़ी की मदद से पात्रों और अभिनेताओं का चित्रण भविष्य से बहुत दूर नहीं है। अभिनेता, जो बाद में दिसंबर 2023 में हड़ताल पर चले गए थे, ने अपनी कोई भी डिजिटल प्रतिकृति बनाने से पहले कंपनियों के साथ उनकी सहमति प्राप्त करने के लिए एक सौदा किया और यह सहमति में भी शामिल है कि कंपनियों को यह खुलासा करना होगा कि प्रतिकृति का उपयोग किस कारण से किया जाएगा; अभिनेताओं को उनकी डिजिटल प्रतिकृतियों के उपयोग के लिए मुआवजा देने की आवश्यकता है। एक और चीज शामिल है, जो अभिनेताओं की छवियों के आधार पर सिंथेटिक नकली कलाकारों के लिए एक दिशानिर्देश है और इसका उपयोग जनरेटिव ए.आई. को प्रशिक्षित करने के लिए किया जा सकता है।

एक अन्य प्रकार का मुद्दा जिसने हाल ही में भारत में और इसके लोगों के भीतर एक बड़ी चिंगारी पैदा की है, कैटरीना कैफ, आलिया भट्ट, रश्मिका मंदाना और सचिन तेंदुलकर जैसे प्रभावशाली या सेलिब्रिटी आंकड़े “मॉर्फिंग” जैसी डीपफेक तकनीक के दुरुपयोग का शिकार थे। दुर्भाग्य से, आजकल ये घटनाएं आम हो गई हैं, जो डीपफेक के अवैध और अनैतिक उपयोग के बारे में अलार्म उठा रही हैं। 23 दिसंबर, 2023 को इलेक्ट्रॉनिक्स और सूचना मंत्रालय ने सभी ऑनलाइन प्लेटफॉर्म (मध्यस्थों (इंटरमीडियरीज)) को कुछ निश्चित नियमों का पालन करने का निर्देश देते हुए सलाहकारी जारी की। मध्यस्थों को उपयोगकर्ताओं को स्पष्ट रूप से सूचित करना होगा कि उन्हें सूचना प्रौद्योगिकी (मध्यस्थों दिशानिर्देश और डिजिटल मीडिया आचार संहिता) नियम, 2021 और आईटी नियमों के नियम 3(1)(b) के तहत दायित्वों का पालन करना होगा उनके प्लेटफार्मों पर निषिद्ध सामग्री और गोपनीयता नीति, उपयोगकर्ता समझौते और सेवा की शर्तों के हिस्से के रूप में महत्वपूर्ण दस्तावेजों में शामिल करने की आवश्यकता है। नियम (3)(b)(v) में भ्रामक या गलत जानकारी भी निषिद्ध है, इसलिए इस नियम में उपयोगकर्ताओं को सूचित करना शामिल है कि किसी भी सामग्री को होस्टिंग, अपलोड, प्रदर्शित, साझा करना या संशोधित करना जो हानिकारक, अश्लील, मानहानिकारक, या पीडोफिलिक है, दूसरे व्यक्ति या मालिकों का जिनके सामान वे उपयोग कर रहे हैं, गैरकानूनी हैं, और मध्यस्थों को उस सामग्री के लिए जिम्मेदारी लेनी चाहिए जो वे अपनी सेवाओं पर साझा कर रहे हैं और अपने उपयोगकर्ताओं को इस बारे में शिक्षित करना चाहिए कि क्या अनुमत है और किसकी अनुमति नहीं है। 15 मार्च, 2024 की सलाहकारी ने कंपनियों को सलाह दी या सुझाव दिया कि उन्हें किसी भी/प्रत्येक ए-निर्मित टेक्स्ट या मीडिया में कुछ विशेष लेबल या एक अद्वितीय कोड जोड़ना चाहिए क्योंकि इससे सामग्री को ट्रैक करना आसान हो जाएगा, जैसे कि यह कहां से आया है और किसी भी दुरुपयोग के लिए रोका जा सकता है। इसलिए, मुख्य लक्ष्य यह पहचानना है कि डीपफेक किसी कंपनी के टूल का उपयोग करके बनाए गए थे या नहीं और इससे यह पता लगाने में भी मदद मिलेगी कि उन्हें किसने बनाया है। हालांकि इन सभी दिशानिर्देशों का कोई कानूनी वजन नहीं है, इसका मतलब है कि कंपनियों को कानून द्वारा उनका पालन करने की आवश्यकता नहीं है, इसलिए कंपनियां अभी भी डीपफेक के लिए भविष्य के कानूनों को प्रभावित कर सकती हैं।

भारत में, डीपफेक खतरों को मापने और संबोधित करने के लिए कानूनी ढांचे का अभाव है; हालांकि, सूचना प्रौद्योगिकी अधिनियम, 2000 (आईटी अधिनियम), भारतीय दंड संहिता, 1860 (आईपीसी) और आईटी नियमों जैसे मौजूदा कानून संभावित सामर्थ्य प्रदान करते हैं।

शिक्षा और प्रशिक्षण

शिक्षा और प्रशिक्षण नकली कदाचार के प्रसार का मुकाबला करने में एक महत्वपूर्ण भूमिका निभाते हैं, रचनात्मक परियोजनाओं की सटीकता और अखंडता की सुरक्षा में एक महत्वपूर्ण कदम है। जनता को ए.आई. के दुरुपयोग के संभावित जोखिमों और परिणामों के बारे में शिक्षित करने की आवश्यकता है ताकि व्यक्ति सूचित निर्णय ले सकें और अनैतिक प्रथाओं में शामिल होने से बच सकें।

स्कूलों को कम उम्र से शुरू करते हुए ए.आई. शिक्षा को अपने पाठ्यक्रम में शामिल करना चाहिए। छात्रों को ए.आई. के मूल सिद्धांतों को पढ़ाया जाना चाहिए, जिसमें इसकी क्षमताएं, सीमाएं और नैतिक निहितार्थ शामिल हैं। ए.आई. में बच्चों को एक ठोस आधार प्रदान करके, स्कूल उन्हें महत्वपूर्ण सोच कौशल और ए.आई. को रचनात्मक और जिम्मेदारी से उपयोग करने की क्षमता विकसित करने में मदद कर सकते हैं।

स्कूलों में ए.आई. सिखाने का एक तरीका परियोजना-आधारित शिक्षा पर ध्यान केंद्रित करना है। छात्रों को ऐसी परियोजनाएं सौंपी जा सकती हैं जिनके लिए उन्हें वास्तविक दुनिया की समस्याओं को हल करने या अभिनव समाधान बनाने के लिए ए.आई. का उपयोग करने की आवश्यकता होती है। यह व्यावहारिक दृष्टिकोण छात्रों को अपने ज्ञान को लागू करने और ए.आई. के साथ व्यावहारिक अनुभव प्राप्त करने की अनुमति देता है।

ए.आई. के बारे में छात्रों को पढ़ाने के अलावा, उन्हें नकली कदाचार के खतरों के बारे में शिक्षित करना भी महत्वपूर्ण है। छात्रों को उन विभिन्न तरीकों से अवगत कराया जाना चाहिये जिनसे एआई का दुरुपयोग किया जा सकता है, जैसे कि नकली समाचार बनाना या दुष्प्रचार फैलाना। उन्हें यह भी सिखाया जाना चाहिए कि नकली सामग्री की पहचान कैसे करें और इसे उपयुक्त अधिकारियों को कैसे रिपोर्ट करें।

ए.आई. और नकली कदाचार से बचने के महत्व के बारे में जनता को शिक्षित करके, हम एक अधिक सूचित और जिम्मेदार समाज बना सकते हैं। इससे यह सुनिश्चित करने में मदद मिलेगी कि ए.आई. का उपयोग मानवता की भलाई के लिए किया जाता है न कि दुर्भावनापूर्ण उद्देश्यों के लिए।

डीपफेक तकनीकों को भी जनता को शिक्षित करने की आवश्यकता है क्योंकि डीपफेक विश्लेषण एक छोटे लेकिन अनोखे तरीके से किया जा सकता है, जैसे कैमरे का उपयोग करके वीडियो रिकॉर्ड करते समय, लेंस विरूपण (डिस्टॉर्शन) और सेंसर शोर जैसे छोटे निशान पीछे रह जाते हैं। ये निशान डीपफेक के प्रमाण या पहचान के रूप में कार्य करते हैं क्योंकि प्रत्येक कैमरा अद्वितीय है और इसके कारण, डीपफेक वीडियो बनाने के साथ किए जाने के बाद भी सबूत बनाए रखा जा सकता है।

अंतर्राष्ट्रीय कानून

आपराधिक क़ानून और मानहानि

  • संयुक्त राज्य अमेरिका: अभी, डीपफेक तकनीक के खतरों को दूर करने के लिए कोई संघीय कानून उपलब्ध नहीं है। हालांकि कुछ राज्यों ने डीपफेक तकनीक के बारे में कानून के चयनित टुकड़े पारित किए हैं, जैसे टेक्सास, जिसने एसबी 751 को मंजूरी दी है और कैलिफोर्निया ने भी 730 के वर्ष में एबी 2019 पारित किया है। इसलिए, इन दोनों कानूनों ने डीपफेक संबंधित सामग्री के उपयोग पर प्रतिबंध लगा दिया है क्योंकि इसका उपयोग उनके चुनाव में किया गया होगा और इससे उम्मीदवारी प्रभावित हो सकते है।
  • चीन: यह बहुत कम देशों में से एक है जिसने डीपफेक, विशेष रूप से डीप सिंथेसिस प्रावधानों के संबंध में एक सख्त विनियमन स्थापित किया है। यह अधिनियम वास्तव में ए.आई. उपयोगकर्ता को प्राथमिक उपयोगकर्ता की सहमति या ज्ञान के बिना किसी भी सामग्री को डीपफेक करने से रोकता है। यह अधिनियम जनवरी 2023 में चीन में प्रभावी हो गया। अधिनियम के मुख्य दो उद्देश्य हैं:
  • ऑनलाइन सेंसरशिप को मजबूत करना।
  • नई उन्नत तीव्र तकनीकों के साथ बिंदु तक रहें।

मानहानि की जा सकती है क्योंकि डीपफेक कंटेंट बनाने वाले अपकृत्य (ट्रॉट) के निजी कानून के तहत कुछ हद तक उत्तरदायी हैं। हालांकि, मानहानि का अपकृत्य ऑस्ट्रेलियाई कानून की तरह देश से देश में भिन्न हो सकता है, जो वास्तव में मुख्य रूप से लिखित और बोली जाने वाली सामग्री का सामना करने के लिए डिज़ाइन किया गया है, उदाहरण के लिए, एक समाचार पत्र।

आईपी उल्लंघन और कॉपीराइट

व्यापार चिह्न या लेबल जैसी किसी चीज़ का अवैध रूप से शोषण करना आईपी अधिकारों का उल्लंघन है। डीपफेक के साथ खतरा लंबा है और अधिक गंभीर मुद्दों का कारण बन सकता है, उदाहरण के लिए, मानवाधिकार, व्यक्तिगत डेटा संरक्षण और गोपनीयता अधिकार, और कॉपीराइट उल्लंघन। अभी, ऑस्ट्रेलिया में कोई कानून नहीं है जो नागरिकों को उनके आईपी अधिकारों के लिए किसी के अपने चेहरे या आवाज के लिए मदद कर सकता है; केवल एक लेखक ही अपने चेहरे को दर्शाने वाले अपने काम का कॉपीराइट रख सकता है या अपनी आवाज रिकॉर्ड करने के साथ भी किया जा सकता है।

ए.आई. में कानून की भूमिका और चुनौतियां

डीपफेक और कदाचार के भारी उपयोग के कारण, राजनीतिक अधिकारियों और उम्मीदवारों के डीपफेक उपयोग पर प्रतिबंध लगाने के निहितार्थ एक महत्वपूर्ण चुनौती बन गए हैं। यहां अधिकार क्षेत्र के भीतर जनता की अभिव्यक्ति की स्वतंत्रता के साथ-साथ संरक्षण को संरेखित करने के लिए कानून प्रणाली नियम को फिर से काम करना आवश्यक है। भारत में इस डीपफेक कदाचार के मुद्दे का भी अभाव है; हालाँकि, भारत कानूनों को फंसाने की कोशिश कर रहा है, जो सामूहिक रूप से सरकार को कुछ हद तक डीपफेक मुद्दे से लड़ने में मदद कर सकते हैं। आईटी अधिनियम की धारा 66E कहती है कि किसी भी व्यक्ति की गोपनीयता का उल्लंघन करने के लिए दंड होगा, जैसे कि किसी की सहमति के बिना किसी भी चित्र को प्रसारित या प्रकाशित करना और सजा में 3 साल की कैद के साथ-साथ 2 लाख रुपये का जुर्माना शामिल है जो तैयारी करने वाले पर लगाया जाएगा। फिर भी, इस अधिनियम पर एक दुविधा है; बात यह है कि क्या यह धारा तब लागू होगी जब छवियां पूरी तरह से नकली उत्पन्न होती हैं और ए.आई. की मदद से विकसित होती हैं।

वित्त और प्रतिष्ठा को नुकसान

दुर्भाग्य से, दुर्भावनापूर्ण डीपफेक का खतरा वित्त उद्योग पर मंडरा रहा है, जिससे बाजार में हेरफेर, वित्तीय नुकसान और अस्थिरता का एक महत्वपूर्ण जोखिम पैदा हो रहा है। धोखा देने और नुकसान पहुंचाने के इरादे से बनाए गए ये डीपफेक व्यवसायों और व्यक्तियों के लिए समान रूप से दूरगामी परिणाम हो सकते हैं।

प्राथमिक चिंताओं में से एक स्टॉक की कीमतों में हेरफेर करने के लिए डीपफेक का उपयोग करने की क्षमता है। झूठे बयान देने या अनैतिक व्यवहार में संलग्न होने वाले व्यापारिक नेताओं के नकली वीडियो या ऑडियो रिकॉर्डिंग बनाकर, दुर्भावनापूर्ण अभिनेता गलत सूचना फैला सकते हैं और निवेशकों को गलत जानकारी के आधार पर निर्णय लेने का कारण बन सकते हैं। इससे अचानक बाजार में उतार-चढ़ाव, घबराहट में बेचना और पहले से न सोचा निवेशकों के लिए महत्वपूर्ण वित्तीय नुकसान हो सकता है।

डीपफेक से जुड़ा एक अन्य बड़ा जोखिम यह है कि वे व्यवसायों और व्यक्तियों की प्रतिष्ठा को नुकसान पहुंचा सकते हैं। भ्रामक या मानहानिकारक डीपफेक सामग्री जल्दी से ऑनलाइन फैल सकती है, व्यवसायों की विश्वसनीयता को धूमिल कर सकती है और ग्राहकों और भागीदारों के उन पर विश्वास को नुकसान पहुंचा सकती है। इससे राजस्व खोना पड़ सकता है, ब्रांड छवि क्षतिग्रस्त हो सकती है और नए ग्राहकों को आकर्षित करने में कठिनाई हो सकती है।

डीपफेक के दुरुपयोग से मुक्त भाषण और अभिव्यक्ति पर भी द्रुतशीतन (सी) प्रभाव पड़ सकता है। डीपफेक द्वारा लक्षित होने का डर व्यवसायों और व्यक्तियों को महत्वपूर्ण मुद्दों पर बोलने या सार्वजनिक रूप से अपनी राय साझा करने से हतोत्साहित कर सकता है। यह नवाचार, रचनात्मकता और विभिन्न उद्योगों और क्षेत्रों में प्रगति को रोक सकता है।

डीपफेक के बढ़ते खतरे को दूर करने के लिए, नियामक निकाय, प्रौद्योगिकी कंपनियां और कानून प्रवर्तन एजेंसियां इन दुर्भावनापूर्ण कृतियों का पता लगाने और उनका मुकाबला करने के लिए समाधान विकसित करने के लिए मिलकर काम कर रही हैं। इसमें सख्त कानूनों और विनियमों को लागू करना, डीपफेक की पहचान करने के लिए उन्नत तकनीक में निवेश करना और डीपफेक के खतरों के बारे में जनता में जागरूकता बढ़ाना शामिल है।

डीपफेक के खिलाफ लड़ाई जारी है, और व्यवसायों और व्यक्तियों के लिए सूचित और सतर्क रहना महत्वपूर्ण है। एक साथ काम करके, हम दुर्भावनापूर्ण डीपफेक द्वारा उत्पन्न जोखिमों को कम कर सकते हैं और वित्त उद्योग और व्यापक अर्थव्यवस्था की अखंडता की रक्षा कर सकते हैं।

निष्कर्च

हालांकि डीपफेक प्रौद्योगिकियां वित्त और विपणन उद्योग, मीडिया और मनोरंजन उद्योग के लिए कई नए तरीकों और संभावनाओं की पेशकश कर रही हैं, डीपफेक के दुरुपयोग अभी भी उस विश्वास को बनाने के लिए पर्याप्त जोखिम पैदा कर रहे हैं, और यह अर्थव्यवस्था की स्थिरता और सभी के व्यक्तिगत विश्वास को भी खतरे में डाल रहा है। इन चुनौतियों को बहु-कार्य तरीके से संबोधित करने की आवश्यकता है; दृष्टिकोण विधायी, आईटी, शिक्षा और कुछ अंतरराष्ट्रीय सहयोग के साथ भी आने की जरूरत है। इन मजबूत रणनीतियों के निहितार्थ जिम्मेदारियों को बढ़ावा देने में मदद कर सकते हैं और रचनात्मकता के साथ-साथ शेष बाजारों और प्रामाणिकता को सुनिश्चित करके डीपफेक के विकसित परिदृश्य के युग को नेविगेट कर सकते हैं।

संदर्भ

 

कोई जवाब दें

Please enter your comment!
Please enter your name here