ADVERTISEMENTREMOVE AD

रश्मिका मंदाना डीपफेक मामला: कहीं देर ना हो जाए...भारत में AI कानून की सख्त जरूरत

IPC और IT अधिनियम के कुछ प्रावधानों का उपयोग डीपफेक पर रोक के लिए किया जा सकता है, लेकिन ये नियम पर्याप्त नहीं हैं.

Published
story-hero-img
i
छोटा
मध्यम
बड़ा

आर्टिफिशियल इंटेलिजेंस (AI) में तेजी से प्रगति और डीपफेक (DeepFake) के बढ़ती जेंडर आधारित मामलों ने बिग टेक की नीतियों और भारतीय कानूनी प्रणाली की समस्या से निपटने की क्षमता को फिर से सुर्खियों में ला दिया है. इंटरनेट फ्रीडम फाउंडेशन (IFF) की वकील और सहयोगी कानूनी सलाहकार, राधिका रॉय ने द क्विंट को बताया कि प्रौद्योगिकी-सुविधा वाली ऑनलाइन लैंगिक हिंसा एक सच है और डीपफेक ऐसी हिंसा को कायम रखने का एक और पहलू है.

अभिनेत्री रश्मिका मंदाना (Rashmika Mandana) का AI-जनरेटेड डीपफेक वीडियो हाल ही में सोशल मीडिया के जरिए सामने आया. इसके बाद डीपफेक के लिए मजबूत नियमों की जरूरत फिर से सामने आई. यह वीडियो सोशल मीडिया इन्फ्लुएंसर जारा पटेल के शरीर पर AI के जरिए मंदाना का चेहरा लगा दिया गया था.
ADVERTISEMENTREMOVE AD

द क्विंट ने टेक्नोलॉजी, पॉलिसी और कानून जानकारों से बात की और यह समझने की कोशिश की कि मशहूर हस्तियों के साथ-साथ अन्य लोगों का कोई डीपफेक वीडियो होने की स्थिति में उनकी सुरक्षा के लिए क्या उपाय हैं?

डीपफेक क्या हैं और यह खतरनाक क्यों हैं?

वर्जीनिया युनिवर्सिटी के मुताबिक डीपफेक एक आर्टिफिसियल इमेज या इमेजेज की एक सीरीज (यानी एक वीडियो) है, जो एक अलग तरह की मशीन लर्निंग द्वारा बनी होती है, जिसे "डीप लर्निंग" कहा जाता है.

डीप लर्निंग एक मशीन लर्निंग टेक्निक है, जो ह्यूम ब्रेन (दिमाग) लर्निंग को दोहराने के लिए तंत्रिका नेटवर्क में छिपी परतों का उपयोग करती है. ये परतें इनपुट सिग्नल को आउटपुट सिग्नल में बदलने के लिए मैथमेटिकल्स ट्रांसफॉर्मेशन करती हैं. जैसे पूरी तरह से नकली क्रिएटिव इमेज बनाना.

डीपफेक के बारे में द क्विंट से बात करते हुए सॉफ्टवेयर इंजीनियर स्मित शाह, कहते हैं कि

डीपफेक बहुत खतरनाक हैं क्योंकि बैंडविड्थ में बहुत सारा डेटा उपलब्ध है. अगर किसी के पास वीडियो बनाने के लिए इमेजेज हैं, तो यह बहुत आसान हो जाता है. पहले, टेलीविजन दौर में, प्रति सेकंड 24 फ्रेम की जरूरत होती थी. अब यह ज्यादातर 30 है. तो एक मॉडल बनाने के लिए बस 30 फोटोज को रेंडर करके जनरेट करने की जरूरत होती है. इसका उपयोग नकली वीडियो बनाने के लिए आसानी से किया जा सकता है.

स्मित शाह आगे कहते हैं कि जो लोग पब्लिक डोमेन में आसानी से उपलब्ध हैं, वो सबसे ज्यादा रिस्क में हैं. उदाहरण के लिए, प्रभावशाली व्यक्ति और मशहूर हस्तियां, जिनके वीडियो, बोलने के व्यवहार आदि इंटरनेट पर आसानी से उपलब्ध हैं.

डीपफेक की जेडर आधारित प्रकृति

पिछले कुछ सालों से डीपफेक का उपयोग महिलाओं को परेशान करने और डराने-धमकाने के साथ-साथ दुर्भावनापूर्ण कंटेंट वाली वेबसाइट्स पर ट्रैफिक लाने के लिए किया जा रहा है.

मशहूर हस्तियों का डीपफेक अश्लील कंटेंट ऑनलाइन बेचा जाता है और यह एक मिलियन डॉलर की इंडस्ट्री बन गया है. इसके साथ ही, डीपफेक का उपयोग उन व्यक्तियों को ब्लैकमेल करने और उनका शोषण करने के लिए भी किया जाता है, जो लोगों की नजर में नही हैं.

सॉफ्टवेयर फ्रीडम लॉ सेंटर (SFLC) के फाउंडर मिशी चौधरी ने कहा कि AI में विकास के साथ डीपफेक चिंता का एक बढ़ता हुआ क्षेत्र है. उनका उपयोग गलत सूचना फैलाने, दुष्प्रचार करने, परेशान करने, डराने-धमकाने, अश्लील इमेज बनाने और कई अन्य तरीकों से लोगों को कमजोर करने के लिए किया जा रहा है.

एम्स्टर्डम स्थित आइडेंटिटी वेरिफिकेसन कंपनी Sensity AI द्वारा अश्लील डीपफेक कंटेंट पर किए गए रिसर्च से पता चला है कि 2017-2020 के बीच ऑनलाइन उपलब्ध 96 फीसदी डीपफेक यौन रूप से स्पष्ट थे और महिलाओं की सहमति के बिना बनाए गए थे.

डीपफेक की जेंडर आधारित नेचर पर बोलते हुए राधिका रॉय ने द क्विंट को बताया कि डीपफेक तेजी से जेंडर आधारित होता जा रहा है, लेकिन देश में ऐसा ही हो रहा है. टेक्नोलॉजी-सुविधा वाली ऑनलाइन जेंडर आधारित हिंसा एक वास्तविकता है और डीपफेक ऐसी हिंसा को कायम रखने का एक और रूप है.

ADVERTISEMENTREMOVE AD

कैसे करें सेलिब्रिटी अपनी सुरक्षा?

रॉय के मुताबिक "डीपफेक" शब्द को किसी भी कानून में स्पष्ट रूप से परिभाषित नहीं किया गया है, लेकिन इससे निपटने के लिए कानूनी प्रावधान हैं. जैसे कि आईटी अधिनियम की धारा 67, जिसका उपयोग इलेक्ट्रॉनिक रूप में अश्लील कंटेंट पब्लिश करने के लिए किया जा सकता है."

वो आगे कहती हैं कि विशेष रूप से, हमारे पास नियम 3(1)(बी)(ii) है, जो अपमानजनक, अश्लील, पीडोफिलिक, निजता पर हमला (जिसमें शारीरिक गोपनीयता भी शामिल है), लिंग के आधार पर अपमान या उत्पीड़न आदि को प्रतिबंधित करता है.

रॉय ने कहा कि नियम के मुताबिक मध्यस्थों को यह सुनिश्चित करने के लिए उचित प्रयास करने की जरूरत है कि उपयोगकर्ता किसी भी निषिद्ध जानकारी को "संशोधित" न करें. राधिका रॉय

हालांकि, लोग IPC के तहत प्रावधानों का भी सहारा ले सकते हैं, लेकिन ये पर्याप्त नहीं हैं. जब डीपफेक की बात आती है तो स्पष्ट नतीजों के साथ स्पष्ट स्पष्टीकरण की जरूरत होती है, उनकी घातक प्रकृति को देखते हुए और कभी-कभी यह बताना असंभव होता है कि क्या असली है और क्या नकली है.
राधिका रॉय

चौधरी ने रॉय के विचार से सहमति जताई और कहा कि लोगों को मदद देने के लिए कुछ संसाधनों पर काम किया जा रहा है, क्योंकि कानून इसके साथ नहीं रहा है. हमारे पुलिस बल प्रशिक्षित नहीं हैं, न ही हमारे जज या अदालतें इसके बारे में प्रशिक्षित हैं.

केंद्रीय इलेक्ट्रॉनिक्स और आईटी राज्य मंत्री राजीव चंद्रशेखर के मुताबिक इस साल अप्रैल में अधिसूचित IT नियमों के तहत किसी यूजर या सरकार द्वारा रिपोर्ट किए जाने के बाद सोशल मीडिया प्लेटफॉर्म 36 घंटे के अंदर गलत सूचना को हटाने के लिए कानूनी रूप से बाध्य हैं.

उन्होंने कहा कि अगर प्लेटफॉर्म इसका पालन नहीं करते हैं, तो नियम 7 लागू होगा और IPC के प्रावधानों के तहत पीड़ित व्यक्ति द्वारा प्लेटफॉर्म को कोर्ट में ले जाया जा सकता है.

ADVERTISEMENTREMOVE AD

डीपफेक की पहचान कैसे करें?

  • पहला कदम है ध्यान देना. यहां तक कि एक्टर रश्मिका मंदाना के वायरल वीडियो को भी करीब से देखने पर वीडियो के शुरुआती कुछ फ्रेम में असली चेहरा देखा जा सकता है.

  • दूसरी चीज, जानकारी को वेरिफाइ करें, जैसे हम व्हाट्सएप फॉरवर्ड को वेरिफाइ करते हैं.

  • पूरी तरह सावधानी बर्तें. आप जो देखते हैं उस पर विश्वास न करें. किसी फैक्ट-चेकिंग प्लेटफॉर्म से बात कर सकते हैं, जो यूजर के लिए जानकारी को वेरिफाइ करता है.

  • मिशी चौधरी ने Massachusetts Institute of Technology (MIT) द्वारा बनाई गई डिटेक्ट फेक वेबसाइट के बारे में बात की जो लोगों को डीपफेक की पहचान करने में मदद करती है.

  • आखिरी में स्मित शाह ने बताया कि बायोमेट्रिक्स के लिए उन्नत डीपफेक-डिटेक्शन सिस्टम कैसे दिखते हैं. वे इशारों, दिल की धड़कन, कितनी बार आंखें झपक रही हैं, सूक्ष्म हलचलें और माइक्रोफोन में सुनाई देने वाली आवाज जैसी चीजों को समझने की कोशिश करते हैं.

(क्विंट हिन्दी, हर मुद्दे पर बनता आपकी आवाज, करता है सवाल. आज ही मेंबर बनें और हमारी पत्रकारिता को आकार देने में सक्रिय भूमिका निभाएं.)

सत्ता से सच बोलने के लिए आप जैसे सहयोगियों की जरूरत होती है
मेंबर बनें
×
×