मेंबर्स के लिए
lock close icon
Home Created by potrace 1.16, written by Peter Selinger 2001-2019News Created by potrace 1.16, written by Peter Selinger 2001-2019India Created by potrace 1.16, written by Peter Selinger 2001-2019रश्मिका मंदाना डीपफेक मामला: कहीं देर ना हो जाए...भारत में AI कानून की सख्त जरूरत

रश्मिका मंदाना डीपफेक मामला: कहीं देर ना हो जाए...भारत में AI कानून की सख्त जरूरत

IPC और IT अधिनियम के कुछ प्रावधानों का उपयोग डीपफेक पर रोक के लिए किया जा सकता है, लेकिन ये नियम पर्याप्त नहीं हैं.

अदिति सूर्यवंशी
भारत
Published:
<div class="paragraphs"><p>रश्मिका मंदाना डीपफेक मामला: देर होने से पहले भारत को AI कानून की जरूरत क्यों है?</p></div>
i

रश्मिका मंदाना डीपफेक मामला: देर होने से पहले भारत को AI कानून की जरूरत क्यों है?

(फोटो - क्विंट हिंदी)

advertisement

आर्टिफिशियल इंटेलिजेंस (AI) में तेजी से प्रगति और डीपफेक (DeepFake) के बढ़ती जेंडर आधारित मामलों ने बिग टेक की नीतियों और भारतीय कानूनी प्रणाली की समस्या से निपटने की क्षमता को फिर से सुर्खियों में ला दिया है. इंटरनेट फ्रीडम फाउंडेशन (IFF) की वकील और सहयोगी कानूनी सलाहकार, राधिका रॉय ने द क्विंट को बताया कि प्रौद्योगिकी-सुविधा वाली ऑनलाइन लैंगिक हिंसा एक सच है और डीपफेक ऐसी हिंसा को कायम रखने का एक और पहलू है.

अभिनेत्री रश्मिका मंदाना (Rashmika Mandana) का AI-जनरेटेड डीपफेक वीडियो हाल ही में सोशल मीडिया के जरिए सामने आया. इसके बाद डीपफेक के लिए मजबूत नियमों की जरूरत फिर से सामने आई. यह वीडियो सोशल मीडिया इन्फ्लुएंसर जारा पटेल के शरीर पर AI के जरिए मंदाना का चेहरा लगा दिया गया था.

द क्विंट ने टेक्नोलॉजी, पॉलिसी और कानून जानकारों से बात की और यह समझने की कोशिश की कि मशहूर हस्तियों के साथ-साथ अन्य लोगों का कोई डीपफेक वीडियो होने की स्थिति में उनकी सुरक्षा के लिए क्या उपाय हैं?

डीपफेक क्या हैं और यह खतरनाक क्यों हैं?

वर्जीनिया युनिवर्सिटी के मुताबिक डीपफेक एक आर्टिफिसियल इमेज या इमेजेज की एक सीरीज (यानी एक वीडियो) है, जो एक अलग तरह की मशीन लर्निंग द्वारा बनी होती है, जिसे "डीप लर्निंग" कहा जाता है.

डीप लर्निंग एक मशीन लर्निंग टेक्निक है, जो ह्यूम ब्रेन (दिमाग) लर्निंग को दोहराने के लिए तंत्रिका नेटवर्क में छिपी परतों का उपयोग करती है. ये परतें इनपुट सिग्नल को आउटपुट सिग्नल में बदलने के लिए मैथमेटिकल्स ट्रांसफॉर्मेशन करती हैं. जैसे पूरी तरह से नकली क्रिएटिव इमेज बनाना.

डीपफेक के बारे में द क्विंट से बात करते हुए सॉफ्टवेयर इंजीनियर स्मित शाह, कहते हैं कि

डीपफेक बहुत खतरनाक हैं क्योंकि बैंडविड्थ में बहुत सारा डेटा उपलब्ध है. अगर किसी के पास वीडियो बनाने के लिए इमेजेज हैं, तो यह बहुत आसान हो जाता है. पहले, टेलीविजन दौर में, प्रति सेकंड 24 फ्रेम की जरूरत होती थी. अब यह ज्यादातर 30 है. तो एक मॉडल बनाने के लिए बस 30 फोटोज को रेंडर करके जनरेट करने की जरूरत होती है. इसका उपयोग नकली वीडियो बनाने के लिए आसानी से किया जा सकता है.

स्मित शाह आगे कहते हैं कि जो लोग पब्लिक डोमेन में आसानी से उपलब्ध हैं, वो सबसे ज्यादा रिस्क में हैं. उदाहरण के लिए, प्रभावशाली व्यक्ति और मशहूर हस्तियां, जिनके वीडियो, बोलने के व्यवहार आदि इंटरनेट पर आसानी से उपलब्ध हैं.

डीपफेक की जेडर आधारित प्रकृति

पिछले कुछ सालों से डीपफेक का उपयोग महिलाओं को परेशान करने और डराने-धमकाने के साथ-साथ दुर्भावनापूर्ण कंटेंट वाली वेबसाइट्स पर ट्रैफिक लाने के लिए किया जा रहा है.

मशहूर हस्तियों का डीपफेक अश्लील कंटेंट ऑनलाइन बेचा जाता है और यह एक मिलियन डॉलर की इंडस्ट्री बन गया है. इसके साथ ही, डीपफेक का उपयोग उन व्यक्तियों को ब्लैकमेल करने और उनका शोषण करने के लिए भी किया जाता है, जो लोगों की नजर में नही हैं.

सॉफ्टवेयर फ्रीडम लॉ सेंटर (SFLC) के फाउंडर मिशी चौधरी ने कहा कि AI में विकास के साथ डीपफेक चिंता का एक बढ़ता हुआ क्षेत्र है. उनका उपयोग गलत सूचना फैलाने, दुष्प्रचार करने, परेशान करने, डराने-धमकाने, अश्लील इमेज बनाने और कई अन्य तरीकों से लोगों को कमजोर करने के लिए किया जा रहा है.

एम्स्टर्डम स्थित आइडेंटिटी वेरिफिकेसन कंपनी Sensity AI द्वारा अश्लील डीपफेक कंटेंट पर किए गए रिसर्च से पता चला है कि 2017-2020 के बीच ऑनलाइन उपलब्ध 96 फीसदी डीपफेक यौन रूप से स्पष्ट थे और महिलाओं की सहमति के बिना बनाए गए थे.

डीपफेक की जेंडर आधारित नेचर पर बोलते हुए राधिका रॉय ने द क्विंट को बताया कि डीपफेक तेजी से जेंडर आधारित होता जा रहा है, लेकिन देश में ऐसा ही हो रहा है. टेक्नोलॉजी-सुविधा वाली ऑनलाइन जेंडर आधारित हिंसा एक वास्तविकता है और डीपफेक ऐसी हिंसा को कायम रखने का एक और रूप है.

ADVERTISEMENT
ADVERTISEMENT

कैसे करें सेलिब्रिटी अपनी सुरक्षा?

रॉय के मुताबिक "डीपफेक" शब्द को किसी भी कानून में स्पष्ट रूप से परिभाषित नहीं किया गया है, लेकिन इससे निपटने के लिए कानूनी प्रावधान हैं. जैसे कि आईटी अधिनियम की धारा 67, जिसका उपयोग इलेक्ट्रॉनिक रूप में अश्लील कंटेंट पब्लिश करने के लिए किया जा सकता है."

वो आगे कहती हैं कि विशेष रूप से, हमारे पास नियम 3(1)(बी)(ii) है, जो अपमानजनक, अश्लील, पीडोफिलिक, निजता पर हमला (जिसमें शारीरिक गोपनीयता भी शामिल है), लिंग के आधार पर अपमान या उत्पीड़न आदि को प्रतिबंधित करता है.

रॉय ने कहा कि नियम के मुताबिक मध्यस्थों को यह सुनिश्चित करने के लिए उचित प्रयास करने की जरूरत है कि उपयोगकर्ता किसी भी निषिद्ध जानकारी को "संशोधित" न करें. राधिका रॉय

हालांकि, लोग IPC के तहत प्रावधानों का भी सहारा ले सकते हैं, लेकिन ये पर्याप्त नहीं हैं. जब डीपफेक की बात आती है तो स्पष्ट नतीजों के साथ स्पष्ट स्पष्टीकरण की जरूरत होती है, उनकी घातक प्रकृति को देखते हुए और कभी-कभी यह बताना असंभव होता है कि क्या असली है और क्या नकली है.
राधिका रॉय

चौधरी ने रॉय के विचार से सहमति जताई और कहा कि लोगों को मदद देने के लिए कुछ संसाधनों पर काम किया जा रहा है, क्योंकि कानून इसके साथ नहीं रहा है. हमारे पुलिस बल प्रशिक्षित नहीं हैं, न ही हमारे जज या अदालतें इसके बारे में प्रशिक्षित हैं.

केंद्रीय इलेक्ट्रॉनिक्स और आईटी राज्य मंत्री राजीव चंद्रशेखर के मुताबिक इस साल अप्रैल में अधिसूचित IT नियमों के तहत किसी यूजर या सरकार द्वारा रिपोर्ट किए जाने के बाद सोशल मीडिया प्लेटफॉर्म 36 घंटे के अंदर गलत सूचना को हटाने के लिए कानूनी रूप से बाध्य हैं.

उन्होंने कहा कि अगर प्लेटफॉर्म इसका पालन नहीं करते हैं, तो नियम 7 लागू होगा और IPC के प्रावधानों के तहत पीड़ित व्यक्ति द्वारा प्लेटफॉर्म को कोर्ट में ले जाया जा सकता है.

डीपफेक की पहचान कैसे करें?

  • पहला कदम है ध्यान देना. यहां तक कि एक्टर रश्मिका मंदाना के वायरल वीडियो को भी करीब से देखने पर वीडियो के शुरुआती कुछ फ्रेम में असली चेहरा देखा जा सकता है.

  • दूसरी चीज, जानकारी को वेरिफाइ करें, जैसे हम व्हाट्सएप फॉरवर्ड को वेरिफाइ करते हैं.

  • पूरी तरह सावधानी बर्तें. आप जो देखते हैं उस पर विश्वास न करें. किसी फैक्ट-चेकिंग प्लेटफॉर्म से बात कर सकते हैं, जो यूजर के लिए जानकारी को वेरिफाइ करता है.

  • मिशी चौधरी ने Massachusetts Institute of Technology (MIT) द्वारा बनाई गई डिटेक्ट फेक वेबसाइट के बारे में बात की जो लोगों को डीपफेक की पहचान करने में मदद करती है.

  • आखिरी में स्मित शाह ने बताया कि बायोमेट्रिक्स के लिए उन्नत डीपफेक-डिटेक्शन सिस्टम कैसे दिखते हैं. वे इशारों, दिल की धड़कन, कितनी बार आंखें झपक रही हैं, सूक्ष्म हलचलें और माइक्रोफोन में सुनाई देने वाली आवाज जैसी चीजों को समझने की कोशिश करते हैं.

(हैलो दोस्तों! हमारे Telegram चैनल से जुड़े रहिए यहां)

अनलॉक करने के लिए मेंबर बनें
  • साइट पर सभी पेड कंटेंट का एक्सेस
  • क्विंट पर बिना ऐड के सबकुछ पढ़ें
  • स्पेशल प्रोजेक्ट का सबसे पहला प्रीव्यू
आगे बढ़ें

Published: undefined

Read More
ADVERTISEMENT
SCROLL FOR NEXT