ADVERTISEMENTREMOVE AD

फेस स्कैन कर पहचान करेगी सरकार,इस सिस्टम के फायदे कम नुकसान ज्यादा

निजता और निगरानी जैसे गंभीर मामलों को नजरंदाज करने की ये एक और कोशिश है

छोटा
मध्यम
बड़ा

कैमरापर्सन: अभिषेक रंजन

वीडियो एडिटर: वरुण शर्मा और विशाल कुमार

ADVERTISEMENTREMOVE AD

5 जुलाई को, जब पूरा देश बजट पर आंखें गड़ाए बैठा था, उसी दिन अखबारों में एक छोटा सा सरकारी विज्ञापन छपा था.

एक कहावत है, देखन में छोटन लगे, घाव करे गंभीर. लेकिन हम सुई की बात नहीं कर रहे, उस छोटे से विज्ञापन की बात कर रहे हैं. निजी क्षेत्र और सरकारी निगरानी तंत्र के लिए ये छोटा सा विज्ञापन काफी मायने रखता था.

ये विज्ञापन जारी किया था, नेशनल क्राइम रिकॉर्ड्स ब्यूरो यानी NCRB ने. इस विज्ञापन में देशभर से ऑटोमेटेड फेशियल रेकग्निशन सिस्टम, यानी AFRS के लिए बोली लगाने को कहा गया था. अब थोड़ा NCRB के बारे में भी जान लेते हैं. देशभर में अपराधों का रिकॉर्ड रखने वाली इस संस्था के मुताबिक, 2016 के बाद से शायद देश में अपराध नहीं हुए हैं. क्योंकि NCRB की वेबसाइट में 2016 के बाद से किसी अपराध का जिक्र नहीं है.

अपने 172 पन्नों के प्रस्ताव में NCRB ने जो दलील दी है, उसके मुताबिक संक्षेप में कह सकते हैं कि ये कवायद पुलिस के आधुनिकीकरण, सूचनाएं जमा करने और अपराधियों की शिनाख्त के लिए की जा रही हैं. इस गंभीर कवायद में NCRB, गृह मंत्रालय और सभी राज्यों की पुलिस शामिल है.

आपके जेहन में सवाल कौंध रहा होगा, आखिर ये AFRS है क्या बला?

AFRS है क्या?
इस सिस्टम में लोगों का चेहरा स्कैन कर उनकी पहचान की जाती है. फेसबुक पर ग्रुप फोटोग्राफ में किसी खास व्यक्ति का चेहरा पहचानना हो, किसी के मोबाइल के आंकड़े जमा करना हो, या CCTV फुटेज से किसी की पहचान करनी हो, तो इस सिस्टम का इस्तेमाल किया जाता है.

आप कह सकते हैं कि ये तो बड़ी अच्छी बात है. इससे नियम-कानून लागू करने वाली एजेंसियों के लिए अपराधियों को पकड़ना आसान हो जाएगा. यहां तक तो बात बिलकुल ठीक है. किसी भी नागरिक का चेहरा पहचानने की टेक्नोलॉजी से कानून लागू करने वाली एजेंसियों का काम आसान हो जाता है.

लेकिन बात क्या बस, इतनी सी है? अपने देश में इस टेक्नोलॉजी को लेकर दो गंभीर सवाल हैं:

  1. पहला, हमारे यहां डेटा सुरक्षित रखने के कानून का अभाव है. ये बात बेहद गंभीर है, क्योंकि इसी कानून की बदौलत ये तय किया जा सकता है कि कोई एजेंसी किस प्रकार डेटा इकट्ठा करे, उसे सुरक्षित रखे, उसकी पड़ताल करे और आम लोगों के साथ शेयर करे.
  2. निगरानी तंत्र में गंभीर सुधार की आवश्यकता है. फिलहाल निगरानी तंत्र न्यायपालिका की सीमाओं से परे है. पूरी प्रक्रिया बेहद अपारदर्शी और अस्पष्ट है, जिसकी कई बार आलोचना हो चुकी है.
ADVERTISEMENTREMOVE AD

ऐसे में सवाल है कि AFRS का असली मकसद क्या है? एक उदाहरण से समझने की कोशिश करते हैं. NRCB चाहती है पुलिस किसी भी प्रदर्शनकारी की तस्वीर खींच सके, अपने डेटाबेस से उस तस्वीर का मिलान कर सके, और उस व्यक्ति के बारे में तमाम सूचनाएं हासिल कर सके. साफ शब्दों में कहा जाए, तो AFRS का मकसद है:

  • एक केन्द्रीय वेब एप्लीकेशन विकसित करना
  • CCTV फुटेज से अलग-अलग चेहरों की तस्वीर पाना
  • एक ही व्यक्ति की कई तस्वीरें अपलोड करने का विकल्प रखना
  • ये व्यवस्था दूसरी बायोमेट्रिक व्यवस्थाओं के मुआफिक होना. मसलन, जिसमें आंखों की पुतलियों या उंगलियों के निशान से मिलान हो सके.
ADVERTISEMENTREMOVE AD

सुनने में तो ये प्रस्ताव बेहद उत्साहजनक लग रहा है. लेकिन ठहरिये. निजता और निगरानी जैसे गंभीर मामलों को नजरंदाज करने की ये एक और कोशिश है, और ऐसी कोशिशें पहले भी होती रही हैं. अप्रैल 2018 में सूचना एवं प्रसारण मंत्रालय ने एक ऐसा ही आरएफपी जारी किया था, जिसमें सोशल मीडिया पर होने वाली गतिविधियों की निगरानी करने को कहा गया था. दिसंबर 2018 में सरकार ने 10 खुफिया और जांच एजेंसियों को अधिकार दिया था कि वो “किसी भी कम्प्यूटर” पर “किसी भी सूचना” को जारी करने, फैलाने, पाने या रखने पर निगरानी रख सकते हैं या उसे रोक सकते हैं.

इसके ठीक 5 दिन बाद, यानी 24 दिसंबर को इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय ने सूचना प्रौद्योगिकी अधिनियम में बदलाव की पेशकश की थी. पेशकश के मुताबिक, मैसेज भेजने वाले एप्स, सोशल नेटवर्क और सर्च इंजन को कंटेंट पुलिसिंग सिस्टम का पालन करने को कहा गया था, जिसे इंटरनेट पर सेंसर किया जा सके. कुल मिलाकर इस टेक्नोलॉजी को लेकर दुनियाभर की सोच यही है इससे होने वाला नुकसान, फायदे की तुलना में कहीं ज्यादा है.

(क्विंट हिन्दी, हर मुद्दे पर बनता आपकी आवाज, करता है सवाल. आज ही मेंबर बनें और हमारी पत्रकारिता को आकार देने में सक्रिय भूमिका निभाएं.)

Published: 
सत्ता से सच बोलने के लिए आप जैसे सहयोगियों की जरूरत होती है
मेंबर बनें
×
×