साल 2018 से 2020 के बीच भारत में Facebook ऑपरेशन से संबंधित 'हेट स्पीच', 'फेक न्यूज' और 'प्रॉब्लम कंटेंट' समेत कई दूसरे मुद्दे तीन आंतरिक रिपोर्ट्स में सामने लाए गए, लेकिन फेसबुक ने इस पर कोई एक्शन नहीं लिया. हालांकि, कर्मचारियों द्वारा निरीक्षण के लिए अनिवार्य इन स्पष्ट अलर्ट के बावजूद, 2019 में फेसबुक के तत्कालीन वाइस प्रेसीडेंट, क्रिस कॉक्स के साथ एक आंतरिक समीक्षा बैठक में प्लेटफॉर्म पर "प्रॉब्लम कंटेंट (हेट स्पीच, आदि) का तुलनात्मक रूप से कम प्रसार" पाया गया.
चुनावों के दौरान हेट स्पीच पर नहीं लगी थी लगाम
द इंडियन एक्सप्रेस के मुताबिक, ये जानकारी उन दस्तावेजों में सामने आई है, जो अमेरिका के सिक्योरिटीज एंड एक्सचेंज कमिशन (SECसी) को किए गए खुलासे का हिस्सा हैं और पूर्व फेसबुक कर्मचारी और व्हिसलब्लोअर फ्रांसेस हॉगेन के कानूनी सलाहकार द्वारा संशोधित रूप में अमेरिकी कांग्रेस को पेश किए गए हैं. इन संशोधित संस्करणों की समीक्षा द इंडियन एक्सप्रेस समेत वैश्विक न्यूज संगठनों के एक संघ द्वारा की गई है.
रिपोर्ट के मुताबिक, हेट स्पीच और 'प्रॉब्लम कंटेंट' वाली दो रिपोर्ट, लोकसभा चुनावों से पहले जनवरी-फरवरी 2019 में पेश की गई थीं. वहीं, तीसरी रिपोर्ट अगस्त 2020 में पेश की गई थी, जिसमें ये स्वीकार किया कि प्लेटफॉर्म के AI (आर्टिफिशियव इंटेलीजेंस) उपकरण "स्थानीय भाषाओं की पहचान करने" में असमर्थ थे और इसलिए, हेट स्पीच या प्रॉब्लम कंटेंट की पहचान करने में विफल रहे.
भारत में फेसबुक की आंतरिक रिपोर्ट में हुए इन खुलासों के बावजूद, 2019 में बैठक में वाइस प्रेसीडेंट क्रिस कॉक्स ने कहा था, "सर्वे हमें बताता है कि आमतौर पर लोग सुरक्षित महसूस करते हैं. एक्सपर्ट्स हमें बताते हैं कि देश अपेक्षाकृत स्थिर है."
रिपोर्ट के मुताबिक, कॉक्स के साथ समीक्षा बैठक, भारत के चुनाव आयोग के 11 अप्रैल, 2019 से लोकसभा चुनाव के लिए सात चरणों के कार्यक्रम की घोषणा से एक महीने पहले हुई थी.
पहली रिपोर्ट "Adversarial Harmful Networks: India Case Study" में कहा गया है कि पश्चिम बंगाल में सैंपल की गई टॉप VPV (व्यू पोर्ट व्यू) पोस्टिंग का करीब 40% या तो नकली है या अप्रमाणिक है. VPV, एक फेसबुक मीट्रिक है जो ये मापने के लिए है कि कंटेंट वास्तव में यूजर्स द्वारा कितनी बार देखा जाता है.
दूसरी आंतरिक रिपोर्ट - फरवरी 2019 में एक कर्मचारी ने बनाई थी, जो भारत में एक टेस्ट अकाउंट पर आधारित है. इस अकाउंट ने केवल उस कंटेंट को फॉलो किया, जो फेसबुक एल्गोरिदम ने सजेस्ट किया था. टेस्ट अकाउंट ने पाया कि तीन हफ्तों के अंदर फेसबुक के टेस्ट अकाउंट की फीड पर फेक न्यूज और एडिटेड तस्वीरों की बाढ़ आ गई. कर्मचारी ने अपनी रिपोर्ट में कहा, "इस कंटेंट की क्वालिटी नहीं है और एल्गोरिथम अक्सर यूजर को सॉफ्टकोर पोर्न का सुझाव देता है."
14 फरवरी को जम्मू-कश्मीर के पुलवामा में भारतीय सेना पर हमले के बाद, टेस्ट अकाउंट की फीड पर पाकिस्तान के खिलाफ हेट स्पीच बढ़ने लगी. पाकिस्तान में भारत की एयर स्ट्राइक, बम विस्फोट की फेक तस्वीरें और जवानों से संबंधित फेक तस्वीरें भी भारी मात्रा में शेयर की जाने लगीं.
ये मेमो फेसबुक कर्मचारियों और वरिष्ठ अधिकारियों के बीच चर्चा का एक हिस्सा हैं. कर्मचारियों ने सवाल किया कि संभावित हेट स्पीच को पकड़ने के लिए कैसे फेसबुक के पास बुनियादी ढांचा तक नहीं था.
(क्विंट हिन्दी, हर मुद्दे पर बनता आपकी आवाज, करता है सवाल. आज ही मेंबर बनें और हमारी पत्रकारिता को आकार देने में सक्रिय भूमिका निभाएं.)