advertisement
फेसबुक के एक पूर्व कर्मचारी फ्रांसेस हॉगेन ने Facebook से जुड़े कुछ डाक्युमेंट्स लीक किए, जिनसे पता चलता है कि फेसबुक को ये पता होने के बावजूद कि नफरत भरी और झूठी खबरें फैलाई जा रही हैं, उसने उन्हें रोकने का प्रयास नहीं किया. बल्कि, अनियंत्रित रूप से फैलने दिया.
'द फ़ेसबुक पेपर्स' नाम के इन डॉक्युमेंट्स में, फरवरी 2019 से भारत में की गई स्टडी और बनाए गए नोट्स से जुड़ी जानकारी दी गई है. साथ ही, इसमें एक टेस्ट अकाउंट के बारे में जानकारी भी दी गई है, जिससे फेसबुक के रिकमंडेशन एल्गोरिदम को चेक किया जा रहा है. ये जानकारी भी दी गई है कि कैसे ये हेट स्पीच और गलत जानकारी को यूजर्स के सामने लाता है.
इस आर्टिकल में, हम नीचे लिखे सवालों के जवाब देने का प्रयास करेंगे:
हेट स्पीच क्या है? हेट स्पीच और गलत सूचना को फिल्टर करने के लिए प्लैटफॉर्म क्या कर रहा है? क्या प्रभाव पड़ा है और क्या अपनाए गए उपाय काफी हैं:
फेसबुक के मुताबिक, हेट स्पीच में कोई भी ऐसी सामग्री होती है ''जो प्रोटेक्टेड कैरेक्टरिस्टिक, जाति, नस्लीय, राष्ट्रीय मूल, धार्मिक संबद्धता, सेक्सुअल पसंद, लिंग, सेक्स, लैंगिक पहचान या गंभीर विकलांगता या बीमारी'' के आधार पर लोगों पर सीधे हमला करती है.
"प्रत्यक्ष हमलों" में किसी भी तरह के हिंसक या अमानवीय भाषण, हानिकारक रूढ़िवादिता, हीनभावना, घृणा या उपेक्षा करने वाले बयान, अवमानना से जुड़ी बातें, कोसना और बहिष्कार या अलगाव करने से जुड़ी बातें शामिल हैं. इसे फेसबुक के पारदर्शिता केंद्र पर विस्तार से बताया गया है.
फेसबुक, 2016 से गलत सूचनाओं को रोकने के लिए अपने प्लेटफॉर्म पर “remove, reduce and inform” ("हटाएं, कम करें और सूचित करें") की पॉलिसी का पालन करता है.
इसका मतलब ये है कि प्लेटफॉर्म अपनी नीतियों के खिलाफ जाने वाली सामग्री हटा देता है. साथ ही, सामग्री की रीच और इसको लोगों तक पहुंचना कम कर देता है. इसके अलावा, दूसरे यूजर्स को अतिरिक्त जानकारी या संदर्भ के साथ इस बारे में सूचित भी करता है, ताकि वो तय कर सकें कि वो उस सामग्री को देखना या शेयर करना चाहते हैं या नहीं.
उदाहरण के लिए, फेसबुक ने गलत सूचनाओं से निपटने के लिए दुनिया भर में थर्डपार्टी फैक्ट चेकर्स (3PFC) के साथ पार्टनरशिप भी की है. भारत में भी 10 अलग-अलग फैक्ट चेक ऑर्नाइजेशन हैं जो 12 से ज्यादा भाषाओं में काम करते हैं.
क्विंट का वेबकूफ भी भारत में फेसबुक के थर्ड पार्टी पार्टनर में से एक है.
हालांकि, अपनी पार्टनरशिप और ह्युमन मॉडरेटर्स के बावजूद, गलत सूचना और हेट स्पीच के खिलाफ फेसबुक की इस लड़ाई में काफी रुकावटें हैं.
रिपोर्टों के मुताबिक, भारत में फेसबुक के पॉलिसी से संबंधित फैसले पॉलिटिकल लोगों की वजह से प्रभावित हुए हैं.
फ्री सॉफ्टवेयर मूवमेंट ऑफ इंडिया के शोधकर्ता श्रीनिवास कोडाली का कहना है कि भारत में मौजूदा नियम पर्याप्त नहीं हैं.
उन्होंने कहा, "मुझे नहीं लगता कि मौजूदा सरकार, पूर्ण बहुमत वाली बीजेपी सरकार को इस समस्या को ठीक करने में कोई दिलचस्पी है, क्योंकि हमें पता है कि इससे उन्हें फायदा मिलता है.''
कोडाली ने आगे कहा कि सूचना प्रौद्योगिकी पर संसदीय समिति ज्यादा से ज्यादा फेसबुक से पूछताछ करेगी, लेकिन प्रक्रिया रुकी ही रहेगी.
कोडाली ने कहा, ''भारतीय संस्थान इस पर गौर करने की स्थिति में नहीं हैं, क्योंकि उन्हें सक्रिय रूप से इस पर नहीं गौर करने के लिए कहा जाता है.
फेसबुक पेपर्स में कोट किए गए एक इंटर्नल स्टडी में देखा गया गया है कि फेसबुक ने अपने फैक्ट चेकिंग पार्टनर्स की मदद से कितनी गलत सूचनाओं को हटाया.
प्लेटफॉर्म भारत में कई दूसरी चुनौतियों का भी सामना कर रहा है. New York Times के मुताबिक, भारत में आधिकारिक रूप से मान्यता प्राप्त 22 भाषाओं में से, फेसबुक का AI सिर्फ 5 भाषाओं में ही काम कर पाता है. फेसबुक के मुताबिक, बाकी बची भाषाओं में काम करने के लिए फेसबुक ह्युमन मॉडरेडर्स को नियुक्त करता है.
लेकिन, ये अभी भी परेशानी भरा है. हिंदी और बंगाली, प्लैटफॉर्म में चौथी और सातवीं सबसे ज्यादा इस्तेमाल की जानी वाली भाषाएं हैं. इसके बावजूद, फेसबुक के पास इन भाषाओं में भड़काऊ सामग्री या गलत सूचना का पता लगाने और उन्हें रोकने के लिए कोई प्रभावी प्रणाली नहीं है.
इन भाषाओं में हिंसा भड़काने या उसे बढ़ावा देने वाली सामग्री का पता लगाने वाला सिस्टम हाल में ही 2021 में लागू किया गया है.
AP से बातचीत में एक फेसबुक प्रवक्ता ने कहा, ''मुस्लिमों सहित हाशिए में रहने वाले समूहों के प्रति हेट स्पीच विश्व स्तर पर बढ़ रही है. इसलिए, हमें इसे लागू करने में सुधार कर रहे हैं और अपनी नीतियों को अपडेट करने के लिए प्रतिबद्ध हैं. ऐसा इसलिए कर रहे हैं क्योंकि हेटस्पीच ऑनलाइन विकसित होती है.''
उन्होंने ये भी कहा कि बंगाली और हिंदी में हेट स्पीच की पहचान करने वालों ने 2021 में ''हेट स्पीच को आधे से भी कम कर दिया.''
हाल में सामने आए डॉक्युमेंट्स से ये भी पता चलता है कि गलत सूचना से निपटने के लिए फेसबुक की ओर से निर्धारित कुल बजट में से 87 प्रतिशत अमेरिका में खर्च किया जाता है. जबकि अमेरिका में प्लेटफॉर्म का बाजार दुनिया भर का 10 प्रतिशत ही है.
फेसबुक जैसे प्लेटफॉर्म का कहना है कि वो सक्रिय रूप से ऐसी सामग्री को हटाने के लिए काम कर रहे हैं जिससे हिंसा भड़काने, दुश्मनी और नफरत को बढ़ावा देने की संभावना है, लेकिन फिर भी इस बात के कई उदाहरण हैं कि ऑनलाइन नफरत की वजह से हिंसा भड़की.
फरवरी 2020 में, बीजेपी नेता कपिल मिश्रा ने खुले तौर पर फेसबुक पर एक वीडियो में मुस्लिम प्रदर्शनकारियों को सड़कों से हटाने के लिए हिंसा को बढ़ाने वाली बातें की थीं. कुछ घंटों में ही दंगे हुए, जिसके परिणामस्वरूप 50 से ज्यादा लोग मारे गए.
वीडियो को प्लेटफॉर्म से तब हटाया गया जब इसे हजारों व्यू और शेयर मिल चुके थे.
महामारी के दौरान भी प्लेटफॉर्म पर तेजी से सांप्रदायिक सामग्री बढ़ी. क्विंट की वेबकूफ टीम ने ऐसे कई सांप्रदायिक दावों की पड़ताल की थी. इन दावों में यूजर्स ने महामारी की शुरुआत में कोरोना वायरस के फैलने को लेकर मुस्लिम समुदाय पर निशाना साधा था.
इसी तरह की घटनाएं दुनियाभर के अन्य देशों में देखी गईं, जैसे कि अमेरिक में कैपिटल हिल हिंसा. कथित तौर पर 'Stop the Steal' फेसबुक ग्रुप्स के साथ ये हिंसा शुरू हुई जिसकी वजह से ट्रंप के समर्थकों ने कैपिटल पर हमला किया. फेसबुक पोस्ट के जरिए म्यांमार में अल्पसंख्यक रोहिंग्याओं को टारगेट किया गया जिससे तनाव और हिंसा हुई.
''फेसबुक पेपर्स'' में खुलासा हुआ कि कैसे कंपनी को कई सालों की स्टडीज से उनके प्लेटफॉर्म की वजह से हुई कई समस्याओं के बारे में पता था, लेकिन फिर भी प्लेटफॉर्म ने उनका सामना करने के लिए बहुत कम या फिर प्रभावहीन कार्रवाई की.
क्विंट से बातचीत में, इंटरनेट फ्रीडम फाउंडेशन के अपार गुप्ता ने कहा कि फेसबुक को अपनी फंडिंग को फिर से आवंटित करने की जरूरत है, ताकि बाजार में ऐसी सामग्री को नियंत्रित किया जा सके.
गुप्ता ने गलत सूचना से निपटने के लिए फेसबुक की ओर से सभी देशों (अमेरिका के अलावा) को दिए जाने वाले सिर्फ 13 प्रतिशत बजट के खुलासे का जिक्र करते हुए कहा:
उन्होंने एल्गोरिदम से जुड़े प्रोसेस के बारे में बात की. उन्होंने कहा कि कंपनी हेट स्पीच को कम करने के लिए जिस फेसबुक AI का इस्तेमाल करती है और दावा करती है कि ये घृणा फैलानी वाली सामग्री का 90 प्रतिशत हिस्सा कम कर देता है. दरअसल वो संख्या फेसबुक की इंटर्नल रिपोर्ट्स में काफी अलग है.
उन्होंने कहा ''ये सिर्फ 3 से 5 प्रतिशत हेट स्पीच को ही हटाता है''.
वरिष्ठ पत्रकार और रिसर्चर माया मीरचंदानी ने "Fighting Hate Speech, Balancing Freedoms: A Regulatory Challenge" टाइटल वाले अपने आर्टिकल में इसी तरह के बिंदुओं पर बात की है.
वो लिखती हैं कि प्लेटफॉर्म पर मल्टीमीडिया सामग्री की निगरानी के लिए AI और मशीन लर्निंग टूल्स को फिर से अपडेट किया जा रहा है यानी उन पर काम किया जा रहा है, लेकिन टेक्नॉलजी के सामने ऐसी सामग्री की बहुत ज्यादा मात्रा हो सकती है और स्थानीय संदर्भ में इन टूल्स के लिए ऐसी सामग्री के बारे में पता कर पाना नामुमकिन जैसा है.
हालांकि, जैसा कि फेसबुक अपने मशीन लर्निंग मॉडल को अपग्रेड करने और ऐसी सामग्री का पता लगाने के लिए AI पर भरोसा करने की बात करता है, सवाल ये है कि - प्लेटफॉर्म इस मुद्दे से निपटने में सक्षम क्यों नहीं है?
तक्षशिला इंस्टीट्यूशन के एक रिसर्चर प्रतीक वाघरे ने प्लेटफॉर्म्स की जवाबदेही की जरूरत पर जोर दिया और सावधानी के लिए कहा कि वास्तविक रूप से, प्लेटफॉर्म्स को इस तरह जवाबदेह ठहराया जाना चाहिए जो समाज की सापेक्ष ताकत को कम न करता हो.
वाघरे ने कहा, ''कुछ चीजें हैं जो फेसबुक कर सकता है, जैसे कि वो जिस देश में ऑपरेट करते हैं वहां स्थानीय संसाधनों में कितना निवेश करता है.''
उन्होंने कहा कि फेसबुक पर जो चुनौतियां देखी जा सकती हैं वो दूसरे सोशल मीडिया प्लेटफॉर्म्स पर भी आम हैं. ''चुनौती सिर्फ एक कंपनी के लिए नहीं है, बल्कि इन समस्याओं को व्यापक रूप से सामाजिक स्तर पर ठीक करने से भी जुड़ी हैं.''
(क्विंट हिन्दी, हर मुद्दे पर बनता आपकी आवाज, करता है सवाल. आज ही मेंबर बनें और हमारी पत्रकारिता को आकार देने में सक्रिय भूमिका निभाएं.)
Published: undefined