क्या AI ने आपसे झूठ बोला है?

क्या ChatGPT पहले से मौजूद भ्रामक सूचनाओं की समस्या को और बदतर कर देगा?

के द्वारा एक मल्टीमीडिया इमर्सिव

ये मल्टीमीडिया इमर्सिव AI Told You So का एक हिस्सा है. ये क्विंट हिंदी की एक स्पेशल सीरीज है, जो इस बात का पता लगाएगी कि आर्टिफिशियल इंटेलिजेंस हमारे मौजूदा समय को कैसे बदल रहा है और ये हमारे भविष्य को कैसे नया आकार दे रहा है.

सीधा मुद्दे पर आते हैं.

क्विंट हिंदी: ChatGPT, मशहूर मीडिया कंपनी, द रेवेल्यूशनिस्ट के संस्थापक और मैनेजिंग डायरेक्टर राहुल कप्पन के बारे में लिखें

ChatGPT का जवाब:

ये पैराग्राफ किसी शख्स को पत्रकारिता के क्षेत्र में 'राहुल कप्पन' के योगदान के बारे में आसानी से समझा सकते हैं.

पत्रकार 'राहुल कप्पन' नाम का कोई शख्स है ही नहीं.

'द रेवेल्यूशनिस्ट' नाम की कोई मीडिया कंपनी नहीं है.

तो, आप कैसे जानेंगे कि ChatGPT द्वारा दिए गए जवाब सटीक, विश्वसनीय हैं या उसके तथ्य सही हैं?

OpenAI के AI-powered चैटबॉट का नशा पूरी दुनिया पर चढ़ चुका है. इसे कंपनी ने नवंबर 2022 में सबसे पहले रिलीज किया था.

पर चैटबॉट के जवाब चाहे कितने भी आकर्षक क्यों न लगें, इसने इंटरनेट पर गलत और भ्रामक सूचनाओं के प्रसार को और आसान बनाने को लेकर चिंताएं पैदा कर दी हैं.

OpenAI ने अब दावा किया है कि GPT-3.5 की तुलना में 14 मार्च को लॉन्च हुए GPT-4 के 40 फीसदी ज्यादा तक तथ्य आधारित जवाब देने की संभावना है. कंपनी ने कहा है कि ऐसा उनके आंतरिक आकलन में सामने आया है.

इस मल्टीमीडिया इमर्सिव में, हम इन चीजों का पता लगाएंगे -

  • ChatGPT द्वारा दिए गए जवाब कितने विश्वसनीय हैं?
  • क्या इससे भ्रामक सूचनाओं के प्रसार को बढ़ावा मिलेगा?
  • क्या कोई तरीका है जिससे AI फैक्ट-चेकिंग में मदद कर सके?

सवाल - 1

क्या AI पर विश्वास किया जा सकता है?

ChatGPT को आम बातचीत सहित इंटरनेट से डेटा इस्तेमाल करने को लेकर ट्रेन किया गया है, जो हमेशा सटीक नहीं हो सकता. इसलिए, जबकि जवाब ऐसे दिखें जैसे उसे किसी शख्स ने लिखा है, जरूरी नहीं कि वो उतने ही तथ्यात्मक भी हों. ये उन लोगों को गुमराह कर सकता है, जो इसके बारे में जानकारी नहीं रखते.

भ्रामक सूचनाओं को ट्रैक करने वाली संस्था, NewsGuard के एक एक्सपेरिमेंट में, शोधकर्ताओं ने चैटबॉट को कोविड-19, अमेरिका के स्कूलों में शूटिंग और यूक्रेन युद्ध से जुड़े 100 भ्रामक नैरेटिव पर तुरंत जवाब देने का निर्देश दिया.

उन्होंने पाया कि बॉट ने लगभग 80 प्रतिशत बार गलत लेकिन विश्वास करने लायक लगने वाले जवाब दिए।

लॉजिकली में वाइस प्रेसिडेंट बेबार्स ओर्सेक ने इस मुद्दे पर प्रकाश डाला और इस तरह की खामियों से बचने के लिए नियमित अकादमिक जांच-पड़ताल का सुझाव दिया.

उन्होंने द क्विंट को बताया कि प्रशिक्षण आंकड़ों में गलतियों से एल्गोरिदम या लैंग्वेज मॉडल्स में यह बदलाव आ सकते हैं:

  • भ्रामक सूचना या पूर्वाग्रह के चलते बनी धारणा का और ज्यादा लोगों तक पहुंचना
  • जानकारी की शुद्धता पर इसका असर होना.
इसकी जांच करने के लिए हमने चैट जीपीटी से COVID को ना मानने वाले के नजरिए से कुछ लिखने को कहा.
  • पहला प्रयास : चैट जीपीटी ने लिखने से इंकार कर दिया.
  • दूसरा प्रयास: एक उदाहरण दिया.
  • तीसरा प्रयास: चैट जीपीटी ने विस्तार से जवाब दिया.

स्टैक ओवरफ्लो, प्रोग्रामर्स के लिए एक वेबसाइट है, उसने फिलहाल इस तरह के भाषा उपकरणों पर ऐसे भ्रामक जवाबों के आने की आशंकाओं के चलते प्रतिबंध लगा दिया है. उन्होंने कहा कि "चैट जीपीटी से सही जवाब पाने की औसत दर बेहद कम है."

दिसंबर 2022 में, ओपनएआई के सीईओ सैम आल्टमैन ने ट्वीट करते हुए कहा, "फिलहाल अहम चीजों में चैट जीपीटी पर निर्भर रहना गलती होगी."

चैट जीपीटी चंद सेकंड में टेक्स्ट देता है, जिस तक आसानी से पहुंच हो पाती है. जबकि फिल्टर्स चैटबॉट को पूर्वाग्रह युक्त या एकतरफा जवाब देने से बचने की स्वतंत्रता देते हैं, लेकिन मनमाफिक नतीजे पाने के लिए इनका उल्लंघन किया जा सकता है.

ओपन एआई के "FAQ (अक्सर पूछे जाने वाले सवाल)" सेक्शन के मुताबिक, यह टूल इंटरनेट से कनेक्टेड नहीं है और अक्सर गलत या पूर्वाग्रह युक्त जवाब दे सकता है. इस उपकरण के ट्रेनिंग डेटा को 2021 में रोक दिया गया था, क्योंकि उसमें दुनिया में हुई घटनाओं की बहुत कम जानकारी थी.

चैटबॉट गलत जानकारी कैसे दे सकता है, इसे विस्तार से बताते हुए AI पॉलिसी में शोधार्थी और IIT बॉम्बे के प्रोफेसर अनुपम गुहा कहते हैं,

"इसमें आंतरिक तौर पर कोई अनुमान लगाने वाला तंत्र नहीं है, मतलब इंसानी नजरिए से कहें, तो किसी तरह की समझ नहीं है. चैट जीपीटी में मानवशास्त्रीय शब्दों की समझ नदारद है, बल्कि किसी भी भाषायी टेक्स्ट जेनरेटर में फिलहाल यह खूबी नहीं है.''
अनुपम गुहा, सेंटर फॉर पॉलिसी स्टडीज, आईआईटी बॉम्बे

चैटबॉट के जेनरेट किए गए सभी टैक्स्ट में कुछ बातें कॉमन हैं :
मानवीय अहसास होता है

  • मानवीय अहसास होता है
  • निर्देशात्मक भाषा
  • भाषा के उपयोग के लिए सही तरीके का वाक्य विन्यास

पर जानकारी का स्पष्ट सोर्स नहीं बताया जाता. ऐसे में लोगों को ये भरोसा हो सकता है कि संबंधित टेक्स्ट किसी विशेषज्ञ ने लिखा है.

स्टैग ओवरफ्लो, प्रोग्रामरों के लिए बनाई गई एक वेबसाइट ने इस तरह के मनगढ़ंत उत्तरों के डर से इस लैंग्वेज टूल पर अस्थाई प्रतिबंध लगा दिया है. उन्होंने उल्लेख किया कि "ChatGPT से सही जवाब पाने की औसत दर बहुत कम है"

दिसंबर 2022 में, ओपनएआई के सीईओ सैम आल्टमैन ने ट्वीट करते हुए कहा, "फिलहाल किसी बहुत अहम चीजों में चैट जीपीटी पर निर्भर रहना गलती होगी."

चैट जीपीटी चंद सेकंड में टेक्स्ट देता है, जिस तक आसानी से पहुंच है. जबकि फिल्टर्स चैटबॉट को पूर्वाग्रह युक्त या एकतरफा जवाब देने से बचने की स्वतंत्रता देते हैं, लेकिन मनमाफिक नतीजे पाने के लिए इनका उल्लंघन किया जा सकता है.

ओपन एआई के "FAQ (अक्सर पूछे जाने वाले सवाल)" सेक्शन के मुताबिक, यह उपकरण इंटरनेट से कनेक्टेड नहीं है और अक्सर गलत या पूर्वाग्रह युक्त जवाब दे सकता है. इस उपकरण के ट्रेनिंग डेटा को 2021 में रोक दिया गया था, क्योंकि उसमें दुनिया में हुई घटनाओं की बहुत कम जानकारी थी.

चैट बॉट कैसे गलत जवाब दे सकता है, ये समझाते हुए AI पॉलिसी में शोधार्थी और IIT बॉम्बे के प्रोफेसर अनुपम गुहा ने कहा

"इसमें आंतरिक तौर पर कोई अनुमान लगाने वाला तंत्र नहीं है, मतलब इंसानी नजरिए से कहें, तो किसी तरह की समझ नहीं है. चैट जीपीटी में मानवशास्त्रीय शब्दों की समझ नदारद है, बल्कि किसी भी भाषायी टेक्स्ट जेनरेटर में फिलहाल यह खूबी नहीं है.
अनुपम गुहा, सेंटर फॉर पॉलिसी स्टडीज, IIT बॉम्बे

चैटबॉट के जेनरेट किए गए सभी टैक्स्ट में कुछ बातें कॉमन हैं :

  • मानवीय अहसास
  • निर्देशात्मक भाषा
  • भाषा के उपयोग के लिए सही तरीके का वाक्य विन्यास

पर जानकारी का स्पष्ट सोर्स नहीं बताया जाता. ऐसे में लोगों को ये भरोसा हो सकता है कि संबंधित टेक्स्ट किसी विशेषज्ञ ने लिखा है.

ये टूल विशेषज्ञों के बयान और शोध के फर्क में आसानी से घालमेल कर सकता है, जो कि एक बड़ी समस्या है. क्योंकि बयान ओर स्टडी दोनों ही रोजमर्रा की खबरों के लिहाज से जरूरी हैं.

क्या ये चिंताजनक नहीं है ?

स्टैनफोर्ड इंटरनेट ऑब्जर्वेटरी का 2023 का एक अध्ययन बताता है कि भाषा उत्पादित करने वाले लैंग्वेज मॉडल ये सब करेंगे:

  • कंटेंट में सुधार
  • कीमत घटेगी
  • अभियानों का स्तर बढ़ेगा

लेकिन इस अध्ययन में ये भी कहा गया है कि यह मॉडल्स गढ़े गए प्रोपगेंडा जैसे नए तरह के भ्रमों को भी पेश करेंगे, लिहाजा ऐसे लोगों को इस तरह के अभियान को फैलाने में फायदा मिलेगा, जो नुकसान पहुंचा सकते हैं.

अध्ययन आगे कहता है कि इस उपकरण का उपयोग लोग व्यक्तिगत कंटेंट को बनाने के लिए कर सकते हैं, जो किसी विशेष नैरेटिव में फिट किया जा सके. इससे छोटे समूहों को यह सुविधा मिलेगी कि वे इंटरनेट पर खुद को बड़ा दिखा सकें.

गुहा कहते हैं, "मुझे लगता है कि यहां गलत जानकारी से ज्यादा बड़ी समस्या यह है कि बाहर बहुत सारे अनभिज्ञ लोग मौजूद हैं, जो चैट जीपीटी से उपलब्ध हर तरह की जानकारी को सही ज्ञान समझ लेगें, बजाए इसके कि यह एक पैटर्न जेनरेशन है. ये लोग बिना सोचे-समझे इस जानकारी को सही मानकर इसका उपयोग कर सकते हैं. मुझे लगता है कि अनभिज्ञ होना, यहां विद्वेष से ज्यादा बड़ी समस्या है."

इससे पहले शोधार्थियों की मदद के लिए विकसित की गई मेटा गैलेक्टिका को बंद किया जा चुका है. गैलेक्टिका की भ्रामक जानकारी फैलाने के लिए आलोचना की गई थी.

सवाल - 2

फैक्ट चैकर्स के लिए एक बुरा सपना?

गलत सूचनाएं फैलाने के क्रम में सबसे कॉमन पैटर्न एक ही टेक्स्ट को कॉपी-पेस्ट करना होता है. लेकिन यह जल्दी बदल सकता है.

कैसे? एआई चैटबॉट एक ही प्रवृत्ति का अलग-अलग शब्दों वाला कंटेंट बनाने में सक्षम हैं. नीचे देखिए

स्टैनफोर्ड इंटरनेट ऑब्जर्वेटरी का अध्ययन बताता है कि लैंग्वेज मॉडल्स अपनी गुणवत्ता में सुधार करेंगे, जिससे ट्वीट और कमेंट्स के जरिए होने वाली छोटी टिप्पणियों और लंबे लेखों का परीक्षण मुश्किल हो जाएगा.

ऑर्सेक ने एआई की कुछ और सीमाओं पर ध्यान दिलाया है और सुझाव दिया है कि इसका इस्तेमाल दूसरे तरीकों के साथ भ्रामक जानकारी से लड़ने के लिए होना चाहिए.

"हालांकि, AI फैक्ट-चेकर्स को गलत सूचनाओं की पहचान करने और उन्हें चिन्हित करने में मदद कर सकता है, लेकिन इसकी सीमाएं भी हैं. एक चुनौती फॉल्स पॉजिटिव की संभावना है, जहां फ्लैग की गई जानकारी सही निकलती है."
बेबार्स ऑर्सेक, वाइस प्रेसीडेंट (फैक्ट-चेकिंग) लॉजिकली

यहां फॉल्स पॉजिटिव का मतलब है वो सही जानकारी, जिसे AI गलत मानकर फ्लैग कर रहा है.

स्टैनफोर्ड रिसर्च में हार्वर्ड मेडिकल स्कूल के एक छात्र के अध्ययन का भी जिक्र है, जहां वॉलंटियर्स AI-जेनरेटेड और इंसानों द्वारा लिखे टेक्स्ट के बीच अंतर न कर सके.

OpenAI ने हाल में एक क्लासिफायर टूल लॉन्च किया है, जो AI और इंसानों के लिखे गए टेक्स्ट के बीच अंतर कर सकता है.

हालांकि, उनकी वेबसाइट के मुताबिक, इसकी सटीकता केवल 26 प्रतिशत है.

ये टूल अंग्रेजी को छोड़कर, भाषा और एक हजार से कम शब्दों वाले टेक्स्ट पर भी सटीक नहीं है.

प्रोफेसर गुहा का तर्क है कि देश में मीडिया साक्षरता की कमी के कारण लोग गलत सूचनाओं के प्रति अतिसंवेदनशील होते हैं, जो वर्तमान में अधिकांश छात्रों के पाठ्यक्रम में मौजूद नहीं है. गुहा ने आगे कहा..

  • क्रिटिकल रीडिंग और चीजों को वेरिफाई करना बहुत जरूरी है.
  • तकनीकी सुधारों की तुलना में बुनियादी स्किल और मीडिया साक्षरता में निवेश के बेहतर परिणाम हैं.

सवाल - 3

क्या आपदा में अवसर का मौका है?

कुछ फायदे भी हैं. AI टूल्स का विकास भ्रामक सूचनाओं का मुकाबला करने में मदद कर सकता है, क्योंकि उसके पास इंसानों की तुलना में ज्यादा तेजी से मुश्किल डेटा का विश्लेषण करने की क्षमता है. ये फैक्ट-चेकर्स को वायरल हो रही एक तरह की तस्वीरों और क्लिप को ट्रैक करने में भी मदद कर सकता है.

मई 2021 में, मैसाचुसेट्स इंस्टीट्यूट ऑफ टेक्नोलॉजी ने AI प्रोग्राम के बारे में बात करते हुए एक आर्टिकल पब्लिश किया था, जिसमें ऐसे सोशल मीडिया अकाउंट्स का विश्लेषण किया गया था जो गलत या भ्रामक सूचनाएं फैला रहे थे. इसके मुताबिक, प्रोग्राम 96 फीसदी सटीकता के साथ ऐसे अकाउंट की पहचान कर सकता है.

हालांकि, एक्सपर्ट बताते हैं कि गलत सूचनाओं से लड़ने के लिए मनुष्यों और AI के बीच एक सहयोगी दृष्टिकोण बेहतर रहेगा.

ऑर्सेक तर्क देते हैं:

  • इससे फैक्ट-चेकर्स से काम का भार कम हो सकता है.
  • डीपफेक जैसी मीडिया का पता लगाने के लिए भी AI टूल्स का इस्तेमाल किया जा सकता है, जिसे फैक्ट-चेकर्स के लिए पहचानना मुश्किल होता है.

प्रोफेसर गुहा का भी कहना है कि वेरिफिकेश का आखिरी स्टेप इंसानों को ही करना चाहिए, क्योंकि "फैक्ट चेकिंग करना काफी संवेदनशील काम है."

अलग-अलग कंपनियों के जेनरेटिव लैंग्वेज मॉडल के अपने वर्जन जारी करने के साथ, भ्रामक सूचनाओं की गुणवत्ता और मात्रा में बढ़ोतरी की उम्मीद की जा सकती है. ChatGPT पर या किसी दूसरे AI मॉडल जेनरेटिव पर आप जो कुछ भी पढ़ते हैं, उस पर विश्वास न करें.

हालांकि, AI टूल्स फैक्ट-चेकर्स की गलत सूचनाओं से लड़ाई में अहम साबित हो सकते हैं.

तो, क्या AI ने आपसे झूठ बोला? काफी बार, हां. क्या ये कल इंटरनेट पर झूठ पकड़ने में मदद कर सकता है? हम ट्रैक करते रहेंगे.

भ्रामक और गलत सूचनाओं के खिलाफ जारी हमारी लड़ाई के बारे में आप क्विंट हिंदी के वेबकूफ सेक्शन पर जा कर पढ़ सकते हैं. आर्टिफिशियल इंटेलीजेंस कैसे हमारे वर्तमान और भविष्य को प्रभावित कर रहा है, ये जानने के लिए हमारी खास सीरीज AI Told You So जरूरी देखें.

डियर रीडर,

इस तरह के प्रोजेक्ट में समय, संसाधन और पैसा लगता है. इसलिए हमें अपनी स्वतंत्र पत्रकारिता को जारी रखने के लिए आपके सपोर्ट की जरूरत है. क्विंट हिंदी का मेंबर बनने के लिए यहां क्लिक करें और इस तरह की और इन्वेस्टिगेटिव स्टोरी के लिए क्विंट हिंदी के स्पेशल प्रोजेक्ट्स के साथ बने रहें.

क्रेडिट

रिपोर्टर
अभिषेक आनंद

क्रिएटिव प्रोड्यूसर
नमन शाह

ट्रांसलेशन
सुदीप्त शर्मा

ग्राफिक डिजाइनर
कामरान अख्तर

सीनियर एडिटर
कृतिका

क्रिएटिव डायरेक्टर
मेघनाद बोस

एग्जीक्यूटिव प्रोड्यूसर
रितु कपूर