AI से बनाई गई फोटो सबको चकमा दे रही हैं

हमने उनकी पहचान के लिए बनाई ये Cheatsheet

आर्टिफिशियल इंटेलिजेंस से बनी फोटो इतनी भी होशियार नहीं होनी चाहिए कि आप उन्हें असली मान बैठें. पर सवाल ये है कि आप असली फोटो और AI से बनी फोटो में फर्क करेंगे कैसे ?

इस मल्टीमीडिया इमर्सिव में हम आपको बताएंगे, कैसे ?

AI की मदद से फोटो बनाने के लिए इस्तेमाल होने वाले टूल्स की बाढ़ आ गई है. जैसे Midjourney, Stable Diffusion, Open AI’s DALL-E और कई सारे. पर आर्टिफिशियल इंटेलिजेंस अभी भी तस्वीरें बनाने के मामले में उतना परिपक्व या यूं कहें कि परफेक्ट नहीं हुआ है.

अब वक्त है अपने अंदर के जासूस को जगाने का. क्योंकि हमने AI से बनी तस्वीरों में खोजी हैं ऐसी खास निशानियां - जिनसे आप उनकी पहचान कर सकते हैं. तो शुरू करते हैं फैक्ट चेकिंग के तरीके से - गौर से देखिए

चेहरा

सुंदरता देखने वाले की आंखों में होती है, ऐसा ही AI से बनाई गई फोटो को पहचानने के मामले में भी होता है. यहीं से आपको क्लू मिलता है.

अब AI से बनी पीएम मोदी की इस फोटो को देखिए. इसे सोशल मीडिया पर एक कार्यक्रम में शामिल हुए पीएम मोदी का बताकर शेयर किया गया. फोटो में पीएम एक भारी भरकम कॉस्ट्यूम पहने दिख रहे हैं.
  • उनकी दोनों आंखें एक दूसरे से मिलती नहीं दिख रहीं
  • चश्मा चेहरे में ही मिला हुआ दिख रहा है, जो कि उठा होना चाहिए
फोटो में बाकी लोगों के चेहरे बिल्कुल धुंधले से दिख रहे हैं, जो कि फोटो के असली ना होने की एक बड़ी निशानी है.

चेहरे के एक्सप्रेशन का तस्वीर में दिख रहे माहौल में फिट ना होना. या फिर चेहरे का ज्यादा ही चमकदार दिखना भी इस बात की निशानी है कि फोटो AI से बनी हुई हो सकती है.

ऐसी और भी कई तस्वीरें इस दावे से वायरल हैं कि इसमें पूर्व अमेरिकी राष्ट्रपति डोनाल्ड ट्रंप पुलिस की गिरफ्त से जबरदस्ती छूटने की कोशिश कर रहे हैं.

फोटो में कई चूक बिल्कुल साफ भी दिख रही हैं.
अब ये देखिए, ट्रंप के चेहरे पर फोकस है, पर फिर भी उनके बाल ब्लर हैं.
साथ ही, जिस पुलिसकर्मी का चेहरा हाइलाइट किया गया है, देखिए वो कितना धुंधला है!

वैज्ञानिक गलतियां

कई स्टूडेंट बिल्कुल ऐसी परिस्थिति समझते होंगे जब किसी विषय का कोई खास टॉपिक समझ नहीं आता. AI से फोटो बनाने वाले आर्ट टूल्स को तो फिजिक्स की बेसिक समझ नहीं है.

हमने BlueWillow नाम के फ्री AI टूल की मदद से बीच पर छाता लेकर बैठे पोप फ्रॉन्सिस की फोटो बनाने को कहा.

अब देखिए, क्या बनकर आया.

काफी अजीब गलती है, छतरी का हैंडल किसी और दिशा में है और छतरी किसी दूसरी दिशा में.

यही नहीं, छतरी उस जगह भी नहीं है जहां उसे होना चाहिए, यानी पोप के सिर के ठीक ऊपर. कुल जमा बात ये है कि इस हैंडल को देखकर ही समझ जाएंगे कि फोटो में कुछ गड़बड़ है.

याद रखिए, हमने मोदी और ट्रंप की तस्वीरों को लेकर क्या बताया था ? चेहरे को गौर से देखिए, हमेशा !

पोप की इस फोटो में उनकी आंखों और नाक के इर्द-गिर्द भयानक सा दिखने वाला काले रंग का हिस्सा है. यहीं से अंदाजा लगाना आसान है कि ये फोटो असली नहीं है.

किरदार और साथ की चीजों पर फोकस

चौंकिए मत, अगर किसी फोटो में आपको कोई शख्स अजीब तरह से काम करता दिखे. या कोई चीज ऐसी स्थिति में दिखे जैसी नहीं होती. ऐसा इसलिए है क्योंकि AI आर्ट टूल कई चीजों के काम करने के तरीके को समझते ही नहीं.

इस फोटो में पीएम मोदी माइक्रोस्कोप में देखते दिख रहे हैं, कई सोशल मीडिया प्लेटफॉर्म पर ये फोटो शेयर हुई.

पर जब आप फोटो को गौर से देखेंगे. तो दिखेगा कि पीएम मोदी की आंखें माइक्रोस्कोप के लैंस में नहीं देख रहीं, उनका माथा लैंस की तरफ है.

उस ओरिजनल पोस्ट को हमने देखा जहां ये फोटो शेयर हुई थी. अपलोड करने वाले यूजर ने क्रेडिट में #aiart और #midjourney लिखा था. इस फोटो को लेकर हमारा शक सही साबित हुआ.

फोटो को बनाने में जिस AI टूल का इस्तेमाल हुआ, साफ है कि उसने ये समझने में गलती कर दी कि कोई इंसान माइक्रोस्कोप का इस्तेमाल कैसे करता है.

आपको फोटो में दिख रहे मुख्य किरदार पर और उसके साथ की चीजों पर क्यों फोकस करना चाहिए AI से बनाई गई ये फोटो इसका सबसे सटीक उदाहरण है.

ये फोटो ट्विटर पर पोस्ट की गईं और 'मिडजर्नी' टूल से बनाई गईं.

इस फोटो में देखिए, एक पहिए वाली इस साइकल (Unicycle) का एक पैडल ही गायब है, और चलाने वाला हवा में अपने पैर घुमा रहा है. !
इस फोटो में पैडल मारने वाला पैर पहिए के ऊपर है, जबकि उन्हें बगल में होना चाहिए. जाहिर है यूनिसाइकल हो या साइकल, ऐसे काम नहीं करती.

बिना अर्थ वाले शब्द

AI टूल्स की तैयारी फोटो में दिखने वाले टेक्स्ट को लेकर हद से ज्यादा कमजोर दिखती है.

हालांकि, ये टूल ऐसे शब्द बना सकते हैं जिनके वाकई में कुछ अर्थ होते हों, लेकिन अक्सर ये ऐसे अक्षरों का इस्तेमाल करते हैं जिन्हें मिलाकर बनने वाला शब्द असल में कोई शब्द ही नहीं है.

आपको यकीन नहीं है ? तो AI की मदद से बनाई गई एक और वायरल फोटो को देखिए. ये भी ट्रंप की गिरफ्तारी के दावों से शेयर हुई थी.

गौर से देखने पर पुलिसकर्मियों के कैप और बैज पर लिखे लेटर देखे जा सकते हैं.

यहां दिख रहे लेटर को मिलाकर कोई शब्द नहीं बन रहा !

ये रहा एक और उदाहरण. AI आर्ट टूल BlueWillow से हमने एक ऐसी फोटो बनाने को कहा जिसमें एक शख्स साइनबोर्ड पकड़े दिख रहा हो. ये बनकर सामने आया.

एक बार फिर, क्या इन शब्दों का आपको कोई मतलब समझ आ रहा है ? नहीं!

हाथ

AI से बनाई गई तस्वीरों में, इंसान के हाथ की अजीब बनावट इस ओर इशारा करती है कि ये AI टूल से बनी है और असली नहीं है.

अब इन दो तस्वीरों को देखिए जो इस दावे से वायरल हुई थीं कि अमेरिकी राष्ट्रपति के पूर्व चीफ मेडिकल ऑफिसर एंथनी फाउची को पुलिस ने गिरफ्तार कर लिया है.

हालांकि, फोटो में हाथों कौ गौर से देखेंगे तो आपको इसमें कई खामियां नजर आएंगी.
इस फोटो में, पुलिसकर्मी के हाथ में पांचों उंगलियां हैं, अंगूठा नहीं .
यहां तो मामला और अजीब है. महिला पुलिसकर्मी का दायां हाथ उसके बायें हाथ से जुड़ा हुआ लग रहा है! एक बार अगर आप ऐसा कुछ पहचान लेते हैं, तो फिर समझिए आपने सबकुछ देख लिया

वॉटरमार्क पर ध्यान दें

DALL-E जैसे AI टूल उन तस्वीरों पर वॉटरमार्क भी लगाते हैं, जो उनसे बनाई गई हैं.

DALL-E से बनाई गई तस्वीरों में कई रंगों वाली एक पट्टी होती है, ये दिखाने के लिए कि इसे AI की मदद से बनाया गया है.

पर यहां एक चिंता की बात है. सभी टूल वॉटरमार्क नहीं लगाते हैं. और फोटो को वॉटरमार्क छुपाने के लिए क्रॉप भी किया जा सकता है.

वॉटरमार्क पर ध्यान दें, लेकिन वॉटरमार्क के ना होने से ये साबित नहीं हो जाता कि फोटो असली है !

अब, वक्त है AI पहचानने की आपकी समझ के टेस्ट का !

अगर इनमें से कोई भी तरीका काम ना करे तो आप क्या करेंगे ? क्योंकि कई बार AI बिल्कुल असली जैसी दिखने वाली तस्वीरें बनाता है. ऐसे मामले में एक सिंपल सर्च आपकी मदद कर सकता है.

रिवर्स इमेज सर्च

वायरल फोटो को रिवर्स इमेज सर्च कर ओरिजनल सोर्स तक पहुंच सकते हैं. इससे फोटो का सच पता लगाने की संभावना बढ़ जाती है.

इससे आप फोटो के और बेहतर वर्जन तक भी पहुंच सकते हैं, फिर आगे इस बेहतर वर्जन से असली सोर्स सर्च कर सकते हैं.

रिवर्स इमेज सर्च से आप इंटरनेट पर उपलब्ध वायरल फोटो से मिलती-जुलती फोटो तक भी पहुंचते हैं.

इससे आपको उन पुराने पोस्ट को खोजने में भी मदद मिल सकती है, जिनमें यही फोटो इस्तेमाल की गई थी. या फिर ऐसी न्यूज रिपोर्ट.

ये सर्च आप गूगल लेंस का गूगल क्रोम के InVID WeVerify एक्सटेंशन से भी कर सकते हैं.

रिवर्स इमेज सर्च करने का तरीका विस्तार से आप इस वीडियो में सीख सकते हैं.

न्यूज रिपोर्ट्स देखें

सोशल मीडिया पर वायरल हो रही तस्वीरों को वेरिफाई करने के लिए कुछ विश्वसनीय न्यूज सोर्स पर भी भरोसा किया जा सकता है.

गौर करने वाली बात ये है कि बड़ी घटनाएं छिपी नहीं रहतीं. अगर किसी फोटो को बड़ी घटना से जोड़कर शेयर किया जा रहा है, तो उससे जुड़ी न्यूज रिपोर्ट्स जरूर होनी चाहिए.

उदाहरण के लिए, ये फोटो इस दावे से शेयर की गई की रूसी राष्ट्रपति ब्लादिमीर पुतिन को हार्ट अटैक आया है.

हमने जब इससे जुड़ी न्यूज रिपोर्ट्स खोजीं, तो कोई भी नहीं मिली.

किसी राष्ट्र के प्रमुख को हार्ट अटैक आया और मीडिया में कवरेज ही न हो, क्या ये संभव है ? और पुतिन की ये फोटो AI से बनाई गई है.

क्या AI से बनी तस्वीरों के जरिए फैलाए जा रहे भ्रम को AI की मदद से ही दूर किया जा सकता है ? कई AI टूल जैसे Hugging Face, Optic AI, Not और Illuminarty को उन तस्वीरों को पहचानने के लिए बनाया गया है, जो AI से बनाई गई हैं.

उदाहरण के लिए, द क्विंट की फैक्ट चेकिंग टीम वेबकूफ ने इस फोटो की पड़ताल की. फोटो इस दावे से शेयर की जा रही थी कि हॉलीवुड एक्टर टॉम क्रूज इसमें अपने हमशक्ल के साथ हैं.

इस फोटो को बनाने वाले Ong Hui Woo ने पुष्टि की कि उन्होंने इसे AI आर्ट टूल मिडजर्नी की मदद से बनाया था.

अब हमने इस फोटो का इस्तेमाल कर ये चेक किया कि AI-detector ऐसी तस्वीरों को पहचानने में कितने कारगर हैं जो AI से बनी हैं.

Hugging Face ने कहा कि 87% संभावना है कि ये फोटो किसी इंसान ने ली है. ILLuminarty ने कहा कि 90.1% संभावना है कि फोटो AI से बनाई गई है. जबकि Optic AI or Not दोनों ने फोटो को AI से जेनरेट किया गया बताया.

हमने और कई तस्वीरों के जरिए ये समझना चाहा कि कौनसा AI-detection टूल तुलनात्मक रूप से सबसे ज्यादा सही नतीजे दे रहा है. जैसे कि पेंटागन में हुए धमाके की बताकर शेयर की गई ये फोटो, जिसके हाल में शेयर होने के चलते अमेरिकी बाजार में गिरावट तक आ गई थी.

ये तस्वीर AI से बनाई गई थी.

ज्यादातर मामलों में Optic AI or Not तस्वीरों को पहचानने में सबसे बेहतर काम करता दिखा. पेंटागन में धमाके की बताकर वायरल हुई इस फोटो ने बाकी के तीनों AI-detection टूल को चकमा दे दिया. तीनों में से कोई सटीक नहीं बता पाया कि ये AI से बनी है.
साफ है कि नतीजे राहत देने वाले नहीं हैं. इससे ये साफ होता है कि AI पहचानने के लिए बनाए गए इन टूल का काफी विकास होना बाकी है. इनमें ऐसे काफी सुधारों की जरूरत है जिससे ये AI से बनी तस्वीरों को और सटीक पहचान सके.

AI के जरिए जान बूझकर फैलाई जा रही भ्रामक खबरों को कम करके नहीं आका जा सकता या छोटी समस्या नहीं माना जा सकता. इस उदाहरण से समझा जा सकता है कि कैसे AI से बनी तस्वीरों का इस्तेमाल गलत नैरेटिव को फैलाने में किया गया.

28 मई 2023 को एक शख्स ने AI टूल के जरिए चंद सेकंड में पहलवान विनेश फोगाट और संगीता फोगाट की फोटो को एडिट कर दिया.

असल फोटो में ये दोनों ही महिला पहलवान पुलिस हिरासत के बाद पुलिस की बस में बैठी दिख रही थीं.

AI से बनी फोटो में भी दोनों पहलवान उसी बस में उसी पोजिशन में दिख रही थीं. फर्क ये था कि एडिट की गई फोटो में पहलवानों को मुस्कुराता हुआ दिखाया गया था.

''सड़क पर धरना करने के बाद ये है इनका असली चेहरा''
चंद मिनटों में ऐसे मैसेजेस के साथ ये फेक फोटो सोशल मीडिया पर शेयर होने लगी और वायरल हो गई.

अब क्विंट की वेबकूफ टीम तुरंत काम पर लग गई. हम जल्द ही ये पता लगाने में कामयाब हुए कि ये फोटो असली नहीं है, एडिटेड है. हमने कैसे पता लगाया ?

लेकिन बतौर फैक्ट चेकर के रूप में हमें एक बार फिर ये अहसास हुआ कि हमारे सामने कि ये चुनौती कितनी भयावह और बड़ी हो सकती है.

AI से बनी तस्वीरें और AI से फैलाई गई भ्रामक सूचनाएं अब यहीं रहने वाली हैं. यही नहीं, अब ये तेजी से विकसित भी होने वाली हैं.

पर हम भी यहीं होंगे, उनका सच आप तक पहुंचाने के लिए नए तरीके खोजते रहेंगे. साथ ही इसमें आपकी भी मदद करते रहेंगे.

इसलिए अगर आपको किसी फोटो के असली होने पर शक हो रहा है तो हमें भेजिए, हमारे वॉट्सएप नंबर +91 96436 51818 या फिर मेल आइडी Webqoof@thequint.com पर.
और जैसा कि कालांतर में एक महान शख्स ने कहा "सतर्क रहो!"

ये मल्टीमीडिया इमर्सिव AI से जुड़ी भ्रामक सूचनाओं को लेकर शुरू किए गए हमारे स्पेशल प्रोजेक्ट का दूसरा भाग है.

पहला भाग आप यहां पढ़ सकते हैं, जिसमें हमने बताया था कि क्या AI से सशक्त चैटबोट फेक न्यूज की समस्या को और बदतर बना सकते हैं?

इस प्रोजेक्ट का तीसरा भाग भी जल्द आएगा. तीसरे भाग में हम मीडिया के जरिए ही होने वाले गलत सूचनाओं के प्रसार और AI से बने कंटेंट पर बात करेंगे. साथ ही उन समाधानों पर भी बात करेंगे जो प्लेटफॉर्म और सरकारें उठा सकती हैं, AI से ताकतवर हो रही भ्रामक सूचनाओं को रोकने के लिए.

क्रेडिट

रिपोर्टर
अभिषेक आनंद

रिपोर्टर
एश्वर्या वर्मा

क्रिएटिव प्रोड्यूसर
नमन शाह

ग्राफिक डिजाइनर
कामरान अख्तर

ग्राफिक डिजाइनर
अरूप मिश्रा

सीनियर एडिटर
अभिलाष मलिक

क्रिएटिव डायरेक्टर
मेघनाद बोस

प्रिय पाठक,

पत्रकारिता के इस तरह के विस्तार से किए गए व्यापक प्रोजेक्ट के लिए बहुत ज्यादा समय और संसाधनों की जरूरत होती है. इसलिए हमें अपनी स्वतंत्र पत्रकारिता को जारी रखने के लिए आपके सहयोग की जरूरत है. क्विंट हिंदी के मेंबर बनने के लिए यहां क्लिक करें. ऐसी और इन्वेस्टिगेटिव स्टोरी पढ़ने के लिए क्विंट हिंदी के स्पेशल प्रोजेक्ट्स को देखते रहें.