पटना ब्‍यूरो। दूरियां बढ़ी तो गलतफहमियां भी बढ़ गई, फिर उसने वो भी सुना, जो मैंने कहा ही नहीं। लोकसभा चुनाव में उम्मीदवारों के एक शब्द उनका खेल बिगाड़ सकते हैं। लेकिन क्या आपने कभी सोचा है कि नेता जी की ओर से बोले गए ऐसे शब्द जो उन्होंने बोले ही नहीं, वह भी उनका खेल बिगाड़ सकता है। जी हां डीप फेक तकनीक से किसी भी नेता से बहुत आसानी से किसी जाति धर्म या फिर कम्यूनिटी विशेष के खिलाफ कुछ भी आपत्तिजनक शब्द कहलवाए जा सकते हैं। लेकिन समय रहते अगर उसपर किसी ने संज्ञान नहीं लिया तो इससे उन्हें चुनाव में भरपूर नुकसान होगा। डीप फेक से बनाई गई ऑडियो-वीडियो और फोटो कई बड़ी हस्तियों की चिंता बढ़ा चुकी है। रूस के राष्ट्रपति व्लादिमीर पुतिन, पूर्व क्रिकेटर सचिन तेंदुलकर और अभिनेत्री रश्मिका मंदाना भी डीप फेक के शिकार हो चुके हैं।

ऐसे करें डीपफेक की पहचान


मौजूदा समय में कई वेबसाइट्स हैं जो डीप फेक सामग्री की पहचान करती हैं। अगर आपको भी कोई फोटो या वीडियो पर शंका है तो पहले उसकी जांच जरूर करें। कई बार इन वीडियो और फोटो को गौर से देखने पर ही पता लग जाता है कि ये नकली हैं। वीडियो देखते वक्त हाथ-पैर गौर से देखें। चेहरे का भाव भंगिमा, लिप सिंकिंग और बॉडी मूवमेंट से डीपफेक वीडियो को पकड़ सकते हैं। इन सबके बीच कुछ एआई टूल की मदद से डीपफेक वीडियो-फोटो को जांच सकते हैं।

इनकी भी ले सकते हैं मदद


RAI or Not: इस वेबसाइट की मदद से आप एआई की मदद से तैयार ऑडियो और फोटो की पहचान कर सकते हैं।
RHive Moderation : इस टूल की मदद से भी एआई जनरेटेड सामग्री को पहचाना जा सकता है।
RDeepware Scanner: इस वेबसाइट की मदद से फेक वीडियो-ऑडियो की पड़ताल कर सकते हैं।

इस तरह के फैलाए जा सकते हैं संदेश


इसके माध्यम से ऐसे संदेश फैलाए जा सकते हैं जैसे- मैं चुनाव से अपने आपको बाहर कर रहा हूं, आप मेरे चालक को वोट दे दो या मेरे जानकार को वोट दे दो। हम ये कर देंगे वो कर देंगे! हम दूसरी पार्टी में आ गए हैं ! वो पार्टी इतना मांग रहा था! जब तक सच्चाई सामने आएगी तब तक उस नेता का काफी नुकसान हो चुका होगा। फिलहाल इसके ऊपर रोक लगाने की कोई तकनीक विकसित नहीं। सरकार तत्काल प्रभाव से इस पर ध्यान दे। दिक्कत यह है कि मैसेज प्रसारित करने वालों का पता लगाना मुश्किल है। तकनीक इतनी विकसित हो चुकी है कि किसी की आवाज निकालकर मैसेज प्रसारित किया जा सकता है। लोकसभा चुनाव के डीपफेक तकनीक की चर्चा है। आर्टिफिशियल इंटेलिजेंस यह तकनीक चुनाव में खतरा बन सकती है। इसका इस्तेमाल जनमत को प्रभावित करने में भी किया जा सकता है।

गुमराह या बहकाने में किया जा सकता इस्तेमाल


डीपफेक तकनीक का इस्तेमाल, ऑडियो-वीडियो, फोटो या किसी अन्य फार्मेट में किया जा सकता है। इसे आर्टिफिशियल इंटेलिजेंस (एआई) की मदद से तैयार किया जाता है। इससे तैयार फोटो, वीडियो और ऑडियो असली जैसे दिखने वाले लेकिन नकली होते हैं। इससे तैयार सामग्री का इस्तेमाल लोगों को गुमराह करने या बहकाने में किया जा सकता है। वर्ष 2017 में पहली बार एक रेडिट यूजर ने डीपफेक शब्द का इस्तेमाल किया था। चुनाव में इस तकनीक से किसी नेता या दल के बारे में गलत प्रचार किया जा सकता है। गलत संदेश भी फैलाए जा सकते हैं। इतना ही नहीं गलत तरीके से इसका इस्तेमाल किसी के पक्ष में भी किया जा सकता है। ऐसे में किसी भी ऑडियो-वीडियो या फोटो पर आंख मूंदकर विश्वास करने से पहले उसको जांचना जरूरी है।

क्या है डीप फेक


डीप फेक सामग्री का निर्माण डीप लर्निंग तकनीक से किया जाता है। यही वजह है कि डीप फेक शब्द भी डीप लर्निंग और फेक शब्द से मिलकर बना है। डीप लर्निंग तकनीक की मदद से असली वीडियो को किसी अन्य वीडियो और फोटो के साथ बदल दिया जाता है। देखने में यह असली जैसा लगता है लेकिन होता नहीं है। यह तकनीक असली फोटो-और वीडियो को नकली से इस तरह से स्वैप करता है कि इसे पहचानना मुश्किल होता है। डीपफेक तकनीक जेनरेटिव एडवरसैरियल नेटवर्क का इस्तेमाल करती है। यह तकनीक असली वीडियो-फोटो के एल्गोरिदम और पैटर्न की नकल करती है। इसके बाद जेनरेटिव एडवरसैरियल नेटवर्क की सहायता से असली जैसा दिखने वाला फर्जी वीडियो या फोटो तैयार करती है।

क्या कहते हैं आईटी एक्सपर्ट दीपक कुमार


साइबर सिक्योरिटी एक्सपर्ट दीपक कुमार ने बताया कि डीपफेक आर्टिफिशियल इंटेलिजेंस (एआई) का गलत अप्लीकेशन है। डीपफेक में जेनरेटिव एडवरसैरियल नेटवर्क का इस्तेमाल किया जाता है। इसमें इनकोडर और डिकोडर नेटवर्क होते हैं। जब किसी व्य1ित का वीडियो अपलोड किया जाता तो उसी का डाटा विश्लेषण के आधार पर असली की तरह दिखने वाला नकली वीडियो बनाया जाता है। यह निजता और कानून का उल्लंघन है। चुनाव में भी इसका इस्तेमाल हो सकता है। डीपफेक सामग्री की पहचान करना कठिन है। जब तक इसकी पहचान की जाएगी तब तक चुनाव हो चुके होंगे। ऐसे में कड़े कानून की आवश्यकता है।