क्या है डीपफेक तकनीक जिसके इस्तेमाल से बदल जा रहे हैं लोगों के चेहरे, फेक न्यूज़ फैलाने में भी है इसका बड़ा हाथ

सोचिए- क्या हो अगर आप को कोई ऐसी पॉर्न क्लिप दिखाई पड़ जाए जिसमें आपके किसी परिचित या आपका ही चेहरा नज़र आ रहा हो?

क्या है डीपफेक तकनीक जिसके इस्तेमाल से बदल जा रहे हैं लोगों के चेहरे, फेक न्यूज़ फैलाने में भी है इसका बड़ा हाथ

Thursday April 15, 2021,

3 min Read

"AI से जुड़ी डीपफेक एक ऐसी ही तकनीक है जिसके इस्तेमाल के बाद आपके लिए असली और नकली में फर्क करना बेहद मुश्किल हो जाएगा। बीबीसी की एक रिपोर्ट के अनुसार डीपफेक के जरिये कोरियन कलाकारों के नकली पॉर्न वीडियो तैयार कर इंटरनेट पर प्रसारित किए जा रहे हैं और यह सब उन कलाकारों की सहमति के बिना हो रहा है।"

f

कृत्रिम बुद्धिमत्ता या आर्टिफ़िश्यल इंटेलिजेंस (AI) को अब बड़े पैमाने पर कई क्षेत्रों में इस्तेमाल किया जा रहा है, हालांकि लगातार बढ़ते इस्तेमाल के साथ ही अब इसके बेहद खतरनाक प्रयोग या यूं कहें कि परिणाम नज़र आने लगे हैं जो किसी भी सामान्य व्यक्ति को भी सीधे तौर पर प्रभावित कर सकते हैं।


AI का इस्तेमाल आज वहाँ निर्माण, बैंकिंग के साथ ही आईटी के क्षेत्र में बड़े पैमाने पर किया जा रहा है, इसी के साथ चैटबॉट और पर्सनल असिस्टेंट के निर्माण में भी AI की मदद ली जाती है। इस तरह से भले ही हमें यह समझ आता हो कि AI के चलते हमारे काफी काम आसान हो गए हैं, लेकिन इसके इस्तेमाल से जुड़े जो दुष्परिणाम अब सामने आने शुरू हुए हैं उन्हे देखने के बाद आप भी AI को लेकर बनी अपनी धारणा पर फिर से विचार करने के लिए बाध्य हो सकते हैं।

डीपफेक तकनीक का झोल

मालूम हो कि AI तकनीक का इस्तेमाल करते हुए आज किसी की भी हूबहू डिजिटल कॉपी बनाई जा सकती है, मसलन आप एक वीडियो देख रहे हैं और आप चाहते हैं कि उस वीडियो में नज़र आ रहा शख्स हूबहू आपके चहेते अभिनेता की तरह लगे तो आप AI के जरिये ऐसा कर सकते हैं। अब आप कहेंगे कि इसमें क्या परेशानी है, तो सोचिए- क्या हो अगर आप को कोई ऐसी पॉर्न क्लिप दिखाई पड़ जाए जिसमें आपके किसी परिचित या आपका ही चेहरा नज़र आ रहा हो। ये आपको परेशान कर सकता है, लेकिन AI के चलते ऐसे नकली वीडियो का तैयार ऐसा हो सकना बिल्कुल संभव है।

f

AI से जुड़ी डीपफेक एक ऐसी ही तकनीक है, जिसके इस्तेमाल के बाद आपके लिए असली और नकली में फर्क करना बेहद मुश्किल हो जाएगा।


BBC की एक रिपोर्ट के अनुसार, डीपफेक के जरिये कोरियन कलाकारों के नकली पॉर्न वीडियो तैयार कर इंटरनेट पर प्रसारित किए जा रहे हैं और यह सब उन कलाकारों की सहमति के बिना हो रहा है।

न्यूज़ के साथ गड़बड़ी

आप जानते हैं कि इस समय दुनिया भर में फेक न्यूज़ को फैलने से रोकने के लिए कई तरह के कदम उठाए जा रहे हैं अब ऐसे में AI के इन कारनामे ने एक अलग तरह की मुश्किल खड़ी कर दी है। AI की मदद लेते हुए आप किसी वीडियो में न्यूज़ एंकर को वैसा दिखा सकते हैं जैसा आप उन्हे दिखाना चाहते हैं। इस तरह से असल और फेक न्यूज़ वीडियो में पहली बार में फर्क बता पाना बेहद मुश्किल हो सकता है क्योंकि फेक न्यूज़ में भी आपको उस एंकर का चेहरा नज़र आ रहा है जो असल में किसी टीवी न्यूज़ चैनल के लिए खबर पढ़ता है।

अभिभाषण के साथ खेल

लोगों के बीच भ्रम फैलाने या अन्य गलत इरादों के साथ AI का इस्तेमाल किसी भी बड़े नेता या यूं कहें कि किसी देश के प्रधानमंत्री या राष्ट्रपति के अभिभाषण के साथ छेड़छाड़ करने के लिए भी किया जा सकता है। इस तकनीक के जरिये किसी व्यक्ति की आवाज़, उसके चेहरे और हाव-भाव की हूबहू नकल की जा सकती है।


इसे लेकर विशेषज्ञों का मानना है कि अब इस तकनीक में होने वाले बदलाव और इसके एडवांस होने का क्रम अंतहीन है।


Edited by Ranjana Tripathi