क्या है डीपफेक तकनीक जिसके इस्तेमाल से बदल जा रहे हैं लोगों के चेहरे, फेक न्यूज़ फैलाने में भी है इसका बड़ा हाथ

By शोभित शील
April 15, 2021, Updated on : Thu Apr 15 2021 05:31:31 GMT+0000
क्या है डीपफेक तकनीक जिसके इस्तेमाल से बदल जा रहे हैं लोगों के चेहरे, फेक न्यूज़ फैलाने में भी है इसका बड़ा हाथ
सोचिए- क्या हो अगर आप को कोई ऐसी पॉर्न क्लिप दिखाई पड़ जाए जिसमें आपके किसी परिचित या आपका ही चेहरा नज़र आ रहा हो?
  • +0
    Clap Icon
Share on
close
  • +0
    Clap Icon
Share on
close
Share on
close

"AI से जुड़ी डीपफेक एक ऐसी ही तकनीक है जिसके इस्तेमाल के बाद आपके लिए असली और नकली में फर्क करना बेहद मुश्किल हो जाएगा। बीबीसी की एक रिपोर्ट के अनुसार डीपफेक के जरिये कोरियन कलाकारों के नकली पॉर्न वीडियो तैयार कर इंटरनेट पर प्रसारित किए जा रहे हैं और यह सब उन कलाकारों की सहमति के बिना हो रहा है।"

f

कृत्रिम बुद्धिमत्ता या आर्टिफ़िश्यल इंटेलिजेंस (AI) को अब बड़े पैमाने पर कई क्षेत्रों में इस्तेमाल किया जा रहा है, हालांकि लगातार बढ़ते इस्तेमाल के साथ ही अब इसके बेहद खतरनाक प्रयोग या यूं कहें कि परिणाम नज़र आने लगे हैं जो किसी भी सामान्य व्यक्ति को भी सीधे तौर पर प्रभावित कर सकते हैं।


AI का इस्तेमाल आज वहाँ निर्माण, बैंकिंग के साथ ही आईटी के क्षेत्र में बड़े पैमाने पर किया जा रहा है, इसी के साथ चैटबॉट और पर्सनल असिस्टेंट के निर्माण में भी AI की मदद ली जाती है। इस तरह से भले ही हमें यह समझ आता हो कि AI के चलते हमारे काफी काम आसान हो गए हैं, लेकिन इसके इस्तेमाल से जुड़े जो दुष्परिणाम अब सामने आने शुरू हुए हैं उन्हे देखने के बाद आप भी AI को लेकर बनी अपनी धारणा पर फिर से विचार करने के लिए बाध्य हो सकते हैं।

डीपफेक तकनीक का झोल

मालूम हो कि AI तकनीक का इस्तेमाल करते हुए आज किसी की भी हूबहू डिजिटल कॉपी बनाई जा सकती है, मसलन आप एक वीडियो देख रहे हैं और आप चाहते हैं कि उस वीडियो में नज़र आ रहा शख्स हूबहू आपके चहेते अभिनेता की तरह लगे तो आप AI के जरिये ऐसा कर सकते हैं। अब आप कहेंगे कि इसमें क्या परेशानी है, तो सोचिए- क्या हो अगर आप को कोई ऐसी पॉर्न क्लिप दिखाई पड़ जाए जिसमें आपके किसी परिचित या आपका ही चेहरा नज़र आ रहा हो। ये आपको परेशान कर सकता है, लेकिन AI के चलते ऐसे नकली वीडियो का तैयार ऐसा हो सकना बिल्कुल संभव है।

f

AI से जुड़ी डीपफेक एक ऐसी ही तकनीक है, जिसके इस्तेमाल के बाद आपके लिए असली और नकली में फर्क करना बेहद मुश्किल हो जाएगा।


BBC की एक रिपोर्ट के अनुसार, डीपफेक के जरिये कोरियन कलाकारों के नकली पॉर्न वीडियो तैयार कर इंटरनेट पर प्रसारित किए जा रहे हैं और यह सब उन कलाकारों की सहमति के बिना हो रहा है।

न्यूज़ के साथ गड़बड़ी

आप जानते हैं कि इस समय दुनिया भर में फेक न्यूज़ को फैलने से रोकने के लिए कई तरह के कदम उठाए जा रहे हैं अब ऐसे में AI के इन कारनामे ने एक अलग तरह की मुश्किल खड़ी कर दी है। AI की मदद लेते हुए आप किसी वीडियो में न्यूज़ एंकर को वैसा दिखा सकते हैं जैसा आप उन्हे दिखाना चाहते हैं। इस तरह से असल और फेक न्यूज़ वीडियो में पहली बार में फर्क बता पाना बेहद मुश्किल हो सकता है क्योंकि फेक न्यूज़ में भी आपको उस एंकर का चेहरा नज़र आ रहा है जो असल में किसी टीवी न्यूज़ चैनल के लिए खबर पढ़ता है।

अभिभाषण के साथ खेल

लोगों के बीच भ्रम फैलाने या अन्य गलत इरादों के साथ AI का इस्तेमाल किसी भी बड़े नेता या यूं कहें कि किसी देश के प्रधानमंत्री या राष्ट्रपति के अभिभाषण के साथ छेड़छाड़ करने के लिए भी किया जा सकता है। इस तकनीक के जरिये किसी व्यक्ति की आवाज़, उसके चेहरे और हाव-भाव की हूबहू नकल की जा सकती है।


इसे लेकर विशेषज्ञों का मानना है कि अब इस तकनीक में होने वाले बदलाव और इसके एडवांस होने का क्रम अंतहीन है।


Edited by Ranjana Tripathi