चिंताजनक प्रवृत्ति बनी हुई है क्योंकि डीपफेक तकनीक मशहूर हस्तियों के जीवन के लिए बड़ा खतरा पैदा करती है। हाल ही में, मशहूर हस्तियों के कई फर्जी वीडियो इंटरनेट पर वायरल हो गए हैं। बढ़ते मुद्दे को बढ़ाते हुए, ऐश्वर्या राय बच्चन का एक डीपफेक वीडियो सोशल मीडिया पर व्यापक रूप से प्रसारित हो रहा है। वीडियो में एक महिला को स्विमिंग पूल में ऐश्वर्या का चेहरा लगाए हुए दिखाया गया है, और यह वर्तमान में इंस्टाग्राम पर हलचल मचा रहा है।
ऐश्वर्या राय के डीपफेक वीडियो ने इंटरनेट को हिलाकर रख दिया है
डीपफेक ऐसे वीडियो या चित्र हैं जो आर्टिफिशियल इंटेलिजेंस (एआई)-संचालित डीप लर्निंग सॉफ्टवेयर का उपयोग करके बनाए जाते हैं जो लोगों को ऐसी बातें कहते और करते हुए दिखाते हैं जो उन्होंने नहीं कहा या किया। प्रौद्योगिकी का दुरुपयोग पिछले महीने भारत में चर्चा का एक गर्म विषय बन गया जब रश्मिका मंदाना का एक फर्जी वीडियो सोशल मीडिया प्लेटफॉर्म पर प्रसारित होने लगा। नेटिज़न्स ने दावा किया कि वीडियो से छेड़छाड़ की गई है और वास्तविक वीडियो ब्रिटेन में रहने वाले एक भारतीय मूल के व्यक्ति का है।
साथ ही बॉलीवुड एक्ट्रेस कृति सेनन की एक फर्जी फोटो वायरल हो गई है। कृति सैनन की होने का दावा करने वाली एक नग्न तस्वीर इंटरनेट पर छा गई है। सेनन की तस्वीर की जगह एक न्यूड महिला की तस्वीर लगा दी गई है। वह ऐसी स्थिति में आने वाली नवीनतम सेलिब्रिटी हैं जब कई मशहूर हस्तियों के डीपफेक वीडियो इंटरनेट पर वायरल हो गए हैं।
स्थिति की गंभीरता को समझते हुए, प्रधान मंत्री नरेंद्र मोदी ने आगाह किया कि कृत्रिम बुद्धिमत्ता द्वारा बनाए गए डीपफेक बड़े संकट का कारण बन सकते हैं और समाज में असंतोष पैदा कर सकते हैं, उन्होंने मीडिया से इसके दुरुपयोग के बारे में जागरूकता बढ़ाने और लोगों को शिक्षित करने का आग्रह किया।
डीपफेक एक बड़ा संकट पैदा कर सकता है और यहां तक कि असंतोष की आग भी भड़का सकता है क्योंकि लोग आम तौर पर मीडिया से जुड़ी किसी भी चीज़ पर भरोसा करते हैं, उसी तरह से ’गेदुआ’ (भगवा) पहनने वाला कोई भी व्यक्ति दूसरों से सम्मान प्राप्त करता है।