चिंताजनक प्रवृत्ति बनी हुई है क्योंकि डीपफेक तकनीक मशहूर हस्तियों के जीवन के लिए बड़ा खतरा पैदा करती है। हाल ही में, मशहूर हस्तियों के कई फर्जी वीडियो इंटरनेट पर वायरल हो गए हैं। बढ़ते मुद्दे को बढ़ाते हुए, ऐश्वर्या राय बच्चन का एक डीपफेक वीडियो सोशल मीडिया पर व्यापक रूप से प्रसारित हो रहा है। वीडियो में एक महिला को स्विमिंग पूल में ऐश्वर्या का चेहरा लगाए हुए दिखाया गया है, और यह वर्तमान में इंस्टाग्राम पर हलचल मचा रहा है।
ऐश्वर्या राय के डीपफेक वीडियो ने इंटरनेट को हिलाकर रख दिया है
डीपफेक ऐसे वीडियो या चित्र हैं जो आर्टिफिशियल इंटेलिजेंस (एआई)-संचालित डीप लर्निंग सॉफ्टवेयर का उपयोग करके बनाए जाते हैं जो लोगों को ऐसी बातें कहते और करते हुए दिखाते हैं जो उन्होंने नहीं कहा या किया। प्रौद्योगिकी का दुरुपयोग पिछले महीने भारत में चर्चा का एक गर्म विषय बन गया जब रश्मिका मंदाना का एक फर्जी वीडियो सोशल मीडिया प्लेटफॉर्म पर प्रसारित होने लगा। नेटिज़न्स ने दावा किया कि वीडियो से छेड़छाड़ की गई है और वास्तविक वीडियो ब्रिटेन में रहने वाले एक भारतीय मूल के व्यक्ति का है।
साथ ही बॉलीवुड एक्ट्रेस कृति सेनन की एक फर्जी फोटो वायरल हो गई है। कृति सैनन की होने का दावा करने वाली एक नग्न तस्वीर इंटरनेट पर छा गई है। सेनन की तस्वीर की जगह एक न्यूड महिला की तस्वीर लगा दी गई है। वह ऐसी स्थिति में आने वाली नवीनतम सेलिब्रिटी हैं जब कई मशहूर हस्तियों के डीपफेक वीडियो इंटरनेट पर वायरल हो गए हैं।
स्थिति की गंभीरता को समझते हुए, प्रधान मंत्री नरेंद्र मोदी ने आगाह किया कि कृत्रिम बुद्धिमत्ता द्वारा बनाए गए डीपफेक बड़े संकट का कारण बन सकते हैं और समाज में असंतोष पैदा कर सकते हैं, उन्होंने मीडिया से इसके दुरुपयोग के बारे में जागरूकता बढ़ाने और लोगों को शिक्षित करने का आग्रह किया।
डीपफेक एक बड़ा संकट पैदा कर सकता है और यहां तक कि असंतोष की आग भी भड़का सकता है क्योंकि लोग आम तौर पर मीडिया से जुड़ी किसी भी चीज़ पर भरोसा करते हैं, उसी तरह से ’गेदुआ’ (भगवा) पहनने वाला कोई भी व्यक्ति दूसरों से सम्मान प्राप्त करता है।

Leave a Reply

Your email address will not be published. Required fields are marked *