McAfee के ऑनलाइन प्रोटेक्शन और साइबर सिक्योरिटी एक्सपर्ट्स ने डीपफेक को लेकर एक सर्वे किया, भारतीयों के बीच किए सर्वे में कई चौंकाने वाले नतीजे सामने आए हैं. जनवरी और फरवरी 2024 में McAfee ने फ्यूचर में आर्टिफिशियल इंटेलिजेंस (AI) और टेक्नोलॉजी के प्रभाव की जांच के लिए कई देशों में एक रिसर्च स्टडी की. एमएसजाई-एसीआई द्वारा आयोजित स्टडी में अमेरिका, ब्रिटेन, फ्रांस, जर्मनी, ऑस्ट्रेलिया, भारत और जापान सहित विभिन्न देशों के 7,000 लोग शामिल थे.
चार में से एक भारतीय (22 फीसदी) ने पॉलिटिकल डीपफेक का सामना करने की बात स्वीकार की, जिसे पहले देखने पर वे असली मानते थे, बढ़ता डीपफेक एक्सपोजर चिता पैदा करता है, खासतौर पर भारत में चल रहे चुनावों और स्पोर्टस इवेंट्स के बीच जहां एआई टेक्नोलॉजी के कारण असली और नकली वीडियो और बॉयस के बीच अंतर करना बहुत चुनौतीपूर्ण है.
सर्वे से कुछ चौंकाने वाले नतीजे
31 फीसदी लोगों ने आम चुनावों पर डीपफेक के प्रभाव को एआई-बेस्ट टेक्नोलॉजी से संबंधित सबसे चिंताजनक मुद्दों में से एक के तौर पर शामिल किया है. गलत सूचना और दुष्प्रचार जरूरी चिंताओं के रूप में उभरे, जिसमें अचिन तेंदुलकर, विराट कोहली, आमिर खान और रणवीर सिंह जैसे सेलिब्रिटीज से जुड़े डीपफेक हमारे सामने गाए हैं.
लोगों ने डीपफेक के अलग-अलग इस्तेमाल के बारे में चिंता जाहिर की, जिनमें लाइबरबुलिंग (55 फीसदी), नकली जश्लील कंटेंट बनाना (52 फीसदी), स्कैम को बढ़ावा देना (49 फीसदी), सेलिब्रिटीज की नकल बनाना (44 फीसदी), चुनावों को प्रभावित करना (31 फीसदी), और ऐतिहासिक तथ्यों से छेड़छाड़ करना (27 फीसदी), मीडिया में जनता के विश्वास को कम करना (37) फीसदी) शामिल है.
80 फीसदी लोगों ने कहा कि वे एक साल पहले की तुलना में डीपफेक के बारे में ज्यादा चिंतित है, जो इस टेक्नोलॉजी से जुड़े रिस्क के बारे में बढ़ती जागरुकता को दर्शाता है. 64 फीसदी लोगों का मानना है कि एआई ने ऑनलाइन स्कैम को पहचानना कठिन बना दिया है.
डीपफेक से स्कैम
घोटालों और हेरफेर के लिए AI-जनरेटेड ऑडियो का इस्तेमाल करने वाले साइबर अपराधियों के बढ़ते खतरे से निपटने के लिए McAfee ने प्रोजेक्ट मॉकिंगबर्ड, एक Al-बेस्ड डीपफैक ऑडियो डिटेक्शन टेक्नोलॉजी विकसित की
McAfee Labs द्वारा बनाई गई यह नई टेक्नोलॉजी यूजर्स को चीडियो में AI-जनरेटेड ऑडियो की पहचान करने में मदद करती है. इससे डिजिटल दुनिया और कंटेंट के संभावित हेरफेर की बेहतर समझ मिलती है.
भावनाओं को भड़काने वाले कटेंट सावधान रहें, खासकर अगर यह गुस्से या उदासी जैसी भावनाओं को उकसाती हो, डीपफेक का उद्देश्य आपकी सोच और कामों में हेरफेर करना है.
केवल 30 फीसदी लोग एआई से बने असली और नकली कंटेंट के बीच अंतर करने की अपनी क्षमता में आत्मविश्वास महसूस करते हैं. यह जागरूकता और तैयारियों में बड़ी कमी को दर्शाता है.
बीते 12 महीनों में 38 फीसदी लोगों को डीपफैक स्कैम का सामना करना पड़ा, जबकि 18 फीसदी लोग ऐसे स्कैम का शिकार बने. इन स्कैम में अक्सर सेलिब्रिटीज या किसी दूसरे इंसान के डीपफेक से धोखा देकर पर्सनल जानकारी या धन हड़पना शामिल होता है,
डीपफेक से ऐसे रहें सुरक्षित
इस डिजिटल दौर में अपनी पर्सनल जानकारी शेयर करने से पहले उसे वेरिफाई करना जरूरी है. खासतौर पर डीपफेक और एआई-जेनरेटेड कंटेंट के बढ़ने के साथ ऐसा करना और जरूरी हो गया है. इंटरनेट पर फोटो-वीडियो, रोबोटिक आवाजों, या इमोशनल कंटेंट देखते समय सावधान रहे, क्योंकि ये अक्सर नकली होने का संकेत दे सकते हैं.
कोई भी मैसेज या जानकारी शेयर करने से पहले भरोसेमंद फैक्ट चेक टूल्स और न्यूज सोर्स का इस्तेमाल करके सुनिश्चित करें कि यह सच और सटीक है. हेरफेर की गई फोटो से सावधान रहें, क्योंकि उनमें अक्सर ज्यादा उंगलियां या धुंधले पेहरे जैसी खामियां होती हैं, जिन्हें आप पहचान सकते हैं. डीपफेक वीडियों में आताजों पर ध्यान दें, क्योंकि AI-जेनरेटेड आवाजों में अजीब रुकावट या अननेचुरल फील हो सकता है
– एजेंसी
- यूपी के गाजियाबाद में हिंदूवादी गए थे औरंगज़ेब की पेंटिंग पर कालिख पोतने, पोत आये 1857 की आज़ादी के अग्रदूत बहादुर शाह जफर की पेंटिंग - April 18, 2025
- भ्रष्टाचार की आड़ में शराब की दुकान: आगरा के भावना एस्टेट मॉल में नियमों की खुलेआम उड़ रही धज्जियाँ - April 18, 2025
- मशहूर उद्योगपति पूरन डावर की हिंदी वायोग्राफी ‘संघर्ष …सफलता से समर्पण तक ’ का दिल्ली में लोकार्पण - April 18, 2025