Next Story
Newszop

सावधान: वित्त मंत्री निर्मला सीतारमण के नकली वीडियो से करोड़ों की ठगी, Deepfake जाल में फंसे निवेशक

Send Push
डीपफेक तकनीक आज सिर्फ मनोरंजन या एडिटिंग टूल नहीं रही, यह एक खतरनाक हथियार बन चुकी है, जो आपकी ज़रा-सी लापरवाही का फायदा उठाकर आपकी पूरी जीवनभर की कमाई छीन सकती है। भारत में साइबर ठगी के तौर-तरीकों में खतरनाक बदलाव देखने को मिल रहा है। अब अपराधी सिर्फ फोन कॉल्स या फर्जी वेबसाइटों से नहीं, बल्कि आर्टिफिशियल इंटेलिजेंस (AI) और डीपफेक तकनीक के ज़रिए लोगों को शिकार बना रहे हैं। इस तकनीक के ज़रिए वे भारत की जानी-मानी हस्तियों जैसे वित्त मंत्री निर्मला सीतारमण, उद्योगपति मुकेश अंबानी, इंफोसिस फाउंडेशन की चेयरपर्सन सुधा मूर्ति और आध्यात्मिक गुरु सद्गुरु के नकली वीडियो बनाकर लोगों से अरबों रुपये की ठगी कर रहे हैं।



कैसे तैयार होता है यह फ्रॉड?

साइबर अपराधी पहले किसी लोकप्रिय सेलेब्रिटी का वीडियो और आवाज़ का डेटा इकट्ठा करते हैं। इसके बाद AI आधारित डीपफेक टूल्स की मदद से उनका एक नकली वीडियो बनाते हैं जिसमें वे निवेश या किसी स्कीम को प्रमोट करते दिखते हैं। इन वीडियो को सोशल मीडिया या मैसेजिंग ऐप्स के ज़रिए वायरल किया जाता है। भरोसे में आए लोग लिंक पर क्लिक करते हैं और लाखों रुपये की धोखाधड़ी का शिकार बन जाते हैं।





ठगी के मामलेमुंबई के एक डॉक्टर ने मुकेश अंबानी के नाम पर चल रही एक स्कीम पर भरोसा करते हुए 7 लाख रुपये गवां दिए। हैदराबाद के डॉक्टर ने वित्त मंत्री के डीपफेक वीडियो पर भरोसा करके 20 लाख रुपये का निवेश कर दिया और साइबर ठक का शिकार हो गए। एक डीपफेक वीडियो में सद्गुरु जग्गी वासुदेवन ने निवेश के लिए लिंक दिया। एक महिला ने लिंक खोला, जहां एक व्यक्ति ने कंपनी प्रतिनिधि बनकर उसे व्हाट्सएप ग्रुप में जोड़ा लिया। वे उसे वेबसाइट्स फॉलो करने और व्यापार करने के लिए मनाते रहे। महिला ने 3.75 करोड़ रुपये निवेश कर दिए, फिर ठग गायब हो गया।



सरकारी और साइबर एजेंसियों की चिंता

रिपोर्ट्स के मुताबिक, पिछले तीन सालों में डीपफेक से जुड़े फ्रॉड मामलों में 550% की बढ़ोतरी दर्ज की गई है। सबसे चिंताजनक बात यह है कि इन मामलों में पैसे की रिकवरी दर महज 34.1% है। यानी जो पैसा गया, उसका लौटना मुश्किल है। वर्धमान ग्रुप के चेयरमैन के साथ हुई एक ठगी में 7 करोड़ की ठगी में सिर्फ 5.25 करोड़ की रिकवरी हो पाई — और यह देश की सबसे बड़ी रिकवरी मानी जा रही है।



AI ने बढ़ाई मुश्किलें

AI तकनीक के आने के बाद डीपफेक वीडियो को पहचान पाना आम लोगों के लिए लगभग नामुमकिन हो गया है। एक सर्वे में सामने आया कि 69% लोग AI जनरेटेड आवाज़ों को पहचान नहीं पाते, और सेलेब्रिटी के नाम पर चल रहे फर्जी वीडियो को असली समझकर भारी नुकसान झेलते हैं। इससे यह स्पष्ट होता है कि टेक्नोलॉजी का गलत इस्तेमाल अब आम जनता के लिए सबसे बड़ा साइबर खतरा बन चुका है।



क्या करें, कैसे बचें?

किसी भी निवेश स्कीम या लिंक पर सेलेब्रिटी की सिफारिश देखकर तुरंत विश्वास न करें।

सोशल मीडिया पर शेयर किए गए वीडियो की सच्चाई की पुष्टि जरुर करें।

संदेहास्पद लिंक या ग्रुप में शामिल होने से पहले दो बार सोचें।

किसी भी अनजान व्यक्ति के कहने पर पैसे ट्रांसफर न करें।

किसी भी व्यक्ति को अपने फोन में आए OPT को ना शेयर करे

साइबर क्राइम की शिकायत तुरंत 48 घंटे के भीतर करें ताकि रिकवरी की संभावना बनी रहे।

Loving Newspoint? Download the app now