नई दिल्ली (Ashish Maharishi)। यदि आप भी अपने बच्चों की तस्वीरों और वीडियो को सोशल मीडिया प्लेटफॉर्म पर शेयर करते हैं तो सावधान हो जाएं। सोशल मीडिया पर मौजूद अपराधी इनका गलत इस्तेमाल करके बच्चों को निशाना बना सकते हैं। भारत समेत दुनिया के तमाम मुल्कों में डीपफेक का खतरा बढ़ता जा रहा है। यूनिसेफ के एक नए अध्ययन में सामने आया है कि 12 लाख बच्चों की तस्वीरों का दुरुपयोग करते हुए कई आपत्तिजनक डीपफेक तैयार किए गए। यूनिसेफ ने यह अध्ययन ईसीपीएटी और इंटरपोल के साथ मिलकर किया है। रिपोर्ट में यह भी बताया गया है कि तकनीक के विकास के साथ, दूर बैठा कोई व्यक्ति बच्चों को नुकसान पहुंचा सकता है। बच्चों को मनगढ़ंत छवियों का उपयोग करके धमकाना, ब्लैकमेल करना या जबरन वसूली की जा सकती है।
11 देशों के इस अध्ययन में एशिया, यूरोप, लैटिन अमेरिका और अफ्रीका के कई देश शामिल हैं। जिन देशों में एआई का दुरुपयोग रोकने के लिए मजबूत कानून नहीं बने हैं, वहां शिकार हुए बच्चों की तादाद ज्यादा है। इस महत्वपूर्ण अध्ययन में यह भी सामने आया कि लड़कों की तुलना में लड़कियों को ज्यादा निशाना बनाया गया है। कई मामलों में यह देखने को मिला कि फोटो से कपड़े हटाकर उसे अश्लील बनाया गया। डिजिटल न्यूडिफिकेशन (डिजिटल निर्वस्त्रीकरण) के कई मामले देखने को मिले हैं।

क्या होता है डीपफेक कंटेंट?
एआई टूल की मदद से बनाए गए वीडियो और ऑडियो को डीपफेक कहा जाता है। यह ‘Deep Learning’ और ‘Fake’ शब्दों से मिलकर बना है।
कई गुना बढ़ गया है डीपफेक कंटेंट
साइबर सुरक्षा फर्म ‘Keepnet Labs’ की एक रिपोर्ट के अनुसार, दुनियाभर में डीपफेक का खतरा बढ़ता जा रहा है। इसके अनुसार, डीपफेक फाइलों की संख्या 2023 में 5 लाख थी, जो 2025 में बढ़कर 80 लाख होने का अंदेशा है। अनुमान है कि डीपफेक कंटेंट में प्रति वर्ष 900% की वृद्धि होगी। 2019 और 2024 के बीच डीपफेक वीडियो में 550% की वृद्धि हुई।

केपीएमजी की दिसंबर 2024 की एक रिपोर्ट के अनुसार, भारत में डीपफेक का प्रचलन काफी बढ़ गया है। पिछले एक साल में 75 प्रतिशत से अधिक भारतीयों ने ऑनलाइन, किसी न किसी रूप में डीपफेक सामग्री का सामना किया है। इनमें कम से कम 38 प्रतिशत, डीपफेक से संबंधित धोखाधड़ी का शिकार हुए हैं। यह तकनीक के दुरुपयोग के प्रति भारतीय आबादी की व्यापक संवेदनशीलता और खतरे को उजागर करता है।
डीपफेक से लड़ने के लिए भारत गंभीर
दुनिया के अधिकांश देशों के लिए डीपफेक नए किस्म की चुनौती है। इससे दो-दो हाथ करने के लिए अधिकांश देश अपने-अपने स्तर पर प्रयास कर रहे हैं। इसके लिए भारत ने 20 फरवरी 2026 को नया नियम लागू कर दिया है। यदि कोई भी तस्वीर, वीडियो और ऑडियो को एआई का इस्तेमाल करते हुए बनाया गया है, तो उस पर ‘लेबल’ लगाना होगा। इतना ही नहीं, सोशल मीडिया प्लेटफॉर्म्स को किसी भी आपत्तिजनक कंटेंट को शिकायत मिलने के 3 घंटे के अंदर हटाना भी होगा। 10 फरवरी को सरकार ने इसका नोटिफिकेशन जारी किया था।
कंटेंट पर ‘ऑथेंटिसिटी लेबल’ की आवश्यकता
प्रधानमंत्री नरेंद्र मोदी ने इंडिया एआई इंपैक्ट समिट में 19 फरवरी 2026 को साफ शब्दों में कहा कि डीपफेक और फैब्रिकेटेड कंटेंट समाज में अस्थिरता ला रहे हैं। डिजिटल दुनिया के कंटेंट पर उसकी सत्यता का लेबल होना चाहिए, ताकि लोगों को पता चल सके कि यह असली कंटेंट है और यह एआई से बनाया गया है। पीएम मोदी ने एआई के दुष्प्रभाव से बच्चों को सुरक्षित रखने की सलाह भी दी। उन्होंने कहा कि जैसे स्कूल का पाठ्यक्रम तैयार किया जाता है, वैसे ही बच्चों के लिए एआई की ऐसी दुनिया का निर्माण किया जाए जो सुरक्षित हो।
बच्चों की तस्वीरों और वीडियो को शेयर न करें
साइबर क्राइम एक्सपर्ट चातक वाजपेयी कहते हैं कि अभिभावकों को यह ध्यान रखना होगा कि वे बच्चों से जुड़ी तस्वीरें और वीडियो सोशल मीडिया पर शेयर न करें। अपराधी इनका गलत इस्तेमाल करके बच्चों को निशाना बना सकते हैं। इसके अलावा, कभी कोई बच्चा यदि डीपफेक का शिकार हो जाए तो तुरंत कानूनी मदद लेना चाहिए। इसमें किसी भी प्रकार का संकोच नहीं करना चाहिए।

कहां करें शिकायत?
नेशनल साइबर क्राइम रिपोर्टिंग पोर्टल https://cybercrime.gov.in पर घटना को रिपोर्ट करें। साइबर क्राइम हेल्पलाइन 1930 पर घटना की जानकारी दें। यह 24X7 सेवा देने वाली हेल्पलाइन है। नजदीकी साइबर पुलिस स्टेशन में जाकर मामला दर्ज कराएं।
The post बच्चों के यौन शोषण का हथियार बना AI, यूनिसेफ की नई रिपोर्ट ने चेताया appeared first on Vishvas News.
0 Comments