आइए बताते हैं क्या है मामला
"जिन लड़कियों के साथ हम रहते हैं, देखना चाहते थे कि बिना कपड़ों के वो कैसी दिखेंगी। यही कारण था कि AI की मदद से उनके न्यूड वीडियो-फोटो बना लिए। सोशल मीडिया पर भी अपलोड कर दिया।"
दोस्तों ये किसी अन्य का नहीं बल्कि उन 15-16 साल के लड़कों का कहना है, जिन्होंने एक-दो नहीं, बल्कि 9 लड़कियों की अश्लील तस्वीरें और वीडियो बना डाले और ताज्जुब की बात ये है कि यह सब उन लोगों ने किसी को ब्लैकमेल करने या पैसों के लिए नहीं किया, बल्कि मानसिक विकृति इसकी वजह बनी। उन्होंने इसके लिए पैसे तक खर्च किए। पूछताछ में आरोपियों ने जो कबूला, उसने पुलिस को भी स्तब्ध कर दिया। अब दोनों पुलिस गिरफ्त में हैं। दरअसल 24 जनवरी को छिंदवाड़ा के कोतवाली थाना क्षेत्र में आर्टिफिशियल इंटेलिजेंस (AI) के दुरुपयोग का मामला सामने आया था। कोतवाली टीआई आशीष कुमार ने बताया कि नागपुर रोड पर रहने वाली तीन लड़कियां थाने पहुंचीं। शिकायत की कि उनकी तस्वीरों को एडिट कर अश्लील (न्यूड) फोटो सोशल मीडिया पर अपलोड किए गए हैं।
उन्होंने बताया कि आरोपियों ने AI तकनीक का इस्तेमाल कर आपत्तिजनक वीडियो भी बनाए हैं। एक युवक के माध्यम से उन्हें जानकारी मिली है। मामला गंभीर होने से तुरंत साइबर टीम की मदद से जांच शुरू की।
मोबाइल से मिले साक्ष्यों के आधार पर केस दर्ज किया गया। सोशल मीडिया पर अपलोड फोटो-वीडियो और मोबाइल से मिले सबूतों के आधार पर आरोपियों की पहचान हुई। दोनों आरोपी नाबालिग निकले।
पीड़िता ने बताया आरोपियों के मोबाइल पर मिले न्यूड फोटो-वीडियो
पीड़ित लड़की ने पुलिस को बताया कि मैंने 12वीं तक पढ़ाई की है। दो सहेलियां हैं। 24 जनवरी की रात करीब 11 बजे मोहल्ले में ही रहने वाला एक लड़का घर आया। उसने मुझे बुलाया और अपने मोबाइल में टेलीग्राम एप पर मेरी दोनों सहेलियों के एआई जनरेटेड न्यूड फोटो दिखाए।
फोटो देखते ही मैंने उसे डांटा। पूछा- तूने मेरी और सहेलियों के ऐसे फोटो क्यों बनाकर वायरल किए? हमें बदनाम क्यों रहे हो? मैंने उसका मोबाइल चेक किया तो उसने सहेलियों के अश्लील फोटो अपने दोस्तों को वाट्सएप के जरिए शेयर किए थे। मैंने सहेलियों और उनके परिवारों को उनके न्यूड फोटो वायरल होने की जानकारी दी। इसके बाद थाने पहुंची।
आरोपी बोले - टेलीग्राम पर न्यूड कंटेंट सर्च किया
पुलिस की पड़ताल में सामने आया कि दोनों आरोपियों ने मोहल्ले की लड़कियों को निशाना बनाया है। आरोपी और पीड़ित दोनों एक-दूसरे को अच्छे से जानते थे। यही वजह थी कि उन्हें तस्वीरें हासिल करने में मशक्कत नहीं करना पड़ी।
शिकायत करने वाली तीन पीड़ित थीं, जिनकी सामान्य सोशल मीडिया तस्वीरों को एडिट कर न्यूड फोटो और वीडियो में बदला गया था। पूछताछ के दौरान आरोपियों ने जो कबूल किया, उसने जांच को और गंभीर बना दिया।
उन्होंने बताया कि वे 8-9 लड़कियों की तस्वीरों के साथ ऐसा कर चुके हैं। इसके बाद टीम अब यह पता लगाने में जुट गई कि इन्होंने इस तरह की सामग्री और किन-किन प्लेटफॉर्म पर साझा की है। पुलिस के लिए बड़ा चैलेंज यह था कि जब तक वे नाबालिग का मोबाइल जब्त करते, तब तक वे मामले से जुड़ा डेटा डिलीट कर चुके थे। साइबर टीम की मदद से कुछ डेटा रिकवर हुआ। अभी भी मोबाइल और डिजिटल स्रोतों की मदद से डेटा रिकवर करने की प्रक्रिया जारी है।
पूछताछ में एक आरोपी ने बताया कि एक ही मोहल्ले में रहने के चलते कुछ लड़कियों से जान-पहचान हो गई। इनमें कुछ उम्र में बड़ी भी हैं। दोस्ती के कारण इंस्टा पर एक-दूसरे से जुड़ गए।
सोच इतनी घटिया
"हम ये वीडियो सिर्फ अपनी लस्ट (हवस) के लिए बनाते थे। देखना चाहते थे कि जिन लड़कियों के साथ हम हर समय रहते हैं, वे बिना कपड़ों के कैसी दिखेंगी।
जब भी उन्हें देखते, हमारी यह इच्छा और बढ़ जाती। हम उन्हें बिना कपड़ों के देखना चाहते थे, इसलिए पहले टेलीग्राम पर न्यूड कंटेंट सर्च किया। फोटो-वीडियो ढूंढने पर इससे जुड़ी कुछ लिंक खुल गईं। हम इन ग्रुपों से जुड़ गए और पोर्न वीडियो देखने लगे।
कुछ समय पहले ग्रुप में पॉड के माध्यम से वीडियो बनाने का ऑप्शन मैसेज आया। इस लिंक पर क्लिक करने पर 549 रुपए की डिमांड आई। यह भी मैसेज आया कि लिंक से कोई भी फोटो देकर न्यूड फोटो और उसके वीडियो मिल जाएंगे।
इंस्टाग्राम पर हमारे साथ जुड़ी लड़कियों के फोटो स्क्रीनशॉट लेकर उसमें डाले तो उन्हीं की जैसी लड़कियों के शरीर पर चेहरा लगकर वीडियो बनाकर हमारे पास आ गया। यह वीडियो सिर्फ हम अपने लिए बनाते थे, इसे देखकर हमें लस्ट (हवस) होता था। हम इसके माध्यम से किसी के भी फोटो बना लिया करते थे।
पूछताछ में लड़कों ने बताया कि 8 से 9 लड़कियों के फोटो के माध्यम से वीडियो बनाए। हालांकि, मोबाइल से तीन लड़कियों के अब तक फोटो-वीडियो मिले हैं। आरोपियों ने अकाउंट डिलीट कर दिया, इसलिए डेटा रिकवर करने में साइबर सेल जुटी है।
कैसे बनाते थे फर्जी न्यूड फोटो और वीडियो आरोपियों ने बताया कि वे इंस्टाग्राम पर आपस में जुड़े थे। यहीं से लड़कियों की तस्वीरें डाउनलोड करते या स्क्रीनशॉट लेते थे। फिर उन्हें टेलीग्राम के जरिए उस एप पर अपलोड करते थे। एप पर मात्र 549 रुपए देकर तस्वीरों को AI के जरिए न्यूड फोटो और पोर्नोग्राफिक वीडियो में बदला जा सकता था।
तैयार वीडियो इतने वास्तविक दिखते थे कि असली और नकली में फर्क करना लगभग नामुमकिन था। उन्होंने बताया कि 549 रुपए देने पर 30 दिन तक आप लॉग-इन कर सकते हैं।
आरोपियों के मुताबिक, वे 2024 से इस तरह की हरकतें कर रहे थे। हाल में दो लड़कों के बीच गर्लफ्रेंड को लेकर हुए विवाद ने इस राज से पर्दा उठा दिया। झगड़े के दौरान यह बात सामने आई कि कुछ आपत्तिजनक फोटो-वीडियो इनके नाबालिग दोस्तों के मोबाइल में हैं।
अपना बचाव करने एक आरोपी खुद पीड़ित के पास पहुंचा। दूसरे का नाम लेते हुए यह बात बताई। उसे लगा कि अपनी ऐसी तस्वीर देखकर लड़की डर जाएगी और मामला दब जाएगा, लेकिन हुआ इसका उलटा।
वीडियो देखकर पीड़ित ने हिम्मत दिखाई। उसने आरोपी के मोबाइल में मौजूद अन्य लड़कियों की तस्वीरें और वीडियो देखे, संबंधितों से संपर्क किया। इसके बाद तीनों पीड़ितों ने एक साथ कोतवाली थाने पहुंचकर शिकायत दर्ज कराई।
डिजिटल दुनिया में सतर्कता विकल्प नहीं, अब जरूरत
टीआई आशीष कुमार का कहना है कि यह घटना समाज के लिए चेतावनी बनकर सामने आई है। डिजिटल दुनिया में सतर्कता अब विकल्प नहीं, आवश्यकता बन चुकी है। उन्होंने बताया कि पुलिस ने चार मोबाइल जब्त किए हैं। रिकवर डेटा के आधार पर दोनों आरोपियों के खिलाफ धारा 79 BNS और 67 IT Act के तहत मामला दर्ज किया गया है। इन धाराओं में क्रमशः 5 साल और 3 साल तक की सजा का प्रावधान है।
पुलिस अब यह भी जांच कर रही है कि ये फोटो और वीडियो किन-किन लोगों के साथ साझा किए गए। मामले में पीड़ित और आरोपियों की संख्या बढ़ सकती है।
असली और नकली में फर्क जानना जरूरी साइबर एक्सपर्ट हिमांशु रघुवंशी का कहना है कि यह मामला बताता है कि AI तकनीक का गलत हाथों में पड़ना कितना खतरनाक है। साधारण सोशल मीडिया तस्वीरों का दुरुपयोग कर किसी की प्रतिष्ठा और मानसिक स्थिति पर गंभीर आघात पहुंचाया जा सकता है।
AI तकनीक की मदद से किसी दूसरे के चेहरे को किसी दूसरी बॉडी से लगा दिया जाता है। यह इतनी सफाई से होता है कि पहचान करना मुश्किल होता है। इसे डीपफेक कहते हैं।
इस तरह किया कीजिए पहचान
AI से तैयार किए गए फोटो और वीडियो में असली और नकली की पहचान करना कठिन तो है, लेकिन आप कुछ बिंदुओं पर ध्यान देकर इन्हें पहचान सकते हैं। इस तकनीक से तैयार किए गए फोटो में चेहरे की चमक ज्यादा रहेगी, जबकि इससे जुड़े व्यक्ति का चेहरा इतना चमकदार नहीं होता।
वीडियो के मामले में चेहरे के हाव-भाव से आप पहचान सकते हैं, क्योंकि इसमें चेहरे के एक्सप्रेशन कुछ अलग नजर आते हैं। इसके साथ ही इस दौरान की जाने वाली लिप सिंक भी अलग होती है।
जानें क्या है डीपफेक
डीपफेक एक आर्टिफिशियल इंटेलिजेंस (AI) टेक्नोलॉजी है, जिसका इस्तेमाल कर किसी व्यक्ति के चेहरे, हाव-भाव, आवाज या बोलने के तरीके की नकल तैयार की जा सकती है। इसके जरिए किसी के वीडियो या फोटो को इस तरह बदला जा सकता है कि वह देखने में पूरी तरह असली लगे, जबकि वह फर्जी या नकली होता है। इसे वीडियो, ऑडियो और फोटो तीनों फॉर्म में तैयार किया जा सकता है।
डीपफेक की पहचान कैसे करें
वीडियो इस तरह पहचानें
*पलकें असामान्य तरीके से झपक सकती हैं।
*चेहरे के हाव-भाव अलग हो सकते हैं।
*बैकग्राउंड में धुंधलापन या गड़बड़ी हो सकती है।
*वीडियो का रेजोल्यूशन बहुत ज्यादा होता है।
*वीडियो बहुत ज्यादा क्लीयर और शाइनिंग होता है।
*वीडियो की लाइट और शैडो में फर्क हो सकता है।
ऑडियो ऐसे पहचानें
*आवाज रोबोट जैसी लग सकती है।
*वॉइस टोन और पिच में बदलाव हो सकता है।
*बोलते समय कुछ हिस्सों में आवाज कट सकती है।
*लिप मूवमेंट और आवाज में तालमेल नहीं होता है।
* शब्दों का उच्चारण असामान्य हो सकता है।
फोटो पहचानें
* चेहरे के आसपास धुंधला दिख सकता है।
* बाल, कान या आंख के आकार में अंतर हो सकता है।
*बैकग्राउंड में चीजें टेढ़ी-मेढ़ी या असामान्य हो सकती हैं।
*स्किन टेक्सचर बहुत स्मूद या प्लास्टिक जैसा लग सकता है।
सच्ची और अच्छी खबरें पढ़ने के लिए लॉग इन कीजिये "मामा का धमाका डॉट कॉम"।
ये है, आपकी अपनी आवाज।
फोन कीजिये। खबर भेजिये वाट्सअप नम्बर 98262 11550 या मेल कीजिये 550vip@gmail.com
कोई टिप्पणी नहीं
एक टिप्पणी भेजें