Responsive Ad Slot

Latest

latest

#धमाका_शेम_शेम: आखिर कहां जा रहा है देश का भविष्य, AI का मिस यूज, "देखना चाहते थे कि जिनके साथ रहते हैं, वे बिना कपड़ों के कैसी दिखेंगी", इसलिए सिर्फ 549 रुपए में बनाए 9 लड़कियों के न्यूड AI वीडियो-फोटो", पढ़िए शर्मनाक हरकत

गुरुवार, 5 फ़रवरी 2026

/ by Vipin Shukla Mama
छिंदवाड़ा। दोस्तों, AI युग में युवाओं को देश का भावी भविष्य कहा जाता है, उनसे अपने घर, माता, पिता, भाई, बहिन ही नहीं देश के उत्थान की उम्मीद लगाते हैं लेकिन वर्तमान परिवेश में कुछ भटके युवा ऐसी घटिया हरकत करने से बाज नहीं आ रहे जिसे सुनकर लोगों की रूह कांप जा रही है। उनकी घटिया सोच और कारनामे देखने सुनने और सामने आने के बाद ये सोचने पर विवश होना पड़ रहा है कि क्या इनके घरों में मां, बहिन, भाभी, दादी, काकी नहीं हैं? अगर है और तब इनकी ये घटिया सोच है तो आप समझ सकते हैं कि उनके घरों की हालत क्या होगी। आज की इस व्यथा को लिखते हुए कलम सिहर रही है लेकिन लिखना इसलिए भी आवश्यक है कि समाज के लोग अब सतर्कता को जरूर अपना लेवे, हर किसी से दोस्ती के पहले सोचें, समझें तब ही आगे बढ़े। विश्वास पर धोखे की कालिख लगाती ये शेम शेम स्टोरी समाज को सोचने पर मजबूर अवश्य करेगी। हालाकि इस मामले में जिन युवतियों के साथ AI माध्यम से घटिया हरकत हुई वे डरी नहीं बल्कि पुलिस के पास गईं जिससे उन्हें न्याय मिल सका। 
आइए बताते हैं क्या है मामला
"जिन लड़कियों के साथ हम रहते हैं, देखना चाहते थे कि बिना कपड़ों के वो कैसी दिखेंगी। यही कारण था कि AI की मदद से उनके न्यूड वीडियो-फोटो बना लिए। सोशल मीडिया पर भी अपलोड कर दिया।"
दोस्तों ये किसी अन्य का नहीं बल्कि उन 15-16 साल के लड़कों का कहना है, जिन्होंने एक-दो नहीं, बल्कि 9 लड़कियों की अश्लील तस्वीरें और वीडियो बना डाले और  ताज्जुब की बात ये है कि यह सब उन लोगों ने किसी को ब्लैकमेल करने या पैसों के लिए नहीं किया, बल्कि मानसिक विकृति इसकी वजह बनी। उन्होंने इसके लिए पैसे तक खर्च किए। पूछताछ में आरोपियों ने जो कबूला, उसने पुलिस को भी स्तब्ध कर दिया। अब दोनों पुलिस गिरफ्त में हैं। दरअसल 24 जनवरी को छिंदवाड़ा के कोतवाली थाना क्षेत्र में आर्टिफिशियल इंटेलिजेंस (AI) के दुरुपयोग का मामला सामने आया था। कोतवाली टीआई आशीष कुमार ने बताया कि नागपुर रोड पर रहने वाली तीन लड़कियां थाने पहुंचीं। शिकायत की कि उनकी तस्वीरों को एडिट कर अश्लील (न्यूड) फोटो सोशल मीडिया पर अपलोड किए गए हैं।
उन्होंने बताया कि आरोपियों ने AI तकनीक का इस्तेमाल कर आपत्तिजनक वीडियो भी बनाए हैं। एक युवक के माध्यम से उन्हें जानकारी मिली है। मामला गंभीर होने से तुरंत साइबर टीम की मदद से जांच शुरू की।
मोबाइल से मिले साक्ष्यों के आधार पर केस दर्ज किया गया। सोशल मीडिया पर अपलोड फोटो-वीडियो और मोबाइल से मिले सबूतों के आधार पर आरोपियों की पहचान हुई। दोनों आरोपी नाबालिग निकले।
पीड़िता ने बताया आरोपियों के मोबाइल पर मिले न्यूड फोटो-वीडियो
पीड़ित लड़की ने पुलिस को बताया कि मैंने 12वीं तक पढ़ाई की है। दो सहेलियां हैं। 24 जनवरी की रात करीब 11 बजे मोहल्ले में ही रहने वाला एक लड़का घर आया। उसने मुझे बुलाया और अपने मोबाइल में टेलीग्राम एप पर मेरी दोनों सहेलियों के एआई जनरेटेड न्यूड फोटो दिखाए।
फोटो देखते ही मैंने उसे डांटा। पूछा- तूने मेरी और सहेलियों के ऐसे फोटो क्यों बनाकर वायरल किए? हमें बदनाम क्यों रहे हो? मैंने उसका मोबाइल चेक किया तो उसने सहेलियों के अश्लील फोटो अपने दोस्तों को वाट्सएप के जरिए शेयर किए थे। मैंने सहेलियों और उनके परिवारों को उनके न्यूड फोटो वायरल होने की जानकारी दी। इसके बाद थाने पहुंची।
आरोपी बोले - टेलीग्राम पर न्यूड कंटेंट सर्च किया
पुलिस की पड़ताल में सामने आया कि दोनों आरोपियों ने मोहल्ले की लड़कियों को निशाना बनाया है। आरोपी और पीड़ित दोनों एक-दूसरे को अच्छे से जानते थे। यही वजह थी कि उन्हें तस्वीरें हासिल करने में मशक्कत नहीं करना पड़ी।
शिकायत करने वाली तीन पीड़ित थीं, जिनकी सामान्य सोशल मीडिया तस्वीरों को एडिट कर न्यूड फोटो और वीडियो में बदला गया था। पूछताछ के दौरान आरोपियों ने जो कबूल किया, उसने जांच को और गंभीर बना दिया।
उन्होंने बताया कि वे 8-9 लड़कियों की तस्वीरों के साथ ऐसा कर चुके हैं। इसके बाद टीम अब यह पता लगाने में जुट गई कि इन्होंने इस तरह की सामग्री और किन-किन प्लेटफॉर्म पर साझा की है। पुलिस के लिए बड़ा चैलेंज यह था कि जब तक वे नाबालिग का मोबाइल जब्त करते, तब तक वे मामले से जुड़ा डेटा डिलीट कर चुके थे। साइबर टीम की मदद से कुछ डेटा रिकवर हुआ। अभी भी मोबाइल और डिजिटल स्रोतों की मदद से डेटा रिकवर करने की प्रक्रिया जारी है।
पूछताछ में एक आरोपी ने बताया कि एक ही मोहल्ले में रहने के चलते कुछ लड़कियों से जान-पहचान हो गई। इनमें कुछ उम्र में बड़ी भी हैं। दोस्ती के कारण इंस्टा पर एक-दूसरे से जुड़ गए।
सोच इतनी घटिया
"हम ये वीडियो सिर्फ अपनी लस्ट (हवस) के लिए बनाते थे। देखना चाहते थे कि जिन लड़कियों के साथ हम हर समय रहते हैं, वे बिना कपड़ों के कैसी दिखेंगी।
जब भी उन्हें देखते, हमारी यह इच्छा और बढ़ जाती। हम उन्हें बिना कपड़ों के देखना चाहते थे, इसलिए पहले टेलीग्राम पर न्यूड कंटेंट सर्च किया। फोटो-वीडियो ढूंढने पर इससे जुड़ी कुछ लिंक खुल गईं। हम इन ग्रुपों से जुड़ गए और पोर्न वीडियो देखने लगे।
कुछ समय पहले ग्रुप में पॉड के माध्यम से वीडियो बनाने का ऑप्शन मैसेज आया। इस लिंक पर क्लिक करने पर 549 रुपए की डिमांड आई। यह भी मैसेज आया कि लिंक से कोई भी फोटो देकर न्यूड फोटो और उसके वीडियो मिल जाएंगे।
इंस्टाग्राम पर हमारे साथ जुड़ी लड़कियों के फोटो स्क्रीनशॉट लेकर उसमें डाले तो उन्हीं की जैसी लड़कियों के शरीर पर चेहरा लगकर वीडियो बनाकर हमारे पास आ गया। यह वीडियो सिर्फ हम अपने लिए बनाते थे, इसे देखकर हमें लस्ट (हवस) होता था। हम इसके माध्यम से किसी के भी फोटो बना लिया करते थे।
पूछताछ में लड़कों ने बताया कि 8 से 9 लड़कियों के फोटो के माध्यम से वीडियो बनाए। हालांकि, मोबाइल से तीन लड़कियों के अब तक फोटो-वीडियो मिले हैं। आरोपियों ने अकाउंट डिलीट कर दिया, इसलिए डेटा रिकवर करने में साइबर सेल जुटी है।
कैसे बनाते थे फर्जी न्यूड फोटो और वीडियो आरोपियों ने बताया कि वे इंस्टाग्राम पर आपस में जुड़े थे। यहीं से लड़कियों की तस्वीरें डाउनलोड करते या स्क्रीनशॉट लेते थे। फिर उन्हें टेलीग्राम के जरिए उस एप पर अपलोड करते थे। एप पर मात्र 549 रुपए देकर तस्वीरों को AI के जरिए न्यूड फोटो और पोर्नोग्राफिक वीडियो में बदला जा सकता था।
तैयार वीडियो इतने वास्तविक दिखते थे कि असली और नकली में फर्क करना लगभग नामुमकिन था। उन्होंने बताया कि 549 रुपए देने पर 30 दिन तक आप लॉग-इन कर सकते हैं।
आरोपियों के मुताबिक, वे 2024 से इस तरह की हरकतें कर रहे थे। हाल में दो लड़कों के बीच गर्लफ्रेंड को लेकर हुए विवाद ने इस राज से पर्दा उठा दिया। झगड़े के दौरान यह बात सामने आई कि कुछ आपत्तिजनक फोटो-वीडियो इनके नाबालिग दोस्तों के मोबाइल में हैं।
अपना बचाव करने एक आरोपी खुद पीड़ित के पास पहुंचा। दूसरे का नाम लेते हुए यह बात बताई। उसे लगा कि अपनी ऐसी तस्वीर देखकर लड़की डर जाएगी और मामला दब जाएगा, लेकिन हुआ इसका उलटा।
वीडियो देखकर पीड़ित ने हिम्मत दिखाई। उसने आरोपी के मोबाइल में मौजूद अन्य लड़कियों की तस्वीरें और वीडियो देखे, संबंधितों से संपर्क किया। इसके बाद तीनों पीड़ितों ने एक साथ कोतवाली थाने पहुंचकर शिकायत दर्ज कराई।
डिजिटल दुनिया में सतर्कता विकल्प नहीं, अब जरूरत
टीआई आशीष कुमार का कहना है कि यह घटना समाज के लिए चेतावनी बनकर सामने आई है। डिजिटल दुनिया में सतर्कता अब विकल्प नहीं, आवश्यकता बन चुकी है। उन्होंने बताया कि पुलिस ने चार मोबाइल जब्त किए हैं। रिकवर डेटा के आधार पर दोनों आरोपियों के खिलाफ धारा 79 BNS और 67 IT Act के तहत मामला दर्ज किया गया है। इन धाराओं में क्रमशः 5 साल और 3 साल तक की सजा का प्रावधान है।
पुलिस अब यह भी जांच कर रही है कि ये फोटो और वीडियो किन-किन लोगों के साथ साझा किए गए। मामले में पीड़ित और आरोपियों की संख्या बढ़ सकती है।
असली और नकली में फर्क जानना जरूरी साइबर एक्सपर्ट हिमांशु रघुवंशी का कहना है कि यह मामला बताता है कि AI तकनीक का गलत हाथों में पड़ना कितना खतरनाक है। साधारण सोशल मीडिया तस्वीरों का दुरुपयोग कर किसी की प्रतिष्ठा और मानसिक स्थिति पर गंभीर आघात पहुंचाया जा सकता है।
AI तकनीक की मदद से किसी दूसरे के चेहरे को किसी दूसरी बॉडी से लगा दिया जाता है। यह इतनी सफाई से होता है कि पहचान करना मुश्किल होता है। इसे डीपफेक कहते हैं।
इस तरह किया कीजिए पहचान
AI से तैयार किए गए फोटो और वीडियो में असली और नकली की पहचान करना कठिन तो है, लेकिन आप कुछ बिंदुओं पर ध्यान देकर इन्हें पहचान सकते हैं। इस तकनीक से तैयार किए गए फोटो में चेहरे की चमक ज्यादा रहेगी, जबकि इससे जुड़े व्यक्ति का चेहरा इतना चमकदार नहीं होता।
वीडियो के मामले में चेहरे के हाव-भाव से आप पहचान सकते हैं, क्योंकि इसमें चेहरे के एक्सप्रेशन कुछ अलग नजर आते हैं। इसके साथ ही इस दौरान की जाने वाली लिप सिंक भी अलग होती है।
जानें क्या है डीपफेक
डीपफेक एक आर्टिफिशियल इंटेलिजेंस (AI) टेक्नोलॉजी है, जिसका इस्तेमाल कर किसी व्यक्ति के चेहरे, हाव-भाव, आवाज या बोलने के तरीके की नकल तैयार की जा सकती है। इसके जरिए किसी के वीडियो या फोटो को इस तरह बदला जा सकता है कि वह देखने में पूरी तरह असली लगे, जबकि वह फर्जी या नकली होता है। इसे वीडियो, ऑडियो और फोटो तीनों फॉर्म में तैयार किया जा सकता है।
डीपफेक की पहचान कैसे करें
वीडियो इस तरह पहचानें
*पलकें असामान्य तरीके से झपक सकती हैं।
*चेहरे के हाव-भाव अलग हो सकते हैं।
*बैकग्राउंड में धुंधलापन या गड़बड़ी हो सकती है।
*वीडियो का रेजोल्यूशन बहुत ज्यादा होता है।
*वीडियो बहुत ज्यादा क्लीयर और शाइनिंग होता है।
*वीडियो की लाइट और शैडो में फर्क हो सकता है।
ऑडियो ऐसे पहचानें
*आवाज रोबोट जैसी लग सकती है।
*वॉइस टोन और पिच में बदलाव हो सकता है।
*बोलते समय कुछ हिस्सों में आवाज कट सकती है।
*लिप मूवमेंट और आवाज में तालमेल नहीं होता है।
* शब्दों का उच्चारण असामान्य हो सकता है।
फोटो पहचानें
* चेहरे के आसपास धुंधला दिख सकता है।
* बाल, कान या आंख के आकार में अंतर हो सकता है।
*बैकग्राउंड में चीजें टेढ़ी-मेढ़ी या असामान्य हो सकती हैं।
*स्किन टेक्सचर बहुत स्मूद या प्लास्टिक जैसा लग सकता है।

कोई टिप्पणी नहीं

एक टिप्पणी भेजें

© all rights reserved by Vipin Shukla @ 2020
made with by rohit Bansal 9993475129