Last Updated:October 17, 2025, 15:32 IST
Deep Fake Videos: बॉम्बे हाईकोर्ट ने अक्षय कुमार के डीपफेक वीडियो को सार्वजनिक व्यवस्था के लिए खतरनाक बताया. कोर्ट ने ऐसी सामग्री हटाने का आदेश देकर अक्षय को राहत दी. जानें डीपफेक क्या है.

Deep Fake Videos: बॉम्बे हाईकोर्ट ने एक्टर अक्षय कुमार की एआई-जेनरेटेड डीपफेक वीडियो और मॉर्फ्ड फोटो को बेहद चिंताजनक और सार्वजनिक व्यवस्था के लिए संभावित रूप से हानिकारक बताया है. न्यायमूर्ति आरिफ एस डॉक्टर ने विरोधी पक्षों की सुनवाई किए बिना अक्षय कुमार को अस्थायी राहत प्रदान की है. अदालत ने पाया कि डीपफेक वीडियो में अक्षय कुमार कथित रूप से सांप्रदायिक रूप से भड़काऊ बयान दे रहे हैं और ऋषि वाल्मीकि के बारे में टिप्पणी कर रहे हैं. इसने न केवल उनकी प्रतिष्ठा को नुकसान पहुंचाया बल्कि सार्वजनिक सुरक्षा के लिए खतरा पैदा किया. अदालत ने कहा, “मॉर्फिंग इतनी परिष्कृत और भ्रामक है कि यह पहचानना लगभग असंभव है कि ये वादी की वास्तविक तस्वीरें या वीडियो नहीं हैं.” अदालत के आदेश में कहा गया, “ऐसी सामग्री को सार्वजनिक डोमेन से तुरंत हटाया जाना चाहिए – न केवल वादी के हित में, बल्कि व्यापक जनहित में भी.”
एआई काफी तेजी से विकसित हुआ है और इसने कई बड़े आविष्कार किए हैं. लेकिन इसने डीपफेक जैसी तकनीकों का भी उदय देखा हैॉ. एआई द्वारा निर्मित ये मीडिया लगभग प्रामाणिक सामग्री जैसे ही दिखते हैं और जटिल नैतिक, कानूनी और सामाजिक मुद्दे पेश करते हैं. वर्तमान में सरकारें डीपफेक की समस्या का समाधान करने की कोशिश कर रही हैं ताकि लोगों की प्रतिष्ठा को नुकसान न पहुंचे और इस तरह की सेवाओं में उनका विश्वास बना रहे.
डीपफेक क्या हैं?
डीपफेक एक ऐसा माध्यम है जिसमें कृत्रिम बुद्धिमत्ता (AI) का इस्तेमाल करके किसी एक व्यक्ति की छवि या आवाज (या दोनों) को दूसरे व्यक्ति की छवि या आवाज पर थोपा जाता है. यह शब्द ‘डीप लर्निंग’ (गहन शिक्षण), जो AI की वह विधि है जो इन बेहद वास्तविक दिखने वाली जाली (फर्जी) सामग्री को बनाती है, और ‘फेक’ (नकली) शब्दों के मेल से बना है. डीपफेक किसी व्यक्ति के शारीरिक रूप, बोलने के तरीके या अन्य विशेषताओं की नकल कर सकते हैं और अक्सर वास्तविक सामग्री से इन्हें अलग पहचानना मुश्किल होता है. हालांकि मनोरंजन और मीडिया जैसे क्षेत्रों में इस तकनीक के कई सकारात्मक उपयोग हैं, लेकिन इसके दुरुपयोग से जुड़ी गंभीर समस्याएं भी हैं. डीपफेक तकनीक का उपयोग अक्सर ऐसी स्थितियों में किया जाता है जहां विषय की सहमति नहीं ली गई हो या उसका उल्लंघन किया गया हो.
क्यों रेगुलेट करना जरूरी
डीपफेक AI तकनीक की क्षमताओं को दर्शाता है लेकिन इससे उत्पन्न होने वाली गंभीर संभावनाओं के कारण यह एक बड़ी सामाजिक समस्या बन गया है. इसलिए जैसा कि देखा गया है विभिन्न क्षेत्रों में समाज को इस तकनीक से होने वाले नुकसानों को देखते हुए सरकारों और संगठनों ने डीपफेक को नियंत्रित (रेगुलेट) करने की आवश्यकता महसूस की है.
मनोवैज्ञानिक और प्रतिष्ठा संबंधी क्षति
डीपफेक से पीड़ितों को गंभीर मनोवैज्ञानिक और भावनात्मक आघात सहना पड़ा है, विशेष रूप से डीपफेक पोर्नोग्राफी और फर्जी मीडिया सामग्री के कारण. ऐसी जाली सामग्री बहुत खतरनाक होती है क्योंकि यह वास्तविकता के बेहद करीब लगती है. इस तरह के नुकसान और खुलासे के साथ-साथ, ‘बदले की पोर्नोग्राफी’ (Revenge Pornography) के अन्य रूप भी पीड़ित की प्रतिष्ठा को स्थायी रूप से बर्बाद कर सकते हैं. यह चिंता का विषय इसलिए भी है क्योंकि कई मशहूर हस्तियां और जाने-माने लोग अपनी आय के लिए मुख्य रूप से अपनी व्यक्तिगत प्रतिष्ठा पर निर्भर करते हैं.
लोकतंत्र को कमजोर करना
डीपफेक लोकतांत्रिक सिद्धांतों की विश्वसनीयता और वास्तविक भावना के लिए एक गंभीर खतरा हैं, खासकर जनता को प्रभावित (मैनिपुलेट) करने की उनकी क्षमता को देखते हुए. चुनावों के दौरान ऐसे फर्जी वीडियो जारी किए जा सकते हैं जिनमें राजनीतिक नेता अपमानजनक बयान दे रहे हों या किसी फर्जी एजेंडे को बढ़ावा दे रहे हों. इस तरह की फर्जी खबरें (Fake News) और पोस्ट ट्रूथ (Post-Truth) का युग केवल संस्थाओं, मीडिया संस्थानों तक ही सीमित नहीं, बल्कि पूरी लोकतांत्रिक प्रक्रिया के लिए खतरा पैदा करता है. चुनावों के दौरान राजनीतिक अभियानों में डीपफेक के दुरुपयोग की आशंकाओं को और अधिक बढ़ा दिया है.
धोखाधड़ी और घोटाले
डीपफेक अपराधियों के लिए एक अत्याधुनिक उपकरण बन गया है, जिससे भारी आर्थिक नुकसान होता है. डीपफेक का उपयोग करके अपराधी किसी व्यक्ति की हूबहू नकल कर लेते हैं और इस तरह वे उनके खातों या अन्य सुरक्षित डेटा तक आसानी से पहुंच जाते हैं. उदाहरण के लिए एक ऊर्जा कंपनी के सीईओ को आवाज की नकल (वॉयस डीपफेक) वाले एक फोन कॉल के कारण $250,000 का नुकसान हुआ था. इसके अलावा डीपफेक का इस्तेमाल ब्लैकमेल में भी बढ़ रहा है, जहां आपत्तिजनक रिकॉर्डिंग या तस्वीरें जारी करने की धमकी देकर लोगों से पैसे या अन्य लाभ ऐंठे जाते हैं. धोखेबाज इस तकनीक का उपयोग बायोमेट्रिक पहचान प्रणाली को धोखा देने, पहुंच हासिल करने, नए खाते बनाने या जरूरी लेनदेन करने के लिए भी करते हैं.
मीडिया की साख को खतरा
डीपफेक का प्रसार डिजिटल युग में सत्य और प्रामाणिकता की नींव को चुनौती देता है. कई विशेषज्ञों का मानना है कि आने वाले सालों में वेब पर उपलब्ध अधिकांश सामग्री एआई द्वारा बनाई जा सकती है. इससे दर्शकों के लिए असली और नकली सामग्री में भेद करना लगभग असंभव हो जाता है. जैसे-जैसे डीपफेक के वास्तविक उदाहरण सामने आते हैं और यह तकनीक अधिक परिष्कृत होती जाती है, वैसे-वैसे फर्जी खबरों का फैलाव भी बढ़ता जाता है.
भारत में क्या है कानून
हालांकि भारत ने डीपफेक या सिंथेटिक मीडिया से निपटने के लिए कोई विशेष कानून नहीं बनाया है. फिर भी कुछ कानून डीपफेक से होने वाले साइबर अपराधों को दंडित करते हैं. यह मुख्य रूप से सूचना प्रौद्योगिकी (आईटी) अधिनियम 2000, भारतीय न्याय संहिता (बीएनएस) 2023, और डिजिटल व्यक्तिगत डेटा संरक्षण (डीपीडीपी) अधिनियम 2023, तथा अन्य कानूनों के माध्यम से लागू किया जाता है. फिलहाल जापान, सिंगापुर और भारत जैसे कुछ ही देश डीपफेक के रेगुलेशन को लेकर चिंता जता रहे हैं.
न्यूज़18 को गूगल पर अपने पसंदीदा समाचार स्रोत के रूप में जोड़ने के लिए यहां क्लिक करें।
Location :
New Delhi,Delhi
First Published :
October 17, 2025, 15:30 IST