एआई-जनित सामग्री, डीपफेक और भारत की नई डिजिटल नीति की असली परीक्षा
डिजिटल मीडिया का युग मूलतः “गति” का युग है—खबरें सेकंडों में फैलती हैं, प्रतिक्रियाएँ मिनटों में बनती हैं, और जनमत कई बार घंटे भर में दिशा बदल लेता है। इसी तेज़ रफ्तार के बीच अब एक नई शक्ति निर्णायक बनकर उभरी है—कृत्रिम मेधा के सहारे बनी सामग्री, खासकर डीपफेक और सिंथेटिक वीडियो/ऑडियो। यह वह तकनीक है जो किसी व्यक्ति का चेहरा, आवाज़, हाव-भाव और संदर्भ इस तरह गढ़ सकती है कि सामान्य नागरिक के लिए असली-नकली की पहचान कठिन हो जाए। नतीजा केवल “फर्जी खबर” तक सीमित नहीं रहता; यह सामाजिक विश्वास, राजनीतिक स्थिरता, चुनावी नैतिकता, और मीडिया की विश्वसनीयता—चारों पर हमला करता है। ठीक इसी पृष्ठभूमि में भारत ने फरवरी 2026 में सूचना प्रौद्योगिकी नियमों के तहत एआई-जनित/बदली गई सामग्री के लिए कड़े अनुपालन उपाय लागू किए हैं, जिनमें सबसे अधिक चर्चा “तीन घंटे के भीतर अवैध सामग्री हटाने” जैसी समय-सीमा की हो रही है। टाइम्स ऑफ इंडिया की 20 फरवरी 2026 की व्याख्यात्मक रिपोर्ट में बताया गया है कि आज से लागू संशोधनों के तहत एआई-जनित या बदली हुई सामग्री के लिए स्पष्ट लेबलिंग और चिन्हित करने की अपेक्षा बढ़ाई गई है।
इस नीति-परिवर्तन को केवल तकनीकी नियम न समझना चाहिए। यह भारत के डिजिटल सार्वजनिक क्षेत्र का नया अनुशासन है—और साथ ही अभिव्यक्ति की स्वतंत्रता, मीडिया की स्वायत्तता, और नागरिक अधिकारों के लिए एक नई कसौटी भी। सवाल यह नहीं है कि डीपफेक को रोका जाए या नहीं; सवाल यह है कि उसे रोकने के तरीके “लोकतांत्रिक” रहेंगे या “अति-नियमन” में बदलकर वैध पत्रकारिता, आलोचना और बहस को भी नुकसान पहुँचा देंगे।
समस्या का आकार: डीपफेक अब शरारत नहीं, सामाजिक-राजनीतिक हथियार : आज डीपफेक और एआई-जनित गलत सूचना का खतरा इसलिए बड़ा है क्योंकि यह “स्केल” पर काम करता है। पहले किसी झूठी कहानी को फैलाने के लिए बड़ी टीम, समय और संसाधन लगते थे; अब कम संसाधन वाला व्यक्ति भी एआई उपकरणों से बड़ी मात्रा में नकली वीडियो क्लिप, नकली ऑडियो बाइट और नकली चित्र तैयार कर सकता है। विश्व आर्थिक मंच की ‘ग्लोबल रिस्क्स रिपोर्ट 2025’ के प्रेस-सार में “गलत सूचना और भ्रामक सूचना” को लगातार दूसरे वर्ष अल्पकालिक जोखिमों में सबसे ऊपर रखा गया है, और यह भी बताया गया है कि यह सामाजिक एकजुटता तथा शासन पर भरोसा कमजोर करती है। यानी दुनिया के नीति-विशेषज्ञों की सामूहिक चिंता यही है कि सूचना-प्रदूषण अब केवल मीडिया की समस्या नहीं रहा; यह “लोकतंत्र के संचालन” की समस्या बन गया है। भारत में यह खतरा और जटिल हो जाता है क्योंकि यहाँ डिजिटल उपयोगकर्ताओं की संख्या विशाल है, भाषाएँ अनेक हैं, और राजनीतिक-सामाजिक विविधता बहुत गहरी है। एक गलत वीडियो किसी भी समुदाय, किसी भी क्षेत्र, किसी भी भाषा-समूह में तनाव पैदा कर सकता है। इसी वजह से सरकारें तेज़ कार्रवाई चाहती हैं—ताकि नुकसान होने से पहले कंटेंट हट जाए।
भारत के नए नियम : लेबलिंग, जवाबदेही और “तीन घंटे” की समय-सीमा : फरवरी 2026 के संशोधनों का केंद्रीय विचार यह है कि मध्यस्थ मंचों पर “सिंथेटिक रूप से उत्पन्न” या “बदली हुई” सामग्री के दुरुपयोग से होने वाली हानि को कम किया जाए। इलेक्ट्रॉनिक्स एवं सूचना प्रौद्योगिकी मंत्रालय के 10 फरवरी 2026 के अक्सर-पूछे-जाने-वाले प्रश्न दस्तावेज़ में कहा गया है कि ये संशोधन विशेष रूप से ऐसे सिंथेटिक कंटेंट के बढ़ते दुरुपयोग—डीपफेक, गलत सूचना और अन्य गैरकानूनी सामग्री—से उत्पन्न चुनौतियों को ध्यान में रखकर किए गए हैं। इसी संदर्भ में मंत्रालय द्वारा 10 फरवरी 2026 को अपडेट किए गए नियम-पाठ में “ड्यू डिलिजेंस” यानी मंचों की जवाबदेही को मजबूत करने की दिशा दिखती है। नीति का सबसे चर्चित पहलू “तीन घंटे” है। रॉयटर्स की 17 फरवरी 2026 की रिपोर्ट के अनुसार नए नियमों में अवैध सामग्री हटाने की समय-सीमा 36 घंटे से घटाकर तीन घंटे कर दी गई है और सरकार ने वैश्विक प्लेटफॉर्मों को भारतीय संवैधानिक ढांचे के भीतर काम करने की बात कही है। यानी अब किसी प्राधिकृत सूचना/निर्देश के बाद मंचों को बेहद कम समय में निर्णय लेकर कार्रवाई करनी होगी।
डिजिटल प्लेटफॉर्मों की आपत्ति : “व्यावहारिकता” बनाम “उत्तरदायित्व” : यहाँ बहस का दूसरा पक्ष आता है—क्या तीन घंटे में निष्पक्ष और सटीक निर्णय संभव है? इकोनॉमिक टाइम्स की 18 फरवरी 2026 की रिपोर्ट में मेटा ने “ऑपरेशनल चुनौतियों” की बात कही—यानी इतने कम समय में सामग्री की पहचान, संदर्भ समझ, सत्यापन, और हटाने की प्रक्रिया लागू करना कठिन हो सकता है। यह आपत्ति केवल सुविधा की नहीं है; यह “गलत निर्णय” के जोखिम से जुड़ी है। क्योंकि यदि प्लेटफॉर्म दंड या कानूनी जोखिम से बचने के लिए अतिसावधानी बरतेगा, तो वह संदिग्ध लगने वाली बहुत-सी वैध सामग्री भी हटा सकता है। इसका सीधा असर पत्रकारिता, व्यंग्य, राजनीतिक आलोचना और नागरिक आवाज़ों पर पड़ेगा।
मीडिया के लिए दुविधा : तेज़ नियंत्रण या स्वतंत्र बहस? : मीडिया का काम केवल सूचना देना नहीं, बल्कि सत्ता, संस्थाओं और समाज की जवाबदेही तय करना भी है। डिजिटल प्लेटफॉर्मों पर यदि हटाने का दबाव बढ़ेगा, तो “ओवर-रिमूवल” यानी जरूरत से ज्यादा हटाने की प्रवृत्ति बढ़ सकती है। यह लोकतंत्र के लिए खतरनाक है, क्योंकि बहस का स्पेस सिकुड़ता है। दूसरी तरफ, अगर डीपफेक और एआई-जनित झूठ को खुला छोड़ दिया जाए तो नुकसान बहुत बड़ा हो सकता है—चुनावी ध्रुवीकरण, हिंसा भड़कना, या किसी व्यक्ति/समूह की प्रतिष्ठा पर स्थायी चोट। यहाँ सबसे जरूरी है “प्रक्रियात्मक न्याय”—यानी हटाने की प्रक्रिया पारदर्शी हो, कारण बताए जाएँ, और अपील/पुनरावलोकन की व्यवस्था हो। वरना किसी कंटेंट का हटना जनता के लिए अंतिम सत्य बन जाता है कि वह “गलत” था, जबकि वह पत्रकारिता-आधारित खुलासा भी हो सकता है। तीन घंटे की समय-सीमा न्यायसंगत तभी बन सकती है जब उसके साथ मजबूत अपील-प्रक्रिया और त्रुटि-सुधार तंत्र भी समान गति से उपलब्ध हों।
शिक्षा और समाज पर प्रभाव: सिर्फ नियम नहीं, साक्षरता भी : डीपफेक से लड़ाई केवल टेकडाउन से नहीं जीती जा सकती। कारण यह है कि कंटेंट हटने से पहले वह लाखों लोगों तक पहुँच चुका होता है, और उसका प्रभाव बना रहता है। इसलिए समाज में “मीडिया साक्षरता” और “डिजिटल विवेक” का निर्माण अनिवार्य है—लोग सीखें कि किसी वीडियो पर तुरंत विश्वास न करें, स्रोत देखें, संदर्भ समझें, और सत्यापन की आदत विकसित करें। यूनेस्को ने जनरेटिव एआई के शिक्षा और शोध में उपयोग पर जारी मार्गदर्शन में यह संकेत दिया है कि जनरेटिव एआई से जुड़े जोखिम—जैसे डेटा गोपनीयता, पक्षपात, और संस्थानों की तैयारी—नीतिगत बहस से तेज़ी से आगे निकल चुके हैं; इसलिए मानव-केंद्रित दृष्टि और क्षमता-निर्माण की जरूरत है। यूनेस्को के इसी दस्तावेज़ के 16 जनवरी 2026 के अपडेट में मानव-केंद्रित नीति और संस्थागत तैयारी पर जोर दिखाई देता है। यदि शिक्षा-संस्थानों और नागरिकों को सत्यापन-कौशल नहीं सिखाया जाएगा, तो डीपफेक का बाजार बना रहेगा—क्योंकि मांग बनी रहेगी।
राजनीतिक असर: चुनावी नैतिकता और विश्वास का संकट : राजनीति में डीपफेक का सबसे बड़ा खतरा यह है कि यह “विश्वास” पर हमला करता है। एक नकली वीडियो किसी नेता को ऐसी बात कहते दिखा सकता है जो उसने कही ही नहीं। चुनावी समय में यह कुछ घंटों में माहौल बदल सकता है। बाद में खंडन आए भी, तो “पहला प्रभाव” बहुत बार वापस नहीं जाता। यही कारण है कि सरकारें तेज़ टेकडाउन चाहती हैं। रॉयटर्स ने अपनी रिपोर्ट में यह भी संकेत दिया कि भारत में डीपफेक और कंटेंट नियमन पर उद्योग के साथ बातचीत चल रही है और वैश्विक स्तर पर भी ऐसे कदम उठाए जा रहे हैं। लेकिन राजनीति में ही यह खतरा भी है कि “अवैध” या “हानिकारक” की व्याख्या बहुत विस्तृत हो जाए, और राजनीतिक असहमति को भी उसी तराजू पर तोला जाने लगे। इसलिए नियमों का इस्तेमाल “सार्वजनिक हित” में ही सीमित रहना चाहिए, न कि असहमति दबाने के साधन के रूप में।
रास्ता क्या है: तेज़ कार्रवाई + निष्पक्ष प्रक्रिया + तकनीकी प्रमाण : आज के डिजिटल युग में नीति-निर्माण का लक्ष्य तीन चीजों का संतुलन होना चाहिए: सुरक्षा, स्वतंत्रता और सत्य। इसके लिए कुछ व्यावहारिक कदम निर्णायक हैं : – पहला, स्पष्ट परिभाषाएँ और सीमाएँ। किसे डीपफेक माना जाएगा, किसे व्यंग्य/सैटायर, किसे समाचार-क्लिप—यह स्पष्ट होना चाहिए। अस्पष्टता बढ़ेगी तो गलत हटाने बढ़ेंगे। दूसरा, तेज़ अपील और पारदर्शिता। यदि तीन घंटे में हटाना है, तो उतनी ही तेज़ और प्रभावी अपील/पुनरावलोकन भी होना चाहिए, ताकि वैध सामग्री जल्दी बहाल हो सके। तीसरा, तकनीकी प्रमाण-आधारित उपाय। केवल हटाना पर्याप्त नहीं; “सामग्री की उत्पत्ति” का प्रमाण, सत्यापन-चिन्ह, और विश्वसनीय स्रोत-संकेत जैसी प्रणालियाँ विकसित करनी होंगी। आईटी मंत्री द्वारा “टेक्नो-लीगल” दृष्टिकोण की बात टाइम्स ऑफ इंडिया की 17 फरवरी 2026 की रिपोर्ट में सामने आती है—यानी कानून के साथ तकनीक का सहारा भी जरूरी है। चौथा, बहुभाषी मॉडरेशन क्षमता। भारत में भाषा-विविधता के कारण संदर्भ-समझ बेहद जरूरी है; नहीं तो छोटे भाषाई समुदायों की वैध सामग्री ज्यादा प्रभावित होगी। पाँचवाँ, मीडिया-साक्षरता का राष्ट्रीय अभियान। यूनेस्को जैसी संस्थाओं के मार्गदर्शन के अनुरूप स्कूल-कॉलेजों और सार्वजनिक संस्थानों में सत्यापन-शिक्षा को प्राथमिकता देनी होगी।
निष्कर्ष : भारत के नए नियम एक वास्तविक समस्या का उत्तर हैं—एआई-जनित झूठ, डीपफेक और ऑनलाइन हानि। लेकिन हर शक्तिशाली उपाय की तरह इसकी सफलता इस बात पर निर्भर करेगी कि इसे कैसे लागू किया जाता है। अगर यह नीति पारदर्शी प्रक्रिया, स्पष्ट परिभाषाओं, तेज़ अपील और तकनीकी सत्यापन के साथ आगे बढ़ेगी, तो यह डिजिटल सार्वजनिक क्षेत्र में विश्वास बहाल करने की दिशा में मजबूत कदम हो सकता है—जिसकी जरूरत को विश्व आर्थिक मंच जैसी संस्थाएँ वैश्विक जोखिम के रूप में रेखांकित कर रही हैं। पर यदि तीन घंटे की समय-सीमा “डर-आधारित मॉडरेशन” को जन्म देती है, और प्लेटफॉर्म दंड से बचने के लिए वैध पत्रकारिता, आलोचना, और नागरिक असहमति को भी हटाने लगते हैं, तो यह लोकतंत्र के लिए नई समस्या बन जाएगी। आज के भारत के सामने चुनौती यही है—डिजिटल अनुशासन को डिजिटल स्वतंत्रता के साथ जोड़ना। डीपफेक का इलाज जरूरी है, लेकिन इलाज ऐसा हो कि मरीज—यानी लोकतांत्रिक बहस—कमजोर न पड़ जाए। अगर आप चाहें तो मैं “कल के लिए” भी एक समसामयिक विषय चुनकर इसी तरह ताज़ा स्रोतों के आधार पर संपादकीय तैयार कर दूँ—जैसे शिक्षा में एआई-ट्यूटर का प्रभाव, डिजिटल मीडिया में ट्रस्ट-इंडिकेटर, या एआई-आधारित राजनीतिक विज्ञापन का नियमन।
— डॉ. शैलेश शुक्ला
