विज्ञान

कृत्रिम बुद्धिमत्ता का युग : नियमन की दौड़ और भारत की स्थिति

इक्कीसवीं सदी के तीसरे दशक के मध्य तक आते-आते कृत्रिम बुद्धिमत्ता केवल एक तकनीकी नवाचार भर नहीं रह गई है, बल्कि यह वैश्विक अर्थव्यवस्था, सुरक्षा, कूटनीति और सामाजिक संरचना को पुनर्परिभाषित करने वाली निर्णायक शक्ति बन चुकी है। 2026 का वर्ष इस परिवर्तन का एक महत्वपूर्ण पड़ाव माना जा रहा है, क्योंकि यह वह समय है जब AI के उपयोग और उसके नियमन के बीच वास्तविक टकराव सामने आने लगा है। दुनिया के लगभग सभी बड़े तकनीकी और राजनीतिक केंद्र इस प्रश्न से जूझ रहे हैं कि AI का विकास किस गति से हो और उसके लिए किस प्रकार का नियामक ढाँचा तैयार किया जाए। एक ओर तकनीकी कंपनियाँ नवाचार की गति को बनाए रखना चाहती हैं, वहीं सरकारें और समाज इसके संभावित जोखिमों—जैसे गोपनीयता का उल्लंघन, भेदभाव, लोकतांत्रिक प्रक्रियाओं पर प्रभाव और सैन्य उपयोग—को लेकर चिंतित हैं। यही कारण है कि 2026 को कई विशेषज्ञ “AI Governance का निर्णायक वर्ष” कह रहे हैं।

विश्व स्तर पर AI नियमन की बहस का सबसे प्रभावशाली उदाहरण यूरोपीय संघ का AI एक्ट है। यह दुनिया का पहला व्यापक और बाध्यकारी कानून है जो AI प्रणालियों को जोखिम के आधार पर वर्गीकृत करता है और उनके उपयोग पर स्पष्ट नियम लागू करता है। यह कानून अगस्त 2024 में लागू हुआ और इसके कई प्रमुख प्रावधान चरणबद्ध तरीके से 2026 तक पूरी तरह लागू होने की प्रक्रिया में हैं। इस कानून के अंतर्गत “अस्वीकार्य जोखिम” वाली AI प्रणालियों—जैसे सामाजिक स्कोरिंग, जनसांख्यिकीय आधार पर निगरानी या नागरिकों को मनोवैज्ञानिक रूप से प्रभावित करने वाली तकनीकों—पर पूर्ण प्रतिबंध लगाया गया है। इसके अतिरिक्त “उच्च जोखिम” वाली प्रणालियों, जैसे स्वास्थ्य, शिक्षा, रोजगार और न्यायिक निर्णय से संबंधित AI अनुप्रयोगों के लिए कठोर पारदर्शिता और जवाबदेही के मानक तय किए गए हैं। इस कानून का उल्लंघन करने वाली कंपनियों पर 3.5 करोड़ यूरो या उनके वैश्विक वार्षिक कारोबार के 7 प्रतिशत तक का जुर्माना लगाया जा सकता है, जो तकनीकी नियमन के इतिहास में सबसे कठोर दंडात्मक प्रावधानों में से एक है।

यूरोपीय संघ का यह मॉडल वैश्विक स्तर पर AI शासन की दिशा तय करने का प्रयास है। कई विशेषज्ञ इसे डेटा संरक्षण कानूनों के क्षेत्र में लागू हुए GDPR की तरह मानते हैं, जिसने वैश्विक डेटा सुरक्षा मानकों को प्रभावित किया था। इसी प्रकार AI एक्ट भी वैश्विक कंपनियों को अपनी तकनीकों में पारदर्शिता, मानव निगरानी और जोखिम मूल्यांकन के मानकों को शामिल करने के लिए बाध्य कर रहा है। इस कानून का प्रभाव केवल यूरोप तक सीमित नहीं है, क्योंकि यदि किसी कंपनी की AI सेवा यूरोपीय उपभोक्ताओं को प्रभावित करती है, तो उसे इन नियमों का पालन करना होगा। इस प्रकार यूरोप का यह कानून वैश्विक तकनीकी कंपनियों—जैसे अमेरिकी और एशियाई कंपनियों—पर भी अप्रत्यक्ष रूप से लागू हो जाता है।

दूसरी ओर अमेरिका का दृष्टिकोण इससे काफी अलग है। अमेरिका तकनीकी नवाचार को बाधित किए बिना AI के सुरक्षित उपयोग को बढ़ावा देने के पक्ष में है। दिसंबर 2025 में जारी एक कार्यकारी आदेश के माध्यम से अमेरिकी प्रशासन ने राष्ट्रीय AI नीति के लिए दिशा-निर्देश निर्धारित किए। इस आदेश में AI सुरक्षा, पारदर्शिता, श्रम बाजार पर प्रभाव और राष्ट्रीय सुरक्षा जैसे मुद्दों पर ध्यान केंद्रित किया गया है। किंतु अमेरिका में यूरोप जैसा एकीकृत कानून नहीं है; वहाँ संघीय स्तर के साथ-साथ राज्यों के स्तर पर भी अलग-अलग नियम बनाए जा रहे हैं। उदाहरण के लिए, इलिनॉय, कैलिफोर्निया और कोलोराडो जैसे राज्यों ने रोजगार, बायोमेट्रिक डेटा और एल्गोरिथमिक निर्णयों से संबंधित AI के उपयोग पर अलग-अलग नियम लागू किए हैं। इस बहुस्तरीय नियामक ढाँचे के कारण अमेरिका में AI शासन का परिदृश्य अपेक्षाकृत बिखरा हुआ है।

चीन का मॉडल इन दोनों से भिन्न है। चीन ने AI को राष्ट्रीय शक्ति के एक रणनीतिक साधन के रूप में अपनाया है और उसका नियामक ढाँचा मुख्यतः राज्य नियंत्रण, डेटा स्थानीयकरण और सामाजिक स्थिरता के सिद्धांतों पर आधारित है। चीन ने एल्गोरिथमिक अनुशंसा प्रणालियों, जनरेटिव AI और साइबर सुरक्षा से संबंधित कई नियम लागू किए हैं। 2026 से लागू संशोधित साइबर सुरक्षा और डेटा नियमन कानूनों में AI का स्पष्ट उल्लेख किया गया है। इन नियमों के माध्यम से चीन सरकार तकनीकी कंपनियों पर कड़ी निगरानी रखती है और यह सुनिश्चित करती है कि AI का उपयोग राज्य की नीतियों और सामाजिक नियंत्रण के ढाँचे के अनुरूप हो।

इस प्रकार वैश्विक स्तर पर AI शासन के तीन प्रमुख मॉडल उभर कर सामने आए हैं—यूरोपीय संघ का अधिकार-आधारित और जोखिम-आधारित मॉडल, अमेरिका का नवाचार-अनुकूल और अपेक्षाकृत लचीला मॉडल, तथा चीन का राज्य-नियंत्रित मॉडल। इन तीनों दृष्टिकोणों के बीच संतुलन स्थापित करना 2026 की सबसे बड़ी तकनीकी-कूटनीतिक चुनौतियों में से एक बन गया है। क्योंकि AI तकनीक की प्रकृति वैश्विक है, जबकि उसके नियमन के ढाँचे राष्ट्रीय सीमाओं में बँधे हुए हैं।

वैश्विक स्तर पर AI शासन के संस्थागत प्रयास भी तेज हुए हैं। संयुक्त राष्ट्र और विभिन्न अंतरराष्ट्रीय संगठनों ने AI के नैतिक और सुरक्षा संबंधी पहलुओं पर बहुपक्षीय संवाद शुरू किया है। 2026 में संयुक्त राष्ट्र समर्थित “ग्लोबल डायलॉग ऑन AI गवर्नेंस” और “इंडिपेंडेंट इंटरनेशनल साइंटिफिक पैनल ऑन AI” जैसे मंचों की स्थापना इस दिशा में महत्वपूर्ण कदम माने जा रहे हैं। इन मंचों का उद्देश्य यह सुनिश्चित करना है कि AI के विकास और उपयोग के लिए वैश्विक स्तर पर न्यूनतम मानक और सहयोगी तंत्र विकसित किया जा सके। हालांकि इन पहलों की सफलता इस बात पर निर्भर करेगी कि बड़ी शक्तियाँ—विशेष रूप से अमेरिका, यूरोप और चीन—इनमें कितनी सक्रिय भागीदारी करती हैं।

AI शासन की बहस केवल तकनीकी या कानूनी प्रश्न नहीं है; इसके पीछे गहरे आर्थिक और भू-राजनीतिक हित भी जुड़े हुए हैं। AI तकनीक आज वैश्विक प्रतिस्पर्धा का केंद्र बन चुकी है। उदाहरण के लिए, चीन की DeepSeek जैसी कंपनियों ने कम लागत में बड़े AI मॉडल प्रशिक्षित करने की नई तकनीक विकसित करने का दावा किया है, जिससे अमेरिकी तकनीकी कंपनियों के प्रभुत्व को चुनौती मिली है। दूसरी ओर, चिप निर्माण और AI हार्डवेयर के क्षेत्र में अमेरिकी कंपनियाँ अभी भी अग्रणी हैं। Nvidia जैसी कंपनियों का बाजार मूल्य 2025-26 के दौरान अभूतपूर्व स्तर तक पहुँच गया, जो यह दर्शाता है कि AI उद्योग में पूँजी और शक्ति का केंद्रीकरण किस गति से हो रहा है।

AI के विकास की गति का अंदाजा वैश्विक नीति निर्माण के आँकड़ों से भी लगाया जा सकता है। स्टैनफोर्ड विश्वविद्यालय के AI इंडेक्स रिपोर्ट के अनुसार 2023 में दुनिया भर में कम से कम 30 AI संबंधी कानून पारित किए गए और 2024 में लगभग 40 नए कानून बने। इसके अतिरिक्त 70 से अधिक देशों ने AI नीति या रणनीति दस्तावेज तैयार किए हैं। कई देशों में AI से संबंधित नियामक पहलें 1000 से अधिक तक पहुँच चुकी हैं। लेकिन इन प्रयासों में भारी असमानता भी दिखाई देती है। उच्च-आय वाले देशों और तकनीकी रूप से विकसित क्षेत्रों—जैसे यूरोप, पूर्वी एशिया और उत्तरी अमेरिका—में AI शासन के लिए व्यापक ढाँचे बन रहे हैं, जबकि निम्न और निम्न-मध्यम आय वाले देशों में इस दिशा में अभी बहुत कम पहल हुई है। इससे भविष्य में तकनीकी असमानता और भी गहरी हो सकती है।

AI शासन की चर्चा का एक महत्वपूर्ण आयाम उसका सैन्य उपयोग भी है। आधुनिक युद्ध में AI-सक्षम प्रणालियों—जैसे स्वायत्त ड्रोन, लक्ष्य पहचान एल्गोरिद्म और साइबर युद्ध तकनीक—का उपयोग तेजी से बढ़ रहा है। इन प्रणालियों के कारण युद्ध की प्रकृति बदल रही है। कई विशेषज्ञों का मानना है कि आने वाले दशकों में युद्ध का बड़ा हिस्सा स्वचालित प्रणालियों और एल्गोरिथ्मिक निर्णयों के माध्यम से संचालित होगा। संयुक्त राष्ट्र में स्वायत्त हथियार प्रणालियों (Lethal Autonomous Weapons Systems – LAWS) पर कई वर्षों से चर्चा चल रही है, लेकिन अभी तक कोई बाध्यकारी अंतरराष्ट्रीय संधि नहीं बन पाई है। इस स्थिति ने AI के सैन्य उपयोग को लेकर गंभीर नैतिक और कानूनी प्रश्न खड़े कर दिए हैं।

इस वैश्विक परिदृश्य में भारत की स्थिति विशेष रूप से महत्वपूर्ण है। भारत विश्व की सबसे बड़ी लोकतांत्रिक व्यवस्था है और डिजिटल प्रौद्योगिकी के उपयोग में तेजी से आगे बढ़ रहा है। भारत में डिजिटल भुगतान, आधार पहचान प्रणाली और सरकारी डिजिटल प्लेटफॉर्म के व्यापक उपयोग ने तकनीकी नवाचार के लिए एक अनुकूल वातावरण तैयार किया है। इसी संदर्भ में AI को भारत की आर्थिक और सामाजिक विकास रणनीति का महत्वपूर्ण हिस्सा माना जा रहा है। भारत सरकार की “इंडियाAI” पहल और विभिन्न नीति दस्तावेजों में AI को स्वास्थ्य, कृषि, शिक्षा और शहरी प्रबंधन जैसे क्षेत्रों में परिवर्तनकारी तकनीक के रूप में प्रस्तुत किया गया है।

हालाँकि AI शासन के क्षेत्र में भारत का दृष्टिकोण अभी भी विकसित हो रहा है। भारत ने यूरोपीय संघ की तरह कोई व्यापक और बाध्यकारी AI कानून अभी तक लागू नहीं किया है। इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय ने 2025 में “AI गवर्नेंस गाइडलाइंस” जारी कीं, जिनका मुख्य उद्देश्य जिम्मेदार और समावेशी AI के उपयोग को प्रोत्साहित करना है। इन दिशानिर्देशों में पारदर्शिता, जवाबदेही और मानव-केंद्रित विकास पर जोर दिया गया है, लेकिन इनकी प्रकृति मुख्यतः परामर्शात्मक और स्वैच्छिक है। यह दृष्टिकोण अमेरिका के नवाचार-अनुकूल मॉडल के अधिक निकट दिखाई देता है।

भारत के सामने AI शासन के संदर्भ में कई जटिल चुनौतियाँ हैं। पहली चुनौती डेटा सुरक्षा और गोपनीयता से संबंधित है। भारत में डिजिटल सेवाओं के तेजी से विस्तार के साथ-साथ नागरिकों के डेटा का विशाल भंडार तैयार हो गया है। हाल ही में पारित डिजिटल पर्सनल डेटा प्रोटेक्शन कानून ने डेटा सुरक्षा के लिए एक बुनियादी ढाँचा प्रदान किया है, लेकिन AI के संदर्भ में इसके कई पहलुओं को और स्पष्ट करने की आवश्यकता है। उदाहरण के लिए, एल्गोरिथ्मिक पारदर्शिता, स्वचालित निर्णयों की जवाबदेही और डेटा पूर्वाग्रह (data bias) जैसे मुद्दों पर अभी व्यापक कानूनी स्पष्टता नहीं है।

दूसरी चुनौती सामाजिक न्याय और समावेशिता की है। AI प्रणालियाँ अक्सर उन डेटा पर आधारित होती हैं जो ऐतिहासिक और सामाजिक असमानताओं से प्रभावित होते हैं। यदि इन पूर्वाग्रहों को तकनीकी प्रणालियों में शामिल कर लिया जाए, तो वे भेदभाव को और मजबूत कर सकती हैं। इसलिए भारत जैसे विविध और बहुस्तरीय समाज में AI के उपयोग के लिए विशेष सावधानी और संवेदनशीलता आवश्यक है। विशेषज्ञों का मानना है कि भारत को AI शासन के लिए ऐसा ढाँचा विकसित करना होगा जो तकनीकी नवाचार को प्रोत्साहित करने के साथ-साथ लोकतांत्रिक मूल्यों और सामाजिक न्याय की रक्षा भी करे।

तीसरी चुनौती वैश्विक प्रतिस्पर्धा से जुड़ी है। AI के क्षेत्र में अमेरिका और चीन जैसी शक्तियाँ विशाल निवेश और अनुसंधान क्षमता के कारण अग्रणी हैं। भारत को इस प्रतिस्पर्धा में बने रहने के लिए अनुसंधान, शिक्षा और तकनीकी बुनियादी ढाँचे में बड़े पैमाने पर निवेश करना होगा। इसके साथ-साथ वैश्विक सहयोग और मानकीकरण प्रक्रियाओं में सक्रिय भागीदारी भी आवश्यक है।

इन सभी पहलुओं को देखते हुए 2026 का वर्ष AI शासन के इतिहास में एक महत्वपूर्ण मोड़ के रूप में सामने आ रहा है। एक ओर तकनीकी विकास की गति अभूतपूर्व है, दूसरी ओर नीति-निर्माण और नियमन की प्रक्रियाएँ उससे पीछे छूटती दिखाई देती हैं। यदि इस अंतर को समय रहते संतुलित नहीं किया गया, तो AI तकनीक के लाभों के साथ-साथ उसके जोखिम भी तेजी से बढ़ सकते हैं। इसलिए आवश्यक है कि वैश्विक समुदाय, सरकारें, तकनीकी कंपनियाँ और नागरिक समाज मिलकर एक ऐसा संतुलित ढाँचा तैयार करें जो नवाचार, सुरक्षा और नैतिकता—तीनों के बीच संतुलन स्थापित कर सके।

भारत के लिए यह अवसर भी है और चुनौती भी। यदि भारत एक समावेशी, लोकतांत्रिक और नवाचार-अनुकूल AI शासन मॉडल विकसित करने में सफल होता है, तो वह वैश्विक AI व्यवस्था में एक महत्वपूर्ण मध्य मार्ग प्रस्तुत कर सकता है—एक ऐसा मॉडल जो तकनीकी प्रगति को मानव मूल्यों के साथ संतुलित करे। यही संतुलन भविष्य की डिजिटल सभ्यता की दिशा तय करेगा।

— डॉ. शैलेश शुक्ला

डॉ. शैलेश शुक्ला

राजभाषा अधिकारी एनएमडीसी [भारत सरकार का एक उपक्रम] प्रशासनिक कार्यालय, डीआईओएम, दोणीमलै टाउनशिप जिला बेल्लारी - 583118 मो.-8759411563