विज्ञान

कृत्रिम मेधा का अनियंत्रित प्रयोग लोकतंत्र और शांति व्यवस्था के लिए खतरा

समय के संवेदनशील संधिकाल में, जब तकनीक तरक्की के तेज तर्रार तरंगों पर सवार होकर मानव जीवन को नई दिशा दे रही है, उसी समय कृत्रिम मेधा का अनियंत्रित विस्तार लोकतंत्र और शांति व्यवस्था के लिए गंभीर संकट का संकेत भी बनता जा रहा है। यह तकनीक जहाँ सुविधा, सुगमता और समृद्धि का सेतु बन सकती है, वहीं असावधानी, असंतुलन और अनियंत्रण की स्थिति में यह अस्थिरता, अशांति और अविश्वास का स्रोत भी बन सकती है। वर्तमान वैश्विक परिदृश्य में अनेक प्रमाणिक रिपोर्टें और संस्थागत अध्ययन इस बात की पुष्टि करते हैं कि यदि कृत्रिम मेधा का उपयोग नियमन, नैतिकता और उत्तरदायित्व के साथ न किया गया, तो यह लोकतांत्रिक संस्थाओं और सामाजिक समरसता के लिए गंभीर खतरा उत्पन्न कर सकती है।

कृत्रिम मेधा के प्रभाव को समझने के लिए यह जानना आवश्यक है कि यह तकनीक केवल गणना या सूचना प्रसंस्करण तक सीमित नहीं है, बल्कि यह विचार, व्यवहार और निर्णय को प्रभावित करने की क्षमता रखती है। संयुक्त राष्ट्र शैक्षिक, वैज्ञानिक एवं सांस्कृतिक संगठन की वर्ष 2023 की एक आधिकारिक रिपोर्ट में यह स्पष्ट रूप से कहा गया है कि कृत्रिम मेधा आधारित प्रणालियाँ यदि पारदर्शिता और जवाबदेही के बिना संचालित हों, तो वे जनमत निर्माण को प्रभावित कर सकती हैं और लोकतांत्रिक प्रक्रियाओं में हस्तक्षेप कर सकती हैं। इसी प्रकार यूरोपीय संघ के डिजिटल सुरक्षा से संबंधित नीति दस्तावेजों में भी यह उल्लेख किया गया है कि एआई आधारित एल्गोरिद्म सोशल मीडिया पर सूचनाओं के प्रसार को इस प्रकार नियंत्रित कर सकते हैं कि वे समाज में विभाजन और ध्रुवीकरण को बढ़ावा दें।

लोकतंत्र का मूल आधार स्वतंत्र और निष्पक्ष सूचना प्रवाह है, किंतु कृत्रिम मेधा के अनियंत्रित प्रयोग से यह आधार कमजोर हो सकता है। उदाहरण के लिए ‘डीपफेक’ तकनीक, जिसमें कृत्रिम मेधा का उपयोग करके नकली वीडियो और ऑडियो तैयार किए जाते हैं, लोकतांत्रिक व्यवस्था के लिए गंभीर चुनौती बनकर उभरी है। भारत सरकार के इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय ने वर्ष 2023 में जारी अपने परामर्श में स्पष्ट रूप से कहा था कि डीपफेक सामग्री समाज में भ्रम और अविश्वास फैलाने की क्षमता रखती है और इससे चुनावी प्रक्रियाओं पर भी नकारात्मक प्रभाव पड़ सकता है। इसी प्रकार अंतरराष्ट्रीय समाचार एजेंसियों द्वारा प्रकाशित विश्लेषणों में यह पाया गया है कि कई देशों में चुनावों के दौरान भ्रामक डिजिटल सामग्री का प्रसार बढ़ा है, जिससे मतदाताओं के निर्णय प्रभावित हुए हैं।

विश्व आर्थिक मंच की वर्ष 2024 की ‘वैश्विक जोखिम रिपोर्ट’ में भी गलत सूचना और दुष्प्रचार को आने वाले वर्षों में सबसे बड़े वैश्विक खतरों में शामिल किया गया है। इस रिपोर्ट में यह उल्लेख किया गया है कि कृत्रिम मेधा के माध्यम से बड़े पैमाने पर भ्रामक सामग्री तैयार करना अब पहले से कहीं अधिक आसान हो गया है, जिससे सामाजिक अस्थिरता और राजनीतिक तनाव बढ़ सकता है। यह स्थिति विशेष रूप से उन देशों के लिए अधिक संवेदनशील है जहाँ लोकतांत्रिक संस्थाएँ अभी सुदृढ़ीकरण की प्रक्रिया में हैं।

भारत जैसे विशाल और विविधतापूर्ण लोकतंत्र में यह चुनौती और भी अधिक गंभीर हो जाती है। यहाँ भाषाई, सामाजिक और सांस्कृतिक विविधता अत्यंत व्यापक है, जिससे सूचना के प्रसार और उसकी व्याख्या में भिन्नता स्वाभाविक है। यदि कृत्रिम मेधा आधारित प्रणालियाँ बिना पर्याप्त नियंत्रण के कार्य करती हैं, तो वे गलत सूचनाओं को तेजी से फैलाकर सामाजिक तनाव उत्पन्न कर सकती हैं। वर्ष 2024 और 2025 के दौरान विभिन्न राज्यों में सोशल मीडिया पर फैली भ्रामक सूचनाओं के कारण कई स्थानों पर स्थानीय स्तर पर तनाव की घटनाएँ सामने आईं, जैसा कि विभिन्न समाचार रिपोर्टों और पुलिस विभागों के आधिकारिक वक्तव्यों में उल्लेख किया गया है।

शांति व्यवस्था पर कृत्रिम मेधा के प्रभाव को भी गंभीरता से समझने की आवश्यकता है। आंतरिक सुरक्षा से संबंधित कई विश्लेषणों में यह बताया गया है कि एआई आधारित निगरानी प्रणालियाँ जहाँ अपराध नियंत्रण में सहायक हो सकती हैं, वहीं इनके दुरुपयोग से नागरिक स्वतंत्रता और निजता पर खतरा उत्पन्न हो सकता है। संयुक्त राष्ट्र मानवाधिकार परिषद की रिपोर्टों में यह चिंता व्यक्त की गई है कि यदि निगरानी तकनीकों का उपयोग बिना स्पष्ट कानूनी ढाँचे के किया जाए, तो यह मानवाधिकारों के उल्लंघन का कारण बन सकता है।

इसके अतिरिक्त कृत्रिम मेधा का उपयोग साइबर अपराधों में भी तेजी से बढ़ रहा है। भारतीय कंप्यूटर आपात प्रतिक्रिया दल, जिसे सामान्यतः ‘सीईआरटी-इन’ कहा जाता है, की वर्ष 2024 की रिपोर्ट में यह उल्लेख किया गया है कि भारत में साइबर हमलों की संख्या में लगातार वृद्धि हो रही है और इनमें से कई हमलों में स्वचालित तकनीकों का उपयोग किया जा रहा है। यह स्थिति केवल आर्थिक नुकसान तक सीमित नहीं है, बल्कि इससे राष्ट्रीय सुरक्षा और सामाजिक स्थिरता पर भी प्रभाव पड़ सकता है।

कृत्रिम मेधा के अनियंत्रित प्रयोग का एक और गंभीर पहलू है ‘एल्गोरिद्मिक पक्षपात’। विभिन्न शैक्षणिक अध्ययनों में यह पाया गया है कि यदि एआई मॉडल पक्षपाती डेटा पर आधारित होते हैं, तो उनके निर्णय भी पक्षपाती हो सकते हैं। इससे न्यायिक, प्रशासनिक और आर्थिक निर्णयों में असमानता उत्पन्न हो सकती है। उदाहरण के लिए, अंतरराष्ट्रीय शोध पत्रों में यह बताया गया है कि कुछ एआई आधारित प्रणालियों ने रोजगार चयन और ऋण वितरण में भेदभावपूर्ण परिणाम दिए, जिससे सामाजिक असमानता बढ़ी।

इन सभी चुनौतियों के बावजूद यह कहना उचित नहीं होगा कि कृत्रिम मेधा स्वयं में हानिकारक है। समस्या इसका अनियंत्रित और अनियमित उपयोग है। यदि इस तकनीक को उचित नीति, नियमन और नैतिक मानकों के साथ विकसित किया जाए, तो यह लोकतंत्र को मजबूत करने में भी सहायक हो सकती है। उदाहरण के लिए, पारदर्शिता बढ़ाने, भ्रष्टाचार कम करने और प्रशासनिक दक्षता सुधारने में एआई का उपयोग सकारात्मक परिणाम दे सकता है।

भारत सरकार ने भी इस दिशा में कुछ महत्वपूर्ण कदम उठाए हैं। इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय द्वारा जारी दिशा-निर्देशों में एआई के जिम्मेदार उपयोग पर जोर दिया गया है। इसके अलावा ‘डिजिटल पर्सनल डेटा प्रोटेक्शन अधिनियम 2023’ के माध्यम से डेटा सुरक्षा और निजता की रक्षा के लिए कानूनी ढाँचा तैयार किया गया है। नीति आयोग द्वारा जारी राष्ट्रीय एआई रणनीति में भी नैतिकता, समावेशिता और पारदर्शिता को प्रमुख सिद्धांतों के रूप में शामिल किया गया है।

अंततः यह स्पष्ट है कि कृत्रिम मेधा का अनियंत्रित प्रयोग लोकतंत्र और शांति व्यवस्था के लिए गंभीर खतरा उत्पन्न कर सकता है। यह खतरा केवल तकनीकी नहीं बल्कि सामाजिक, राजनीतिक और नैतिक भी है। इसलिए आवश्यक है कि इस तकनीक के विकास और उपयोग में संतुलन, संवेदनशीलता और सतर्कता बरती जाए। नीति निर्माण, तकनीकी विकास और सामाजिक जागरूकता के समन्वय से ही इस चुनौती का समाधान संभव है।

जब तकनीक तरंगित तरक्की का प्रतीक बनती है, तब उसका संयमित संचालन ही समाज को स्थिरता प्रदान करता है। यदि कृत्रिम मेधा को मर्यादा, नैतिकता और नियमों के दायरे में रखा जाए, तो यह मानवता के लिए वरदान सिद्ध हो सकती है, अन्यथा यह लोकतंत्र की नींव को कमजोर करने वाला अदृश्य संकट भी बन सकती है। इसलिए आज समय की सबसे बड़ी मांग यही है कि हम तकनीकी विकास के साथ-साथ उसके दुष्प्रभावों को भी समझें और एक संतुलित, सुरक्षित और समावेशी डिजिटल भविष्य का निर्माण करें।

— डॉ. शैलेश शुक्ला

डॉ. शैलेश शुक्ला

राजभाषा अधिकारी एनएमडीसी [भारत सरकार का एक उपक्रम] प्रशासनिक कार्यालय, डीआईओएम, दोणीमलै टाउनशिप जिला बेल्लारी - 583118 मो.-8759411563