अंत में, AI को विनियमित करना शुरू

कृत्रिम बुद्धिमत्ता (एआई) के अधिकांश मुख्यधारा अनुप्रयोग बड़ी मात्रा में डेटा को खंगालने, पैटर्न और रुझानों का पता लगाने की इसकी क्षमता का उपयोग करते हैं। परिणाम वित्तीय बाजारों और शहर के यातायात के भविष्य के व्यवहार की भविष्यवाणी करने में मदद कर सकते हैं, और लक्षण प्रकट होने से पहले बीमारी का निदान करने में डॉक्टरों की सहायता भी कर सकते हैं।

लेकिन एआई का उपयोग हमारे ऑनलाइन डेटा की गोपनीयता से समझौता करने, लोगों की नौकरियों को स्वचालित करने और सोशल मीडिया पर दुष्प्रचार की बाढ़ लाकर लोकतांत्रिक चुनावों को कमजोर करने के लिए भी किया जा सकता है। एल्गोरिदम को सुधारने के लिए उपयोग किए जाने वाले वास्तविक दुनिया के डेटा से पूर्वाग्रह प्राप्त हो सकते हैं, जो उदाहरण के लिए, भर्ती के दौरान भेदभाव का कारण बन सकता है।
एआई विनियमन नियमों का एक व्यापक सेट है जो बताता है कि इस तकनीक को कैसे विकसित किया जाना चाहिए और इसके संभावित नुकसान को दूर करने के लिए इसका उपयोग किया जाना चाहिए। ऐसा करने के कुछ मुख्य प्रयास यहां दिए गए हैं और वे कैसे भिन्न हैं।
ईयू एआई अधिनियम
यूरोपीय आयोग के एआई अधिनियम का उद्देश्य एआई में उद्यमशीलता और नवाचार को प्रोत्साहित करते हुए संभावित खतरों को कम करना है। हाल ही में बैलेचले पार्क में सरकारी शिखर सम्मेलन में घोषित यूके के एआई सेफ्टी इंस्टीट्यूट का लक्ष्य भी इस संतुलन को बनाए रखना है। यूरोपीय संघ का अधिनियम अस्वीकार्य जोखिम उठाने वाले एआई उपकरणों पर प्रतिबंध लगाता है। इस श्रेणी में “सामाजिक स्कोरिंग” के उत्पाद शामिल हैं, जहां लोगों को उनके व्यवहार और वास्तविक समय में चेहरे की पहचान के आधार पर वर्गीकृत किया जाता है। यह अधिनियम उच्च जोखिम वाले एआई को भी भारी रूप से प्रतिबंधित करता है। यह लेबल उन अनुप्रयोगों को कवर करता है जो सुरक्षा सहित मौलिक अधिकारों को नकारात्मक रूप से प्रभावित कर सकते हैं।
उदाहरणों में नियुक्ति प्रक्रियाओं, कानून प्रवर्तन और शिक्षा में उपयोग की जाने वाली स्वायत्त ड्राइविंग और एआई अनुशंसा प्रणाली शामिल हैं। इनमें से कई उपकरणों को EU डेटाबेस में पंजीकृत करना होगा। सीमित जोखिम श्रेणी में ChatGPT जैसे चैटबॉट या Dall-E जैसे छवि जनरेटर शामिल हैं। कुल मिलाकर, एआई डेवलपर्स को अपने एल्गोरिदम को “प्रशिक्षित” करने या सुधारने के लिए उपयोग किए जाने वाले सभी व्यक्तिगत डेटा की गोपनीयता की गारंटी देनी होगी और उनकी तकनीक कैसे काम करती है, इसके बारे में पारदर्शी होना होगा। हालाँकि, अधिनियम की प्रमुख कमियों में से एक यह है कि इसे व्यापक सार्वजनिक भागीदारी के बिना, मुख्य रूप से टेक्नोक्रेट द्वारा विकसित किया गया था।
एआई अधिनियम के विपरीत, हालिया बैलेचले घोषणा अपने आप में एक नियामक ढांचा नहीं है, बल्कि अंतरराष्ट्रीय सहयोग के माध्यम से इसे विकसित करने का आह्वान है। 2023 एआई सुरक्षा शिखर सम्मेलन, जिसने घोषणा तैयार की, को एक कूटनीतिक सफलता के रूप में सराहा गया क्योंकि इसने दुनिया के राजनीतिक, वाणिज्यिक और वैज्ञानिक समुदायों को एक संयुक्त योजना पर सहमत होने के लिए प्रेरित किया जो यूरोपीय संघ अधिनियम को प्रतिध्वनित करता है।
अमेरिका और चीन
उत्तरी अमेरिका (विशेषकर अमेरिका) और चीन की कंपनियां वाणिज्यिक एआई परिदृश्य पर हावी हैं। उनके अधिकांश यूरोपीय प्रधान कार्यालय यूके में स्थित हैं। अमेरिका और चीन नियामक क्षेत्र में पैर जमाने के लिए प्रतिस्पर्धा कर रहे हैं। अमेरिकी राष्ट्रपति जो बिडेन ने हाल ही में एक कार्यकारी आदेश जारी किया, जिसमें एआई निर्माताओं को संघीय सरकार को साइबर हमलों के प्रति अपने अनुप्रयोगों की भेद्यता का आकलन, एआई को प्रशिक्षित करने और परीक्षण करने के लिए उपयोग किया जाने वाला डेटा और इसके प्रदर्शन माप प्रदान करने की आवश्यकता है।
अमेरिकी कार्यकारी आदेश अंतरराष्ट्रीय प्रतिभाओं को आकर्षित करके नवाचार और प्रतिस्पर्धा को बढ़ावा देने के लिए प्रोत्साहन देता है। यह अमेरिकी कार्यबल के भीतर एआई कौशल विकसित करने के लिए शैक्षिक कार्यक्रम स्थापित करने को अनिवार्य बनाता है। यह सरकारी और निजी कंपनियों के बीच साझेदारी के लिए राज्य वित्त पोषण भी आवंटित करता है। नियुक्ति, बंधक आवेदन और अदालती सजा में एआई के उपयोग के कारण होने वाले भेदभाव जैसे जोखिमों को अमेरिकी कार्यकारी विभागों के प्रमुखों को मार्गदर्शन प्रकाशित करने की आवश्यकता के द्वारा संबोधित किया जाता है। इससे यह पता चलेगा कि संघीय अधिकारियों को उन क्षेत्रों में एआई के उपयोग की निगरानी कैसे करनी चाहिए।
चीनी एआई विनियम जेनेरिक एआई और डीप फेक (कृत्रिम रूप से निर्मित छवियां और वीडियो जो वास्तविक लोगों की उपस्थिति और आवाज की नकल करते हैं लेकिन ऐसी घटनाओं को व्यक्त करते हैं जो कभी घटित नहीं हुई) के खिलाफ सुरक्षा में काफी रुचि दिखाते हैं। एआई अनुशंसा प्रणालियों को विनियमित करने पर भी ज़ोर दिया गया है। यह एल्गोरिदम को संदर्भित करता है जो लोगों की ऑनलाइन गतिविधि का विश्लेषण करके यह निर्धारित करता है कि विज्ञापनों सहित कौन सी सामग्री को उनके फ़ीड के शीर्ष पर रखा जाए।
जनता को अनुचित या भावनात्मक रूप से हानिकारक समझी जाने वाली सिफारिशों से बचाने के लिए, चीनी नियम फर्जी खबरों पर प्रतिबंध लगाते हैं और कंपनियों को गतिशील मूल्य निर्धारण (व्यक्तिगत डेटा खनन के आधार पर आवश्यक सेवाओं के लिए उच्च प्रीमियम निर्धारित करना) लागू करने से रोकते हैं। वे यह भी आदेश देते हैं कि सभी स्वचालित निर्णय-प्रक्रिया उन लोगों के लिए पारदर्शी होनी चाहिए जो इसे प्रभावित करते हैं।
अनसुने मुद्दे
विनियामक प्रयास राष्ट्रीय संदर्भों से प्रभावित होते हैं, जैसे साइबर-रक्षा के बारे में अमेरिका की चिंता, निजी क्षेत्र पर चीन का गढ़ और यूरोपीय संघ और ब्रिटेन के जोखिम न्यूनीकरण के साथ नवाचार समर्थन को संतुलित करने के प्रयास। नैतिक, सुरक्षित और भरोसेमंद एआई को बढ़ावा देने के अपने प्रयासों में, दुनिया के ढांचे को समान चुनौतियों का सामना करना पड़ता है।
प्रमुख शब्दावली की कुछ परिभाषाएँ अस्पष्ट हैं और प्रभावशाली हितधारकों के एक छोटे समूह के इनपुट को दर्शाती हैं। इस प्रक्रिया में आम जनता का प्रतिनिधित्व कम किया गया है। तकनीकी कंपनियों की महत्वपूर्ण राजनीति को लेकर नीति निर्माताओं को सतर्क रहने की जरूरत हैएल पूंजी. नियामक चर्चाओं में उन्हें शामिल करना महत्वपूर्ण है, लेकिन इन शक्तिशाली पैरवीकारों पर स्वयं पुलिस का भरोसा करना मूर्खतापूर्ण होगा। एआई अर्थव्यवस्था के ढांचे में अपनी जगह बना रहा है, वित्तीय निवेशों को सूचित कर रहा है, राष्ट्रीय स्वास्थ्य देखभाल और सामाजिक सेवाओं को रेखांकित कर रहा है और हमारी मनोरंजन प्राथमिकताओं को प्रभावित कर रहा है। इसलिए, जो कोई भी प्रमुख नियामक ढांचा स्थापित करता है, उसके पास शक्ति के वैश्विक संतुलन को बदलने की क्षमता भी होती है।
महत्वपूर्ण मुद्दे अनसुलझे रह जाते हैं। उदाहरण के लिए, नौकरी स्वचालन के मामले में, पारंपरिक ज्ञान सुझाव देगा कि डिजिटल प्रशिक्षुता और पुनर्प्रशिक्षण के अन्य रूप कार्यबल को डेटा वैज्ञानिकों और एआई प्रोग्रामर में बदल देंगे। लेकिन कई उच्च कुशल लोगों की सॉफ्टवेयर विकास में रुचि नहीं हो सकती है।
चूँकि दुनिया एआई द्वारा उत्पन्न जोखिमों और अवसरों से निपट रही है, ऐसे में हम इस तकनीक के जिम्मेदार विकास और उपयोग को सुनिश्चित करने के लिए सकारात्मक कदम उठा सकते हैं। नवाचार का समर्थन करने के लिए, नव विकसित एआई सिस्टम उच्च जोखिम वाली श्रेणी में शुरू हो सकते हैं – जैसा कि ईयू एआई अधिनियम द्वारा परिभाषित किया गया है – और जैसे ही हम उनके प्रभावों का पता लगाते हैं, उन्हें कम जोखिम वाली श्रेणियों में पदावनत किया जा सकता है। नीति निर्माता दवाओं और परमाणु जैसे अत्यधिक विनियमित उद्योगों से भी सीख सकते हैं। वे सीधे तौर पर एआई के अनुरूप नहीं हैं, लेकिन अर्थव्यवस्था के इन सुरक्षा-महत्वपूर्ण क्षेत्रों को नियंत्रित करने वाले कई गुणवत्ता मानक और परिचालन प्रक्रियाएं उपयोगी अंतर्दृष्टि प्रदान कर सकती हैं।
अंत में, एआई से प्रभावित सभी लोगों के बीच सहयोग आवश्यक है। नियमों को आकार देने का काम केवल टेक्नोक्रेट पर नहीं छोड़ा जाना चाहिए। आम जनता को ऐसी तकनीक पर नियंत्रण की आवश्यकता है जो उनके व्यक्तिगत और व्यावसायिक जीवन पर गहरा प्रभाव डाल सके।
By Alina Patelli
Telangana Today