जनरेटिव एआई कैसे साइबर सुरक्षा में मदद और नुकसान पहुंचा सकता है

आपके सोशल मीडिया फ़ीड पर अनगिनत समाचार लेखों और पोस्ट से लेकर आपके पसंदीदा सॉफ़्टवेयर में निर्मित सभी नए टूल तक, कृत्रिम बुद्धिमत्ता हर जगह है। हालांकि तकनीक नई नहीं है, जेनेरिक एआई ने नवंबर 2022 में चैटजीपीटी की रिलीज के साथ हाल ही में चर्चा पैदा की है, जो एक बड़ा भाषा मॉडल (एलएलएम) है जो उपयोगकर्ताओं के लिए विभिन्न परिणाम उत्पन्न करने के लिए त्वरित इंजीनियरिंग का उपयोग करता है। चैटजीपीटी के जारी होने के लगभग तुरंत बाद, Google के बार्ड और माइक्रोसॉफ्ट के कोपायलट जैसे समान जेनरेटर एआई टूल लॉन्च किए गए, और सामग्री, वीडियो, फोटोग्राफी, कोड और बहुत कुछ उत्पन्न करने के लिए एआई का उपयोग करना जंगल की आग की तरह फैल गया है।
जैसे-जैसे एआई की लोकप्रियता बढ़ी है, प्रौद्योगिकी के उपयोग से जुड़े जोखिमों के बारे में चिंताएं उठाई जा रही हैं। साइबर अपराधियों ने पहले से ही विभिन्न एआई उपकरणों से डेटा को बाहर निकालने के तरीके ढूंढ लिए हैं, जिसमें वॉर्मजीपीटी जैसे प्लेटफ़ॉर्म का उपयोग करना शामिल है, एक एआई मॉडल जो मैलवेयर निर्माण डेटा पर प्रशिक्षित है और इसका उपयोग गलत इरादे या दुर्भावनापूर्ण कोड उत्पन्न करने के लिए किया जाता है। जेनरेटिव एआई सुरक्षा अब क्यों मायने रखती है आर्टिफिशियल इंटेलिजेंस 1960 के दशक में जोसेफ वेइज़ेनबाम द्वारा विकसित पहले एआई चैटबॉट, एलिज़ा के निर्माण के साथ शुरू हुआ। तो 50 से अधिक वर्षों के बाद अब जेनेरिक एआई इतना लोकप्रिय क्यों है? 2022 के अंत में चैटजीपीटी की शुरूआत ने जेनरेटिव एआई के विकास को गति दी और दुनिया को शक्तिशाली टूल तक पहुंच प्रदान की। कई सॉफ्टवेयर निगम अपने स्वयं के एआई प्रोग्राम विकसित कर रहे हैं, इन उपकरणों के जारी होने पर सुरक्षा टीमें सतर्क हो सकती हैं और उन्हें पता नहीं होगा कि उनके द्वारा प्रस्तुत जोखिमों का मुकाबला कैसे किया जाए। Microsoft Copilot, जो वर्तमान में प्रारंभिक-पहुंच चरण में है, को अपने LLM डिज़ाइन के अलावा आपके संगठन को सीखने का भी लाभ मिलता है।
कुछ उपयोग के मामलों में कोपायलट आपकी टीम मीटिंग में शामिल होना और वास्तविक समय में नोट्स लेना, आउटलुक में ईमेल को ट्राइएज करने और उत्तर बनाने में मदद करना और यहां तक कि आपके लिए एक्सेल में कच्चे डेटा का विश्लेषण करना भी शामिल है। कोपायलट को ग्रह पर सबसे शक्तिशाली उत्पादकता उपकरण कहा जा रहा है, और यदि आपने कभी जेन एआई टूल का उपयोग किया है, तो आप शायद देख सकते हैं कि इसे ऐसा क्यों कहा जा रहा है। कल्पना करें कि आपके पास एक छोटा चैटजीपीटी है जो आपके सभी ऑफिस ऐप्स जैसे वर्ड, पावरपॉइंट, एक्सेल और माइक्रोसॉफ्ट टीम्स में बनाया गया है। कोपायलट की क्षमताओं के अलावा, जनरल एआई टूल के कई पहलू हैं जिनसे सुरक्षा टीमें लाभान्वित हो सकती हैं, जिसमें साइबर सुरक्षा संचालन, खतरे का पता लगाना और रक्षा तंत्र को बढ़ाना शामिल है। जेनरेटिव एआई ब्लू टीम डिफेंडर्स के अन्य लाभकारी उपयोग: जिस तरह एक खतरा पैदा करने वाला व्यक्ति नुकसान के लिए एआई टूल्स का उपयोग कर सकता है, उसी तरह व्यवसाय उन्हें अच्छे के लिए उपयोग कर सकते हैं। मैलवेयर विश्लेषण: जेनरेटिव एआई ज्ञात मैलवेयर नमूनों के वेरिएंट तैयार करने में सहायता कर सकता है, साइबर सुरक्षा पेशेवरों को अधिक व्यापक मैलवेयर पहचान और विश्लेषण प्रणाली बनाने में सहायता कर सकता है। धोखे और हनीपोट: जेनरेटिव एआई यथार्थवादी डिकॉय सिस्टम या हनीपोट बनाने में मदद कर सकता है जो हमलावरों को आकर्षक लगते हैं। यह सुरक्षा टीमों को हमले की तकनीकों की निगरानी और विश्लेषण करने, खतरे की खुफिया जानकारी इकट्ठा करने और हमलावरों को वास्तविक संपत्ति से दूर करने की अनुमति देता है। स्वचालित प्रतिक्रिया पीढ़ी: जब किसी हमले का पता चलता है, तो जेनरेटिव एआई खतरे को कम करने के लिए स्वचालित प्रतिक्रिया उत्पन्न करने में सहायता कर सकता है। इसमें फ़ायरवॉल नियम बनाना, जवाबी उपाय लागू करना और समझौता किए गए सिस्टम को अलग करना शामिल हो सकता है।
यह खतरों पर प्रतिक्रिया देने वाले विश्लेषकों के लिए भी समय बचाने में मदद कर सकता है। अनुकूली सुरक्षा उपाय: जेनरेटिव एआई ऐसे सुरक्षा तंत्र विकसित करने में सहायता कर सकता है जो उभरते खतरों के अनुकूल हों। नई आक्रमण तकनीकों से लगातार सीखकर, ये प्रणालियाँ समय के साथ अपनी रक्षा रणनीतियों को विकसित और सुधार सकती हैं। हमलों की कल्पना करना: जेनरेटिव एआई जटिल हमले के पैटर्न और व्यवहार को देखने में सहायता कर सकता है, जिससे सुरक्षा विश्लेषकों के लिए यह समझना आसान हो जाता है कि हमलों को कैसे अंजाम दिया जाता है और उन पैटर्न की पहचान करना जो तुरंत स्पष्ट नहीं हो सकते हैं। हर कहानी के दो पहलू होते हैं। जबकि जेनरेटिव एआई ऊपर सूचीबद्ध लाभों के अलावा कई लाभ प्रदान करता है, टूल से जुड़ी चुनौतियाँ और जोखिम भी हैं। साइबर सुरक्षा में एआई के दुर्भावनापूर्ण पक्ष का मुकाबला करते हुए जेनेरेटिव एआई कई सुरक्षा जोखिम पेश करता है जिन पर प्रौद्योगिकी को लागू करने और उपयोग करते समय सावधानीपूर्वक विचार करने की आवश्यकता होती है। फॉरेस्टर द्वारा किए गए शोध के अनुसार, एआई अपनाने वाली कंपनियों के लिए सुरक्षा एक बड़ी बाधा है, 64 प्रतिशत उत्तरदाताओं ने बताया कि वे नहीं जानते कि जेनरेटिव एआई टूल की सुरक्षा का मूल्यांकन कैसे किया जाए। Microsoft Copilot की शीर्ष चिंताओं में से एक यह है कि इसका सुरक्षा मॉडल अनुमतियों का उपयोग कैसे करता है और उपयोगकर्ता उन सभी फ़ाइलों और सूचनाओं तक कैसे पहुंच सकता है। समस्या यह है कि किसी संगठन में अधिकांश उपयोगकर्ताओं के पास पहले से ही जानकारी तक बहुत अधिक पहुंच है जो उन्हें नहीं मिलनी चाहिए। जैसे-जैसे एआई उपकरणों को अपनाने का विकास होगा, मनुष्य आलसी हो जाएंगे और संभावित रूप से सुरक्षा जांच करने के लिए एआई पर अत्यधिक भरोसा करेंगे जो उन्हें करना चाहिए। उदाहरण के लिए, कोई कर्मचारी Microsoft Copilot को मौजूदा दस्तावेज़ों और मीटिंग नोट्स का उपयोग करके एक प्रस्ताव तैयार करने के लिए कह सकता है, जिससे किसी कर्मचारी के काम के घंटे समाप्त हो जाएंगे। हो सकता है कि वे परिणाम को नज़रअंदाज़ कर दें और सोचें कि यह ठीक है, लेकिन मूल दस्तावेज़ से संवेदनशील जानकारी चुपचाप इसमें आ सकती है इसकी पूरी तरह से समीक्षा नहीं की गई है। मांग पर जेनरेटिव एआई साइबर हमले अभियानों से जुड़े अन्य जोखिम: हमलावर मैलवेयर, फ़िशिंग अभियानों या अन्य साइबर खतरों के निर्माण को स्वचालित करने के लिए जेनेरेटिव एआई का उपयोग कर सकते हैं, जिससे हमलों को स्केल करना और लॉन्च करना आसान हो जाता है। कोई टूल-प्रूफ़िंग नहीं: एआई टूल में गलत या दुर्भावनापूर्ण आउटपुट उत्पन्न करने के लिए हेरफेर किए जाने का जोखिम भी होता है। उत्पाद के अनुचित उपयोग से निपटने में मदद करने के लिए कुछ एआई टूल में नैतिक मानक हैं, लेकिन खतरे वाले अभिनेताओं ने उनके आसपास के तरीके ढूंढ लिए हैं। संवेदनशील जानकारी लीक करना: जेनरेटिव एआई मॉडल अक्सर बड़े डेटासेट से सीखते हैं, जिसमें साझा की गई जानकारी के आधार पर संवेदनशील डेटा हो सकता है। यदि ठीक से प्रबंधन नहीं किया गया, तो उत्पन्न आउटपुट के माध्यम से अनजाने में गोपनीय जानकारी प्रकट होने का जोखिम है।
एआई मॉडल इस जानकारी को भी संग्रहीत कर सकते हैं, जिससे आपका संवेदनशील डेटा विभिन्न एआई टूल के साथ आपके उपयोगकर्ता खाते तक पहुंचने वाले किसी भी व्यक्ति के लिए पहुंच योग्य हो सकता है। बौद्धिक संपदा की चोरी: जेनरेटिव मॉडल अक्सर सार्वजनिक रूप से उपलब्ध जानकारी की भारी मात्रा को खींच लेते हैं, जिसमें उजागर स्वामित्व डेटा भी शामिल है। एक वास्तविक जोखिम है कि जेनरेटिव एआई दूसरों के बौद्धिक संपदा अधिकारों का उल्लंघन कर सकता है और मुकदमों के अधीन हो सकता है। पहचान जोखिम और डीपफेक: जेनेरेटिव एआई का उपयोग विश्वसनीय नकली चित्र, वीडियो या ऑडियो क्लिप बनाने के लिए किया जा सकता है, जिससे पहचान की चोरी, प्रतिरूपण और डीपफेक सामग्री का निर्माण होता है जो गलत सूचना फैला सकता है। उपकरण फ़िशिंग अभियानों को अधिक मानवीय बना सकते हैं और उनके लक्ष्य के लिए आकर्षक बना सकते हैं।
पोप की Balenciaga जैकेट पहने हुए एक छवि वायरल होने से पहले ही वायरल हो गई थी, यह दावा किया गया था कि यह छवि AI टूल का उपयोग करके बनाई गई थी, जिससे यह साबित होता है कि AI इमेजरी और डीपफेक वीडियो के विश्वसनीय होने की संभावना अब तक के उच्चतम स्तर पर है। एआई खेल मैदान को आत्मविश्वास से नेविगेट करें यदि आप एआई के आसपास सुरक्षा उपायों को लागू करना शुरू करने के लिए डेटा उल्लंघन होने तक प्रतीक्षा करते हैं, तो आप पीछे से आ रहे होंगे। जेनेरिक एआई का उपयोग करने वाले कर्मचारियों की चिंताओं को दूर करने के लिए नेताओं द्वारा उठाए जाने वाले पहले कदमों में से एक यह है कि उन्हें इस बात पर उचित रूप से प्रशिक्षित किया जाए कि क्या साझा करना स्वीकार्य है और क्या नहीं।
उदाहरण के लिए, कुछ लोगों को ChatGPT प्रॉम्प्ट में ग्राहक डेटा शामिल करना हानिरहित लग सकता है, लेकिन यह ठीक उसी प्रकार की कार्रवाई है जो धमकी देने वाले अभिनेता आपके कर्मचारियों से करने की उम्मीद कर रहे हैं। आपकी कंपनी को खतरे में डालने के लिए बस एक कर्मचारी की नकली चैटजीपीटी साइट तक पहुंच और संवेदनशील जानकारी दर्ज करना काफी है। जैसे ही नए जेनरेटिव एआई उपकरण जारी होते हैं, कंपनियों को अपनी टीमों को शिक्षित करना चाहिए कि उनका सही तरीके से उपयोग कैसे किया जाए और सुरक्षा संबंधी चिंताओं के बारे में पता चलने पर उन्हें जागरूक रहना चाहिए। डेटा सुरक्षा प्लेटफ़ॉर्म (डीएसपी) होने से कर्मचारियों को संवेदनशील डेटा तक पहुंच से भी रोका जा सकता है जो उन्हें नहीं मिलना चाहिए। अंत में, इस बात से इनकार नहीं किया जा सकता कि एआई ने दुनिया में तूफान ला दिया है और आने वाले वर्षों में प्रौद्योगिकी का विकास जारी रहेगा। एआई के लाभों और जोखिमों को समझना, एआई उपकरणों को सुरक्षित और प्रभावी ढंग से उपयोग करने के बारे में कर्मचारियों को प्रशिक्षण देना और कौन सा डेटा साझा किया जा सकता है और क्या नहीं, इसके लिए स्पष्ट दिशानिर्देश निर्धारित करना उन संगठनों के लिए आवश्यक पहला कदम है जो एआई का सुरक्षित रूप से उपयोग करना चाहते हैं।
