Global powers are grappling with 'responsible' use of military AI. What would that look like?
श्रेय: वायु सेना टेक।सार्जेंटतेरी आयशर

पिछले सप्ताह, दुनिया भर के लगभग 2,000 सरकारी अधिकारी और विशेषज्ञ इसके लिए मिलेपुनः प्राप्त करें(सैन्य क्षेत्र में जिम्मेदार कृत्रिम बुद्धिमत्ता) सियोल, दक्षिण कोरिया में शिखर सम्मेलन।यह अपनी तरह का दूसरा आयोजन था, पहला आयोजन फरवरी 2023 में नीदरलैंड में हुआ था।

इस वर्ष के दौरान,61 देशों ने "कार्रवाई के लिए ब्लूप्रिंट" का समर्थन कियासेना द्वारा कृत्रिम बुद्धिमत्ता (एआई) के विकास और उपयोग को नियंत्रित करने के लिए।

हालाँकि, 30 देशों ने शिखर सम्मेलन में अपने सरकारी प्रतिनिधि भेजे लेकिन ब्लूप्रिंट का समर्थन नहीं किया,चीन सहित.

खाका एक महत्वपूर्ण, भले ही मामूली, विकास है।लेकिन एआई का जिम्मेदार उपयोग क्या है और यह सैन्य क्षेत्र में ठोस कार्रवाइयों में कैसे तब्दील होता है, इसकी समझ में अभी भी अंतर है।

वर्तमान में सैन्य संदर्भों में AI का उपयोग कैसे किया जाता है?

पिछले कुछ वर्षों में एआई का सैन्य उपयोग बढ़ा है, विशेष रूप से रूस-यूक्रेन और इज़राइल-फिलिस्तीन संघर्षों में।

इज़राइल ने प्रमुख सैन्य निर्णय लेने में मदद करने के लिए "गॉस्पेल" और "लैवेंडर" नामक एआई-सक्षम प्रणालियों का उपयोग किया है, जैसे कि किन स्थानों और लोगों को बम से निशाना बनाना है।सिस्टमबड़ी मात्रा में डेटा का उपयोग करें, लोगों सहितपते, फ़ोन नंबर और चैट समूहों की सदस्यता.

"लैवेंडर" प्रणाली विशेष रूप से इस वर्ष की शुरुआत में सुर्खियों में आई जब आलोचकों ने इसकी प्रभावकारिता और वैधता पर सवाल उठाया।इसके प्रशिक्षण डेटा और को लेकर विशेष चिंता थीइसने लक्ष्यों को कैसे वर्गीकृत किया.

रूस और यूक्रेन दोनों भीसैन्य निर्णय लेने में सहायता के लिए एआई का उपयोग करें.सैटेलाइट इमेजरी, सोशल मीडिया सामग्री और ड्रोन निगरानी कई सूचना स्रोतों में से कुछ हैं जो प्रचुर मात्रा में डेटा उत्पन्न करते हैं।

एआई इस डेटा का विश्लेषण इंसानों की तुलना में कहीं अधिक तेजी से कर सकता है।परिणाम मौजूदा "किल चेन" में शामिल किए गए हैंलक्ष्य का पता लगाने, ट्रैकिंग, लक्ष्यीकरण और लक्ष्यीकरण की प्रक्रिया.

इसका मतलब हैसक्रिय सशस्त्र संघर्ष के दौरान सामरिक लाभ प्रदान करते हुए तेजी से निर्णय ले सकता है।हालाँकि, AI सिस्टम के दुरुपयोग से संभावित नुकसान भी हो सकता है।

नागरिक समाज और रेड क्रॉस की अंतर्राष्ट्रीय समिति जैसे गैर-सरकारी संगठनों ने जोखिमों के बारे में चेतावनी दी है।उदाहरण के लिए, एल्गोरिथम पूर्वाग्रह हो सकता हैनागरिकों के लिए ख़तरा बढ़ाएँसक्रिय युद्ध के दौरान.

सैन्य क्षेत्र में जिम्मेदार AI क्या है?

इस बात पर कोई सहमति नहीं है कि "जिम्मेदार" एआई क्या है।

कुछ शोधकर्ता तर्क देते हैंप्रौद्योगिकी स्वयं जिम्मेदार हो सकती है.इस मामले में, "जिम्मेदार" का अर्थ अंतर्निहित निष्पक्षता और पूर्वाग्रह से मुक्ति होगा।

अन्य अध्ययनों का उल्लेख हैएआई के आसपास की प्रथाएंâजैसे डिज़ाइन, विकास और उपयोग-जिम्मेदार होना।इसका मतलब ऐसी प्रथाएँ होंगी जो वैध, पता लगाने योग्य, विश्वसनीय हों और पूर्वाग्रह को कम करने पर केंद्रित हों।

सियोल में हाल के शिखर सम्मेलन में अनुमोदित ब्लूप्रिंट बाद की व्याख्या के अनुरूप है।यह इस बात की वकालत करता है कि सेना में एआई का उपयोग करने वाले किसी भी व्यक्ति को प्रासंगिक राष्ट्रीय और अंतर्राष्ट्रीय कानूनों का पालन करना चाहिए।

यह भी उजागर करता हैमानवीय भूमिकाओं का महत्वसैन्य क्षेत्र में एआई के विकास, तैनाती और उपयोग में।इसमें यह सुनिश्चित करना शामिल है कि मानवीय निर्णय और बल के उपयोग पर नियंत्रण को जिम्मेदारीपूर्वक और सुरक्षित रूप से प्रबंधित किया जाए।

यह एक महत्वपूर्ण अंतर है, क्योंकि एआई के इर्द-गिर्द कई आख्यान मानवीय भागीदारी और जिम्मेदारी की अनुपस्थिति को झूठा बताते हैं।

सैन्य AI का जिम्मेदारीपूर्वक उपयोग करने के लिए सरकारें क्या कर सकती हैं?

शिखर सम्मेलन में चर्चाएं सैन्य एआई के जिम्मेदार उपयोग का समर्थन करने के लिए सरकारों द्वारा उठाए जा सकने वाले ठोस कदमों पर केंद्रित थीं।

चूंकि सैन्य एआई का उपयोग वर्तमान में बढ़ रहा है, इसलिए हमें इससे निपटने के लिए अंतरिम कदमों की आवश्यकता है।एक सुझाव यह था कि वैश्विक, सार्वभौमिक सहमति तक पहुंचने में अधिक समय लेने के बजाय विभिन्न क्षेत्रों में एआई विनियमन समझौते किए जाएं।

सुधार करने के लिएसैन्य एआई पर, हम पिछली वैश्विक चुनौतियों से सबक भी ले सकते हैं - जैसे परमाणु अप्रसार, ओजोन परत को बचाना और बाहरी अंतरिक्ष और अंटार्कटिका को विसैन्यीकृत रखना।

पिछले साल उद्घाटन शिखर सम्मेलन के अठारह महीने बाद, सरकारों और अन्य जिम्मेदार दलों ने जोखिम-शमन प्रक्रियाओं को लागू करना शुरू कर दिया हैसैन्य एआई के लिए टूलकिट.

ब्लूप्रिंट तब से अब तक हुई प्रगति और शिखर सम्मेलन में चर्चा किए गए विचारों को दर्शाता है।यह कई ठोस कदमों का प्रस्ताव करता है, जिसमें शामिल हैं:

  • एआई-सक्षम सैन्य क्षमताओं के लिए सार्वभौमिक कानूनी समीक्षा
  • राष्ट्रीय, क्षेत्रीय और अंतर्राष्ट्रीय स्तर पर सैन्य क्षेत्र में जिम्मेदार एआई सुनिश्चित करने के लिए विकासशील उपायों पर बातचीत को बढ़ावा देना
  • सैन्य क्षेत्र में एआई के विकास, तैनाती और उपयोग में उचित मानवीय भागीदारी बनाए रखना।

हालाँकि, प्रगति धीमी है क्योंकि हमें अभी भी इस बात की सार्वभौमिक समझ नहीं है कि जिम्मेदार सैन्य एआई वास्तव में कैसा दिखता है।

इन मुद्दों को सुलझाने की आवश्यकता अब अगले शिखर सम्मेलन (अभी तक घोषित नहीं) पर दबाव डाल रही है।नीदरलैंड ने भी किया हैएक विशेषज्ञ निकाय स्थापित करेंसैन्य एआई के लिए विश्व स्तर पर सुसंगत दृष्टिकोण को आगे बढ़ाने के लिए।

एआई टूल्स से मानवता को फायदा हो सकता है।लेकिन हमें तत्काल यह सुनिश्चित करने की आवश्यकता है कि उनके द्वारा उत्पन्न जोखिम न बढ़ें, खासकर सैन्य क्षेत्र में।

यह आलेख से पुनः प्रकाशित किया गया हैबातचीतक्रिएटिव कॉमन्स लाइसेंस के तहत।को पढ़िएमूल लेख.The Conversation

उद्धरण:वैश्विक शक्तियां सैन्य एआई के 'जिम्मेदाराना' इस्तेमाल से जूझ रही हैं।वो कैसा लगता है?(2024, 17 सितंबर)17 सितंबर 2024 को पुनः प्राप्तhttps://techxplore.com/news/2024-09-global-powers-grappling-responsible-military.html से

यह दस्तावेज कॉपीराइट के अधीन है।निजी अध्ययन या अनुसंधान के उद्देश्य से किसी भी निष्पक्ष व्यवहार के अलावा, नहींलिखित अनुमति के बिना भाग को पुन: प्रस्तुत किया जा सकता है।सामग्री केवल सूचना के प्रयोजनों के लिए प्रदान की गई है।