artificial intelligence
श्रेय: पिक्साबे/सीसी0 पब्लिक डोमेन

दशकों से, सेना ने खदानों, टॉरपीडो और गर्मी-निर्देशित मिसाइलों जैसे स्वायत्त हथियारों का उपयोग किया है जो मानव नियंत्रण के बिना सरल प्रतिक्रियाशील प्रतिक्रिया के आधार पर काम करते हैं।हालाँकि, कृत्रिम बुद्धिमत्ता (एआई) अब हथियार डिजाइन के क्षेत्र में प्रवेश कर चुकी है।

हार्वर्ड मेडिकल स्कूल में ब्लावाटनिक इंस्टीट्यूट में न्यूरोबायोलॉजी की एसोसिएट प्रोफेसर कनक राजन और उनकी टीम के अनुसार, एआई-संचालितयुद्ध में एक नए युग का प्रतिनिधित्व करते हैं और वैज्ञानिक प्रगति और बुनियादी अनुसंधान के लिए एक ठोस खतरा पैदा करते हैं।

राजन ने कहा, एआई-संचालित हथियार, जिनमें अक्सर ड्रोन या रोबोट शामिल होते हैं, सक्रिय रूप से विकसित और तैनात किए जा रहे हैं।वह उम्मीद करती है कि ऐसी तकनीक का प्रसार आसानी से होने के कारण समय के साथ वे अधिक सक्षम, परिष्कृत और व्यापक रूप से उपयोग किए जाएंगे।

जैसे ही ऐसा होता है, वह इस बात को लेकर चिंतित रहती है कि कैसे एआई-संचालित हथियार भू-राजनीतिक अस्थिरता का कारण बन सकते हैं और उनका विकास शिक्षा और उद्योग में गैर-सैन्य एआई अनुसंधान को कैसे प्रभावित कर सकता है।

राजन, न्यूरोबायोलॉजी में एचएमएस रिसर्च फेलो रिले सिमंस-एडलर और रयान बैडमैन और एमआईटी पीएच.डी. के साथ।छात्र शायने लोंगप्रे, अपनी केंद्रीय चिंताओं और आगे के रास्ते को रेखांकित करते हैंस्थिति पत्र प्रकाशितऔर में प्रस्तुत किया गयामशीन लर्निंग पर 2024 अंतर्राष्ट्रीय सम्मेलन.

हार्वर्ड मेडिसिन न्यूज के साथ बातचीत में राजन ने बताया कि क्यों उन्होंने और उनकी टीम ने एआई-पावर्ड के विषय की जांच करने का फैसला किया, वे किसे सबसे बड़े जोखिम के रूप में देखते हैं, और वे सोचते हैं कि आगे क्या होना चाहिए।

आप एक कम्प्यूटेशनल न्यूरोसाइंटिस्ट हैं जो मानव और पशु मस्तिष्क के संदर्भ में एआई का अध्ययन करते हैं।आखिर आपने एआई-संचालित स्वायत्त हथियारों के बारे में कैसे सोचा?

हमने वसंत 2023 में प्रसारित होने वाली कृत्रिम सामान्य बुद्धि के बारे में कई सर्वनाशकारी भविष्यवाणियों की प्रतिक्रिया में इस विषय पर विचार करना शुरू किया। हमने खुद से पूछा, अगर उन भविष्यवाणियों को वास्तव में अनुपात से बाहर कर दिया गया है, तो मानव समाज के लिए वास्तविक जोखिम क्या हैं?हमने देखा कि सेना एआई का उपयोग कैसे कर रही है और देखा कि सैन्य अनुसंधान और विकास वैश्विक प्रभाव वाले एआई-संचालित स्वायत्त हथियारों की प्रणाली के निर्माण पर जोर दे रहा है।

हमने महसूस किया कि अकादमिक एआई अनुसंधान समुदाय इन हथियारों के व्यापक विकास के परिणामों से अछूता नहीं रहेगा।सेनाओं के पास अक्सर बाहरी सलाह के बिना एआई तकनीक विकसित करने और तैनात करने के लिए पर्याप्त विशेषज्ञता की कमी होती है, इसलिए उन्हें अकादमिक और उद्योग एआई विशेषज्ञों के ज्ञान का लाभ उठाना चाहिए।यह शोधकर्ताओं और प्रशासकों के लिए महत्वपूर्ण नैतिक और व्यावहारिक प्रश्न उठाता है, अकादमिक अनुसंधान को वित्तपोषित करने वाले किसी भी बड़े निगम के समान।

आप सबसे बड़े जोखिमों के रूप में क्या देखते हैं क्योंकि एआई और मशीन लर्निंग को हथियारों में शामिल किया गया है?

एआई-संचालित हथियारों के विकास में कई जोखिम शामिल हैं, लेकिन तीन सबसे बड़े जोखिम जो हम देखते हैं वे हैं: पहला, ये हथियार देशों के लिए संघर्षों में शामिल होना कैसे आसान बना सकते हैं;दूसरा, इन हथियारों के विकास का समर्थन करने के लिए गैर-सैन्य वैज्ञानिक एआई अनुसंधान को कैसे सेंसर किया जा सकता है या सहयोजित किया जा सकता है;और तीसरा, निर्णय लेने में मानवीय जिम्मेदारी को कम करने या विचलित करने के लिए सेनाएं एआई-संचालित स्वायत्त तकनीक का उपयोग कैसे कर सकती हैं।

बिंदु एक पर, एक बड़ा निवारक जो राष्ट्रों को युद्ध शुरू करने से रोकता है, वह है सैनिकों का मरना - अपने नागरिकों के लिए मानवीय लागत जो नेताओं के लिए घरेलू परिणाम पैदा कर सकता है।एआई-संचालित हथियारों के वर्तमान विकास का उद्देश्य मानव सैनिकों को नुकसान के रास्ते से हटाना है, जो अपने आप में एक मानवीय बात है।हालाँकि, यदि आक्रामक युद्ध में कुछ सैनिक मर जाते हैं, तो यह युद्ध के कृत्यों और मानवीय लागत के बीच संबंध को कमजोर कर देता है, और युद्ध शुरू करना राजनीतिक रूप से आसान हो जाता है, जिसके परिणामस्वरूप समग्र रूप से अधिक मृत्यु और विनाश हो सकता है।इस प्रकार, एआई-संचालित हथियारों की होड़ बढ़ने और ऐसी तकनीक के आगे बढ़ने से बड़ी भू-राजनीतिक समस्याएं तेजी से उभर सकती हैं।

दूसरे बिंदु पर, हम परमाणु भौतिकी और रॉकेट विज्ञान जैसे शैक्षणिक क्षेत्रों के इतिहास को देख सकते हैं।जैसे ही शीत युद्ध के दौरान इन क्षेत्रों को महत्वपूर्ण रक्षा महत्व प्राप्त हुआ, शोधकर्ताओं ने यात्रा प्रतिबंध, प्रकाशन सेंसरशिप और बुनियादी कार्य करने के लिए सुरक्षा मंजूरी की आवश्यकता का अनुभव किया।जैसे-जैसे एआई-संचालित स्वायत्त तकनीक दुनिया भर में राष्ट्रीय रक्षा योजना के लिए केंद्रीय बन जाती है, हम गैर-सैन्य एआई अनुसंधान पर समान प्रतिबंध देख सकते हैं, जो बुनियादी एआई अनुसंधान, स्वास्थ्य देखभाल और वैज्ञानिक अनुसंधान में सार्थक नागरिक अनुप्रयोगों को काफी हद तक बाधित करेगा।.जिस गति से एआई अनुसंधान बढ़ रहा है और एआई-संचालित हथियारों पर अनुसंधान और विकास जोर पकड़ रहा है, उसे देखते हुए हम इसे एक तत्काल चिंता का विषय मानते हैं।

अंत में, यदि एआई-संचालित हथियार राष्ट्रीय रक्षा के लिए महत्वपूर्ण बन जाते हैं, तो हम इन हथियारों पर काम करने या अधिक "दोहरे उपयोग" परियोजनाओं को विकसित करने के लिए शिक्षा और उद्योग में एआई शोधकर्ताओं के प्रयासों को शामिल करने के बड़े प्रयास देख सकते हैं।यदि अधिक से अधिक एआई ज्ञान को सुरक्षा मंजूरी के पीछे बंद कर दिया जाना शुरू हो जाएगा, तो यह बौद्धिक रूप से हमारे क्षेत्र को अवरुद्ध कर देगा।कुछ कंप्यूटर वैज्ञानिक पहले से ही ऐसे कठोर प्रतिबंधों की मांग कर रहे हैं, लेकिन उनका तर्क इस तथ्य को खारिज करता है कि नई हथियार प्रौद्योगिकियां हमेशा एक बार विकसित होने के बाद तेजी से बढ़ती हैं।

आपको क्या लगता है कि एआई द्वारा उत्पन्न खतरों के बारे में सोचने वालों द्वारा हथियारों के डिजाइन को अपेक्षाकृत नजरअंदाज क्यों किया गया है?

एक कारण यह है कि यह एक नया और तेजी से बदलता परिदृश्य है: 2023 के बाद से, कई प्रमुख शक्तियों ने एआई-संचालित हथियारों को तेजी से और सार्वजनिक रूप से अपनाना शुरू कर दिया है।इसके अलावा, अलग-अलग एआई-संचालित हथियार प्रणालियां अलगाव में कम खतरनाक लग सकती हैं, जिससे सिस्टम और क्षमताओं के व्यापक संग्रह की तुलना में मुद्दों को नजरअंदाज करना आसान हो जाता है।

एक और चुनौती यह है कि तकनीकी कंपनियां अपने हथियार प्रणालियों में स्वायत्तता और मानवीय निरीक्षण की डिग्री के बारे में अपारदर्शी हैं।कुछ लोगों के लिए, मानवीय निरीक्षण का मतलब यह हो सकता है कि एआई हथियार इकाई द्वारा ब्लैक बॉक्स निर्णयों की एक लंबी श्रृंखला बनाने के बाद "गो किल" बटन दबाना, मानवीय समझ के बिना या सिस्टम के तर्क में त्रुटियों को पकड़ने में सक्षम होने के बिना।दूसरों के लिए, इसका मतलब यह हो सकता है कि मनुष्य के पास अधिक व्यावहारिक नियंत्रण है और वह मशीन की निर्णय लेने की प्रक्रिया की जाँच कर रहा है।

दुर्भाग्य से, जैसे-जैसे ये प्रणालियाँ अधिक जटिल और शक्तिशाली होती जाती हैं, और युद्ध में प्रतिक्रिया का समय तेज़ होना चाहिए, ब्लैक बॉक्स परिणाम के आदर्श बनने की अधिक संभावना है।इसके अलावा, एआई-संचालित स्वायत्त हथियारों पर "मानव-इन-द-लूप" देखने से शोधकर्ता यह सोच सकते हैं कि यह प्रणाली सैन्य मानकों के अनुसार नैतिक है, जबकि वास्तव में यह निर्णय लेने में मनुष्यों को सार्थक रूप से शामिल नहीं करती है।

सबसे जरूरी शोध प्रश्न क्या हैं जिनका उत्तर दिया जाना चाहिए?

जबकि एआई-संचालित हथियार बनाने के लिए अभी भी बहुत काम करने की आवश्यकता है, अधिकांश मुख्य एल्गोरिदम पहले ही प्रस्तावित किए जा चुके हैं या गैर-सैन्य अनुप्रयोगों से प्रेरित प्रमुख शैक्षणिक और उद्योग अनुसंधान का फोकस हैं - उदाहरण के लिए, स्व-ड्राइविंग वाहन।इसे ध्यान में रखते हुए, हमें वैज्ञानिकों और शोधकर्ताओं के रूप में इन प्रौद्योगिकियों के अनुप्रयोग को नैतिक रूप से निर्देशित करने और हमारे शोध पर सैन्य हित के प्रभावों को कैसे प्रबंधित किया जाए, इस पर अपनी जिम्मेदारी पर विचार करना चाहिए।

यदि दुनिया भर की सेनाओं का लक्ष्य युद्धक्षेत्र और सहायक भूमिकाओं के एक बड़े हिस्से को एआई-संचालित इकाइयों से बदलने का है, तो उन्हें अकादमिक और उद्योग विशेषज्ञों के समर्थन की आवश्यकता होगी।इससे सवाल उठता है कि सैन्य एआई क्रांति में विश्वविद्यालयों को क्या भूमिका निभानी चाहिए, किन सीमाओं को पार नहीं किया जाना चाहिए, और हथियारों में एआई के उपयोग की निगरानी के लिए कौन से केंद्रीकृत निरीक्षण और निगरानी निकाय स्थापित किए जाने चाहिए।

गैर-सैन्य अनुसंधान की सुरक्षा के संदर्भ में, हमें यह सोचने की आवश्यकता हो सकती है कि कौन से एआई विकास को बंद-स्रोत बनाम खुले-स्रोत के रूप में वर्गीकृत किया जा सकता है, उपयोग समझौतों को कैसे स्थापित किया जाए, और कंप्यूटर विज्ञान के बढ़ते सैन्यीकरण से अंतर्राष्ट्रीय सहयोग कैसे प्रभावित होंगे।

हम इस तरह से कैसे आगे बढ़ सकते हैं जो हथियारों के लिए इसके उपयोग के खिलाफ सुरक्षा करते हुए रचनात्मक एआई अनुसंधान को सक्षम बनाता है?

शिक्षाविदों ने सरकार और प्रौद्योगिकी, चिकित्सा और सूचना से जुड़ी प्रमुख कंपनियों के साथ-साथ सेना के साथ महत्वपूर्ण और उत्पादक सहयोग किया है और जारी रखेंगे।हालाँकि, ऐतिहासिक रूप से शिक्षाविदों का चीनी, जीवाश्म ईंधन और तंबाकू उद्योगों के साथ शर्मनाक, हानिकारक सहयोग भी रहा है।आधुनिक विश्वविद्यालयों में शोधकर्ताओं को उद्योग वित्त पोषण के नैतिक जोखिमों और पूर्वाग्रहों को समझने और नैतिक रूप से संदिग्ध विज्ञान के उत्पादन से बचने में मदद करने के लिए संस्थागत प्रशिक्षण, निरीक्षण और पारदर्शिता की आवश्यकताएं हैं।

हमारी जानकारी के अनुसार, सैन्य वित्त पोषण के लिए ऐसा कोई प्रशिक्षण और निरीक्षण वर्तमान में मौजूद नहीं है।हम जो समस्याएं उठाते हैं वे जटिल हैं और उन्हें एक ही नीति से हल नहीं किया जा सकता है, लेकिन हमारा मानना ​​है कि विश्वविद्यालयों के लिए सैन्य, रक्षा और राष्ट्रीय सुरक्षा एजेंसी के लिए चर्चा सेमिनार, आंतरिक नियम और निगरानी प्रक्रियाएं बनाना एक अच्छा पहला कदम है।वित्त पोषित परियोजनाएं जो उद्योग-वित्त पोषित परियोजनाओं के लिए पहले से मौजूद परियोजनाओं के समान हैं।

आपके अनुसार यथार्थवादी परिणाम क्या है?

समुदाय के कुछ लोगों ने सैन्य एआई पर पूर्ण प्रतिबंध लगाने का आह्वान किया है।हालांकि हम इस बात से सहमत हैं कि यह नैतिक रूप से आदर्श होगा, हम मानते हैं कि यह यथार्थवादी नहीं है - इस तरह के प्रतिबंध को स्थापित करने या लागू करने के लिए आवश्यक अंतरराष्ट्रीय सहमति प्राप्त करने के लिए एआई सैन्य उद्देश्यों के लिए बहुत उपयोगी है।

इसके बजाय, हमारा मानना ​​है कि देशों को अपने प्रयासों को एआई-संचालित हथियार विकसित करने पर केंद्रित करना चाहिए जो मानव सैनिकों को प्रतिस्थापित करने के बजाय बढ़ाएँ।इन हथियारों की मानवीय निगरानी को प्राथमिकता देकर, हम आशा करते हैं कि सबसे खराब जोखिमों को रोक सकते हैं।

हम इस बात पर भी जोर देना चाहते हैं कि एआई हथियार कोई मोनोलिथ नहीं हैं और उनकी क्षमता के आधार पर जांच की जानी चाहिए।हमारे लिए यह महत्वपूर्ण है कि हम जल्द से जल्द एआई हथियारों के सबसे गंभीर वर्गों पर प्रतिबंध लगाएं और उन्हें विनियमित करें और हमारे समुदायों और संस्थानों के लिए ऐसी सीमाएं स्थापित करें जिन्हें पार नहीं किया जाना चाहिए।

उद्धरण:प्रश्नोत्तर: विशेषज्ञों ने एआई-संचालित स्वायत्त हथियार जोखिमों की चेतावनी दी है (2024, 7 अगस्त)7 अगस्त 2024 को पुनः प्राप्तhttps://techxplore.com/news/2024-08-qa-experts-ai-powered-autonomous.html से

यह दस्तावेज कॉपीराइट के अधीन है।निजी अध्ययन या अनुसंधान के उद्देश्य से किसी भी निष्पक्ष व्यवहार के अलावा, नहींलिखित अनुमति के बिना भाग को पुन: प्रस्तुत किया जा सकता है।सामग्री केवल सूचना के प्रयोजनों के लिए प्रदान की गई है।