प्रतिवेदनजेरूसलम स्थित खोजी पत्रकारों द्वारा प्रकाशित+972पत्रिका ने पाया कि एआई लक्ष्यीकरण प्रणालियों ने गाजा में हजारों लक्ष्यों की पहचान करने और संभावित रूप से गलत पहचान करने में महत्वपूर्ण भूमिका निभाई है।इससे पता चलता है कि स्वायत्त युद्ध अब भविष्य का परिदृश्य नहीं है।यह पहले से ही यहाँ है और परिणाम भयावह हैं।
प्रश्न में दो प्रौद्योगिकियाँ हैं।पहला,"लैवेंडर", एक एआई अनुशंसा प्रणाली है जिसे हमास के कार्यकर्ताओं को लक्ष्य के रूप में पहचानने के लिए एल्गोरिदम का उपयोग करने के लिए डिज़ाइन किया गया है।दूसरा, विचित्र नाम दिया गया"पिताजी कहाँ हैं?", एक ऐसी प्रणाली है जो भौगोलिक रूप से लक्ष्यों को ट्रैक करती है ताकि हमला होने से पहले उनके पारिवारिक आवासों तक उनका पीछा किया जा सके।ये दोनों प्रणालियाँ मिलकर एक स्वचालन का निर्माण करती हैंढूँढें-ठीक करें-ट्रैक-लक्ष्यजिसे आधुनिक सेना के नाम से जाना जाता है उसके घटक"श्रृंखला को मार डालो".
लैवेंडर जैसी प्रणालियाँ स्वायत्त हथियार नहीं हैं, लेकिन वे हत्या श्रृंखला को तेज़ करती हैं और हत्या की प्रक्रिया को उत्तरोत्तर अधिक स्वायत्त बनाती हैं।एआई लक्ष्यीकरण प्रणालियाँ संभावित लक्ष्य का सांख्यिकीय रूप से आकलन करने के लिए कंप्यूटर सेंसर और अन्य स्रोतों से डेटा प्राप्त करती हैं।इस डेटा की बड़ी मात्रा इजरायली खुफिया द्वारा गाजा के 2.3 मिलियन निवासियों पर निगरानी के माध्यम से एकत्र की गई है।
ऐसी प्रणालियों को हमास ऑपरेटिव की प्रोफ़ाइल तैयार करने के लिए डेटा के एक सेट पर प्रशिक्षित किया जाता है।यह लिंग, आयु, उपस्थिति, आंदोलन पैटर्न, सामाजिक नेटवर्क संबंध, सहायक उपकरण और अन्य के बारे में डेटा हो सकता है।प्रासंगिक विशेषताएं"। फिर वे फिट की डिग्री के आधार पर वास्तविक फ़िलिस्तीनियों को इस प्रोफ़ाइल से मिलाने का काम करते हैं। किसी लक्ष्य की प्रासंगिक विशेषताओं का गठन करने वाली श्रेणी को इच्छानुसार सख्ती से या शिथिल रूप से सेट किया जा सकता है। लैवेंडर के मामले में, यह इनमें से एक लगता हैमुख्य समीकरण था "पुरुष समान उग्रवादी" इसमें कुख्यात की गूँज है"सैन्य आयु वर्ग के सभी पुरुष संभावित लक्ष्य हैं"2010 के अमेरिकी ड्रोन युद्धों का जनादेश जिसमें ओबामा प्रशासन ने दुश्मन के रूप में नामित सैकड़ों लोगों की पहचान की और उनकी हत्या कर दी।मेटाडेटा पर आधारित".
एआई के साथ जो बात अलग है वह वह गति है जिसके साथ लक्ष्यों को एल्गोरिदमिक रूप से निर्धारित किया जा सकता है और कार्रवाई का जनादेश यह जारी करता है।+972 रिपोर्ट इंगित करती है कि इस तकनीक के उपयोग से हजारों पात्र-अयोग्य लक्ष्यों को तेजी से और बिना किसी मानवीय निरीक्षण के नष्ट कर दिया गया है।
इज़राइल रक्षा बल (आईडीएफ) इस प्रकार की एआई लक्ष्यीकरण प्रणालियों के उपयोग से इनकार करने में तत्पर थे।और स्वतंत्र रूप से यह सत्यापित करना मुश्किल है कि क्या और यदि हां, तो उनका किस हद तक उपयोग किया गया है, और वे वास्तव में कैसे कार्य करते हैं।लेकिन रिपोर्ट द्वारा वर्णित कार्यात्मकताएं पूरी तरह से प्रशंसनीय हैं, विशेष रूप से आईडीएफ के अपने दावे को देखते हुए "सबसे तकनीकी संगठनों में से एक"और एआई को प्रारंभिक रूप से अपनाने वाला।
दुनिया भर में सैन्य एआई कार्यक्रम अमेरिकी सेना द्वारा कहे जाने वाले को छोटा करने का प्रयास कर रहे हैं"सेंसर-टू-शूटर टाइमलाइन"और"घातक क्षमता बढ़ाएँ"अपने संचालन में, आईडीएफ जैसा संगठन नवीनतम तकनीकों का लाभ क्यों नहीं उठाएगा?
तथ्य यह है कि लैवेंडर और व्हेयर इज डैडी जैसी प्रणालियाँ?एक व्यापक प्रवृत्ति की अभिव्यक्ति है जो एक अच्छे दशक से चल रही है और आईडीएफ और इसकी विशिष्ट इकाइयां अपनी प्रक्रियाओं में अधिक एआई-लक्ष्यीकरण प्रणालियों को लागू करने की मांग करने वाली एकमात्र इकाई से बहुत दूर हैं।
जब मशीनें इंसानों पर भारी पड़ती हैं
इस साल की शुरुआत में, ब्लूमबर्ग ने नवीनतम संस्करण पर रिपोर्ट दी थीप्रोजेक्ट मावेन, अमेरिकी रक्षा विभाग एआई पाथफाइंडर कार्यक्रम, जो 2017 में एक सेंसर डेटा विश्लेषण कार्यक्रम से गति के लिए निर्मित पूर्ण विकसित एआई-सक्षम लक्ष्य अनुशंसा प्रणाली में विकसित हुआ है।ब्लूमबर्ग पत्रकार कैटरीना मैनसन के रूप मेंरिपोर्टों, ऑपरेटर "अब एक घंटे के काम में 80 लक्ष्यों पर हस्ताक्षर कर सकता है, जबकि इसके बिना 30 लक्ष्य"।
मैनसन एक अमेरिकी सेना अधिकारी को उद्धृत करता है जिसे सिस्टम सीखने का काम सौंपा गया था, जो एल्गोरिदम के निष्कर्षों के साथ सहमति की प्रक्रिया का वर्णन करता है, जो तेजी से स्टैकाटो में दिया गया है: "स्वीकार करें। स्वीकार करें, स्वीकार करें"।यहाँ स्पष्ट है कि कैसेमानव संचालकडिजिटल तर्कों में गहराई से अंतर्निहित है जिसका मुकाबला करना कठिन है।यह गति और बढ़े हुए आउटपुट के तर्क को जन्म देता है जो अन्य सभी को मात देता है।
मृत्यु का कुशल उत्पादन +972 खाते में भी परिलक्षित होता है, जो लक्ष्यों के उत्पादन में तेजी लाने और बढ़ाने और इन लक्ष्यों की हत्या के लिए भारी दबाव का संकेत देता है।जैसा कि एक सूत्र का कहना है, "हम पर लगातार दबाव डाला जा रहा था: हमारे लिए और लक्ष्य लाओ। वे वास्तव में हम पर चिल्लाए। हमने अपने लक्ष्यों को बहुत जल्दी खत्म कर दिया"।
अंतर्निहित पूर्वाग्रह
लैवेंडर जैसी प्रणालियाँ बहुतों को बढ़ाती हैंनैतिक प्रश्नप्रशिक्षण डेटा, पूर्वाग्रह, सटीकता, त्रुटि दर और, महत्वपूर्ण रूप से, स्वचालन पूर्वाग्रह के प्रश्नों से संबंधित।स्वचालन पूर्वाग्रह नैतिक अधिकार सहित सभी प्राधिकार को सांख्यिकीय प्रसंस्करण के निष्पक्ष इंटरफ़ेस को सौंप देता है।
गति और मारक क्षमता सैन्य तकनीक के प्रतीक हैं।लेकिन एआई को प्राथमिकता देने में गुंजाइश हैमानव एजेंसीहाशिए पर है.मानव की तुलनात्मक रूप से धीमी संज्ञानात्मक प्रणालियों के कारण, सिस्टम के तर्क को इसकी आवश्यकता होती है।यह कंप्यूटर-निर्मित परिणामों के लिए मानवीय जिम्मेदारी की भावना को भी हटा देता है।
मेरे पास हैअन्यत्र लिखा गया हैयह कैसे नियंत्रण की धारणाओं को (सभी स्तरों पर) जटिल बनाता है जिस पर हमें विचार करना चाहिए।जब एआई, मशीन लर्निंग और मानव तर्क एक सख्त पारिस्थितिकी तंत्र बनाते हैं, तो मानव नियंत्रण की क्षमता सीमित होती है।मनुष्य की प्रवृत्ति होती है कि कंप्यूटर जो भी कहता है उस पर भरोसा कर लेता है, खासकर जब वे इतनी तेजी से आगे बढ़ते हैं कि हम उनका अनुसरण नहीं कर पाते।
गति और त्वरण की समस्या भी तात्कालिकता की एक सामान्य भावना पैदा करती है, जो गैर-कार्रवाई पर कार्रवाई को प्राथमिकता देती है।यह "संपार्श्विक क्षति" या "सैन्य आवश्यकता" जैसी श्रेणियों को और अधिक हिंसा पैदा करने के चैनलों में बदल देता है, जिन्हें हिंसा पर अंकुश लगाने के रूप में काम करना चाहिए।
मुझे सैन्य विद्वान क्रिस्टोफर कोकर की याद आती हैशब्द: "हमें अपने उपकरण सावधानी से चुनने चाहिए, इसलिए नहीं कि वे अमानवीय हैं (सभी हथियार हैं) बल्कि इसलिए क्योंकि जितना अधिक हम उन पर भरोसा करते हैं, उतना ही अधिक वे दुनिया के बारे में हमारे दृष्टिकोण को आकार देते हैं"।यह स्पष्ट है कि सैन्य एआई दुनिया के प्रति हमारे दृष्टिकोण को आकार देता है।दुख की बात है कि लैवेंडर हमें यह एहसास कराता है कि यह दृश्य हिंसा से भरा हुआ है।
यह आलेख से पुनः प्रकाशित किया गया हैबातचीतक्रिएटिव कॉमन्स लाइसेंस के तहत।को पढ़िएमूल लेख.
उद्धरण:इजराइल मानव लक्ष्यों की पहचान करने के लिए एआई का उपयोग कर रहा है जिससे यह डर बढ़ गया है कि निर्दोष लोगों को जाल में फंसाया जा रहा है (2024, 15 अप्रैल)15 अप्रैल 2024 को पुनः प्राप्तhttps://techxplore.com/news/2024-04-israel-ai- human-innocents-caught.html से
यह दस्तावेज कॉपीराइट के अधीन है।निजी अध्ययन या अनुसंधान के उद्देश्य से किसी भी निष्पक्ष व्यवहार के अलावा, नहींलिखित अनुमति के बिना भाग को पुन: प्रस्तुत किया जा सकता है।सामग्री केवल सूचना के प्रयोजनों के लिए प्रदान की गई है।