tracking people with AI
श्रेय: AI-जनित छविए

प्रतिवेदनजेरूसलम स्थित खोजी पत्रकारों द्वारा प्रकाशित+972पत्रिका ने पाया कि एआई लक्ष्यीकरण प्रणालियों ने गाजा में हजारों लक्ष्यों की पहचान करने और संभावित रूप से गलत पहचान करने में महत्वपूर्ण भूमिका निभाई है।इससे पता चलता है कि स्वायत्त युद्ध अब भविष्य का परिदृश्य नहीं है।यह पहले से ही यहाँ है और परिणाम भयावह हैं।

प्रश्न में दो प्रौद्योगिकियाँ हैं।पहला,"लैवेंडर", एक एआई अनुशंसा प्रणाली है जिसे हमास के कार्यकर्ताओं को लक्ष्य के रूप में पहचानने के लिए एल्गोरिदम का उपयोग करने के लिए डिज़ाइन किया गया है।दूसरा, विचित्र नाम दिया गया"पिताजी कहाँ हैं?", एक ऐसी प्रणाली है जो भौगोलिक रूप से लक्ष्यों को ट्रैक करती है ताकि हमला होने से पहले उनके पारिवारिक आवासों तक उनका पीछा किया जा सके।ये दोनों प्रणालियाँ मिलकर एक स्वचालन का निर्माण करती हैंढूँढें-ठीक करें-ट्रैक-लक्ष्यजिसे आधुनिक सेना के नाम से जाना जाता है उसके घटक"श्रृंखला को मार डालो".

लैवेंडर जैसी प्रणालियाँ स्वायत्त हथियार नहीं हैं, लेकिन वे हत्या श्रृंखला को तेज़ करती हैं और हत्या की प्रक्रिया को उत्तरोत्तर अधिक स्वायत्त बनाती हैं।एआई लक्ष्यीकरण प्रणालियाँ संभावित लक्ष्य का सांख्यिकीय रूप से आकलन करने के लिए कंप्यूटर सेंसर और अन्य स्रोतों से डेटा प्राप्त करती हैं।इस डेटा की बड़ी मात्रा इजरायली खुफिया द्वारा गाजा के 2.3 मिलियन निवासियों पर निगरानी के माध्यम से एकत्र की गई है।

ऐसी प्रणालियों को हमास ऑपरेटिव की प्रोफ़ाइल तैयार करने के लिए डेटा के एक सेट पर प्रशिक्षित किया जाता है।यह लिंग, आयु, उपस्थिति, आंदोलन पैटर्न, सामाजिक नेटवर्क संबंध, सहायक उपकरण और अन्य के बारे में डेटा हो सकता है।प्रासंगिक विशेषताएं"। फिर वे फिट की डिग्री के आधार पर वास्तविक फ़िलिस्तीनियों को इस प्रोफ़ाइल से मिलाने का काम करते हैं। किसी लक्ष्य की प्रासंगिक विशेषताओं का गठन करने वाली श्रेणी को इच्छानुसार सख्ती से या शिथिल रूप से सेट किया जा सकता है। लैवेंडर के मामले में, यह इनमें से एक लगता हैमुख्य समीकरण था "पुरुष समान उग्रवादी" इसमें कुख्यात की गूँज है"सैन्य आयु वर्ग के सभी पुरुष संभावित लक्ष्य हैं"2010 के अमेरिकी ड्रोन युद्धों का जनादेश जिसमें ओबामा प्रशासन ने दुश्मन के रूप में नामित सैकड़ों लोगों की पहचान की और उनकी हत्या कर दी।मेटाडेटा पर आधारित".

एआई के साथ जो बात अलग है वह वह गति है जिसके साथ लक्ष्यों को एल्गोरिदमिक रूप से निर्धारित किया जा सकता है और कार्रवाई का जनादेश यह जारी करता है।+972 रिपोर्ट इंगित करती है कि इस तकनीक के उपयोग से हजारों पात्र-अयोग्य लक्ष्यों को तेजी से और बिना किसी मानवीय निरीक्षण के नष्ट कर दिया गया है।

इज़राइल रक्षा बल (आईडीएफ) इस प्रकार की एआई लक्ष्यीकरण प्रणालियों के उपयोग से इनकार करने में तत्पर थे।और स्वतंत्र रूप से यह सत्यापित करना मुश्किल है कि क्या और यदि हां, तो उनका किस हद तक उपयोग किया गया है, और वे वास्तव में कैसे कार्य करते हैं।लेकिन रिपोर्ट द्वारा वर्णित कार्यात्मकताएं पूरी तरह से प्रशंसनीय हैं, विशेष रूप से आईडीएफ के अपने दावे को देखते हुए "सबसे तकनीकी संगठनों में से एक"और एआई को प्रारंभिक रूप से अपनाने वाला।

दुनिया भर में सैन्य एआई कार्यक्रम अमेरिकी सेना द्वारा कहे जाने वाले को छोटा करने का प्रयास कर रहे हैं"सेंसर-टू-शूटर टाइमलाइन"और"घातक क्षमता बढ़ाएँ"अपने संचालन में, आईडीएफ जैसा संगठन नवीनतम तकनीकों का लाभ क्यों नहीं उठाएगा?

तथ्य यह है कि लैवेंडर और व्हेयर इज डैडी जैसी प्रणालियाँ?एक व्यापक प्रवृत्ति की अभिव्यक्ति है जो एक अच्छे दशक से चल रही है और आईडीएफ और इसकी विशिष्ट इकाइयां अपनी प्रक्रियाओं में अधिक एआई-लक्ष्यीकरण प्रणालियों को लागू करने की मांग करने वाली एकमात्र इकाई से बहुत दूर हैं।

जब मशीनें इंसानों पर भारी पड़ती हैं

इस साल की शुरुआत में, ब्लूमबर्ग ने नवीनतम संस्करण पर रिपोर्ट दी थीप्रोजेक्ट मावेन, अमेरिकी रक्षा विभाग एआई पाथफाइंडर कार्यक्रम, जो 2017 में एक सेंसर डेटा विश्लेषण कार्यक्रम से गति के लिए निर्मित पूर्ण विकसित एआई-सक्षम लक्ष्य अनुशंसा प्रणाली में विकसित हुआ है।ब्लूमबर्ग पत्रकार कैटरीना मैनसन के रूप मेंरिपोर्टों, ऑपरेटर "अब एक घंटे के काम में 80 लक्ष्यों पर हस्ताक्षर कर सकता है, जबकि इसके बिना 30 लक्ष्य"।

मैनसन एक अमेरिकी सेना अधिकारी को उद्धृत करता है जिसे सिस्टम सीखने का काम सौंपा गया था, जो एल्गोरिदम के निष्कर्षों के साथ सहमति की प्रक्रिया का वर्णन करता है, जो तेजी से स्टैकाटो में दिया गया है: "स्वीकार करें। स्वीकार करें, स्वीकार करें"।यहाँ स्पष्ट है कि कैसेडिजिटल तर्कों में गहराई से अंतर्निहित है जिसका मुकाबला करना कठिन है।यह गति और बढ़े हुए आउटपुट के तर्क को जन्म देता है जो अन्य सभी को मात देता है।

मृत्यु का कुशल उत्पादन +972 खाते में भी परिलक्षित होता है, जो लक्ष्यों के उत्पादन में तेजी लाने और बढ़ाने और इन लक्ष्यों की हत्या के लिए भारी दबाव का संकेत देता है।जैसा कि एक सूत्र का कहना है, "हम पर लगातार दबाव डाला जा रहा था: हमारे लिए और लक्ष्य लाओ। वे वास्तव में हम पर चिल्लाए। हमने अपने लक्ष्यों को बहुत जल्दी खत्म कर दिया"।

अंतर्निहित पूर्वाग्रह

लैवेंडर जैसी प्रणालियाँ बहुतों को बढ़ाती हैंप्रशिक्षण डेटा, पूर्वाग्रह, सटीकता, त्रुटि दर और, महत्वपूर्ण रूप से, स्वचालन पूर्वाग्रह के प्रश्नों से संबंधित।स्वचालन पूर्वाग्रह नैतिक अधिकार सहित सभी प्राधिकार को सांख्यिकीय प्रसंस्करण के निष्पक्ष इंटरफ़ेस को सौंप देता है।

गति और मारक क्षमता सैन्य तकनीक के प्रतीक हैं।लेकिन एआई को प्राथमिकता देने में गुंजाइश हैमानव एजेंसीहाशिए पर है.मानव की तुलनात्मक रूप से धीमी संज्ञानात्मक प्रणालियों के कारण, सिस्टम के तर्क को इसकी आवश्यकता होती है।यह कंप्यूटर-निर्मित परिणामों के लिए मानवीय जिम्मेदारी की भावना को भी हटा देता है।

मेरे पास हैअन्यत्र लिखा गया हैयह कैसे नियंत्रण की धारणाओं को (सभी स्तरों पर) जटिल बनाता है जिस पर हमें विचार करना चाहिए।जब एआई, मशीन लर्निंग और मानव तर्क एक सख्त पारिस्थितिकी तंत्र बनाते हैं, तो मानव नियंत्रण की क्षमता सीमित होती है।मनुष्य की प्रवृत्ति होती है कि कंप्यूटर जो भी कहता है उस पर भरोसा कर लेता है, खासकर जब वे इतनी तेजी से आगे बढ़ते हैं कि हम उनका अनुसरण नहीं कर पाते।

गति और त्वरण की समस्या भी तात्कालिकता की एक सामान्य भावना पैदा करती है, जो गैर-कार्रवाई पर कार्रवाई को प्राथमिकता देती है।यह "संपार्श्विक क्षति" या "सैन्य आवश्यकता" जैसी श्रेणियों को और अधिक हिंसा पैदा करने के चैनलों में बदल देता है, जिन्हें हिंसा पर अंकुश लगाने के रूप में काम करना चाहिए।

मुझे सैन्य विद्वान क्रिस्टोफर कोकर की याद आती हैशब्द: "हमें अपने उपकरण सावधानी से चुनने चाहिए, इसलिए नहीं कि वे अमानवीय हैं (सभी हथियार हैं) बल्कि इसलिए क्योंकि जितना अधिक हम उन पर भरोसा करते हैं, उतना ही अधिक वे दुनिया के बारे में हमारे दृष्टिकोण को आकार देते हैं"।यह स्पष्ट है कि सैन्य एआई दुनिया के प्रति हमारे दृष्टिकोण को आकार देता है।दुख की बात है कि लैवेंडर हमें यह एहसास कराता है कि यह दृश्य हिंसा से भरा हुआ है।

यह आलेख से पुनः प्रकाशित किया गया हैबातचीतक्रिएटिव कॉमन्स लाइसेंस के तहत।को पढ़िएमूल लेख.The Conversation

उद्धरण:इजराइल मानव लक्ष्यों की पहचान करने के लिए एआई का उपयोग कर रहा है जिससे यह डर बढ़ गया है कि निर्दोष लोगों को जाल में फंसाया जा रहा है (2024, 15 अप्रैल)15 अप्रैल 2024 को पुनः प्राप्तhttps://techxplore.com/news/2024-04-israel-ai- human-innocents-caught.html से

यह दस्तावेज कॉपीराइट के अधीन है।निजी अध्ययन या अनुसंधान के उद्देश्य से किसी भी निष्पक्ष व्यवहार के अलावा, नहींलिखित अनुमति के बिना भाग को पुन: प्रस्तुत किया जा सकता है।सामग्री केवल सूचना के प्रयोजनों के लिए प्रदान की गई है।