लिसा एम द्वारा दिया गया,

ai
क्रेडिट: CC0 पब्लिक डोमेन

इस सप्ताह, संघीय उद्योग और विज्ञान मंत्री एड ह्युसिक ने ऑस्ट्रेलियाई सरकार की प्रतिक्रिया की घोषणा कीऑस्ट्रेलिया में सुरक्षित और जिम्मेदार AIपरामर्श.

यह प्रतिक्रिया कृत्रिम बुद्धिमत्ता (एआई) पर पिछले साल के परामर्श से प्राप्त फीडबैक को संबोधित करती है।इसे 500 से अधिक प्रस्तुतियाँ प्राप्त हुईं, जिनमें एआई उपकरणों के "अवसरों के प्रति उत्साह" को ध्यान में रखते हुए, लेकिन संभावित जोखिमों और "नुकसान को रोकने के लिए नियामक सुरक्षा उपायों" के लिए आस्ट्रेलियाई लोगों की अपेक्षाओं के बारे में चिंताएं भी थीं।

जैसा एकल एआई नियामक कानून बनाने के बजाययूरोपीय संघ ने किया हैऑस्ट्रेलियाई सरकार एआई कार्यान्वयन के उच्च जोखिम वाले क्षेत्रों पर ध्यान केंद्रित करने की योजना बना रही है - जिनमें नुकसान की सबसे अधिक संभावना है।इसमें कार्यस्थल में भेदभाव, न्याय प्रणाली, निगरानी, ​​या स्व-चालित कार जैसे उदाहरण शामिल हो सकते हैं।

सरकार इन रेलिंगों के विकास में सहायता के लिए एक अस्थायी विशेषज्ञ सलाहकार समूह बनाने की भी योजना बना रही है।

हम 'उच्च-जोखिम' एआई को कैसे परिभाषित करेंगे?

हालाँकि इस आनुपातिक प्रतिक्रिया का कुछ लोगों द्वारा स्वागत किया जा सकता है, लेकिन केवल एक अस्थायी सलाहकार निकाय के साथ उच्च जोखिम वाले क्षेत्रों पर ध्यान केंद्रित करना महत्वपूर्ण प्रश्न उठाता है:

  • उच्च जोखिम वाले क्षेत्रों को कैसे परिभाषित किया जाएगा और यह निर्णय कौन लेता है?
  • क्या कम जोखिम वाले एआई अनुप्रयोगों को समान विनियमन का सामना करना चाहिए, जब कुछ हस्तक्षेप (जैसे कि एआई-जनित सामग्री के लिए वॉटरमार्क की आवश्यकता) व्यापक रूप से गलत सूचना का मुकाबला कर सकते हैं?
  • एक स्थायी सलाहकार बोर्ड के बिना, संगठन भविष्य में नई एआई प्रौद्योगिकियों और एआई उपकरणों के नए अनुप्रयोगों के लिए जोखिमों का अनुमान कैसे लगा सकते हैं?

नई प्रौद्योगिकियों के उपयोग में "जोखिम" का आकलन करना कोई नई बात नहीं है।हमारे पास कई मौजूदा सिद्धांत, दिशानिर्देश और नियम हैं जिन्हें एआई टूल के बारे में चिंताओं को दूर करने के लिए अनुकूलित किया जा सकता है।

उदाहरण के लिए, कई ऑस्ट्रेलियाई क्षेत्र सुरक्षा संबंधी चिंताओं को दूर करने के लिए पहले से ही अत्यधिक विनियमित हैंवाहनोंऔरचिकित्सा उपकरण.

लोगों से जुड़े सभी शोधों में, ऑस्ट्रेलियाई शोधकर्ताओं को इसका अनुपालन करना होगाराष्ट्रीय दिशानिर्देशकहाँप्रथाएं अच्छी तरह से परिभाषित हैं:

  • जोखिमों की पहचान करना और नुकसान का जोखिम किसे हो सकता है;
  • जोखिम की संभावना, गंभीरता और परिमाण का आकलन करना;
  • जोखिमों को कम करने, कम करने और/या प्रबंधित करने की रणनीतियों पर विचार करना;
  • संभावित लाभों की पहचान करना, और किसे लाभ हो सकता है;और
  • जोखिमों का मूल्यांकन करना और यह निर्धारित करना कि जोखिम उचित हैं या नहीं.

यह जोखिम मूल्यांकन मानव अनुसंधान आचार समितियों द्वारा महत्वपूर्ण समीक्षा और निरीक्षण के साथ, अनुसंधान किए जाने से पहले किया जाता है।एआई जोखिम मूल्यांकन के लिए एक समान दृष्टिकोण का उपयोग किया जा सकता है।

AI पहले से ही हमारे जीवन में है

एआई विनियमन के साथ एक महत्वपूर्ण समस्या यह है कि कई उपकरण पहले से ही ऑस्ट्रेलियाई घरों और कार्यस्थलों में उपयोग किए जाते हैं, लेकिन जोखिमों को प्रबंधित करने के लिए नियामक रेलिंग के बिना।

हाल ही में YouGov की एक रिपोर्ट मिली90% ऑस्ट्रेलियाई श्रमिकगंभीर सीमाओं और खामियों के बावजूद, दैनिक कार्यों के लिए एआई टूल का उपयोग किया।एआई उपकरण "मतिभ्रम" कर सकते हैं और उपयोगकर्ताओं को नकली जानकारी प्रस्तुत कर सकते हैं।पारदर्शिता की कमीप्रशिक्षण डेटा के बारे में पूर्वाग्रह के बारे में चिंताएं पैदा होती हैंसर्वाधिकार उल्लंघन.

उपभोक्ताओं और संगठनों को जोखिमों के प्रबंधन के लिए एआई उपकरणों को उचित रूप से अपनाने पर मार्गदर्शन की आवश्यकता है, लेकिन कई उपयोग "उच्च जोखिम" क्षेत्रों से बाहर हैं।

"उच्च जोखिम" सेटिंग्स को परिभाषित करना चुनौतीपूर्ण है।"जोखिम" की अवधारणा एक स्पेक्ट्रम पर आधारित है और पूर्ण नहीं है।जोखिम का निर्धारण ए द्वारा नहीं किया जाता हैस्वयं, या वह सेटिंग जहां इसका उपयोग किया जाता है।जोखिम प्रासंगिक कारकों से उत्पन्न होता है जो नुकसान की संभावना पैदा करते हैं।

उदाहरण के लिए, जबकि सुई बुनाई से रोजमर्रा की जिंदगी में थोड़ा जोखिम होता है,बुनकरों को सावधान किया जाता हैहवाई जहाज में धातु की सुइयां ले जाने के विरुद्ध।हवाईअड्डे की सुरक्षा इन्हें "खतरनाक" उपकरणों के रूप में देखती है और नुकसान को रोकने के लिए इस सेटिंग में उनके उपयोग को प्रतिबंधित करती है।

"उच्च जोखिम" सेटिंग्स की पहचान करने के लिए हमें यह समझना होगा कि एआई उपकरण कैसे काम करते हैं।एआई टूल्स को जानने से ऐसा हो सकता हैनियुक्ति पद्धतियों में लैंगिक भेदभावइसका मतलब है कि सभी संगठनों को भर्ती में जोखिम का प्रबंधन करना होगा।जैसे, AI की सीमाओं को नहीं समझनाअमेरिकी वकील जो फर्जी केस कानून पर भरोसा करते थेचैटजीपीटी द्वारा उत्पन्न, एआई टूल के उपयोग में मानवीय त्रुटि के जोखिम पर प्रकाश डालता है।

एआई टूल का उपयोग करने में लोगों और संगठनों द्वारा उत्पन्न जोखिमों को प्रौद्योगिकी द्वारा उत्पन्न जोखिमों के साथ ही प्रबंधित किया जाना चाहिए।

सरकार को सलाह कौन देगा?

सरकार ने अपनी प्रतिक्रिया में कहा कि एआई जोखिमों पर विशेषज्ञ सलाहकार निकाय को "उद्योग, शिक्षा, नागरिक समाज और कानूनी पेशे से विविध सदस्यता और विशेषज्ञता की आवश्यकता होगी।"

उद्योग के भीतर, सदस्यता में बड़े संगठनों और छोटे से मध्यम उद्यमों के प्रतिनिधित्व के साथ विभिन्न क्षेत्रों (जैसे स्वास्थ्य देखभाल, बैंकिंग, कानून प्रवर्तन) को शामिल किया जाना चाहिए।

शिक्षा जगत के भीतर, सदस्यता में न केवल एआई कंप्यूटिंग विशेषज्ञ शामिल होने चाहिए, बल्कि उपभोक्ता और संगठनात्मक व्यवहार में विशेषज्ञता वाले सामाजिक वैज्ञानिक भी शामिल होने चाहिए।वे जोखिम विश्लेषण, नैतिकता और गलत सूचना, विश्वास और गोपनीयता संबंधी चिंताओं सहित नई तकनीक को अपनाने के बारे में लोगों की चिंता पर सलाह दे सकते हैं।

सरकार को यह भी तय करना होगा कि भविष्य के संभावित एआई जोखिमों का प्रबंधन कैसे किया जाए।एक स्थायी सलाहकार निकाय भविष्य की प्रौद्योगिकियों और मौजूदा उपकरणों के नए उपयोग के लिए जोखिमों का प्रबंधन कर सकता है।

ऐसा निकाय उपभोक्ताओं और कार्यस्थलों को जोखिम के निचले स्तर पर एआई अनुप्रयोगों पर सलाह दे सकता है, खासकर जहां सीमित या कोई नियम लागू नहीं हैं।

गलत सूचना एक प्रमुख क्षेत्र है जहां एआई टूल की सीमाएं ज्ञात हैं, जिसके लिए लोगों को मजबूत आलोचनात्मक सोच और सूचना साक्षरता कौशल की आवश्यकता होती है।उदाहरण के लिए, एआई-जनरेटेड छवियों के उपयोग में पारदर्शिता की आवश्यकता यह सुनिश्चित कर सकती है कि उपभोक्ता गुमराह न हों।

फिर भी पारदर्शिता के लिए सरकार का वर्तमान ध्यान "उच्च-जोखिम" सेटिंग्स तक ही सीमित है।यह एक शुरुआत है, लेकिन अधिक सलाह और अधिक विनियमन की आवश्यकता होगी।

यह आलेख से पुनः प्रकाशित किया गया हैबातचीतक्रिएटिव कॉमन्स लाइसेंस के तहत।को पढ़िएमूल लेख.The Conversation

उद्धरण:ऑस्ट्रेलिया 'उच्च-जोखिम' एआई को विनियमित करने की योजना बना रहा है।इसे सफलतापूर्वक कैसे करें यहां बताया गया है (2024, जनवरी 18)18 जनवरी 2024 को पुनः प्राप्तhttps://techxplore.com/news/2024-01-australia-high-ai-successful.html से

यह दस्तावेज कॉपीराइट के अधीन है।निजी अध्ययन या अनुसंधान के उद्देश्य से किसी भी निष्पक्ष व्यवहार के अलावा, नहींलिखित अनुमति के बिना भाग को पुन: प्रस्तुत किया जा सकता है।सामग्री केवल सूचना के प्रयोजनों के लिए प्रदान की गई है।