lawyer
श्रेय: अनस्प्लैश/CC0 पब्लिक डोमेन

हमने डीपफेक, स्पष्ट छवियां देखी हैंसेलिब्रिटीज, कृत्रिम बुद्धिमत्ता (एआई) द्वारा निर्मित।एआई ने अन्य चीजों के अलावा संगीत, चालक रहित रेस कारों और गलत सूचना फैलाने में भी भूमिका निभाई है।

फिर, इसमें कोई आश्चर्य की बात नहीं है कि एआई का हमारी कानूनी प्रणालियों पर भी गहरा प्रभाव पड़ता है।

यह सर्वविदित है कि अदालतों को विवादों का फैसला कानून के आधार पर करना चाहिए, जिसे प्रस्तुत किया गया हैएक ग्राहक के मामले के हिस्से के रूप में अदालत में।इसलिए यह बेहद चिंताजनक है कि एआई द्वारा आविष्कृत नकली कानून का इस्तेमाल कानूनी विवादों में किया जा रहा है।

इससे न केवल वैधता और नैतिकता के मुद्दे पैदा होते हैं, बल्कि वैश्विक कानूनी प्रणालियों में आस्था और विश्वास को भी नुकसान पहुंचने का खतरा है।

फर्जी कानून कैसे बनते हैं?

इसमें कोई संदेह नहीं है कि जेनेरिक एआई कानूनी प्रणाली के कई पहलुओं सहित समाज के लिए परिवर्तनकारी क्षमता वाला एक शक्तिशाली उपकरण है।लेकिन इसका उपयोग जिम्मेदारियों और जोखिमों के साथ आता है।

वकीलों को पेशेवर ज्ञान और अनुभव को सावधानीपूर्वक लागू करने के लिए प्रशिक्षित किया जाता है, और आमतौर पर वे बड़े जोखिम लेने वाले नहीं होते हैं।हालाँकि, कुछ लापरवाह वकील (और)स्वयं का प्रतिनिधित्व कियावादियों) को कृत्रिम बुद्धिमत्ता द्वारा पकड़ लिया गया है।

एआई मॉडल को बड़े पैमाने पर डेटा सेट पर प्रशिक्षित किया जाता है।उपयोगकर्ता द्वारा संकेत दिए जाने पर, वे नई सामग्री (पाठ्य और दृश्य-श्रव्य दोनों) बना सकते हैं।

हालाँकि इस तरह से तैयार की गई सामग्री बहुत विश्वसनीय लग सकती है, लेकिन यह ग़लत भी हो सकती है।यह एआई मॉडल के "अंतराल को भरने" के प्रयास का परिणाम है जब इसका प्रशिक्षण डेटा अपर्याप्त या त्रुटिपूर्ण होता है, और इसे आमतौर पर "कहा जाता है"माया".

कुछ संदर्भों में, जेनरेटिव एआई मतिभ्रम कोई समस्या नहीं है।दरअसल, इसे रचनात्मकता के उदाहरण के तौर पर देखा जा सकता है।

लेकिन अगर एआई ने मतिभ्रम किया या गलत सामग्री बनाई जिसे कानूनी प्रक्रियाओं में उपयोग किया जाता है, तो यह एक समस्या है - विशेष रूप से जब वकीलों पर समय के दबाव और कई लोगों के लिए कानूनी सेवाओं तक पहुंच की कमी के साथ जोड़ा जाता है।

इस शक्तिशाली संयोजन के परिणामस्वरूप कानूनी अनुसंधान और दस्तावेज़ तैयार करने में लापरवाही और शॉर्टकट हो सकते हैं, संभावित रूप से कानूनी पेशे के लिए प्रतिष्ठित मुद्दे पैदा हो सकते हैं और न्याय प्रशासन में जनता के विश्वास की कमी हो सकती है।

यह पहले से ही हो रहा है

सबसे प्रसिद्ध जेनेरिक एआई "फर्जी मामला" 2023 अमेरिकी मामला हैमाता बनाम एवियंका, जिसमें वकीलों ने न्यूयॉर्क की अदालत में नकली उद्धरण और मामले के उद्धरणों से युक्त एक संक्षिप्त विवरण प्रस्तुत किया।संक्षेप में चैटजीपीटी का उपयोग करके शोध किया गया था।

वकील, इस बात से अनभिज्ञ थे कि चैटजीपीटी मतिभ्रम कर सकता है, यह जाँचने में विफल रहे कि मामले वास्तव में मौजूद थे।परिणाम विनाशकारी थे.एक बार त्रुटि उजागर हो जाने पर,उनके मुवक्किल के मामले को खारिज कर दिया, वकीलों को बुरे विश्वास में काम करने के लिए दंडित किया, उन पर और उनकी फर्म पर जुर्माना लगाया, और उनके कार्यों को सार्वजनिक जांच के लिए उजागर किया।

प्रतिकूल प्रचार के बावजूद, अन्य फर्जी मामले के उदाहरण सामने आते रहते हैं।डोनाल्ड ट्रम्प के पूर्व वकील माइकल कोहेन ने अपने स्वयं के वकील को Google बार्ड, एक अन्य जेनरेटर एआई चैटबॉट द्वारा उत्पन्न मामले दिए।उनका मानना ​​था कि वे वास्तविक थे (वे नहीं थे) और उनका वकील उनकी तथ्यात्मक जाँच करेगा (उन्होंने नहीं किया)।उनके वकीलके मामले शामिल हैंअमेरिकी संघीय न्यायालय में दायर एक संक्षिप्त विवरण में।

हाल ही में सामने आए मामलों में फर्जी मामले भी सामने आए हैंकनाडाऔरयूनाइटेड किंगडम.

यदि यह प्रवृत्ति अनियंत्रित हो जाती है, तो हम यह कैसे सुनिश्चित कर सकते हैं कि जेनेरिक एआई का लापरवाह उपयोग कानूनी प्रणाली में जनता के विश्वास को कम नहीं करेगा?इन उपकरणों का उपयोग करते समय वकीलों द्वारा उचित सावधानी बरतने में लगातार विफलता से अदालतों को गुमराह करने और भीड़भाड़ करने, ग्राहकों के हितों को नुकसान पहुंचाने और आम तौर पर कानून के शासन को कमजोर करने की संभावना होती है।

इसके बारे में क्या किया जा रहा है?

दुनिया भर में, कानूनी नियामकों और अदालतों ने विभिन्न तरीकों से प्रतिक्रिया दी है।

कई अमेरिकी राज्य बार और अदालतों ने जनरेटिव एआई के उपयोग पर मार्गदर्शन, राय या आदेश जारी किए हैं, जिसमें जिम्मेदार अपनाने से लेकर पूर्ण प्रतिबंध तक शामिल है।

यूके और ब्रिटिश कोलंबिया की लॉ सोसायटी और न्यूजीलैंड की अदालतों ने भी दिशानिर्देश विकसित किए हैं।

ऑस्ट्रेलिया में, NSW बार एसोसिएशन के पास एक हैजेनरेटिव एआई गाइडबैरिस्टरों के लिए.एनएसडब्ल्यू की लॉ सोसायटीऔर यहविक्टोरिया का विधि संस्थानसॉलिसिटर आचरण नियमों के अनुरूप जिम्मेदार उपयोग पर लेख जारी किए हैं।

जनता की तरह, कई वकीलों और न्यायाधीशों को जेनरेटिव एआई की कुछ समझ होगी और वे इसकी सीमाएं और लाभ दोनों को पहचान सकते हैं।लेकिन ऐसे भी लोग हैं जो शायद इतने जागरूक नहीं हैं।मार्गदर्शन निस्संदेह मदद करता है।

लेकिन एक अनिवार्य दृष्टिकोण की आवश्यकता है.जो वकील जेनरेटिव एआई टूल का उपयोग करते हैं, वे इसे अपने निर्णय और परिश्रम के विकल्प के रूप में नहीं मान सकते हैं, और उन्हें प्राप्त जानकारी की सटीकता और विश्वसनीयता की जांच करनी चाहिए।

ऑस्ट्रेलिया में, अदालतों को अभ्यास नोट्स या नियमों को अपनाना चाहिए जो मुकदमेबाजी में जेनरेटिव एआई का उपयोग करते समय अपेक्षाएं निर्धारित करते हैं।न्यायालय के नियम स्व-प्रतिनिधित्व करने वाले वादियों का भी मार्गदर्शन कर सकते हैं, और जनता को सूचित करेंगे कि हमारी अदालतें समस्या से अवगत हैं और इसका समाधान कर रही हैं।

वकीलों द्वारा एआई के जिम्मेदार उपयोग को बढ़ावा देने के लिए औपचारिक मार्गदर्शन भी अपना सकता है।कम से कम, ऑस्ट्रेलिया में वकीलों की सतत कानूनी शिक्षा के लिए प्रौद्योगिकी योग्यता एक आवश्यकता बन जानी चाहिए।

ऑस्ट्रेलिया में वकीलों द्वारा जेनरेटिव एआई के जिम्मेदार और नैतिक उपयोग के लिए स्पष्ट आवश्यकताएं निर्धारित करने से उचित अपनाने को बढ़ावा मिलेगा और हमारे वकीलों, हमारी अदालतों और इस देश में न्याय के समग्र प्रशासन में जनता का विश्वास बढ़ेगा।

यह आलेख से पुनः प्रकाशित किया गया हैबातचीतक्रिएटिव कॉमन्स लाइसेंस के तहत।को पढ़िएमूल लेख.The Conversation

उद्धरण:एआई फर्जी कानूनी मामले बना रहा है और वास्तविक अदालतों में अपनी जगह बना रहा है, जिसके विनाशकारी परिणाम हो रहे हैं (2024, 13 मार्च)13 मार्च 2024 को पुनः प्राप्तhttps://techxplore.com/news/2024-03-ai-fake-legal-cases-real.html से

यह दस्तावेज कॉपीराइट के अधीन है।निजी अध्ययन या अनुसंधान के उद्देश्य से किसी भी निष्पक्ष व्यवहार के अलावा, नहींलिखित अनुमति के बिना भाग को पुन: प्रस्तुत किया जा सकता है।सामग्री केवल सूचना के प्रयोजनों के लिए प्रदान की गई है।