law
श्रेय: अनस्प्लैश/CC0 पब्लिक डोमेन

मौरा आर. ग्रॉसमैन, जेडी, पीएच.डी., चेरिटन स्कूल ऑफ कंप्यूटर साइंस में एक शोध प्रोफेसर हैं, वाटरलू में स्कूल ऑफ पब्लिक हेल्थ साइंसेज के लिए नियुक्त, ऑसगूड हॉल लॉ स्कूल में एक सहायक प्रोफेसर और एक संबद्ध संकाय हैं।आर्टिफिशियल इंटेलिजेंस के लिए वेक्टर इंस्टीट्यूट के सदस्य।वह बफ़ेलो, न्यूयॉर्क में एक ईडिस्कवरी कानून और परामर्श फर्म मौरा ग्रॉसमैन लॉ में प्रिंसिपल भी हैं।

मौरा को टेक्नोलॉजी-असिस्टेड रिव्यू (टीएआर) पर उनके काम के लिए व्यापक रूप से जाना जाता है, जो एक पर्यवेक्षित मशीन-लर्निंग विधि है जिसे उन्होंने और उनके सहयोगी, चेरिटन स्कूल ऑफ कंप्यूटर साइंस के प्रोफेसर एमेरिटस गॉर्डन वी. कॉर्मैक ने उच्च जोखिम वाले दस्तावेजों की समीक्षा में तेजी लाने के लिए विकसित किया है।मुकदमेबाजी और साक्ष्य-आधारित चिकित्सा के लिए व्यवस्थित समीक्षा में।

अभी हाल ही में, मौरा ने अपना ध्यान जनरेटिव एआई के निहितार्थ की ओर लगाया है.सेवानिवृत्त जिला न्यायाधीश पॉल डब्ल्यू ग्रिम, चेरिटन स्कूल ऑफ कंप्यूटर साइंस के प्रोफेसर डैन ब्राउन और स्नातक अनुसंधान सहायक मौली जू के साथ, उन्होंने "शीर्षक से एक पेपर लिखा।जीपीटीजज: जनरेटिव एआई वर्ल्ड में न्याय"यह बेंच और बार के सामने जेनेरेटिव एआई द्वारा प्रस्तुत नई चुनौतियों की रूपरेखा तैयार करता है।

निम्नलिखित एक प्रश्नोत्तर साक्षात्कार का हल्का संपादित प्रतिलेखन है जो पेपर में अधिक गहराई से चर्चा किए गए मुद्दों की पड़ताल करता है।

जनरेटिव आर्टिफिशियल इंटेलिजेंस क्या है?

जेनरेटिव एआई (या जेनएआई) कृत्रिम बुद्धिमत्ता का एक विशिष्ट उपसमूह है जो मानव द्वारा प्रदान किए गए संकेत के जवाब में नई सामग्री बनाता है।प्रॉम्प्ट मल्टीमॉडल हो सकता है, जैसा आउटपुट हो सकता है।कोई व्यक्ति एक प्रश्न टाइप कर सकता है और एक टेक्स्ट उत्तर प्राप्त कर सकता है, या वे एक वॉयस क्लिप, एक छवि, या एक वीडियो बना सकते हैं - वास्तव में कोई भी संयोजन, इनपुट और आउटपुट दोनों के लिए उपयोग किए जाने वाले सिस्टम पर निर्भर करता है।

GenAI ऐसी सामग्री बनाता है जिसे मनुष्यों द्वारा बनाई गई सामग्री से अलग करना कठिन होता जा रहा है।उत्पन्न पाठ अच्छी तरह से पढ़ा जाता है, तस्वीरें प्रामाणिक दिखती हैंवास्तविक लगता है, और वीडियो विश्वसनीय लगते हैं।

संभवतः विभिन्न GenAI प्रणालियों में सबसे प्रसिद्ध ChatGPT है, जो नवंबर 2022 में OpenAI द्वारा जारी एक चैटबॉट है, जो एक बड़े भाषा मॉडल (LLM) पर आधारित है जो धाराप्रवाह पाठ उत्पन्न करता है।चैटजीपीटी एक संवाद-शैली की बातचीत जारी रख सकता है, जहां कोई उससे सिलसिलेवार सवाल पूछता है, जिस पर वह इंसानों जैसी प्रतिक्रिया देता है।

लोग चैटजीपीटी से अपने बायोडाटा को अधिक संक्षिप्त और पेशेवर बनाने के लिए एक होमवर्क असाइनमेंट का मसौदा तैयार करने के लिए भी कह सकते हैं, या किसी विशेष नौकरी का वर्णन कर सकते हैं और चैटबॉट से उस नौकरी की विशिष्ट आवश्यकताओं के अनुसार अपना बायोडाटा तैयार करने के लिए कह सकते हैं।इसी तरह, वे चैटजीपीटी से किताब के अध्याय के मुख्य बिंदुओं को ऐसी भाषा में संक्षेप में प्रस्तुत करने के लिए कह सकते हैं जो आठ साल के बच्चे को समझ में आ सके।या एमिनेम की शैली में टेलर स्विफ्ट के बारे में एक रैप गीत लिखना।चैटजीपीटी इनमें से कोई भी या सभी कार्य काफी अच्छे से कर सकता है।

चैटजीपीटी विशिष्ट दिशानिर्देशों का पालन करते हुए सामग्री भी तैयार करता है - जिसमें एक विशेष शैली या टोन की नकल करना भी शामिल है - और यही कारण है कि इसके आउटपुट को मानव से अलग करना कठिन होता जा रहा है।

ये जेनरेटिव एआई मॉडल कैसे काम करते हैं?

एलएलएम अपने प्रशिक्षण डेटा के आधार पर प्रतिक्रिया में सबसे संभावित अगले शब्द की भविष्यवाणी करने के लिए संभावनाओं और आंकड़ों का उपयोग करते हैं, जो कि अधिकांश भाग के लिए, इंटरनेट से स्क्रैप की गई सामग्री है।मॉडल एक निश्चित विषय के बारे में वाक्यों के हजारों-हजारों उदाहरण देख सकते हैं, और वे जो आउटपुट देते हैं वह उस पर आधारित होता है जो सबसे अधिक लिखा गया है।यह सटीक, पक्षपाती, या पूरी तरह से गलत हो सकता है, लेकिन एलएलएम अपने प्रशिक्षण डेटा में जो सबसे आम तौर पर कहा गया है उसे देखेगा और उसे दोहराएगा।

कई छवि-आधारित GenAI टूल को दो एल्गोरिदम का उपयोग करके प्रशिक्षित किया जाता है जो एक-दूसरे के साथ प्रतिस्पर्धा करते हैं, 2017 में विकसित एक प्रक्रिया को "जेनरेटिव एडवरसैरियल नेटवर्क" या "GANs" कहा जाता है।

एक जेनरेटिव नेटवर्क सामग्री बनाता है, जबकि एक भेदभावपूर्ण नेटवर्क उस सामग्री की आलोचना करता है और वास्तविक सामग्री के साथ तुलना करता है।जेनेरिक एल्गोरिदम बेहतर हो जाता है क्योंकि इसे भेदभावपूर्ण एल्गोरिदम से अधिक प्रतिक्रिया मिलती है।ये दोनों नेटवर्क एक साथ मिलकर काम करते हैं जैसे कि विवेचक में सुधार होता है, जनरेटर में भी सुधार होता है।

जैसे-जैसे GenAI आगे ​​बढ़ता है, यह जानना कठिन होता जाएगा कि GenAI द्वारा कौन सा आउटपुट बनाया गया था और मानव द्वारा क्या बनाया गया था।यह वास्तविक और उत्पन्न सामग्री के बीच, सत्य और झूठ के बीच, और तथ्य और कल्पना के बीच की रेखाओं को धुंधला कर देगा।इसका न्याय प्रणाली पर गहरा प्रभाव पड़ता है।

क्या एआई साक्ष्य को अदालत में स्वीकार किया जा सकता है?

आपके प्रश्न का उत्तर देने के लिए पहले मुझे थोड़ा पीछे जाने दीजिए।एआई साक्ष्य को अधिकांश लोगों की तरह ही चुनौतियों का सामना करना पड़ता हैइसका मतलब यह है कि जिस तकनीक पर यह आधारित है वह न्यायाधीश या जूरी की समझ से परे हो सकती है, इसलिए पार्टियों को इसका आकलन करने और समझाने के लिए महंगे विशेषज्ञों को लाना पड़ सकता है।

यदि कोई पुलिस अधिकारी ड्राइवर की गति का आकलन करने के लिए रडार गन का उपयोग करता है, तो हम उस तकनीक के बारे में पर्याप्त जानते हैं कि तेज गति वाले टिकट पर विवाद करने वाले मामले में आमतौर पर यह समझाने के लिए रडार विशेषज्ञ की आवश्यकता नहीं होती है कि डिवाइस कैसे काम करता है और क्या यह वैध और विश्वसनीय है।लेकिन AI जैसी नई तकनीकों के मामले में ऐसा नहीं है।

मान लीजिए कि एक मानव संसाधन पेशेवर ने एआई का उपयोग यह निर्धारित करने के लिए किया कि किसी पद के लिए किसे साक्षात्कार देना है और बाहर किए गए अधिकांश लोग एक निश्चित नस्लीय या जातीय समूह से संबंधित प्रतीत होते हैं।यदि यह अदालत में जाता है, तो मानव संसाधन पेशेवर के नियोक्ता को सिस्टम के डेवलपर्स को यह समझाने की आवश्यकता होगी कि एआई मॉडल को कैसे प्रशिक्षित किया गया था, इसमें किस एल्गोरिदम का उपयोग किया गया था, किस प्रशिक्षण डेटा को नियोजित किया गया था, इसका परीक्षण और सत्यापन कैसे किया गया था, इत्यादि।यह दिखाने के लिए कि व्यवस्था भेदभावपूर्ण नहीं थी।

इस उदाहरण में, इसमें कोई सवाल नहीं है कि अदालत में पेश किए गए सबूत असली हैं या नकली।मुद्दा यह है कि क्या एआई का पर्याप्त रूप से परीक्षण और सत्यापन किया गया है ताकि यह पता चल सके कि यह वैध, विश्वसनीय, निष्पक्ष है और उद्देश्य के अनुसार काम करता है?यह संभवतः निपटने के लिए सबसे सीधा मुद्दा है।हम यह निर्धारित करने का प्रयास कर रहे हैं कि क्या एआई उसी तरह काम कर रहा है जैसा उसे करना चाहिए, और यह किसी भी अन्य तकनीकी या वैज्ञानिक प्रमाण से अलग नहीं है;हमारे पास इसके लिए पहले से ही कानूनी उपकरण हैं।

हमारे सामने एक नई चुनौती डीपफेक, एआई-जनित सामग्री है जो वास्तविक नहीं है।हालांकि जालसाजी या अन्य निर्मित साक्ष्य के मामले हमेशा से रहे हैं, हम अब पूरी तरह से अलग स्तर पर काम कर रहे हैं क्योंकि डीपफेक के बताए गए संकेत - उदाहरण के लिए, कि हाथों में छह उंगलियां हैं - अब तकनीक के कारण नहीं हैंबहुत सुधार हुआ है.

ऐसी साक्ष्य सामग्री के साथ जिसके डीपफेक होने का संदेह है, पार्टियों को संभवतः एआई फोरेंसिक विशेषज्ञों को लाने की आवश्यकता होगी।तो अब अदालतें केवल एक जटिल उत्पाद दायित्व मामले से ही नहीं निपट रही हैं, जहां न्यायाधीश या जूरी को दायित्व निर्धारित करने के लिए किसी विशेष मशीन या उपकरण के कामकाज को समझने की जरूरत है, बल्कि तथ्यात्मक साक्ष्य की प्रामाणिकता भी सवालों के घेरे में होगी।.

मान लीजिए कि मैं दावा करता हूं कि मेरे पर्यवेक्षक ने मेरे लिए अपमानजनक या अनुचित ध्वनि मेल संदेश छोड़े हैं, और यहां उस संदेश की रिकॉर्डिंग का एक उदाहरण है जो उसने साक्ष्य के रूप में छोड़ा था कि घटनाएं बिल्कुल वैसी ही हुईं जैसा मैं कहता हूं।जब तक मैं यह दिखा सकता हूं कि रिकॉर्डिंग में मेरे पर्यवेक्षक की आवाज न होने की अधिक संभावना है, सबूत आ जाएंगे।

लेकिन अब, लगभग हर मामले में विशेषज्ञों की आवश्यकता हो सकती है क्योंकि मेरा पर्यवेक्षक यह तर्क दे सकता है कि मैंने ध्वनि मेल संदेश बनाया था, और अदालत को यह निर्धारित करने की आवश्यकता होगी कि सबूत वास्तविक है या नकली।

क्या GenAI न्याय प्रणाली को नई चुनौतियाँ प्रदान करता है?

हाँ, GenAI के साथ, हमारे पास एक बिल्कुल अलग मुद्दा है।हमें यह निर्धारित करने की आवश्यकता है कि क्या कथित डीपफेक साक्ष्य को नागरिक और आपराधिक परीक्षणों में स्वीकार किया जाना चाहिए।इससे बहुत फर्क पड़ता है कि न्यायाधीश या जूरी किसी मामले का फैसला करते समय उस सबूत पर विचार करते हैं या नहीं।

न्याय प्रणाली के लिए चुनौती का एक हिस्सा - कम से कम संयुक्त राज्य अमेरिका की प्रणाली जिससे मैं सबसे अधिक परिचित हूं - यह है कि स्वीकार्यता का मानक निम्न है।साक्ष्य को बस एक "प्रीपेंडरेंस मानक" को पूरा करना होगा, जिसका अर्थ है कि जो मैं कहता हूं उससे अधिक साक्ष्य होने की संभावना है, एक सिक्का उछालने की तुलना में संभावना थोड़ी अधिक है।

डीपफेक साक्ष्य के साथ, यह एक बहुत ही निम्न स्तर की बात है।कोई अदालत में आपकी आवाज की रिकॉर्डिंग चला सकता है और मैं गवाही दे सकता हूं कि मैंने आपसे कई बार बात की है और जानता हूं कि रिकॉर्डिंग में आप ही हैं क्योंकि मैं आपकी आवाज पहचानता हूं।ऐसे साक्ष्य को अमेरिकी अदालत में स्वीकार्य बनाने के लिए यह पर्याप्त है।लेकिन सिर्फ इसलिए कि यह आपके जैसा लगता है इसका मतलब यह नहीं है कि रिकॉर्डिंग वास्तव में आपके द्वारा कही गई किसी चीज़ की है।एआई वॉयस-क्लोनिंग टूल से कोई भी मिनटों में मुफ्त में आपकी तरह सुनने वाली ऑडियो क्लिप तैयार कर सकता है।ये मुद्दा है.

इस नए प्रकार के साक्ष्य, जो तेजी से अदालतों में दिखाई देंगे, के लिए साक्ष्य के मौजूदा नियमों और अमेरिकी और कनाडाई न्याय प्रणालियों की संरचना के बीच बिल्कुल फिट नहीं है।आप कहते हैं कि यह एक वास्तविक ऑडियो रिकॉर्डिंग है, और मैं कहता हूं कि यह नहीं है;यह एक डीपफेक है.वह बचाव - जिसे "झूठे का लाभांश" कहा जाता है - अधिक से अधिक बार किया जाएगा।अब हर चीज़ में प्रशंसनीय अस्वीकार्यता है।

यदि प्रतिवादी का वकील यह दिखा सकता है कि जिस समय कथित अपमानजनक ध्वनि मेल संदेश मेरे फोन पर छोड़ा गया था (उसकी इलेक्ट्रॉनिक तिथि और समय टिकट के अनुसार, जिसे "मेटाडेटा" कहा जाता है) कि मेरे पर्यवेक्षक की ओपन हार्ट सर्जरी हो रही थी, तो इसकी संभावना नहीं है किध्वनि मेल में व्यक्ति वह था।दावे को चुनौती देने के लिए यह पर्याप्त होना चाहिए, लेकिन अगर साक्ष्य में मेटाडेटा नहीं है या मेटाडेटा को किसी तरह से बदल दिया गया है तो क्या होगा?

कोई भी दावा कर सकता है कि कोई भी सबूत नकली है, इसलिए कथित डीपफेक सबूत को अन्य आवश्यकताओं को पूरा करना होगा।डीपफेक बचाव का दावा करने वाले व्यक्ति को कुछ मात्रा में सबूत दिखाना होगा कि सबूत वास्तव में डीपफेक है।यह असाधारण रूप से चुनौतीपूर्ण हो सकता है, यह देखते हुए कि डीपफेक कितने विश्वसनीय हो सकते हैं।हालांकि यह मुद्दा दूर की कौड़ी लग सकता है, 6 जनवरी के यूएस कैपिटल हमले में शामिल व्यक्तियों ने दावा किया कि सोशल मीडिया या निगरानी वीडियो में उनके खिलाफ पेश किए गए व्यक्ति वास्तव में वे नहीं थे।

जैसे-जैसे लोग इस बारे में अधिक जागरूक हो जाते हैं कि ऑडियो और विज़ुअल सबूतों में हेरफेर करना और उत्पन्न करना कितना आसान है, प्रतिवादी उस संदेह का उपयोग अपने लाभ के लिए करेंगे।

एक अमेरिकी साक्ष्य नियम है, जिसे साक्ष्य के संघीय नियम 403 के रूप में जाना जाता है, जो वकीलों और परीक्षण न्यायाधीशों को सामान्य मार्गदर्शन प्रदान करता है जो कथित डीपफेक संदर्भ में उपयोगी हो सकता है, लेकिन साक्ष्य नियम किसी विशेष प्रकार के तकनीकी साक्ष्य के लिए डिज़ाइन और प्रख्यापित नहीं किए जाते हैं।इस नियम का उपयोग उन साक्ष्यों की स्वीकार्यता को अस्वीकार करने के लिए सावधानीपूर्वक और कभी-कभार किया गया है जो अनावश्यक रूप से पूर्वाग्रहपूर्ण, भ्रमित करने वाले या गुमराह करने वाले हो सकते हैं।

मेरे सह-लेखकों और मैंने तर्क दिया है कि हमें उस नियम की सख्त आवश्यकताओं को कम करना चाहिए, जैसे कि यदि कोई पक्ष कुछ सबूतों को डीपफेक के रूप में चुनौती देने के लिए पर्याप्त विश्वसनीय प्रदर्शन कर सकता है, तो न्यायाधीश को यह देखना चाहिए कि क्या वह सबूत साबित करने के लिए एकमात्र सबूत हैदावा और क्या अन्य कारकों को स्वीकार करना भारी पड़ सकता है।क्या कोई अन्य पुष्ट साक्ष्य है?

क्या अन्य समय में छह लोगों ने भी मेरे पर्यवेक्षक को वह कहते हुए सुना जो ध्वनि मेल में कहा गया था, या क्या उस पर्यवेक्षक ने अन्य ईमेल में भी ऐसी ही बातें लिखी हैं जो अन्य कर्मचारियों को भेजी गई थीं?यदि ऐसा है, तो यह तथ्यों का एक बहुत ही अलग सेट है, अगर डीपफेक साक्ष्य ही एकमात्र सबूत है जो अदालत के पास उपलब्ध है, और हमारे पास इस बारे में प्रतिस्पर्धी तथ्य हैं कि यह प्रामाणिक है या नहीं।

संभावित रूप से डीपफेक साक्ष्य की स्वीकार्यता का मूल्यांकन करते समय, न्यायाधीशों को उस अनुचित पूर्वाग्रह से बचने की आवश्यकता होती है जो नकली साक्ष्य को जूरी के सामने प्रस्तुत करने की अनुमति देने पर हो सकता है।हम जानते हैं कि ऑडियो और वीडियो साक्ष्य लोगों की धारणा और याद पर गहरा प्रभाव डालते हैं।यदि आप जूरी सदस्यों को गवाह की प्रतिलेख पढ़ने की तुलना में एक दृश्य-श्रव्य क्लिप दिखाते हैं, तो उनके दृश्य-श्रव्य क्लिप की सामग्री को याद रखने की संभावना 650 प्रतिशत अधिक होती है।

मानव मस्तिष्क इसी प्रकार काम करता है।अदालत को संभावित जोखिम, नकारात्मक प्रभाव या समस्याग्रस्त परिणामों पर विचार करने की आवश्यकता होगी जो सबूत नकली होने पर हो सकते हैं।निःसंदेह, इसके निहितार्थ कुछ भी हो सकते हैं - थोड़े से पैसे खोने से लेकर बच्चों की कस्टडी खोने या किसी की आज़ादी तक।

क्या वकील और वादकारी अदालती फाइलिंग तैयार करने के लिए ChatGPT का उपयोग कर सकते हैं?

हां, और पिछले वर्ष में, वकील और स्व-प्रतिनिधित्व वाले व्यक्ति, जिन्हें प्रो से लिटिगेंट के रूप में जाना जाता है, ने अदालत के लिए फाइलिंग तैयार करने के लिए चैटजीपीटी का उपयोग किया है।लेकिन एक बड़ी समस्या GenAI की मतिभ्रम की प्रवृत्ति है।संक्षिप्त विवरण उन उद्धरणों के साथ तैयार किया गया है जो आधिकारिक लगते हैं लेकिन वास्तविक नहीं हैं और ऐसे मामलों का संदर्भ देते हैं जो मौजूद नहीं हैं।जवाब में, हमारे पास एक भयभीत न्यायपालिका है जिसने एआई के उपयोग के प्रकटीकरण और प्रमाणीकरण की आवश्यकता के द्वारा प्रतिक्रिया व्यक्त की है कि फाइलर ने उद्धृत स्रोतों को सत्यापित किया है।

सकारात्मक पक्ष पर, चैटजीपीटी पर्याप्त साधन के बिना वादियों को अदालत में मामले दायर करने के लिए वकील नियुक्त करने की अनुमति दे सकता है ताकि जेनएआई न्याय तक पहुंच बढ़ा सके।जो लोग वकील का खर्च वहन नहीं कर सकते या अन्य कारणों से वकील तक नहीं पहुंच सकते, वे अब अपनी परिस्थितियों और अधिकार क्षेत्र के लिए विशिष्ट अनुकूलित कानूनी कागजात तैयार करने के लिए GenAI का उपयोग कर सकते हैं।

लेकिन नकारात्मक पक्ष यह है कि जो व्यक्ति तंग करता है वह अब चैटजीपीटी का उपयोग करके कई लोगों के खिलाफ सैकड़ों शिकायतें दर्ज कर सकता है और अदालतों में बाढ़ ला सकता है।दुर्भावनापूर्ण फाइलर देश भर की अदालतों में एक साथ फाइलिंग भी तैयार कर सकते हैं, जिससे अदालतों में डुप्लिकेट, तुच्छ प्रस्तुतियाँ भर जाती हैं।

क्या न्यायाधीश और उनके कर्मचारी अनुसंधान या राय का मसौदा तैयार करने के लिए GenAI का उपयोग कर सकते हैं?

हम अब तक कम से कम तीन न्यायाधीशों को जानते हैं जिन्होंने राय तैयार करने के लिए GenAI का उपयोग किया है।आप सोच सकते हैं कि जब GPT-4 ने यू.एस. बार परीक्षा उत्तीर्ण कर ली है तो समस्या क्या है?लेकिन चिंता की बात यह है कि चैटजीपीटी अलग-अलग समय पर एक ही प्रश्न के अलग-अलग उत्तर दे सकता है, पूरी तरह से गलत जानकारी देने की तो बात ही छोड़ दें।

हमारे पास सबसे पहले एक न्याय प्रणाली है जो लोगों को एक जीवित, सांस लेने वाले, मानव न्यायाधीश के समक्ष अदालत में उनके दिन की गारंटी देती है।वकील या पक्षों को सूचित किए बिना स्वतंत्र अनुसंधान के लिए जेनएआई प्रणाली का उपयोग करना और उन्हें उन तर्कों पर आपत्ति करने या जवाब देने का अवसर प्रदान करना जो रिकॉर्ड में नहीं हैं, अदालत को उन जानकारी के स्रोतों के बारे में पता चल सकता है जिन्हें साक्ष्य के रूप में नहीं रखा गया है या जो अन्य मुद्दे उठाते हैं।उचित प्रक्रिया संबंधी मुद्दे.

इसलिए, अभी के लिए, जबकि उपकरण एक उपयोगी सहायक हो सकते हैं, जहां तक ​​मुझे जानकारी है, अमेरिका और कनाडा की अदालतें निर्णय लेने और मसौदा तैयार करने के उद्देश्यों के लिए GenAI का उपयोग करने से परहेज कर रही हैं।

अधिक जानकारी:मौरा आर. ग्रॉसमैन एट अल,जीपीटीजज: जनरेटिव एआई वर्ल्ड में न्याय(2023)

उद्धरण:प्रश्नोत्तर: जनरेटिव आर्टिफिशियल इंटेलिजेंस के कानूनी निहितार्थ (2024, 17 अप्रैल)17 अप्रैल 2024 को पुनः प्राप्तhttps://techxplore.com/news/2024-04-qa-legal-implications-generative-artificial.html से

यह दस्तावेज कॉपीराइट के अधीन है।निजी अध्ययन या अनुसंधान के उद्देश्य से किसी भी निष्पक्ष व्यवहार के अलावा, नहींलिखित अनुमति के बिना भाग को पुन: प्रस्तुत किया जा सकता है।सामग्री केवल सूचना के प्रयोजनों के लिए प्रदान की गई है।