abstract strawberry
श्रेय: पिक्साबे/सीसी0 पब्लिक डोमेन

ChatGPT बनाने वाली कंपनी OpenAI ने एक नया आर्टिफिशियल इंटेलिजेंस (AI) सिस्टम लॉन्च किया हैस्ट्रॉबेरी.इसे चैटजीपीटी जैसे प्रश्नों के त्वरित उत्तर प्रदान करने के लिए ही नहीं, बल्कि सोचने या "तर्क करने" के लिए भी डिज़ाइन किया गया है।

इससे कई बड़ी चिंताएँ पैदा होती हैं।यदि स्ट्रॉबेरी वास्तव में किसी प्रकार का तर्क करने में सक्षम है, तो क्या यह एआई प्रणाली मनुष्यों को धोखा दे सकती है?

ओपनएआई एआई को ऐसे तरीकों से प्रोग्राम कर सकता है जो मनुष्यों में हेरफेर करने की उसकी क्षमता को कम करता है।लेकिनकंपनी का अपना मूल्यांकनइसे "ज्ञात जैविक खतरे को पुन: उत्पन्न करने की परिचालन योजना" में विशेषज्ञों की सहायता करने की क्षमता के लिए "मध्यम जोखिम" के रूप में दर दें - दूसरे शब्दों में, एक जैविक हथियार।मनुष्यों को अपनी सोच बदलने के लिए प्रेरित करने की क्षमता के कारण इसे मध्यम जोखिम के रूप में भी दर्जा दिया गया था।

यह देखा जाना बाकी है कि इस तरह की प्रणाली का उपयोग धोखेबाज या हैकर्स जैसे बुरे इरादे वाले लोग कैसे कर सकते हैं।फिर भी, ओपनएआई के मूल्यांकन में कहा गया है कि मध्यम-जोखिम प्रणालियों को व्यापक उपयोग के लिए जारी किया जा सकता है - मेरा मानना ​​​​है कि यह स्थिति गलत है।

स्ट्रॉबेरी एक एआई नहीं है"," या प्रोग्राम, लेकिन कई-सामूहिक रूप से ओ1 के रूप में जाने जाते हैं। ये मॉडलकरने का इरादा हैजटिल प्रश्नों के उत्तर दें और जटिल गणित की समस्याओं को हल करें।उदाहरण के लिए, वे आपको अपनी वेबसाइट या ऐप बनाने में मदद करने के लिए कंप्यूटर कोड लिखने में भी सक्षम हैं।

तर्क करने की स्पष्ट क्षमता कुछ लोगों के लिए आश्चर्य की बात हो सकती है, क्योंकि इसे आम तौर पर निर्णय लेने और निर्णय लेने का अग्रदूत माना जाता है - कुछ ऐसा जो अक्सर एआई के लिए एक दूर का लक्ष्य प्रतीत होता है।तो, कम से कम सतही तौर पर, यह कृत्रिम बुद्धिमत्ता को मानव-जैसी बुद्धिमत्ता के एक कदम करीब ले जाता हुआ प्रतीत होगा।

जब चीजें सच होने के लिए बहुत अच्छी लगती हैं, तो अक्सर एक गड़बड़ी होती है।खैर, नए एआई मॉडल का यह सेट उनके लक्ष्यों को अधिकतम करने के लिए डिज़ाइन किया गया है।अभ्यास में इसका क्या मतलब है?अपने इच्छित उद्देश्य को प्राप्त करने के लिए AI द्वारा चुना गया मार्ग या रणनीति हो सकती हैजरूरी नहीं कि हमेशा निष्पक्ष हो, या मानवीय मूल्यों के साथ संरेखित करें।

सच्चे इरादे

उदाहरण के लिए, यदि आपको सैद्धांतिक रूप से स्ट्रॉबेरी के विरुद्ध शतरंज खेलना था, तो क्या इसका तर्क इसकी अनुमति दे सकता हैस्कोरिंग प्रणाली को हैक करेंखेल जीतने के लिए सर्वोत्तम रणनीतियों का पता लगाने के बजाय?

एआई अपने वास्तविक इरादों और क्षमताओं के बारे में मनुष्यों से झूठ बोलने में भी सक्षम हो सकता है, जो कि अगर इसे व्यापक रूप से तैनात किया गया तो एक गंभीर सुरक्षा चिंता पैदा होगी।उदाहरण के लिए, यदि एआई को पता था कि यह मैलवेयर से संक्रमित है, तो क्या वह "चुन" सकता हैइस तथ्य को छिपाओइस ज्ञान में कि एयदि उन्हें पता होता तो क्या वे पूरे सिस्टम को अक्षम करने का विकल्प चुन सकते थे?

ये अनैतिक एआई व्यवहार के उत्कृष्ट उदाहरण होंगे, जहां वांछित लक्ष्य की ओर ले जाने पर धोखाधड़ी या धोखा देना स्वीकार्य है।यह एआई के लिए भी तेज़ होगा, क्योंकि उसे अगले सर्वोत्तम कदम का पता लगाने में कोई समय बर्बाद नहीं करना पड़ेगा।हालाँकि, यह जरूरी नहीं कि नैतिक रूप से सही हो।

यह एक दिलचस्प लेकिन चिंताजनक चर्चा की ओर ले जाता है।स्ट्रॉबेरी किस स्तर तक तर्क करने में सक्षम है और इसके अनपेक्षित परिणाम क्या हो सकते हैं?एक शक्तिशाली एआई प्रणाली जो इंसानों को धोखा देने में सक्षम है, हमारे लिए गंभीर नैतिक, कानूनी और वित्तीय जोखिम पैदा कर सकती है।

गंभीर परिस्थितियों में ऐसे जोखिम गंभीर हो जाते हैं, जैसे सामूहिक विनाश के हथियार डिजाइन करना।OpenAI अपने स्वयं के स्ट्रॉबेरी मॉडल को विकसित करने में वैज्ञानिकों की सहायता करने की उनकी क्षमता के लिए "मध्यम जोखिम" के रूप में रेट करता हैरासायनिक, जैविक, रेडियोलॉजिकल और परमाणु हथियार.

ओपनएआईकहते हैं: "हमारे मूल्यांकन में पाया गया कि ओ1-पूर्वावलोकन और ओ1-मिनी विशेषज्ञों को ज्ञात जैविक खतरे को पुन: उत्पन्न करने की परिचालन योजना में मदद कर सकते हैं।"लेकिन यह कहा जाता है कि विशेषज्ञों के पास पहले से ही इन क्षेत्रों में महत्वपूर्ण विशेषज्ञता है, इसलिए व्यवहार में जोखिम सीमित होगा।इसमें कहा गया है, "मॉडल गैर-विशेषज्ञों को जैविक खतरे पैदा करने में सक्षम नहीं बनाते हैं, क्योंकि ऐसे खतरे पैदा करने के लिए व्यावहारिक प्रयोगशाला कौशल की आवश्यकता होती है जिसे मॉडल प्रतिस्थापित नहीं कर सकते।"

अनुनय की शक्तियाँ

ओपनएआई के स्ट्रॉबेरी के मूल्यांकन ने इस जोखिम की भी जांच की कि यह मनुष्यों को अपनी मान्यताओं को बदलने के लिए प्रेरित कर सकता है।नए O1 मॉडल ChatGPT की तुलना में अधिक प्रेरक और अधिक जोड़-तोड़ करने वाले पाए गए।

ओपनएआई ने एक शमन प्रणाली का भी परीक्षण किया जो एआई प्रणाली की जोड़-तोड़ क्षमताओं को कम करने में सक्षम थी।कुल मिलाकर, स्ट्रॉबेरी को लेबल किया गया था"अनुनय" के लिए मध्यम जोखिमओपन एआई के परीक्षणों में।

स्ट्रॉबेरी को स्वायत्त रूप से और साइबर सुरक्षा पर काम करने की क्षमता के लिए कम जोखिम का दर्जा दिया गया था।

ओपन एआई की नीति में कहा गया है कि "मध्यम जोखिम" मॉडल व्यापक उपयोग के लिए जारी किए जा सकते हैं।मेरे विचार से, यह खतरे को कम आंकता है।ऐसे मॉडलों की तैनाती विनाशकारी हो सकती है, खासकर यदि बुरे कलाकार अपने स्वयं के उद्देश्यों के लिए प्रौद्योगिकी में हेरफेर करते हैं।

इसके लिए मजबूत जांच और संतुलन की आवश्यकता है जो केवल एआई विनियमन और कानूनी ढांचे के माध्यम से संभव होगा, जैसे कि गलत जोखिम मूल्यांकन और एआई के दुरुपयोग को दंडित करना।

यूके सरकार ने अपने 2023 एआई श्वेत पत्र में "सुरक्षा, सुरक्षा और मजबूती" की आवश्यकता पर जोर दिया, लेकिन यह लगभग पर्याप्त नहीं है।मानव सुरक्षा को प्राथमिकता देने और स्ट्रॉबेरी जैसे एआई मॉडल के लिए कठोर जांच प्रोटोकॉल तैयार करने की तत्काल आवश्यकता है।

यह आलेख से पुनः प्रकाशित किया गया हैबातचीतक्रिएटिव कॉमन्स लाइसेंस के तहत।को पढ़िएमूल लेख.The Conversation

उद्धरण:कथित तौर पर OpenAI का स्ट्रॉबेरी प्रोग्राम तर्क करने में सक्षम है।यह इंसानों को धोखा देने में सक्षम हो सकता है (2024, 25 सितंबर)25 सितंबर 2024 को पुनः प्राप्तhttps://techxplore.com/news/2024-09-openai-strawberry-capable- humans.html से

यह दस्तावेज कॉपीराइट के अधीन है।निजी अध्ययन या अनुसंधान के उद्देश्य से किसी भी निष्पक्ष व्यवहार के अलावा, नहींलिखित अनुमति के बिना भाग को पुन: प्रस्तुत किया जा सकता है।सामग्री केवल सूचना के प्रयोजनों के लिए प्रदान की गई है।