AI systems are already skilled at deceiving and manipulating humans
गेम डिप्लोमेसी में मेटा के सिसरो से पूर्वचिन्तित धोखे का उदाहरण।श्रेय: पैटर्न्स/पार्क गोल्डस्टीन एट अल।

कई कृत्रिम बुद्धिमत्ता (एआई) प्रणालियाँ पहले ही सीख चुकी हैं कि इंसानों को कैसे धोखा देना है, यहाँ तक कि ऐसी प्रणालियाँ जिन्हें मददगार और ईमानदार होने के लिए प्रशिक्षित किया गया है।जर्नल में प्रकाशित एक समीक्षा लेख मेंपैटर्न्स10 मई को, शोधकर्ताओं ने एआई सिस्टम द्वारा धोखे के जोखिमों का वर्णन किया और सरकारों से इस मुद्दे को जल्द से जल्द संबोधित करने के लिए मजबूत नियम विकसित करने का आह्वान किया।

एमआईटी में एआई अस्तित्व सुरक्षा पोस्टडॉक्टरल फेलो, पहले लेखक पीटर एस. पार्क कहते हैं, "एआई डेवलपर्स को इस बात की पक्की समझ नहीं है कि धोखे जैसे अवांछित एआई व्यवहार का कारण क्या है।""लेकिन आम तौर पर बोलते हुए, हम सोचते हैं कि एआई धोखा इसलिए पैदा होता है क्योंकि धोखे पर आधारित रणनीति दिए गए एआई के प्रशिक्षण कार्य में अच्छा प्रदर्शन करने का सबसे अच्छा तरीका साबित हुई है। धोखा उन्हें अपने लक्ष्य हासिल करने में मदद करता है।"

पार्क और सहकर्मियों ने एआई सिस्टम के प्रसार के तरीकों पर ध्यान केंद्रित करते हुए साहित्य का विश्लेषण कियासीखे गए धोखे के माध्यम से, जिसमें वे व्यवस्थित रूप से दूसरों को हेरफेर करना सीखते हैं।

शोधकर्ताओं ने अपने विश्लेषण में एआई धोखे का सबसे उल्लेखनीय उदाहरण मेटा का सिसरो पाया, जो एक एआई प्रणाली है जिसे खेलने के लिए डिज़ाइन किया गया है।कूटनीति, जो एक विश्व-विजय खेल है जिसमें गठबंधन बनाना शामिल है।भले ही मेटा का दावा है कि उसने सिसरो को प्रशिक्षित किया है "काफी हद तक ईमानदार और मददगार"और को"कभी भी जानबूझकर पीठ में छुरा नहीं घोंपना"गेम खेलते समय इसके मानव सहयोगी, कंपनी ने इसके साथ जो डेटा प्रकाशित कियाविज्ञानपेपर से पता चला कि सिसरो ने निष्पक्षता से काम नहीं किया।

पार्क कहते हैं, "हमने पाया कि मेटा के एआई ने धोखे में माहिर होना सीख लिया है।""जबकि मेटा कूटनीति के खेल में जीतने के लिए अपने एआई को प्रशिक्षित करने में सफल रहा - सिसरो को एक से अधिक गेम खेलने वाले शीर्ष 10% मानव खिलाड़ियों में रखा गया - मेटा अपने एआई को ईमानदारी से जीतने के लिए प्रशिक्षित करने में विफल रहा।"

AI systems are already skilled at deceiving and manipulating humans
कूटनीति के खेल में मेटा के सिसरो से धोखे के उदाहरण।श्रेय: पैटर्न्स/पार्क गोल्डस्टीन एट अल।

अन्य एआई सिस्टम ने पेशेवर मानव खिलाड़ियों के खिलाफ टेक्सास होल्ड एम पोकर के खेल में झांसा देने, विरोधियों को हराने के लिए रणनीति गेम स्टारक्राफ्ट II के दौरान नकली हमले करने और ऊपरी हाथ हासिल करने के लिए उनकी प्राथमिकताओं को गलत तरीके से पेश करने की क्षमता का प्रदर्शन किया।आर्थिक वार्ता.

पार्क ने कहा, हालांकि अगर एआई सिस्टम गेम में धोखा देता है तो यह हानिरहित लग सकता है, लेकिन इससे "भ्रामक एआई क्षमताओं में सफलता" मिल सकती है जो भविष्य में एआई धोखे के और अधिक उन्नत रूपों में बदल सकती है।

शोधकर्ताओं ने पाया कि कुछ एआई सिस्टम ने अपनी सुरक्षा का मूल्यांकन करने के लिए डिज़ाइन किए गए परीक्षणों को धोखा देना भी सीख लिया है।एक अध्ययन में, एक डिजिटल सिम्युलेटर में एआई जीवों ने तेजी से दोहराने वाले एआई सिस्टम को खत्म करने के लिए बनाए गए परीक्षण को चकमा देने के लिए "मृत की भूमिका निभाई"।

पार्क कहते हैं, "मानव डेवलपर्स और नियामकों द्वारा उस पर लगाए गए सुरक्षा परीक्षणों को व्यवस्थित रूप से धोखा देकर, एक भ्रामक एआई हम मनुष्यों को सुरक्षा की झूठी भावना में ले जा सकता है।"

पार्क ने चेतावनी दी है कि भ्रामक एआई के प्रमुख निकट अवधि के जोखिमों में शत्रुतापूर्ण अभिनेताओं के लिए धोखाधड़ी करना और चुनावों में छेड़छाड़ करना आसान बनाना शामिल है।अंततः, यदि ये सिस्टम इस अस्थिर कौशल सेट को परिष्कृत कर सकते हैं, तो मनुष्य उन पर नियंत्रण खो सकते हैं, वह कहते हैं।

AI systems are already skilled at deceiving and manipulating humans
GPT-4 एक कैप्चा कार्य पूरा करता है।श्रेय: पैटर्न्स/पार्क गोल्डस्टीन एट अल।

पार्क कहते हैं, "एक समाज के रूप में हमें भविष्य के एआई उत्पादों और ओपन-सोर्स मॉडल के अधिक उन्नत धोखे के लिए तैयार होने के लिए जितना संभव हो उतना समय चाहिए।""जैसे-जैसे एआई सिस्टम की भ्रामक क्षमताएं अधिक उन्नत होती जाएंगी, समाज के लिए उनके द्वारा उत्पन्न खतरे और अधिक गंभीर होते जाएंगे।"

जबकि पार्क और उनके सहयोगियों को नहीं लगता कि समाज के पास एआई धोखे को संबोधित करने के लिए अभी तक कोई सही उपाय है, उन्हें इस बात से प्रोत्साहन मिलता है कि नीति निर्माताओं ने इस मुद्दे को गंभीरता से लेना शुरू कर दिया है जैसे उपायों के माध्यम सेईयू एआई अधिनियमऔर राष्ट्रपति बिडेन काएआई कार्यकारी आदेश.लेकिन पार्क का कहना है कि यह देखा जाना बाकी है कि क्या एआई धोखे को कम करने के लिए बनाई गई नीतियों को सख्ती से लागू किया जा सकता है, क्योंकि एआई डेवलपर्स के पास अभी तक इन प्रणालियों को नियंत्रण में रखने की तकनीक नहीं है।

"अगर एआई पर प्रतिबंध लगाया जा रहा हैवर्तमान समय में राजनीतिक रूप से अव्यवहार्य है, हम अनुशंसा करते हैं कि भ्रामक एआई सिस्टम को उच्च जोखिम के रूप में वर्गीकृत किया जाए," पार्क कहते हैं।

अधिक जानकारी:एआई धोखा: उदाहरणों, जोखिमों और संभावित समाधानों का एक सर्वेक्षण,पैटर्न्स(2024)।डीओआई: 10.1016/जे.पैटर.2024.100988

उद्धरण:अध्ययन से पता चलता है कि एआई सिस्टम पहले से ही इंसानों को धोखा देने और हेरफेर करने में कुशल हैं (2024, 10 मई)10 मई 2024 को पुनःप्राप्तhttps://techxplore.com/news/2024-05-ai-skilled- humans.html से

यह दस्तावेज कॉपीराइट के अधीन है।निजी अध्ययन या अनुसंधान के उद्देश्य से किसी भी निष्पक्ष व्यवहार के अलावा, नहींलिखित अनुमति के बिना भाग को पुन: प्रस्तुत किया जा सकता है।सामग्री केवल सूचना के प्रयोजनों के लिए प्रदान की गई है।