Humanising AI could lead us to dehumanise ourselves
रेप्लिका के सहायता पृष्ठ बनाम विज्ञापन पर विरोधाभासी जानकारी का स्क्रीनशॉट।

आयरिश लेखक जॉन कोनोलीएक बार कहा था: "मानवता की प्रकृति, उसका सार, दूसरे के दर्द को अपने दर्द के रूप में महसूस करना और उस दर्द को दूर करने के लिए कार्य करना है।"

हमारे अधिकांश इतिहास में, हमारा मानना ​​था कि सहानुभूति एक विशिष्ट मानवीय गुण है - एक विशेष क्षमता जो हमें मशीनों और अन्य जानवरों से अलग करती है।लेकिन अब इस मान्यता को चुनौती मिल रही है.

जैसे-जैसे एआई हमारे जीवन का एक बड़ा हिस्सा बनता जा रहा है, यहां तक ​​कि हमारे सबसे अंतरंग क्षेत्रों में भी प्रवेश कर रहा है, हमें एक दार्शनिक पहेली का सामना करना पड़ रहा है: क्या एआई को मानवीय गुणों का श्रेय देने से हमारा अपना मानवीय सार कम हो सकता है?हमाराअनुसंधानसुझाव देता है कि यह हो सकता है।

डिजिटलीकरण साहचर्य

हाल के वर्षों में, रेप्लिका जैसे एआई "साथी" ऐप्स ने लाखों उपयोगकर्ताओं को आकर्षित किया है।रेप्लिका उपयोगकर्ताओं को अंतरंग बातचीत में शामिल होने के लिए कस्टम डिजिटल पार्टनर बनाने की अनुमति देता है।सदस्य जो भुगतान करते हैंप्रतिकृति प्रोयहां तक ​​कि वे अपने AI को "रोमांटिक पार्टनर" में भी बदल सकते हैं।

भौतिक एआई साथी भी पीछे नहीं हैं।JoyLoveDolls जैसी कंपनियां बेच रही हैंइंटरैक्टिव सेक्स रोबोटस्तन के आकार, जातीयता, चाल और एआई प्रतिक्रियाओं जैसे कराहना और छेड़खानी सहित अनुकूलन योग्य सुविधाओं के साथ।

जबकि यह वर्तमान में एइतिहास बताता है कि आज के डिजिटल रुझान कल के वैश्विक मानदंड बन जाएंगे।के बारे मेंचार में से एकअकेलेपन का अनुभव करने वाले वयस्कों के लिए, AI साथियों की मांग बढ़ेगी।

एआई को मानवीकृत करने के खतरे

मनुष्य ने लंबे समय से मानवीय गुणों को गैर-मानवीय संस्थाओं के लिए जिम्मेदार ठहराया है - एक प्रवृत्ति जिसे मानवरूपता के रूप में जाना जाता है।इसमें कोई आश्चर्य की बात नहीं है कि हम चैटजीपीटी जैसे एआई टूल के साथ ऐसा कर रहे हैं, जो "सोचने" और "महसूस करने" के लिए प्रतीत होता है।लेकिन AI का मानवीकरण एक समस्या क्यों है?

एक बात के लिए, यह एआई कंपनियों को मानव जैसी संस्थाओं के साथ जुड़ाव बनाने की हमारी प्रवृत्ति का फायदा उठाने की अनुमति देता है।प्रतिकृति हैबेचा"एआई साथी जो परवाह करता है" के रूप में।हालाँकि, बचने के लिए, कंपनी अन्यत्र बताती है कि रेप्लिका संवेदनशील नहीं है और केवल लाखों उपयोगकर्ता इंटरैक्शन के माध्यम से सीखती है।

कुछ AI कंपनियाँ खुलेआमदावाउनके एआई सहायकों में सहानुभूति है और वे मानवीय जरूरतों का अनुमान भी लगा सकते हैं।इस तरह के दावे भ्रामक हैं और साथी चाहने वाले लोग इसका फायदा उठा सकते हैं।यदि उपयोगकर्ताओं को विश्वास हो कि उनका एआई साथी वास्तव में उन्हें समझता है, तो वे गहराई से भावनात्मक रूप से निवेशित हो सकते हैं।

इससे गंभीर नैतिक चिंताएँ पैदा होती हैं।एक उपयोगकर्तासंकोच करेंगेएक बार अपने एआई साथी को किसी प्रकार की भावना के लिए जिम्मेदार ठहराने के बाद उसे हटाना (अर्थात् "त्यागना" या "मारना")।

लेकिन तब क्या होता है जब उक्त साथी अप्रत्याशित रूप से गायब हो जाता है, जैसे कि यदि उपयोगकर्ता अब इसे वहन नहीं कर सकता है, या यदि इसे चलाने वाली कंपनी बंद हो जाती है?हालाँकि साथी वास्तविक नहीं हो सकता है, लेकिन उससे जुड़ी भावनाएँ वास्तविक होती हैं।

सहानुभूति - एक प्रोग्रामयोग्य आउटपुट से कहीं अधिक

प्रोग्रामयोग्य आउटपुट में सहानुभूति को कम करके, क्या हम इसके वास्तविक सार को कम करने का जोखिम उठाते हैं?इसका उत्तर देने के लिए, आइए पहले सोचें कि सहानुभूति वास्तव में क्या है।

सहानुभूति में अन्य लोगों को समझ और चिंता के साथ प्रतिक्रिया देना शामिल है।यह तब होता है जब आप अपने मित्र के दुःख को साझा करते हैं जैसे वे आपको अपने दिल के दर्द के बारे में बताते हैं, या जब आप किसी ऐसे व्यक्ति से खुशी महसूस करते हैं जिसकी आप परवाह करते हैं।यह एक गहन अनुभव है - माप के सरल रूपों से समृद्ध और परे।

मनुष्य और एआई के बीच एक बुनियादी अंतर यह है कि मनुष्य वास्तव में भावनाओं को महसूस करता है, जबकि एआई केवल उनका अनुकरण कर सकता है।यह छूता हैचेतना की कठिन समस्या, जो सवाल उठाता है कि मस्तिष्क में शारीरिक प्रक्रियाओं से व्यक्तिपरक मानवीय अनुभव कैसे उत्पन्न होते हैं।

जबकि एआई समझ का अनुकरण कर सकता है, कोई भी "सहानुभूति" जो इसका तात्पर्य है वह प्रोग्रामिंग का परिणाम है जो सहानुभूतिपूर्ण भाषा पैटर्न की नकल करता है।दुर्भाग्य से, एआई प्रदाताओं के पास उपयोगकर्ताओं को उनके प्रतीत होने वाले सहानुभूतिपूर्ण उत्पादों से जुड़ने के लिए बरगलाने के लिए वित्तीय प्रोत्साहन है।

अमानवीयकरण परिकल्पना

हमारी "अमानवीयकरण परिकल्पना" उन नैतिक चिंताओं पर प्रकाश डालती है जो मनुष्यों को कुछ बुनियादी कार्यों तक सीमित करने की कोशिश से आती हैं जिन्हें एक मशीन द्वारा दोहराया जा सकता है।जितना अधिक हम एआई को मानवीय बनाते हैं, उतना ही अधिक हम स्वयं को अमानवीय बनाने का जोखिम उठाते हैं।

उदाहरण के लिए, भावनात्मक श्रम के लिए एआई पर निर्भर रहने से हम वास्तविक रिश्तों की खामियों के प्रति कम सहनशील हो सकते हैं।इससे हमारे सामाजिक बंधन कमजोर हो सकते हैं और यहां तक ​​कि भावनात्मक पतन भी हो सकता है।भावी पीढ़ियाँ कम सहानुभूतिशील हो सकती हैं - आवश्यक मानवीय गुणों पर उनकी पकड़ ख़त्म हो सकती है क्योंकि भावनात्मक कौशलों का विपणन और स्वचालितीकरण जारी है।

साथ ही, जैसे-जैसे एआई साथी अधिक सामान्य होते जा रहे हैं, लोग वास्तविक मानवीय रिश्तों को बदलने के लिए उनका उपयोग कर सकते हैं।इससे संभवतः अकेलापन और अलगाव बढ़ेगा - ये वही मुद्दे हैं जिनसे ये प्रणालियाँ मदद करने का दावा करती हैं।

एआई कंपनियों के भावनात्मक डेटा का संग्रह और विश्लेषण भी महत्वपूर्ण जोखिम पैदा करता है, क्योंकि इन डेटा का उपयोग उपयोगकर्ताओं को हेरफेर करने और लाभ को अधिकतम करने के लिए किया जा सकता है।इससे हमारी गोपनीयता और स्वायत्तता और भी कम हो जाएगी, जिससे निगरानी पूंजीवाद अगले स्तर पर पहुंच जाएगा।

प्रदाताओं को जवाबदेह बनाना

एआई प्रदाताओं को जवाबदेह बनाए रखने के लिए नियामकों को और अधिक प्रयास करने की आवश्यकता है।एआई कंपनियों को इस बारे में ईमानदार होना चाहिए कि उनका एआई क्या कर सकता है और क्या नहीं, खासकर जब वे उपयोगकर्ताओं की भावनात्मक कमजोरियों का फायदा उठाने का जोखिम उठाते हैं।

"वास्तविक" के अतिरंजित दावे" इसे अवैध बनाया जाना चाहिए। ऐसे दावे करने वाली कंपनियों पर जुर्माना लगाया जाना चाहिए और बार-बार उल्लंघन करने वालों को बंद कर देना चाहिए।

डेटा गोपनीयता नीतियां भी स्पष्ट, निष्पक्ष और छिपी हुई शर्तों के बिना होनी चाहिए जो कंपनियों को उपयोगकर्ता-जनित सामग्री का शोषण करने की अनुमति देती हैं।

हमें उन अद्वितीय गुणों को संरक्षित करना चाहिए जो मानवीय अनुभव को परिभाषित करते हैं।हालाँकि AI जीवन के कुछ पहलुओं को बढ़ा सकता है, लेकिन यह वास्तविक मानवीय संबंध को प्रतिस्थापित नहीं कर सकता है और न ही करना चाहिए।

यह आलेख से पुनः प्रकाशित किया गया हैबातचीतक्रिएटिव कॉमन्स लाइसेंस के तहत।को पढ़िएमूल लेख.The Conversation

उद्धरण:एआई का मानवीकरण हमें स्वयं को अमानवीय बनाने की ओर ले जा सकता है (2024, 21 अक्टूबर)21 अक्टूबर 2024 को पुनः प्राप्तhttps://techxplore.com/news/2024-10- humaneasing-ai-de humanize.html से

यह दस्तावेज कॉपीराइट के अधीन है।निजी अध्ययन या अनुसंधान के उद्देश्य से किसी भी निष्पक्ष व्यवहार के अलावा, नहींलिखित अनुमति के बिना भाग को पुन: प्रस्तुत किया जा सकता है।सामग्री केवल सूचना के प्रयोजनों के लिए प्रदान की गई है।