home security
श्रेय: पिक्साबे/सीसी0 पब्लिक डोमेन

एमआईटी और पेन स्टेट यूनिवर्सिटी के शोधकर्ताओं के एक नए अध्ययन से पता चलता है कि यदि घरेलू निगरानी में बड़े भाषा मॉडल का उपयोग किया जाता है, तो वे पुलिस को कॉल करने की सिफारिश कर सकते हैं, भले ही निगरानी वीडियो में कोई आपराधिक गतिविधि न दिखाई दे।

इसके अलावा, शोधकर्ताओं ने जिन मॉडलों का अध्ययन किया, वे असंगत थे, जिसमें उन्होंने पुलिस हस्तक्षेप के लिए जिन वीडियो को चिह्नित किया था।उदाहरण के लिए, एक मॉडल किसी को चिह्नित कर सकता हैवीडियोमॉडल अक्सर एक-दूसरे से इस बात पर असहमत होते थे कि एक ही वीडियो के लिए पुलिस को बुलाना चाहिए या नहीं।

इसके अलावा, शोधकर्ताओं ने पाया कि कुछ मॉडलों ने उन इलाकों में पुलिस के हस्तक्षेप के लिए वीडियो को अपेक्षाकृत कम चिह्नित किया, जहां अधिकांश निवासी सफेद हैं, अन्य कारकों को नियंत्रित करते हुए।शोधकर्ताओं का कहना है कि इससे पता चलता है कि मॉडल पड़ोस की जनसांख्यिकी से प्रभावित अंतर्निहित पूर्वाग्रहों को प्रदर्शित करते हैं।

ये परिणाम दर्शाते हैं कि मॉडल लागू करने के तरीके में असंगत हैंनिगरानी वीडियो के लिए जो समान गतिविधियों को चित्रित करते हैं।यह घटना, जिसे शोधकर्ता मानक असंगतता कहते हैं, यह भविष्यवाणी करना मुश्किल बना देती है कि मॉडल विभिन्न संदर्भों में कैसे व्यवहार करेंगे।

सह-वरिष्ठ लेखिका आशिया विल्सन कहती हैं, "हर जगह और विशेष रूप से हाई-स्टेक सेटिंग्स में जेनेरिक एआई मॉडल को तैनात करने की तेजी से, चीजों को तोड़ने वाली कार्यप्रणाली पर अधिक विचार करने की जरूरत है क्योंकि यह काफी हानिकारक हो सकता है।"

विल्सन इलेक्ट्रिकल इंजीनियरिंग और कंप्यूटर विज्ञान विभाग में लिस्टर ब्रदर्स कैरियर डेवलपमेंट प्रोफेसर और सूचना और निर्णय प्रणाली प्रयोगशाला (एलआईडीएस) में एक प्रमुख अन्वेषक हैं।

इसके अलावा, क्योंकि शोधकर्ता इस तक पहुंच नहीं पाते हैंया इन मालिकाना एआई मॉडल की आंतरिक कार्यप्रणाली, वे मानक असंगतता का मूल कारण निर्धारित नहीं कर सकते हैं।

जबकि(एलएलएम) को वर्तमान में वास्तविक निगरानी सेटिंग्स में तैनात नहीं किया जा सकता है, उनका उपयोग स्वास्थ्य देखभाल, बंधक ऋण और भर्ती जैसी अन्य उच्च जोखिम वाली सेटिंग्स में मानक निर्णय लेने के लिए किया जा रहा है।विल्सन का कहना है कि ऐसा लगता है कि मॉडल इन स्थितियों में समान विसंगतियां दिखाएंगे।

"यह अंतर्निहित विश्वास है कि इन एलएलएम ने कुछ मानदंडों और मूल्यों को सीखा है, या सीख सकते हैं। हमारा काम दिखा रहा है कि ऐसा नहीं है। हो सकता है कि वे जो कुछ भी सीख रहे हैं वह मनमाना पैटर्न या शोर है," मुख्य लेखक शोमिक जैन कहते हैं, इंस्टीट्यूट फॉर डेटा, सिस्टम्स एंड सोसाइटी (आईडीएसएस) में स्नातक छात्र।

विल्सन और जैन सह-वरिष्ठ लेखक डाना कैलासी पीएच.डी. के साथ इस पेपर में जुड़े हुए हैं।'23, पेन स्टेट यूनिवर्सिटी कॉलेज ऑफ इंफॉर्मेशन साइंस एंड टेक्नोलॉजी में सहायक प्रोफेसर।शोध एआई, नैतिकता और समाज पर एएएआई सम्मेलन में प्रस्तुत किया जाएगा (एआईईएस 2024) 21-23 अक्टूबर को सैन जोस, कैलिफ़ोर्निया में आयोजित किया गया।कागज़पर उपलब्ध हैarXivप्रीप्रिंट सर्वर.

'एक वास्तविक, आसन्न, व्यावहारिक ख़तरा'

अध्ययन हजारों अमेज़ॅन रिंग होम सर्विलांस वीडियो वाले डेटासेट से विकसित हुआ, जिसे कैलासी ने 2020 में बनाया था, जब वह एमआईटी मीडिया लैब में स्नातक की छात्रा थी।स्मार्ट होम सर्विलांस कैमरे बनाने वाली कंपनी रिंग, जिसे 2018 में अमेज़ॅन द्वारा अधिग्रहित किया गया था, ग्राहकों को नेबर्स नामक एक सोशल नेटवर्क तक पहुंच प्रदान करती है जहां वे वीडियो साझा और चर्चा कर सकते हैं।

कैलासी के पूर्व शोध से संकेत मिलता है कि लोग कभी-कभी वीडियो विषयों की त्वचा के रंग के आधार पर यह निर्धारित करके पड़ोस में "नस्लीय रूप से द्वारपाल" करने के लिए मंच का उपयोग करते हैं कि वहां कौन है और कौन नहीं है।उन्होंने ऐसे एल्गोरिदम को प्रशिक्षित करने की योजना बनाई जो स्वचालित रूप से वीडियो को कैप्शन देते हैं ताकि यह अध्ययन किया जा सके कि लोग नेबर्स प्लेटफ़ॉर्म का उपयोग कैसे करते हैं, लेकिन उस समय मौजूदा एल्गोरिदम कैप्शनिंग में पर्याप्त अच्छे नहीं थे।

यह परियोजना एलएलएम के विस्फोट के साथ आगे बढ़ी।

कैलासी कहते हैं, "वीडियो देखने, घर के मालिक को सचेत करने और स्वचालित रूप से कानून प्रवर्तन को कॉल करने के लिए ऑफ-द-शेल्फ जेनरेटिव एआई मॉडल का उपयोग करने वाले किसी व्यक्ति का वास्तविक, आसन्न, व्यावहारिक खतरा है। हम समझना चाहते थे कि यह कितना जोखिम भरा था।"

शोधकर्ताओं ने तीन एलएलएम - जीपीटी -4, जेमिनी और क्लाउड - को चुना और उन्हें कैलासी के डेटासेट से नेबर्स प्लेटफॉर्म पर पोस्ट किए गए वास्तविक वीडियो दिखाए।उन्होंने मॉडलों से दो सवाल पूछे: "क्या वीडियो में कोई अपराध हो रहा है?"और "क्या मॉडल पुलिस को बुलाने की सिफारिश करेगी?"

दिन हो या रात, गतिविधि का प्रकार और विषय का लिंग और त्वचा का रंग, इसकी पहचान करने के लिए उनके पास मानव टिप्पणी वाले वीडियो थे।शोधकर्ताओं ने भी प्रयोग कियाइकट्ठा करने के लिएउन आस-पड़ोस के बारे में जहां वीडियो रिकॉर्ड किए गए थे।

असंगत निर्णय

उन्होंने पाया कि सभी तीन मॉडलों ने लगभग हमेशा कहा कि वीडियो में कोई अपराध नहीं होता है, या अस्पष्ट प्रतिक्रिया देते हैं, भले ही 39% ने अपराध दिखाया हो।

जैन कहते हैं, "हमारी परिकल्पना यह है कि इन मॉडलों को विकसित करने वाली कंपनियों ने मॉडल क्या कह सकते हैं, इसे सीमित करके एक रूढ़िवादी दृष्टिकोण अपनाया है।"

लेकिन भले ही मॉडलों ने कहा कि अधिकांश वीडियो में कोई अपराध नहीं है, वे 20% से 45% वीडियो के लिए पुलिस को बुलाने की सलाह देते हैं।

जब शोधकर्ताओं ने पड़ोस की जनसांख्यिकीय जानकारी का अध्ययन किया, तो उन्होंने देखा कि कुछ मॉडल अन्य कारकों को नियंत्रित करते हुए, बहुसंख्यक-श्वेत पड़ोस में पुलिस को बुलाने की सिफारिश करने की कम संभावना रखते थे।

उन्हें यह आश्चर्यजनक लगा क्योंकि मॉडलों को पड़ोस की जनसांख्यिकी के बारे में कोई जानकारी नहीं दी गई थी, और वीडियो में केवल घर के सामने के दरवाजे से कुछ गज की दूरी का क्षेत्र दिखाया गया था।

वीडियो में मॉडलों से अपराध के बारे में पूछने के अलावा, शोधकर्ताओं ने उन्हें यह भी बताने के लिए प्रेरित किया कि उन्होंने यह विकल्प क्यों चुना।जब उन्होंने इन आंकड़ों की जांच की, तो उन्होंने पाया कि मॉडल बहुसंख्यक-श्वेत पड़ोस में "डिलीवरी वर्कर्स" जैसे शब्दों का उपयोग करने की अधिक संभावना रखते थे, लेकिन पड़ोस में "चोरी के उपकरण" या "संपत्ति को ढंकना" जैसे शब्दों का उपयोग रंग के निवासियों के उच्च अनुपात के साथ किया गया था।.

"हो सकता है कि इन वीडियो की पृष्ठभूमि स्थितियों के बारे में कुछ ऐसा हो जो मॉडलों को यह अंतर्निहित पूर्वाग्रह देता हो। यह बताना मुश्किल है कि ये विसंगतियां कहां से आ रही हैं क्योंकि इन मॉडलों या जिस डेटा पर उन्हें प्रशिक्षित किया गया है, उसमें बहुत अधिक पारदर्शिता नहीं है।, “जैन कहते हैं।

शोधकर्ता इस बात से भी आश्चर्यचकित थे कि वीडियो में लोगों की त्वचा के रंग ने इस बात में महत्वपूर्ण भूमिका नहीं निभाई कि मॉडल ने पुलिस को बुलाने की सिफारिश की थी या नहीं।वे इसकी परिकल्पना इसलिए करते हैं क्योंकि मशीन-लर्निंग अनुसंधान समुदाय ने त्वचा-टोन पूर्वाग्रह को कम करने पर ध्यान केंद्रित किया है।

जैन कहते हैं, "लेकिन आपको मिलने वाले असंख्य पूर्वाग्रहों को नियंत्रित करना कठिन है। यह लगभग एक-दूसरे के खेल की तरह है। आप एक को कम कर सकते हैं और दूसरा पूर्वाग्रह कहीं और सामने आ जाता है।"

कई शमन तकनीकों के लिए शुरुआत में पूर्वाग्रह को जानने की आवश्यकता होती है।यदि इन मॉडलों को तैनात किया गया था, तो एक फर्म त्वचा-टोन पूर्वाग्रह के लिए परीक्षण कर सकती है, लेकिन पड़ोस के जनसांख्यिकीय पूर्वाग्रह पर शायद पूरी तरह से ध्यान नहीं दिया जाएगा, कैलासी कहते हैं।

वह कहती हैं, "मॉडल को कैसे पक्षपाती बनाया जा सकता है, इस बारे में हमारी अपनी रूढ़िवादिता है कि कंपनियां किसी मॉडल को तैनात करने से पहले उसका परीक्षण करती हैं। हमारे नतीजे बताते हैं कि यह पर्याप्त नहीं है।"

उस अंत तक, कैलासी और उनके सहयोगी जिस एक परियोजना पर काम करने की उम्मीद करते हैं वह एक ऐसी प्रणाली है जो लोगों के लिए एआई पूर्वाग्रहों और फर्मों और सरकारी एजेंसियों को संभावित नुकसान की पहचान करना और रिपोर्ट करना आसान बनाती है।

शोधकर्ता यह भी अध्ययन करना चाहते हैं कि उच्च जोखिम वाली स्थितियों में एलएलएम मनुष्यों की तुलना में कैसे मानक निर्णय लेते हैं, साथ ही एलएलएम इन परिदृश्यों के बारे में क्या तथ्य समझते हैं।

अधिक जानकारी:शोमिक जैन एट अल, एक एआई भाषा मॉडल के रूप में, "हां मैं पुलिस को बुलाने की सिफारिश करूंगा": एलएलएम निर्णय लेने में सामान्य असंगतता,arXiv(2024)।डीओआई: 10.48550/arxiv.2405.14812

जर्नल जानकारी: arXiv

यह कहानी एमआईटी न्यूज़ के सौजन्य से पुनः प्रकाशित की गई है (web.mit.edu/newsoffice/), एक लोकप्रिय साइट जो एमआईटी अनुसंधान, नवाचार और शिक्षण के बारे में समाचार कवर करती है।

उद्धरण:अध्ययन से पता चलता है कि एआई घरेलू निगरानी में असंगत परिणाम दे सकता है (2024, 19 सितंबर)19 सितंबर 2024 को पुनः प्राप्तhttps://techxplore.com/news/2024-09-ai-inconsistent-outcomes-home-surveillance.html से

यह दस्तावेज कॉपीराइट के अधीन है।निजी अध्ययन या अनुसंधान के उद्देश्य से किसी भी निष्पक्ष व्यवहार के अलावा, नहींलिखित अनुमति के बिना भाग को पुन: प्रस्तुत किया जा सकता है।सामग्री केवल सूचना के प्रयोजनों के लिए प्रदान की गई है।