Insider Q&A: Trust and safety exec talks about AI and content moderation
श्रेय: एपी इलस्ट्रेशन/जेनी सोहन

एलेक्स पॉपकेन 2023 में जाने से पहले ट्विटर पर एक लंबे समय तक ट्रस्ट और सुरक्षा कार्यकारी थे, जो सामग्री मॉडरेशन पर ध्यान केंद्रित कर रहे थे। वह 2013 में शुरू होने पर ट्विटर के विज्ञापन व्यवसाय को मॉडरेट करने के लिए समर्पित पहली कर्मचारी थीं।

अब, वह WebPurify में विश्वास और सुरक्षा की उपाध्यक्ष हैं, जो एक कंटेंट मॉडरेशन सेवा प्रदाता है जो व्यवसायों के साथ काम करके यह सुनिश्चित करने में मदद करता है कि लोग अपनी साइटों पर जो सामग्री पोस्ट करते हैं वह नियमों का पालन करती है।

केवल सोशल मीडिया प्लेटफ़ॉर्म ही ऐसे प्लेटफ़ॉर्म नहीं हैं जिन्हें पुलिसिंग की आवश्यकता है।किसी भी उपभोक्ता-उन्मुख कंपनी - खुदरा विक्रेताओं से लेकर डेटिंग ऐप्स से लेकर समाचार साइटों तक - को अवांछित सामग्री को हटाने के लिए किसी की आवश्यकता होती है, चाहे वह अभद्र भाषा, उत्पीड़न या कुछ भी अवैध हो।कंपनियां तेजी से इस्तेमाल कर रही हैंअपने प्रयासों में, लेकिन पॉपकेन का कहना है कि मनुष्य इस प्रक्रिया के लिए आवश्यक बने हुए हैं।

पॉपकेन ने हाल ही में एसोसिएटेड प्रेस से बात की।बातचीत को स्पष्टता और लंबाई के लिए संपादित किया गया है।

प्रश्न: जिस दशक में आप ट्विटर पर थे, उस दौरान आपने कंटेंट मॉडरेशन में कैसे बदलाव देखा?

उत्तर: जब मैं ट्विटर से जुड़ा, तो कंटेंट मॉडरेशन अपने शुरुआती चरण में था।मुझे लगता है कि विश्वास और सुरक्षा भी एक ऐसी अवधारणा थी जिसे लोगों ने अभी समझना और जूझना शुरू ही किया था।कंटेंट मॉडरेशन की आवश्यकता हमारे जैसे-जैसे बढ़ती गई, क्योंकि प्लेटफ़ॉर्म ने उन्हें नए तरीकों से हथियारबंद होते देखा।मैं ट्विटर पर अपने कार्यकाल के कुछ प्रमुख पड़ावों को याद कर सकता हूं।उदाहरण के लिए, 2016 के अमेरिकी युद्ध में रूसी हस्तक्षेप।, जहां हमें पहली बार एहसास हुआ, सार्थक तरीके से एहसास हुआ, कि सामग्री मॉडरेशन के बिना हमारे पास लोकतंत्र को कमजोर करने वाले बुरे कलाकार हो सकते हैं।इस क्षेत्र में निवेश की आवश्यकता और भी अधिक महत्वपूर्ण हो गई।

प्रश्न: बहुत सारी कंपनियाँ, बड़ी सोशल मीडिया कंपनियाँ सामग्री मॉडरेशन के लिए AI पर झुक रही हैं।क्या आपको लगता है कि AI अभी भी ऐसी जगह पर है जहां इस पर भरोसा करना संभव है?

उत्तर: प्रभावी सामग्री मॉडरेशन मनुष्यों और मशीनों का एक संयोजन है।एआई, जिसका उपयोग वर्षों से सीमित मात्रा में किया जा रहा है, पैमाने का समाधान करता है।और इसलिए आपके पास मशीन लर्निंग मॉडल हैं जो विभिन्न नीतियों पर प्रशिक्षित हैं और सामग्री का पता लगा सकते हैं।लेकिन अंततः, मान लीजिए कि आपके पास एक मशीन लर्निंग मॉडल है जो 'नाज़ी' शब्द का पता लगा रहा है।ऐसे बहुत से पोस्ट हैं जो नाज़ियों की आलोचना कर रहे होंगे या नाज़ियों बनाम श्वेत वर्चस्व के बारे में शैक्षिक सामग्री प्रदान कर रहे होंगे।और इसलिए यह बारीकियों और संदर्भ का समाधान नहीं कर सकता।और वास्तव में यहीं पर मानवीय परत आती है।

मुझे लगता है कि हम वास्तव में महत्वपूर्ण प्रगति देखना शुरू कर रहे हैं जो इंसान के काम को आसान बना देगी।और मुझे लगता है कि जेनरेटिव एआई इसका एक बड़ा उदाहरण है, जहां, पारंपरिक के विपरीत।एआई मॉडल, यह अपने पूर्ववर्ती की तुलना में संदर्भ और बारीकियों को कहीं अधिक समझ सकता है।लेकिन फिर भी, अब हमारे पास जनरेटिव एआई आउटपुट को मॉडरेट करने के लिए हमारे मानव मॉडरेटर के लिए पूरी तरह से नए उपयोग के मामले हैं।और इसलिए, मेरी राय में, मानवीय संयम की आवश्यकता निकट भविष्य में भी बनी रहेगी।

प्रश्न: क्या आप उन गैर-सोशल मीडिया कंपनियों के बारे में कुछ बता सकते हैं जिनके साथ आप काम करते हैं और वे किस प्रकार की सामग्री मॉडरेशन का उपयोग करते हैं?

उ: मेरा मतलब है, खुदरा उत्पाद अनुकूलन से लेकर सब कुछ, आप जानते हैं, कल्पना करें कि आप लोगों को टी-शर्ट को अनुकूलित करने की अनुमति दे रहे हैं, है ना?जाहिर है, आप उन उपयोग के मामलों से बचना चाहते हैं जिनमें लोग इसका दुरुपयोग करते हैं और टी-शर्ट पर हानिकारक, घृणित चीजें डालते हैं।

वास्तव में, कोई भी चीज़ जिसमें उपयोगकर्ता-जनित सामग्री हो, बिल्कुलâवहां, आप चालाकी और घोटालों जैसी चीजों की तलाश कर रहे हैं और यह सुनिश्चित कर रहे हैं कि लोग वैसे ही हैं जैसा वे कहते हैं और उदाहरण के लिए लोगों को अनुचित तस्वीरें अपलोड करने से रोक रहे हैं।यह कई उद्योगों तक फैला हुआ है।

प्रश्न: जिन मुद्दों पर आप नियंत्रण कर रहे हैं, क्या उनमें बदलाव आएगा?

उत्तर: सामग्री मॉडरेशन एक निरंतर विकसित होने वाला परिदृश्य है।और यह दुनिया में जो हो रहा है उससे प्रभावित है।यह नई और विकसित हो रही प्रौद्योगिकियों से प्रभावित है।यह बुरे अभिनेताओं से प्रभावित है जो नए और नवीन तरीकों से इन प्लेटफार्मों पर आने का प्रयास करेंगे।और इसलिए एक सामग्री मॉडरेशन टीम के रूप में, आप एक कदम आगे रहने और नए जोखिमों का अनुमान लगाने की कोशिश कर रहे हैं।

मुझे लगता है कि इस भूमिका में थोड़ी विनाशकारी सोच है जहां आप इस बारे में सोचते हैं कि यहां सबसे खराब स्थिति क्या हो सकती है।और निश्चित रूप से वे विकसित होते हैं।मुझे लगता है कि गलत सूचना एक बेहतरीन उदाहरण है जहां गलत सूचना के बहुत सारे पहलू हैं और इसे नियंत्रित करना बहुत कठिन काम है।यह समुद्र को उबालने जैसा है।मेरा मतलब है, आप किसी द्वारा कही गई हर बात की तथ्यात्मक जांच नहीं कर सकते, ठीक है?और इसलिए आम तौर पर प्लेटफार्मों को गलत सूचना पर ध्यान केंद्रित करने की आवश्यकता होती है न कि वास्तविक दुनिया को सबसे अधिक नुकसान पहुंचाने की।और वह भी सदैव विकसित हो रहा है।

प्रश्न: जेनेरिक एआई के संदर्भ में कुछ प्रलय का दिन है, यह सोचकर कि यह इंटरनेट को बर्बाद कर देगा, आप जानते हैं, यह सिर्फ नकली एआई सामग्री होगी।क्या आपको ऐसा लगता है कि ऐसा हो सकता है?

उत्तर: मुझे एआई-जनित गलत सूचनाओं को लेकर चिंता है, खासकर उस समय जब वैश्विक स्तर पर चुनाव का मौसम बेहद महत्वपूर्ण है।आप जानते हैं, हम सक्रिय रूप से अधिक डीपफेक और हानिकारक सिंथेटिक और हेरफेर किए गए मीडिया को ऑनलाइन देख रहे हैं, जो चिंताजनक है क्योंकि मुझे लगता है कि औसत व्यक्ति के लिए शायद कठिन समय होता है।समझदार सटीक बनाम नहीं।

मुझे लगता है कि मध्यम से दीर्घकालिक, अगर मुझे ठीक से विनियमित किया जा सकता है और अगर इसके चारों ओर उपयुक्त रेलिंग हैं, तो मुझे यह भी लगता है कि यह हमारे विश्वास और सुरक्षा चिकित्सकों के लिए एक अवसर पैदा कर सकता है।मैं करता हूं।एक ऐसी दुनिया की कल्पना करें जिसमें खतरे की खुफिया जानकारी जैसी चीजों के लिए सामग्री मॉडरेशन के टूल बेल्ट में एआई एक महत्वपूर्ण उपकरण है।आप जानते हैं, मुझे लगता है कि यह बेहद मददगार उपकरण होगा, लेकिन इसका दुरुपयोग भी होगा।और हम इसे पहले से ही देख रहे हैं।

© 2024 एसोसिएटेड प्रेस।सर्वाधिकार सुरक्षित।इस सामग्री को बिना अनुमति के प्रकाशित, प्रसारित, पुनः लिखा या पुनर्वितरित नहीं किया जा सकता है।

उद्धरण:अंदरूनी सूत्र प्रश्नोत्तर: विश्वास और सुरक्षा कार्यकारी एआई और सामग्री मॉडरेशन के बारे में बातचीत करते हैं (2024, 23 अप्रैल)23 अप्रैल 2024 को पुनः प्राप्तhttps://techxplore.com/news/2024-04-insider-qa-safety-exec-ai.html से

यह दस्तावेज कॉपीराइट के अधीन है।निजी अध्ययन या अनुसंधान के उद्देश्य से किसी भी निष्पक्ष व्यवहार के अलावा, नहींलिखित अनुमति के बिना भाग को पुन: प्रस्तुत किया जा सकता है।सामग्री केवल सूचना के प्रयोजनों के लिए प्रदान की गई है।