How AI can help stop the spread of misinformation
यदि कोई अधिक खुश है, तो वह सच बोल रहा है और अन्य दृश्य, मौखिक, मौखिक संकेत भी हैं जो हम मनुष्य के रूप में साझा करते हैं जब हम ईमानदार होते हैं।एल्गोरिदम इन सहसंबंधों को उजागर करने में बेहतर काम करते हैं।श्रेय: यूसी सैन डिएगो।

कैलिफोर्निया विश्वविद्यालय, सैन डिएगो के रेडी स्कूल ऑफ मैनेजमेंट के नए शोध के अनुसार, उच्च जोखिम वाली रणनीतिक बातचीत के दौरान झूठ का पता लगाने में मशीन लर्निंग एल्गोरिदम मानव निर्णय से बेहतर प्रदर्शन करते हैं।

इस अध्ययन का गलत सूचना के प्रसार पर बड़ा असर हो सकता हैइसका उपयोग यूट्यूब, टिक-टोक और इंस्टाग्राम जैसे प्रमुख प्लेटफार्मों पर काल्पनिक सामग्री को कम करने के प्रयासों को मजबूत करने के लिए किया जा सकता है।

अध्ययन, में प्रकाशित किया जाएगाप्रबंधन विज्ञानऔर एक के रूप में उपलब्ध हैकाम करने वाला कागज़2007 से 2010 तक प्रसारित लोकप्रिय ब्रिटिश टीवी शो "गोल्डन बॉल्स" में प्रतिभागियों की झूठ का पता लगाने की क्षमता पर ध्यान केंद्रित किया गया। इसमें पाया गया कि जहां मनुष्य प्रतियोगियों के धोखे वाले व्यवहार की भविष्यवाणी करने के लिए संघर्ष करते हैं, वहीं एल्गोरिदम बहुत बेहतर प्रदर्शन करते हैं।

अध्ययन के मुख्य लेखक और यूसी सैन डिएगो रेडी स्कूल ऑफ मैनेजमेंट में व्यवहारिक अर्थशास्त्र के एसोसिएट प्रोफेसर मार्टा सेरा-गार्सिया ने कहा, "हमने पाया है कि जब कोई व्यक्ति धोखा दे रहा होता है तो कुछ निश्चित 'बताते' हैं।"

"उदाहरण के लिए, यदि कोई अधिक खुश है, तो वह सच बोल रहा है और अन्य दृश्य, मौखिक, मुखर संकेत हैं जो हम इंसानों के रूप में साझा करते हैं जब हम ईमानदार होते हैं और सच बोलते हैं। एल्गोरिदम इन सहसंबंधों को उजागर करने में बेहतर काम करते हैं।"

शोध में उपयोग किए गए एल्गोरिदम ने एक प्रभावशाली सटीकता दर हासिल की, जिससे 74% समय प्रतियोगी व्यवहार की सही भविष्यवाणी की गई, जबकि अध्ययन में भाग लेने वाले 600 से अधिक मनुष्यों द्वारा हासिल की गई 51%-53% सटीकता दर की तुलना में।

धोखे का पता लगाने के लिए मशीन लर्निंग और मानवीय क्षमताओं की तुलना करने के अलावा, अध्ययन में यह भी परीक्षण किया गया कि लोगों को झूठ बोलने वालों और सच बोलने वालों के बीच बेहतर अंतर बताने में मदद करने के लिए एल्गोरिदम का लाभ कैसे उठाया जा सकता है।

एक प्रयोग में, अध्ययन प्रतिभागियों के दो अलग-अलग समूहों ने "गोल्डन बॉल्स" एपिसोड का एक ही सेट देखा।एक समूह के पास वीडियो देखने से पहले मशीन लर्निंग द्वारा चिह्नित किए गए थे।झंडों से संकेत मिलता है किभविष्यवाणी की गई कि प्रतियोगी संभवतः झूठ बोल रहा है।

एक अन्य समूह ने वही वीडियो देखा और देखने के बाद, उन्हें बताया गया कि एल्गोरिदम ने धोखे के लिए वीडियो को चिह्नित किया है।यदि प्रतिभागियों को वीडियो देखने से पहले फ़्लैग संदेश मिल गया, तो मशीन लर्निंग की अंतर्दृष्टि पर भरोसा करने और झूठ बोलने की बेहतर भविष्यवाणी करने की अधिक संभावना थी।

सेरा-गार्सिया ने कहा, "जब एल्गोरिथम सलाह को अपनाने की बात आती है तो समय महत्वपूर्ण है।""हमारे निष्कर्षों से पता चलता है कि प्रतिभागियों को एल्गोरिथम अंतर्दृष्टि पर भरोसा करने की अधिक संभावना है जब इन्हें शुरुआत में प्रस्तुत किया जाता है.यूट्यूब और टिकटॉक जैसे ऑनलाइन प्लेटफॉर्म के लिए इसका विशेष महत्व है, जो संभावित भ्रामक सामग्री को चिह्नित करने के लिए एल्गोरिदम का उपयोग कर सकते हैं।"

रेडी स्कूल में व्यवहारिक अर्थशास्त्र के प्रोफेसर, सह-लेखक उरी गनीजी ने कहा, "हमारे अध्ययन से पता चलता है कि ये ऑनलाइन प्लेटफ़ॉर्म उपयोगकर्ताओं को सामग्री के साथ संलग्न होने से पहले एल्गोरिदमिक चेतावनियां पेश करके अपने फ़्लैगिंग सिस्टम की प्रभावशीलता में सुधार कर सकते हैं, जो आगे बढ़ सकता हैगलत सूचना कम तेजी से फैलती है।"

इनमें से कुछ सोशल मीडिया वेबसाइटें पहले से ही संदिग्ध सामग्री का पता लगाने के लिए एल्गोरिदम का उपयोग कर रही हैं, लेकिन कई मामलों में, एक वीडियो को उपयोगकर्ता द्वारा रिपोर्ट किया जाना चाहिए और फिर कर्मचारियों द्वारा जांच की जानी चाहिए जो सामग्री को चिह्नित कर सकते हैं या इसे हटा सकते हैं।इन प्रक्रियाओं को आगे बढ़ाया जा सकता है, क्योंकि टिकटॉक जैसी तकनीकी कंपनियों के कर्मचारियों पर जांच का बोझ बढ़ जाता है।

लेखकों ने निष्कर्ष निकाला, "हमारा अध्ययन दिखाता है कि प्रौद्योगिकी मानव निर्णय लेने को कैसे बढ़ा सकती है और यह इस बात का उदाहरण है कि जब एआई मददगार हो सकता है तो मनुष्य एआई के साथ कैसे बातचीत कर सकते हैं। हमें उम्मीद है कि निष्कर्ष संगठनों और प्लेटफार्मों को विशेष रूप से मशीन लर्निंग टूल को बेहतर डिजाइन और तैनात करने में मदद कर सकते हैं।ऐसी स्थितियों में जहां सटीक निर्णय लेना महत्वपूर्ण है।"

उद्धरण:एआई गलत सूचना के प्रसार को रोकने में कैसे मदद कर सकता है (2024, 17 सितंबर)17 सितंबर 2024 को पुनः प्राप्तhttps://techxplore.com/news/2024-09-ai-misinformation.html से

यह दस्तावेज कॉपीराइट के अधीन है।निजी अध्ययन या अनुसंधान के उद्देश्य से किसी भी निष्पक्ष व्यवहार के अलावा, नहींलिखित अनुमति के बिना भाग को पुन: प्रस्तुत किया जा सकता है।सामग्री केवल सूचना के प्रयोजनों के लिए प्रदान की गई है।