OpenAI says ways to verify people consented to having their voices immitated by artificial intelligence and to automatically detect audio deep fakes involving prominent people should be built in widely deployed 'synthetic voice' tools
ओपनएआई का कहना है कि कृत्रिम बुद्धिमत्ता द्वारा अपनी आवाज की नकल करने के लिए सहमत लोगों को सत्यापित करने और प्रमुख लोगों से जुड़े ऑडियो डीप फेक का स्वचालित रूप से पता लगाने के तरीकों को व्यापक रूप से तैनात 'सिंथेटिक वॉयस' टूल में बनाया जाना चाहिए।

ओपनएआई ने शुक्रवार को एक वॉयस-क्लोनिंग टूल का खुलासा किया, जिसे श्रोताओं को धोखा देने के लिए बनाए गए नकली ऑडियो को विफल करने के लिए सुरक्षा उपाय होने तक इसे सख्ती से नियंत्रित रखने की योजना है।

टूल के एक छोटे पैमाने के परीक्षण के परिणामों को साझा करने वाले OpenAI ब्लॉग पोस्ट के अनुसार, "वॉयस इंजन" नामक एक मॉडल अनिवार्य रूप से 15-सेकंड के ऑडियो नमूने के आधार पर किसी के भाषण की नकल कर सकता है।

सैन फ्रांसिस्को स्थित कंपनी ने कहा, "हम मानते हैं कि लोगों की आवाज़ से मिलता-जुलता भाषण तैयार करने में गंभीर जोखिम होते हैं, जो चुनावी वर्ष में विशेष रूप से दिमाग में सबसे ऊपर होते हैं।"

"हम सरकार, मीडिया, मनोरंजन, शिक्षा, क्षेत्र से अमेरिकी और अंतर्राष्ट्रीय साझेदारों के साथ जुड़ रहे हैं।और यह सुनिश्चित करने के लिए कि हम निर्माण करते समय उनकी प्रतिक्रिया को भी शामिल कर रहे हैं।"

दुष्प्रचार शोधकर्ताओं को डर है कि महत्वपूर्ण चुनावी वर्ष में एआई-संचालित अनुप्रयोगों का बड़े पैमाने पर दुरुपयोग हो रहा है, जिसकी वजह वॉयस क्लोनिंग टूल का प्रसार है, जो सस्ते, उपयोग में आसान और पता लगाना मुश्किल है।

इन समस्याओं को स्वीकार करते हुए, ओपनएआई ने कहा कि वह "सिंथेटिक आवाज के दुरुपयोग की संभावना के कारण व्यापक रिलीज के लिए सतर्क और सूचित दृष्टिकोण अपना रहा है।"

एक राजनीतिक सलाहकार द्वारा लंबे समय से काम करने के कुछ महीनों बाद सावधानीपूर्वक अनावरण किया गयाजो बिडेन के एक डेमोक्रेटिक प्रतिद्वंद्वी ने अमेरिकी नेता का प्रतिरूपण करने वाले एक रोबोकॉल के पीछे होने की बात स्वीकार की।

एआई-जनरेटेड कॉल, जो मिनेसोटा के कांग्रेसी डीन फिलिप्स के एक संचालक के दिमाग की उपज थी, में ऐसा लग रहा था जैसे बिडेन की आवाज लोगों से जनवरी के न्यू हैम्पशायर प्राइमरी में मतदान न करने का आग्रह कर रही हो।

इस घटना ने उन विशेषज्ञों के बीच चिंता पैदा कर दी है, जिन्हें 2024 व्हाइट हाउस की दौड़ के साथ-साथ इस साल दुनिया भर के अन्य प्रमुख चुनावों में एआई-संचालित डीपफेक दुष्प्रचार की बाढ़ की आशंका है।

ओपनएआई ने कहा कि वॉयस इंजन का परीक्षण करने वाले साझेदार नियमों पर सहमत हुए हैं, जिसमें किसी भी व्यक्ति की स्पष्ट और सूचित सहमति की आवश्यकता शामिल है, जिसकी आवाज टूल का उपयोग करके डुप्लिकेट की गई है।

कंपनी ने कहा कि दर्शकों को यह भी स्पष्ट किया जाना चाहिए कि जो आवाजें वे सुन रहे हैं वे एआई जनित हैं।

ओपनएआई ने कहा, "हमने सुरक्षा उपायों का एक सेट लागू किया है, जिसमें वॉयस इंजन द्वारा उत्पन्न किसी भी ऑडियो की उत्पत्ति का पता लगाने के लिए वॉटरमार्किंग और साथ ही इसका उपयोग कैसे किया जा रहा है, इसकी सक्रिय निगरानी शामिल है।"

© 2024 एएफपी

उद्धरण:OpenAI ने वॉयस-क्लोनिंग टूल का अनावरण किया (2024, 30 मार्च)30 मार्च 2024 को पुनः प्राप्तhttps://techxplore.com/news/2024-03-openai-unveils-voice-cloning-tool.html से

यह दस्तावेज कॉपीराइट के अधीन है।निजी अध्ययन या अनुसंधान के उद्देश्य से किसी भी निष्पक्ष व्यवहार के अलावा, नहींलिखित अनुमति के बिना भाग को पुन: प्रस्तुत किया जा सकता है।सामग्री केवल सूचना के प्रयोजनों के लिए प्रदान की गई है।