ओपनएआई ने शुक्रवार को एक वॉयस-क्लोनिंग टूल का खुलासा किया, जिसे श्रोताओं को धोखा देने के लिए बनाए गए नकली ऑडियो को विफल करने के लिए सुरक्षा उपाय होने तक इसे सख्ती से नियंत्रित रखने की योजना है।
टूल के एक छोटे पैमाने के परीक्षण के परिणामों को साझा करने वाले OpenAI ब्लॉग पोस्ट के अनुसार, "वॉयस इंजन" नामक एक मॉडल अनिवार्य रूप से 15-सेकंड के ऑडियो नमूने के आधार पर किसी के भाषण की नकल कर सकता है।
सैन फ्रांसिस्को स्थित कंपनी ने कहा, "हम मानते हैं कि लोगों की आवाज़ से मिलता-जुलता भाषण तैयार करने में गंभीर जोखिम होते हैं, जो चुनावी वर्ष में विशेष रूप से दिमाग में सबसे ऊपर होते हैं।"
"हम सरकार, मीडिया, मनोरंजन, शिक्षा, क्षेत्र से अमेरिकी और अंतर्राष्ट्रीय साझेदारों के साथ जुड़ रहे हैं।नागरिक समाजऔर यह सुनिश्चित करने के लिए कि हम निर्माण करते समय उनकी प्रतिक्रिया को भी शामिल कर रहे हैं।"
दुष्प्रचार शोधकर्ताओं को डर है कि महत्वपूर्ण चुनावी वर्ष में एआई-संचालित अनुप्रयोगों का बड़े पैमाने पर दुरुपयोग हो रहा है, जिसकी वजह वॉयस क्लोनिंग टूल का प्रसार है, जो सस्ते, उपयोग में आसान और पता लगाना मुश्किल है।
इन समस्याओं को स्वीकार करते हुए, ओपनएआई ने कहा कि वह "सिंथेटिक आवाज के दुरुपयोग की संभावना के कारण व्यापक रिलीज के लिए सतर्क और सूचित दृष्टिकोण अपना रहा है।"
एक राजनीतिक सलाहकार द्वारा लंबे समय से काम करने के कुछ महीनों बाद सावधानीपूर्वक अनावरण किया गयाराष्ट्रपति के चुनाव का अभियानजो बिडेन के एक डेमोक्रेटिक प्रतिद्वंद्वी ने अमेरिकी नेता का प्रतिरूपण करने वाले एक रोबोकॉल के पीछे होने की बात स्वीकार की।
एआई-जनरेटेड कॉल, जो मिनेसोटा के कांग्रेसी डीन फिलिप्स के एक संचालक के दिमाग की उपज थी, में ऐसा लग रहा था जैसे बिडेन की आवाज लोगों से जनवरी के न्यू हैम्पशायर प्राइमरी में मतदान न करने का आग्रह कर रही हो।
इस घटना ने उन विशेषज्ञों के बीच चिंता पैदा कर दी है, जिन्हें 2024 व्हाइट हाउस की दौड़ के साथ-साथ इस साल दुनिया भर के अन्य प्रमुख चुनावों में एआई-संचालित डीपफेक दुष्प्रचार की बाढ़ की आशंका है।
ओपनएआई ने कहा कि वॉयस इंजन का परीक्षण करने वाले साझेदार नियमों पर सहमत हुए हैं, जिसमें किसी भी व्यक्ति की स्पष्ट और सूचित सहमति की आवश्यकता शामिल है, जिसकी आवाज टूल का उपयोग करके डुप्लिकेट की गई है।
कंपनी ने कहा कि दर्शकों को यह भी स्पष्ट किया जाना चाहिए कि जो आवाजें वे सुन रहे हैं वे एआई जनित हैं।
ओपनएआई ने कहा, "हमने सुरक्षा उपायों का एक सेट लागू किया है, जिसमें वॉयस इंजन द्वारा उत्पन्न किसी भी ऑडियो की उत्पत्ति का पता लगाने के लिए वॉटरमार्किंग और साथ ही इसका उपयोग कैसे किया जा रहा है, इसकी सक्रिय निगरानी शामिल है।"
© 2024 एएफपी
उद्धरण:OpenAI ने वॉयस-क्लोनिंग टूल का अनावरण किया (2024, 30 मार्च)30 मार्च 2024 को पुनः प्राप्तhttps://techxplore.com/news/2024-03-openai-unveils-voice-cloning-tool.html से
यह दस्तावेज कॉपीराइट के अधीन है।निजी अध्ययन या अनुसंधान के उद्देश्य से किसी भी निष्पक्ष व्यवहार के अलावा, नहींलिखित अनुमति के बिना भाग को पुन: प्रस्तुत किया जा सकता है।सामग्री केवल सूचना के प्रयोजनों के लिए प्रदान की गई है।