New tools use AI 'fingerprints' to detect altered photos, videos
बिंघमटन विश्वविद्यालय की एक शोध टीम ने लोकप्रिय जेनरेटिव एआई टूल के साथ हजारों छवियां बनाईं, फिर सिग्नल प्रोसेसिंग तकनीकों का उपयोग करके उनका विश्लेषण किया।श्रेय: बिंघमटन यूनिवर्सिटी, स्टेट यूनिवर्सिटी ऑफ़ न्यूयॉर्क

जैसे-जैसे कृत्रिम बुद्धिमत्ता नेटवर्क अधिक कुशल और उपयोग में आसान होते जा रहे हैं, डिजिटल रूप से हेरफेर की गई "डीपफेक" तस्वीरों और वीडियो का पता लगाना कठिन होता जा रहा है।बिंघमटन यूनिवर्सिटी, स्टेट यूनिवर्सिटी ऑफ़ न्यूयॉर्क के नेतृत्व में नया शोध फ़्रीक्वेंसी डोमेन विश्लेषण तकनीकों का उपयोग करके छवियों को तोड़ता है और उन विसंगतियों की तलाश करता है जो संकेत दे सकती हैं कि वे एआई द्वारा उत्पन्न हुई हैं।

एक पेपर मेंप्रकाशितमेंसूचना विज्ञान में विघटनकारी प्रौद्योगिकियाँ VIII, पीएच.डी.बिंघमटन में इलेक्ट्रिकल और कंप्यूटर इंजीनियरिंग विभाग के छात्र निहाल पोरेदी, धीरज नागोथु और प्रोफेसर यू चेन ने छवि हेरफेर के स्पष्ट संकेतों जैसे लंबी उंगलियों या अस्पष्ट पृष्ठभूमि पाठ से परे वास्तविक और नकली छवियों की तुलना की।पेपर में मास्टर की छात्रा मोनिका सुदर्शन और वर्जीनिया स्टेट यूनिवर्सिटी के प्रोफेसर हनोक सोलोमन भी सहयोग कर रहे थे।

टीम ने Adobe Firefly, PIXLR, DALL-E और Google Deep ड्रीम जैसे लोकप्रिय जेनरेटिव AI टूल के साथ हजारों छवियां बनाईं, फिर सिग्नल प्रोसेसिंग तकनीकों का उपयोग करके उनका विश्लेषण किया ताकि उनकी आवृत्ति डोमेन सुविधाओं को समझा जा सके।एआई-जनित और प्राकृतिक छवियों की आवृत्ति डोमेन विशेषताओं में अंतर मशीन लर्निंग मॉडल का उपयोग करके उन्हें अलग करने का आधार है।

जेनेरेटिव एडवरसैरियल नेटवर्क्स इमेज ऑथेंटिकेशन (जीएएनआईए) नामक टूल का उपयोग करके छवियों की तुलना करते समय, एआई जिस तरह से फोनियां उत्पन्न करता है, उसके कारण शोधकर्ता विसंगतियों (कलाकृतियों के रूप में जाना जाता है) का पता लगा सकते हैं।एआई छवियों के निर्माण का सबसे आम तरीका अपसैंपलिंग है, जो फ़ाइल आकार को बड़ा करने के लिए पिक्सेल को क्लोन करता है लेकिन फ़्रीक्वेंसी डोमेन में उंगलियों के निशान छोड़ देता है।

"जब आप एक वास्तविक कैमरे से तस्वीर लेते हैं, तो आपको पूरी दुनिया से जानकारी मिलती है - न केवल उस व्यक्ति या फूल या जानवर या जिस चीज़ की आप तस्वीर लेना चाहते हैं, बल्कि सभी प्रकार की पर्यावरणीय जानकारी उसमें अंतर्निहित होती है।, "चेन ने कहा।

"जेनरेटिव एआई के साथ, छवियां इस बात पर ध्यान केंद्रित करती हैं कि आप इसे क्या उत्पन्न करने के लिए कहते हैं, चाहे आप कितने भी विस्तृत क्यों न हों। ऐसा कोई तरीका नहीं है जिससे आप वर्णन कर सकें, उदाहरण के लिए, हवा की गुणवत्ता क्या है या हवा कैसे चल रही है या सभी छोटी चीजें जो हैंपृष्ठभूमि तत्व।"

नागोथु ने कहा, "हालांकि कई उभरते एआई मॉडल हैं, इन मॉडलों की मौलिक वास्तुकला ज्यादातर एक जैसी ही रहती है। यह हमें इसकी सामग्री हेरफेर की पूर्वानुमानित प्रकृति का फायदा उठाने और इसका पता लगाने के लिए अद्वितीय और विश्वसनीय फिंगरप्रिंट का लाभ उठाने की अनुमति देता है।"

शोध पत्र उन तरीकों की भी खोज करता है जिनसे GANIA का उपयोग किसी फोटो की AI उत्पत्ति की पहचान करने के लिए किया जा सकता है, जो डीपफेक छवियों के माध्यम से फैलने वाली गलत सूचना को सीमित करता है।

पोरेडी ने कहा, "हम विभिन्न एआई छवि जनरेटर के लिए 'फिंगरप्रिंट' की पहचान करने में सक्षम होना चाहते हैं।""यह हमें दृश्य सामग्री को प्रमाणित करने और गलत सूचना अभियानों से जुड़ी किसी भी प्रतिकूल घटनाओं को रोकने के लिए मंच बनाने की अनुमति देगा।"

साथ में डीपफेक भीटीम ने नकली एआई-आधारित ऑडियो-वीडियो रिकॉर्डिंग का पता लगाने के लिए एक तकनीक विकसित की है।"डीफेकप्रो" नाम का विकसित उपकरण पावर ग्रिड में मामूली विद्युत उतार-चढ़ाव के परिणामस्वरूप निर्मित विद्युत नेटवर्क आवृत्ति (ईएनएफ) सिग्नल नामक पर्यावरणीय फिंगरप्रिंट का लाभ उठाता है।एक सूक्ष्म पृष्ठभूमि गुंजन की तरह, यह संकेत स्वाभाविक रूप से मीडिया फ़ाइलों में एम्बेडेड होता है जब वे रिकॉर्ड किए जाते हैं।

इस सिग्नल का विश्लेषण करके, जो रिकॉर्डिंग के समय और स्थान के लिए अद्वितीय है, डीफेकप्रो टूल यह सत्यापित कर सकता है कि रिकॉर्डिंग प्रामाणिक है या इसके साथ छेड़छाड़ की गई है।यह तकनीक डीपफेक के खिलाफ अत्यधिक प्रभावी है और आगे पता लगाती है कि यह ऐसे एआई-आधारित जालसाजी हमलों के खिलाफ बड़े पैमाने पर स्मार्ट निगरानी नेटवर्क को कैसे सुरक्षित कर सकती है।यह दृष्टिकोण हमारी तेजी से जुड़ी हुई दुनिया में गलत सूचना और डिजिटल धोखाधड़ी के खिलाफ लड़ाई में प्रभावी हो सकता है।

पोरेडी ने कहा, "गलत सूचना आज वैश्विक समुदाय के सामने सबसे बड़ी चुनौतियों में से एक है।""कई क्षेत्रों में जेनेरिक एआई के व्यापक उपयोग के कारण इसका दुरुपयोग हुआ है। सोशल मीडिया पर हमारी निर्भरता के साथ, इसने गलत सूचना आपदा के लिए एक फ्लैशप्वाइंट बनाया है। यह उन देशों में विशेष रूप से स्पष्ट है जहां सोशल मीडिया और भाषण पर प्रतिबंध न्यूनतम हैं।इसलिए, ऑनलाइन साझा किए गए डेटा, विशेष रूप से ऑडियो-विज़ुअल डेटा की पवित्रता सुनिश्चित करना अनिवार्य है।"

हालाँकि जेनरेटिव एआई मॉडल का दुरुपयोग किया गया है, लेकिन वे इमेजिंग तकनीक को आगे बढ़ाने में भी महत्वपूर्ण योगदान देते हैं।शोधकर्ता जनता को नकली और वास्तविक सामग्री के बीच अंतर करने में मदद करना चाहते हैं - लेकिन नवीनतम नवाचारों के साथ बने रहना एक चुनौती हो सकती है।

चेन ने कहा, "एआई इतनी तेजी से आगे बढ़ रहा है कि एक बार जब आप एक डीपफेक डिटेक्टर विकसित कर लेते हैं, तो उस एआई टूल की अगली पीढ़ी उन विसंगतियों को ध्यान में रखती है और उन्हें ठीक करती है।""हमारा काम लीक से हटकर कुछ करने की कोशिश करना है।"

अधिक जानकारी:निहाल पोरेडी एट अल, फ़्रीक्वेंसी डोमेन विश्लेषण का उपयोग करके जनरेटिव एडवरसैरियल नेटवर्क-आधारित एआई-जनरेटेड इमेजरी प्रमाणीकरण,सूचना विज्ञान में विघटनकारी प्रौद्योगिकियाँ VIII(2024)।डीओआई: 10.1117/12.3013240

उद्धरण:नए उपकरण परिवर्तित फ़ोटो, वीडियो का पता लगाने के लिए AI 'फ़िंगरप्रिंट' का उपयोग करते हैं (2024, 12 सितंबर)12 सितंबर 2024 को पुनः प्राप्तhttps://techxplore.com/news/2024-09-tools-ai-fingerprints-photos-videos.html से

यह दस्तावेज कॉपीराइट के अधीन है।निजी अध्ययन या अनुसंधान के उद्देश्य से किसी भी निष्पक्ष व्यवहार के अलावा, नहींलिखित अनुमति के बिना भाग को पुन: प्रस्तुत किया जा सकता है।सामग्री केवल सूचना के प्रयोजनों के लिए प्रदान की गई है।