ऐप्पल कंप्यूटर कंपनी के शोधकर्ताओं ने परीक्षण के माध्यम से सबूत पाया है, जो दर्शाता है कि एआई-आधारित एलएलएम द्वारा दी गई प्रतीत होने वाली बुद्धिमान प्रतिक्रियाएं एक भ्रम से थोड़ी अधिक हैं।उनके मेंकागज़पर पोस्ट किया गयाarXivप्रीप्रिंट सर्वर, शोधकर्ताओं का तर्क है कि कई एलएलएम का परीक्षण करने के बाद, उन्होंने पाया कि वे वास्तविक तार्किक तर्क करने में सक्षम नहीं हैं।
पिछले कुछ वर्षों में, चैटजीपीटी जैसे कई एलएलएम इस हद तक विकसित हो गए हैं कि कई उपयोगकर्ता आश्चर्यचकित होने लगे हैं कि क्या उनके पास सच्ची बुद्धिमत्ता है।इस नए प्रयास में, Apple की टीम ने यह मानकर प्रश्न का समाधान किया है कि इसका उत्तर सरल परिस्थितियों में मौजूद बारीकियों को समझने के लिए एक बुद्धिमान प्राणी या मशीन की क्षमता में निहित है, जिसके लिए तार्किक आवश्यकता होती हैतर्क.
ऐसी ही एक बारीकियों में प्रासंगिक जानकारी को उस जानकारी से अलग करने की क्षमता है जो प्रासंगिक नहीं है।यदि एकबच्चाउदाहरण के लिए, एक माता-पिता से पूछें कि एक बैग में कितने सेब हैं, जबकि यह भी ध्यान दें कि कई सेब खाने के लिए बहुत छोटे हैं, बच्चे और माता-पिता दोनों समझते हैं कि सेब के आकार का उनकी मौजूद संख्या से कोई लेना-देना नहीं है।ऐसा इसलिए है क्योंकि उन दोनों के पास तार्किक तर्क क्षमता है।
इस नए अध्ययन में, शोधकर्ताओं ने अप्रत्यक्ष रूप से उन सूचनाओं को अनदेखा करने के लिए कहकर, जो पूछा जा रहा है, वास्तव में समझने की उनकी क्षमता पर कई एलएलएम का परीक्षण किया, जो प्रासंगिक नहीं है।
उनके परीक्षण में कई एलएलएम से सैकड़ों प्रश्न पूछना शामिल था जिनका उपयोग पहले एलएलएम की क्षमताओं के परीक्षण के साधन के रूप में किया गया था, लेकिन शोधकर्ताओं ने कुछ गैर-प्रासंगिक जानकारी भी शामिल की।और उन्होंने पाया कि यह एलएलएम को उन प्रश्नों के गलत या यहां तक कि निरर्थक उत्तर देने के लिए भ्रमित करने के लिए पर्याप्त था, जिनका उन्होंने पहले सही उत्तर दिया था।
शोधकर्ताओं का सुझाव है कि इससे पता चलता है कि एलएलएम वास्तव में यह नहीं समझते हैं कि उनसे क्या पूछा जा रहा है।इसके बजाय वे एक वाक्य की संरचना को पहचानते हैं और फिर उसे उगल देते हैंउत्तरमशीन-लर्निंग एल्गोरिदम के माध्यम से उन्होंने जो सीखा है उसके आधार पर।
उन्होंने यह भी नोट किया कि उनके द्वारा परीक्षण किए गए अधिकांश एलएलएम अक्सर ऐसे उत्तरों के साथ प्रतिक्रिया देते हैं जो सही लग सकते हैं, लेकिन आगे की समीक्षा करने पर वे नहीं होते हैं, जैसे कि जब उनसे पूछा जाता है कि वे किसी चीज़ के बारे में "कैसा महसूस करते हैं" और प्रतिक्रियाएँ मिलती हैं जो बताती हैं कि एआई सोचता है कि यह सक्षम हैऐसा व्यवहार.
अधिक जानकारी:इमान मिर्ज़ादेह एट अल, जीएसएम-प्रतीकात्मक: बड़े भाषा मॉडल में गणितीय तर्क की सीमाओं को समझना,arXiv(2024)।डीओआई: 10.48550/arxiv.2410.05229
मशीनलर्निंग.एप्पल.com/research/gsm-symbolic
जर्नल जानकारी: arXiv
© 2024 साइंस एक्स नेटवर्क
उद्धरण:Apple शोधकर्ताओं का सुझाव है कि कृत्रिम बुद्धिमत्ता अभी भी ज्यादातर एक भ्रम है (2024, 16 अक्टूबर)16 अक्टूबर 2024 को पुनः प्राप्तhttps://techxplore.com/news/2024-10-apple-artificial-intelligence-election.html से
यह दस्तावेज कॉपीराइट के अधीन है।निजी अध्ययन या अनुसंधान के उद्देश्य से किसी भी निष्पक्ष व्यवहार के अलावा, नहींलिखित अनुमति के बिना भाग को पुन: प्रस्तुत किया जा सकता है।सामग्री केवल सूचना के प्रयोजनों के लिए प्रदान की गई है।