Trio of Apple researchers suggest artificial intelligence is still mostly an illusion
कुल मिलाकर, मॉडलों के प्रदर्शन में उल्लेखनीय भिन्नता होती है, भले ही हम केवल नाम बदलते हैं, लेकिन जब हम संख्याएँ बदलते हैं या इन परिवर्तनों को जोड़ते हैं तो और भी अधिक होता है।श्रेय:arXiv(2024)।डीओआई: 10.48550/arxiv.2410.05229

ऐप्पल कंप्यूटर कंपनी के शोधकर्ताओं ने परीक्षण के माध्यम से सबूत पाया है, जो दर्शाता है कि एआई-आधारित एलएलएम द्वारा दी गई प्रतीत होने वाली बुद्धिमान प्रतिक्रियाएं एक भ्रम से थोड़ी अधिक हैं।उनके मेंकागज़पर पोस्ट किया गयाarXivप्रीप्रिंट सर्वर, शोधकर्ताओं का तर्क है कि कई एलएलएम का परीक्षण करने के बाद, उन्होंने पाया कि वे वास्तविक तार्किक तर्क करने में सक्षम नहीं हैं।

पिछले कुछ वर्षों में, चैटजीपीटी जैसे कई एलएलएम इस हद तक विकसित हो गए हैं कि कई उपयोगकर्ता आश्चर्यचकित होने लगे हैं कि क्या उनके पास सच्ची बुद्धिमत्ता है।इस नए प्रयास में, Apple की टीम ने यह मानकर प्रश्न का समाधान किया है कि इसका उत्तर सरल परिस्थितियों में मौजूद बारीकियों को समझने के लिए एक बुद्धिमान प्राणी या मशीन की क्षमता में निहित है, जिसके लिए तार्किक आवश्यकता होती है.

ऐसी ही एक बारीकियों में प्रासंगिक जानकारी को उस जानकारी से अलग करने की क्षमता है जो प्रासंगिक नहीं है।यदि एकउदाहरण के लिए, एक माता-पिता से पूछें कि एक बैग में कितने सेब हैं, जबकि यह भी ध्यान दें कि कई सेब खाने के लिए बहुत छोटे हैं, बच्चे और माता-पिता दोनों समझते हैं कि सेब के आकार का उनकी मौजूद संख्या से कोई लेना-देना नहीं है।ऐसा इसलिए है क्योंकि उन दोनों के पास तार्किक तर्क क्षमता है।

इस नए अध्ययन में, शोधकर्ताओं ने अप्रत्यक्ष रूप से उन सूचनाओं को अनदेखा करने के लिए कहकर, जो पूछा जा रहा है, वास्तव में समझने की उनकी क्षमता पर कई एलएलएम का परीक्षण किया, जो प्रासंगिक नहीं है।

उनके परीक्षण में कई एलएलएम से सैकड़ों प्रश्न पूछना शामिल था जिनका उपयोग पहले एलएलएम की क्षमताओं के परीक्षण के साधन के रूप में किया गया था, लेकिन शोधकर्ताओं ने कुछ गैर-प्रासंगिक जानकारी भी शामिल की।और उन्होंने पाया कि यह एलएलएम को उन प्रश्नों के गलत या यहां तक ​​कि निरर्थक उत्तर देने के लिए भ्रमित करने के लिए पर्याप्त था, जिनका उन्होंने पहले सही उत्तर दिया था।

शोधकर्ताओं का सुझाव है कि इससे पता चलता है कि एलएलएम वास्तव में यह नहीं समझते हैं कि उनसे क्या पूछा जा रहा है।इसके बजाय वे एक वाक्य की संरचना को पहचानते हैं और फिर उसे उगल देते हैंमशीन-लर्निंग एल्गोरिदम के माध्यम से उन्होंने जो सीखा है उसके आधार पर।

उन्होंने यह भी नोट किया कि उनके द्वारा परीक्षण किए गए अधिकांश एलएलएम अक्सर ऐसे उत्तरों के साथ प्रतिक्रिया देते हैं जो सही लग सकते हैं, लेकिन आगे की समीक्षा करने पर वे नहीं होते हैं, जैसे कि जब उनसे पूछा जाता है कि वे किसी चीज़ के बारे में "कैसा महसूस करते हैं" और प्रतिक्रियाएँ मिलती हैं जो बताती हैं कि एआई सोचता है कि यह सक्षम हैऐसा व्यवहार.

अधिक जानकारी:इमान मिर्ज़ादेह एट अल, जीएसएम-प्रतीकात्मक: बड़े भाषा मॉडल में गणितीय तर्क की सीमाओं को समझना,arXiv(2024)।डीओआई: 10.48550/arxiv.2410.05229

मशीनलर्निंग.एप्पल.com/research/gsm-symbolic

जर्नल जानकारी: arXiv

© 2024 साइंस एक्स नेटवर्क

उद्धरण:Apple शोधकर्ताओं का सुझाव है कि कृत्रिम बुद्धिमत्ता अभी भी ज्यादातर एक भ्रम है (2024, 16 अक्टूबर)16 अक्टूबर 2024 को पुनः प्राप्तhttps://techxplore.com/news/2024-10-apple-artificial-intelligence-election.html से

यह दस्तावेज कॉपीराइट के अधीन है।निजी अध्ययन या अनुसंधान के उद्देश्य से किसी भी निष्पक्ष व्यवहार के अलावा, नहींलिखित अनुमति के बिना भाग को पुन: प्रस्तुत किया जा सकता है।सामग्री केवल सूचना के प्रयोजनों के लिए प्रदान की गई है।