Ticker

6/recent/ticker-posts

Ad Code

Responsive Advertisement

क्या AI सच में सोचता है? एप्पल के रिसर्च पेपर 'The Illusion of Thinking' ने खोले धागे!

 राम राम मित्रों! क्या आपने कभी सोचा है कि जब ChatGPT या Claude आपके सवाल का जवाब देने से पहले एक लंबा "सोचने" का प्रोसेस दिखाते हैं, तो क्या वह वाकई में हमारी तरह लॉजिकल रूप से सोच रहा होता है? या फिर यह सिर्फ एक भ्रम (Illusion) है?

एप्पल के एक ताजा रिसर्च पेपर, "The Illusion of Thinking" ने इस सवाल की पड़ताल की है और इसके नतीजे हैरान करने वाले हैं। यह पेपर हाइप से हटकर AI की वास्तविक क्षमताओं और सीमाओं की काम की बात करता है।

आइए, इस रिसर्च की मदद से समझते हैं कि "थिंकिंग मॉडल" या "रीजनिंग मॉडल" आखिर करते क्या हैं।

Do LLMs really think

"थिंकिंग" है भ्रम, असल में है "पैटर्न मिमिक्री"

हमें लगता है कि AI मॉडल चैन ऑफ थॉट (Chain of Thought - CoT) का इस्तेमाल करके हमारी तरह step-by-step सोचते हैं। लेकिन एप्पल के रिसर्च में पाया गया कि ये एडवांस्ड AI मॉडल (जैसे Claude 3.7 Sonnet Thinking, OpenAI का o3-mini) वास्तव में "सोच" नहीं रहे हैं। वे सिर्फ एक सोचने जैसा प्रोसेस दिखा (mimic) रहे हैं ताकि यूजर को लगे कि मॉडल तार्किक ढंग से काम कर रहा है।

दरअसल, ये मॉडल अपने विशाल ट्रेनिंग डेटा (लगभग पूरे इंटरनेट) में मौजूद पैटर्न को मैच करते हैं और अगला सबसे प्रासंगिक टोकन (शब्द या भाग) प्रिडिक्ट करते हैं। यह एक लॉजिकल प्रोसेस नहीं, बल्कि एक स्टैटिस्टिकल प्रिडिक्शन है।

टेस्टिंग के लिए क्यों चुने गए Puzzles?

रिसर्चर्स ने AI की असली परख के लिए गणित या कोडिंग के बजाय पज़ल्स (puzzles) को चुना। ऐसा इसलिए क्योंकि मौजूदा गणित के टेस्ट AI के ट्रेनिंग डेटा में कहीं न कहीं मौजूद हो सकते हैं (इसे डेटा कंटामिनेशन कहते हैं)। पज़ल्स जैसे Tower of Hanoi और River Crossing ऐसे होते हैं जिनकी कठिनाई (difficulty) को आसानी से घटाया-बढ़ाया जा सकता है और ये AI के ट्रेनिंग डेटा के बाहर की चीजें हैं। इससे AI की वास्तविक रीजनिंग कैपेबिलिटी का सही आकलन हो पाया।

एप्पल की रिसर्च से खुलासा: AI थिंकिंग के 4 बड़े दोष

इन कंट्रोल्ड पज़ल्स पर टेस्टिंग के दौरान रिसर्चर्स ने AI के "थिंकिंग" में कुछ बहुत ही दिलचस्प और चौंकाने वाली बातें देखीं:

1. ओवरथिंकिंग (Overthinking)

आसान पज़ल्स में भी AI मॉडल जरूरत से ज्यादा सोचने लगते हैं। वे सही जवाब तो शुरुआत में ही ढूंढ लेते हैं, लेकिन फिर भी गलत रास्तों को explore करना बंद नहीं करते। इस "ओवरथिंगिंग" के कारण वे कभी-कभी पहले से मिले सही जवाब को बदल देते हैं और गलत जवाब देने लगते हैं। यह computing power की बर्बादी है।

2. अंडरथिंकिंग और कोलैप्स (Underthinking & Collapse)

जैसे-जैसे पज़ल्स की कठिनाई बढ़ती है, AI मॉडल्स का प्रदर्शन गिरने लगता है। एक निश्चित कठिनाई स्तर (critical threshold) के बाद तो इनका प्रदर्शन पूरी तरह से collapse हो जाता है, यानी सही जवाब देना बंद कर देते हैं। हैरानी की बात यह है कि इस स्टेज पर पहुंचने के बाद मॉडल कम सोचने लगते हैं, भले ही उनके पास पर्याप्त समय और resource हों। यह दिखाता है कि AI की रीजनिंग की एक सीमा है।

3. एल्गोरिदम को फॉलो करने में असमर्थता

रिसर्च में सबसे चौंकाने वाला नतीजा यह था: भले ही AI मॉडल को पूरा सही algorithm step-by-step दे दिया जाए, फिर भी वह उसे ठीक से follow नहीं कर पाता। उदाहरण के लिए, शोधकर्ताओं ने Tower of Hanoi को solve करने का सटीक algorithm मॉडल को दिया, लेकिन मॉडल उसे चलाने में भी उतनी ही कठिनाई पर फेल हो गया जितनी बिना algorithm के हो रहा था। इससे साफ पता चलता है कि ये मॉडल सच्चे logical reasoners नहीं हैं, बल्कि sophisticated pattern-matchers हैं।

4. Inconsistent परफॉर्मेंस

रिसर्च में पाया गया कि एक ही तरह की पज़ल्स में भी AI मॉडल्स का प्रदर्शन बहुत ज्यादा असंगत (inconsistent) रहता है। उदाहरण के लिए, एक मॉडल Tower of Hanoi के 100 से ज्यादा steps तक सही चल सकता है, लेकिन River Crossing जैसे相对 सरल पज़ल को सिर्फ 4 steps में ही गड़बड़ा देता है। इससे साबित होता है कि इनमें कोई generalized problem-solving strategy नहीं है। उनका performance इस बात पर निर्भर करता है कि उनके ट्रेनिंग डेटा में ऐसी कौन सी चीजें मौजूद थीं।

निष्कर्ष: AI स्मार्ट है, पर 'सोच' नहीं सकता

एप्पल के इस रिसर्च का मुख्य संदेश स्पष्ट है: आज का AI बेहद स्मार्ट और उपयोगी है, लेकिन उसकी "सोच" की क्षमता surface-level और inconsistent है।

  • मनुष्य लॉजिकल रूल्स लगाकर, कारण और प्रभाव को समझकर सोचते हैं।
  • AI अगला सबसे संभावित शब्द/टोकन प्रिडिक्ट करता है, जो उसने अपने विशाल डेटा में देखा है।

AI द्वारा दिखाया गया "थिंकिंग प्रोसेस" कोई वास्तविक बौद्धिक क्रिया नहीं, बल्कि हमें यह विश्वास दिलाने के लिए डिज़ाइन की गई एक परत है कि वह हमारी तरह सोच रहा है।

यह रिसर्च AI की वर्तमान सीमाओं को समझने की दिशा में एक महत्वपूर्ण कदम है और भविष्य के ऐसे मॉडल्स बनाने में मदद करेगी जो वाकई में तार्किक ढंग से सोच और समझ सकें।

क्या आपको लगता है AI कभी इंसानों जैसा सोच पाएगा? अपनी राय कमेंट में जरूर बताएं!

Note: दोस्तो, ये एक लंबी चौड़ी रिसर्च का आसान शब्दों में निचोड़ था, अगर आप पूरी रिसर्च पढ़ना चाहते हैं तो इसे The Illusion of Thinking देख सकते हैं!

AI रिसर्च पढ़ना पसंद है तो ये भी देखे: VoxHammer

एक टिप्पणी भेजें

0 टिप्पणियाँ