आज के समय में हर कोई AI का नाम सुन रहा है – ChatGPT, Grok, Midjourney, Gemini आदि। लेकिन असल में AI अंदर से कैसे काम करता है? यह जादू नहीं, बल्कि गणित, डेटा और बहुत सारी कम्प्यूटिंग पावर का खेल है। इस लेख में हम बहुत ही सरल भाषा में लेकिन गहराई तक जाकर समझाएंगे कि AI सचमुच कैसे काम करता है। ये बातें आम लोग नहीं जानते, लेकिन जानना बहुत जरूरी है।
1. AI का बेसिक फंडा: मशीन लर्निंग और न्यूरल नेटवर्क
आज का लगभग सारा AI “मशीन लर्निंग” (Machine Learning) पर चलता है।
आज लगभग सारा AI “मशीन लर्निंग” पर चलता है। इसका मतलब है कि हम AI को पहले से कोड नहीं लिखकर सिखाते, बल्कि ढेर सारे उदाहरण दिखाते हैं। जैसे छोटे बच्चे को सिखाते हैं: “ये सेब है, ये सेब है, ये भी सेब है…” फिर बच्चा खुद समझ जाता है कि लाल-हरे गोल फल को सेब कहते हैं।
ठीक वैसे ही AI को लाखों-करोड़ों फोटो, वाक्य, वीडियो दिखाकर ट्रेन करते हैं। शुरू में वह गलतियाँ करता है, लेकिन हर गलती से सीखता है और अपने अंदर के नंबर (वेट्स) को थोड़ा-थोड़ा बदलता रहता है। जब ट्रेनिंग पूरी हो जाती है, तो बिना किसी इंसान के बताए वह नई चीजें पहचान लेता है, अनुवाद कर देता है, सवालों के जवाब दे देता है।
मशीन लर्निंग को बिभागि कारण किया गया हे मुख्यत ४ प्रकार हे:
-
- पर्यवेक्षित शिक्षण (Supervised Learning) : हर सवाल का सही जवाब पहले से दिया रहता है। AI गलती देखकर सीखता है। रोज़ाना का उदाहरण : स्पैम ईमेल पता करना – घर का दाम बताना (प्लॉट साइज़ + लोकेशन → कीमत) – फोटो में कुत्ता है या बिल्ली?
- अपर्यवेक्षित शिक्षण (Unsupervised Learning) : कोई सही-गलत जवाब नहीं दिया जाता। AI खुद ही डेटा में छुपे पैटर्न ढूंढता है। रोज़ाना का उदाहरण – ग्राहकों को ग्रुप में बाँटना (जो एक जैसे सामान खरीदते हैं) – फोटो को अपने-आप कलर, शेप के हिसाब से ग्रुप करना
- अर्ध-पर्यवेक्षित शिक्षण (Semi-Supervised Learning): थोड़ा सा डेटा लेबल वाला (सही जवाब वाला) + बहुत सारा बिना लेबल वाला। पहले लेबल वाले से सीखता है, फिर खुद ही बाकी को लेबल कर लेता है।रोज़ाना का उदाहरण- 100 फोटो में हाथ से लिखा “यह बिल्ली है”, बाकी 1 लाख फोटो बिना लेबल → AI खुद बाकी को लेबल कर लेता है – गूगल फोटो में चेहरे ग्रुप करना
- सुदृढ़ीकरण शिक्षण (Reinforcement Learning): बच्चे को इनाम-पनिशमेंट से सिखाने जैसा। सही काम → +अंक (रिवॉर्ड), गलत काम → -अंक। AI खुद ट्राय-एरर से सबसे ज्यादा इनाम वाला रास्ता सीखता है।रोज़ाना का उदाहरण- AlphaGo (गो गेम में इंसान को हराया) – रोबोट को चलना सिखाना – ChatGPT का RLHF (इंसान को अच्छा लगे वैसा जवाब देना) – गेम में NPC जो खुद बेहतर होते जाते हैं
सबसे पावरफुल टाइप है – डीप लर्निंग (Deep Learning), जो मानव मस्तिष्क की तरह काम करने की कोशिश करता है।
डीप लर्निंग आज का सबसे ताकतवर AI है। यह मानव दिमाग की नकल करने की कोशिश करता है।
हमारे दिमाग में अरबों न्यूरॉन (तंत्रिका कोशिकाएँ) आपस में जुड़ी रहती हैं। ठीक वैसे ही डीप लर्निंग में हजारों-लाखों कृत्रिम न्यूरॉन की कई सारी परतें (लेयर्स) बनाई जाती हैं।
हर परत थोड़ा-थोड़ा सीखती है:
-
- पहली परत फोटो में लाइन और किनारे पहचानती है
- दूसरी परत आँख, नाक, कान जैसे हिस्से
- आखिरी परतें पूरा चेहरा या जानवर पहचान लेती हैं
इसी तरह बात करते समय यह शब्दों के बीच का संबंध समझता है और सही जवाब बनाता है।
साधारण मशीन लर्निंग में 1-2 परतें होती हैं, इसलिए वह सिर्फ आसान काम कर पाता है। लेकिन डीप लर्निंग में सैकड़ों परतें होने से यह फोटो बना सकता है, हिंदी-अंग्रेजी अनुवाद कर सकता है, गाड़ी खुद चला सकता है और ChatGPT जैसा बात कर सकता है।
इसके अंदर होते हैं Artificial Neural Networks (ANN) → ढेर सारे छोटे–छोटे गणितीय नोड्स की लेयर्स।
आर्टिफिशियल न्यूरल नेटवर्क (ANN) दिमाग की नकल है, लेकिन बहुत आसान तरीके से।
कल्पना करो कि दिमाग में करोड़ों छोटी-छोटी कोशिकाएँ (न्यूरॉन) हैं। हर कोशिका अपने पड़ोसियों से बात करती है। ठीक वैसे ही ANN में हजारों-लाखों छोटे-छोटे गणित वाले नोड (गाँठ) होते हैं।
ये सारे नोड कई परतों (लेयर्स) में लगे रहते हैं:
-
- पहली परत → इनपुट लेती है (जैसे फोटो के पिक्सल या वाक्य के शब्द)
- बीच की परतें → हर नोड अपने सामने वाले नोड्स से नंबर लेता है, उनमें जोड़-घटा-गुणा करता है, फिर अपना जवाब आगे भेजता है
- आखिरी परत → फाइनल जवाब देती है (जैसे “ये फोटो में बिल्ली है” या “अगला शब्द ‘है’ होगा”)
हर नोड के बीच में एक छोटा-सा वजन (वेट) होता है। ट्रेनिंग के दौरान यही वजन बदलते रहते हैं, ताकि जवाब सही होता जाए।
इन ढेर सारी लेयर्स और नोड्स की वजह से ही AI आज इतनी मुश्किल चीजें कर पाता है।
हर नोड एक सवाल पूछता है: “ये इनपुट पैटर्न मेरे सीखे हुए पैटर्न से कितना मैच करता है?
हर नोड असल में एक बहुत छोटा सवाल पूछता है: “जो चीज़ मैं अभी देख रहा हूँ, क्या वो मेरे पहले सीखे हुए पैटर्न से मिलती-जुलती है?”
उदाहरण से समझो:
मान लो हम AI को बिल्ली पहचानना सिखा रहे हैं।
-
- कुछ नोड सिर्फ़ सीधी लाइन देखते हैं
- कुछ नोड गोल आकार देखते हैं
- कुछ नोड नुकीले कान देखते हैं
- कुछ नोड मूंछों जैसी पतली लाइनें देखते हैं
हर नोड अपने सामने आने वाली चीज़ को देखकर सोचता है: “हाँ, मेरी वाली चीज़ यहाँ है!” और वह थोड़ा जोश में आ जाता है (नंबर ज़्यादा हो जाता है)। अगर नहीं मिलती तो वह चुप रहता है (नंबर कम रहता है)।
फिर सारे नोड मिलकर वोटिंग करते हैं। जिन नोड्स को “कान + मूंछ + गोल आँख” एक साथ मिल जाते हैं, वे बहुत ज़ोर से चिल्लाते हैं: “बिल्ली है! बिल्ली है!” और आखिरी में AI बोलता है – “हाँ, ये बिल्ली है, 99% पक्का!”
यही काम हर सेकंड में लाखों बार होता है। हर छोटा नोड बस अपना एक छोटा सा सवाल पूछता है, और सबके जवाब मिलाकर AI बड़ा और सही फैसला ले लेता है। इसलिए यह बहुत तेज़ और सटीक लगता है, जबकि अंदर सिर्फ़ ढेर सारे छोटे-छोटे सवाल-जवाब चल रहे होते हैं।
2. AI को ट्रेन कैसे करते हैं? (सबसे महत्वपूर्ण प्रोसेस)
लोग अक्सर सोचते हैं कि AI को कोई प्रोग्रामर बैठकर एक-एक लाइन कोड लिखकर सिखाता है – जैसे “अगर बिल्ली दिखे तो बोलो बिल्ली है”। ऐसा बिल्कुल नहीं होता! AI को सिखाने का तरीका बिल्कुल छोटे बच्चे को सिखाने जैसा है – ढेर सारे उदाहरण दिखाओ, गलती करे तो सुधारो, फिर दोहराओ। यही प्रोसेस को “ट्रेनिंग” कहते हैं।
स्टेप 1: ढेर सारा डेटा इकट्ठा करो
सबसे पहले दुनिया भर से लाखों-करोड़ों उदाहरण जमा करते हैं।
-
- बिल्ली पहचानने के लिए: 1 करोड़ बिल्लियों की तस्वीरें + हर तस्वीर पर लिखा रहता है “बिल्ली”
- हिंदी-अंग्रेजी अनुवाद के लिए: करोड़ों हिंदी-इंग्लिश वाक्य जोड़े
- ChatGPT के लिए: इंटरनेट के लगभग सारे किताब, वेबसाइट, विकिपीडिया, फोरम का टेक्स्ट
ये डेटा जितना साफ और ज्यादा होगा, AI उतना ही होशियार बनेगा।
स्टेप 2: AI को शुरू में कुछ भी नहीं आता
जब नया न्यूरल नेटवर्क बनता है, उसके अंदर के सारे नंबर (वेट्स) रैंडम होते हैं। अगर आप पहली बार बिल्ली की फोटो दिखाओगे तो AI बोलेगा – “ये तो कुत्ता है… नहीं ट्रक है… नहीं बादल है”। 90-95% जवाब गलत होते हैं। बिल्कुल नवजात शिशु जैसा।
स्टेप 3: गलती दिखाओ और सुधारो (ये सबसे महत्वपूर्ण हिस्सा है)
अब असली जादू शुरू होता है – इसका नाम है Backpropagation (बैक-प्रोपगेशन)। पहले समझ ते है Backpropagation क्या हे ?
Backpropagation का मतलब ही है – “गलती को पीछे की ओर ले जाओ”
कल्पना करो एक बहुत लंबी रिले रेस है। 100 लड़के लाइन में खड़े हैं। पहला लड़का (इनपुट लेयर) → आखिरी लड़के (आउटपुट लेयर) तक गेंद फेंकता जाता है। आखिरी लड़के को गेंद टोकरी में डालनी है। अगर वो टोकरी से चूक जाए तो कोच चिल्लाता है – “5 मीटर बायीं तरफ चूक गए!”
अब कोच सिर्फ आखिरी लड़के को नहीं डांटता, बल्कि पूरी गलती को पीछे-पीछे बाँटता है ताकि हर लड़का थोड़ा सुधरे। यही काम Backpropagation करता है।
स्टेप–बाय–स्टेप बहुत आसान उदाहरण लो
हम AI को सिर्फ 1 काम सिखा रहे हैं: 2 × 3 = ? → जवाब 6 आना चाहिए
हमारा छोटा न्यूरल नेटवर्क सिर्फ 3 नोड का है:
इनपुट → हिडन नोड → आउटपुट नोड
शुरू में वेट्स (ताकत) रैंडम हैं: इनपुट → हिडन वेट = 0.5 हिडन → आउटपुट वेट = 0.8
अब चलाते हैं:
-
- इनपुट: 2 और 3
- हिडन नोड को 2×0.5 + 3×0.5 = 2.5 मिलता है
- आउटपुट: 2.5 × 0.8 = 2.0 → जवाब आया 2 (लेकिन सही है 6) → गलती = 6 – 2 = 4
अब Backpropagation शुरू!
स्टेप 1: आउटपुट पर गलती मापो गलती = 4 (बहुत बड़ी!)
स्टेप 2: आखिरी वेट को दोष दो आखिरी वेट (0.8) ने 2.5 को 2 बना दिया। तो हम कहते हैं – “ये वेट बहुत छोटा है, इसे बढ़ाओ!” नया वेट = 0.8 + थोड़ा सुधार → मान ललो 1.6 हो गया
स्टेप 3: गलती को पीछे भेजो अब हिडन नोड से पूछो – “तुमने 2.5 भेजा था, लेकिन आउटपुट को 6 चाहिए था। इसके लिए तुम्हें कितना भेजना था?” → 6 ÷ नया वेट 1.6 ≈ 3.75 भेजना था लेकिन तुमने 2.5 भेजा → तुम्हारी भी गलती है!
स्टेप 4: पहले वाले वेट्स को सुधारो अब पहले वाले वेट्स (0.5 और 0.5) को बोलो – “तुम दोनों मिलकर 3.75 पहुँचाओ” तो दोनों वेट्स को थोड़ा बढ़ाओ → 0.9 और 0.9 कर दो
अब फिर चलाओ: 2×0.9 + 3×0.9 = 1.8 + 2.7 = 4.5 4.5 × 1.6 ≈ 7.2 (अब 6 के करीब पहुँच गए!)
फिर दोबारा गलती मापो → फिर पीछे भेजो → फिर वेट्स सुधारो… 100-1000 बार ऐसा करने पर वेट्स बिल्कुल सही हो जाते हैं और जवाब हमेशा 6 ही आता है।
असली बड़े AI में यही होता है – बस बहुत बड़े स्तर पर
-
- करोड़ों वेट्स होते हैं
- एक साथ लाखों उदाहरण (फोटो, वाक्य) दिखाए जाते हैं
- हर उदाहरण की गलती को पीछे-पीछे बाँटा जाता है
- हर वेट को 0.0000001 जितना भी बदलाव होता है, लेकिन लाखों बार बदलने से बिल्कुल सही हो जाता है
सबसे आसान 1 लाइन में समझो
“Backpropagation = गलती को आखिरी लेयर से पहली लेयर तक ले जाकर हर कनेक्शन को बताना – ‘अगली बार इतना सुधार करो कि जवाब सही हो जाए’”
यही एक छोटा सा गणित का तरीका है जिसने 2010 के बाद सारा AI क्रांति ला दी। बिना इसके न ChatGPT, न Midjourney, न self-driving कार – कुछ भी संभव नहीं था!
ऊपर दिया हुआ यह एक गणित का तरीका है जो 4 काम करता है:( Repeat)
-
- AI जो जवाब देता है, उसे सही जवाब से कंपेयर करो सही जवाब: बिल्ली AI ने कहा: कुत्ता → गलती हुई = 1.0 (100% गलत)
- ये गलती को पीछे की तरफ ले जाओ मतलब आखिरी लेयर से शुरू करके पहली लेयर तक जाओ और पूछो – “तुममें से किस-किस नोड की गलती की वजह से जवाब गलत हुआ?”
- हर नोड का वजन (वेट) थोड़ा सा बदल दो जिस नोड ने गलती ज्यादा की, उसका वजन ज्यादा बदलो जिसने कम गलती की, उसका कम बदलो बदलाव बहुत छोटा-छोटा होता है (0.000001 जितना)
- फिर से वही फोटो दिखाओ अब गलती थोड़ी कम होगी… फिर सुधारो… फिर दिखाओ… लाखों-करोड़ों बार ऐसा दोहराओ!
हर बार गलती थोड़ी-थोड़ी कम होती जाती है। 10%… 5%… 1%… 0.1%… और एक दिन AI 99.9% सही जवाब देने लगता है।
स्टेप 4: ये सब बहुत भारी कम्प्यूटर पर चलता है
एक बड़ा AI (जैसे GPT-4 या Llama-3 70B) में अरबों-खरबों वेट्स होते हैं। हर फोटो या वाक्य को एक बार दिखाने में भी हज़ारों GPU एक साथ काम करते हैं।
उदाहरण:
-
- GPT-3 को ट्रेन करने में 10,000 से ज्यादा NVIDIA GPU लगे थे
- पूरा ट्रेनिंग 3-4 महीने चला
- बिजली का बिल करीब 80-100 करोड़ रुपए आया था!
- इतनी बिजली में एक छोटा गाँव 10 साल चल सकता है।
आजकल क्या नया तरीका है?
अब पूरा मॉडल दोबारा ट्रेन नहीं करते। बल्कि LoRA, QLoRA जैसे तरीकों से सिर्फ 0.1% हिस्सा बदलते हैं। इससे नया भाषा, नया काम सिखाने में सिर्फ कुछ लाख रुपए और कुछ घंटे लगते हैं।
आखिरी बात – समझने की सबसे आसान मिसाल
कल्पना करो आप अपने छोटे भाई को साइकिल चलाना सिखा रहे हो:
-
- आप उसे बैठाते हो → वो गिरता है
- आप बताते हो “हैंडल सीधा रखो, पैडल तेज मारो”
- फिर कोशिश → थोड़ा बेहतर
- 100-200 बार गिरने-उठने के बाद वो खुद चलाने लगता है
ठीक यही AI के साथ होता है – लाखों-करोड़ों बार “गिरना” (गलती करना) और सुधारना। फर्क सिर्फ इतना है कि AI एक सेकंड में हजारों बार गिरकर उठ सकता है, इसलिए वो महीनों में वो सीख लेता है जो इंसान को सालों में सीखना पड़ता है।
यही है AI ट्रेनिंग का पूरा राज़ – कोई जादू नहीं, सिर्फ ढेर सारे उदाहरण + ढेर सारी गलती + ढेर सारा सुधार + ढेर सारी बिजली!
3. बड़े लैंग्वेज मॉडल (LLM) जैसे ChatGPT, Grok कैसे काम करते हैं?
-
- ये Transformer आर्किटेक्चर पर चलते हैं (2017 का पेपर “Attention is All You Need”)।
-
-
-
- उदाहरण: “वह लड़का जो किताब पढ़ रहा है, बहुत मेहनती है” → मॉडल समझ जाता है कि “मेहनती” किसकी बात हो रही है।
-
- मतलब: मॉडल एक साथ पूरा वाक्य देखता है और तय करता है कि कौन सा शब्द किस शब्द से सबसे ज्यादा जुड़ा है।सबसे क्रांतिकारी कॉन्सेप्ट है → Attention Mechanism।
-
- उदाहरण: “वह लड़का जो किताब पढ़ रहा है, बहुत मेहनती है” → मॉडल समझ जाता है कि “मेहनती” किसकी बात हो रही है।
-
-
-
-
-
- जितने ज्यादा पैरामीटर्स, उतनी ज्यादा “याददाश्त” और समझ।
-
- Grok-1 → 314 अरब पैरामीटर्स
-
- GPT-4 → अनुमान 1.7 ट्रिलियन (1700 अरब) पैरामीटर्स
-
- GPT-3 → 175 अरब पैरामीटर्सपैरामीटर्स की संख्या:
-
- GPT-4 → अनुमान 1.7 ट्रिलियन (1700 अरब) पैरामीटर्स
-
- Grok-1 → 314 अरब पैरामीटर्स
-
- जितने ज्यादा पैरामीटर्स, उतनी ज्यादा “याददाश्त” और समझ।
-
-
4. लोग जो नहीं जानते – चौंकाने वाले फैक्ट्स
-
- AI कुछ भी “समझता” नहीं है वो सिर्फ अगले शब्द की संभावना (probability) प्रेडिक्ट करता है। “बिल्ली _ पर बैठी है” → सबसे ज्यादा प्रोबेबिलिटी “छत” या “सोफे” की होती है। समझ नहीं, सिर्फ पैटर्न मैचिंग।
- AI हैलुसिनेशन (झूठ बोलना) क्यों करता है? क्योंकि ट्रेनिंग डेटा में भी झूठ, गलतियां, विरोधाभास थे। वो कॉन्फिडेंस के साथ गलत जवाब देता है क्योंकि उसके लिए सारा टेक्स्ट सिर्फ “पैटर्न” है, सच-झूठ नहीं।
- एक जवाब देने में कितना खर्च? ChatGPT को एक सामान्य सवाल का जवाब देने में 10-20 पैसे तक लग जाते हैं (बिजली + सर्वर)। इसलिए कंपनियां सब्सक्रिप्शन लेती हैं।
- AI को ट्रेन करने में पर्यावरण को नुकसान GPT-3 को ट्रेन करने में जितनी बिजली लगी, उससे 120 घर एक साल तक चल सकते थे। कार्बन फुटप्रिंट एक आम इंसान के 5 साल के बराबर।
- आज का AI “Zero-Shot” और “Few-Shot” कर सकता है मतलब बिना किसी उदाहरण के या 2-4 उदाहरण देकर नई भाषा, नया काम सीख जाता है – क्योंकि उसने इंटरनेट का लगभग सारा टेक्स्ट देख रखा है।
5. आगे क्या होने वाला है?
-
- 2026-27 तक मल्टी-मोडल AI (टेक्स्ट + इमेज + वीडियो + ऑडियो एक साथ) आम हो जाएगा।
- AGI (Artificial General Intelligence) यानी इंसान जितनी समझ वाला AI आने में अभी 5-15 साल बाकी हैं (विशेषज्ञों का अनुमान अलग-अलग है)।
- जितना ज्यादा डेटा और कम्प्यूटेशन, उतना ताकतवर AI – ये खेल अभी खत्म नहीं हुआ।
अंतिम बात
AI कोई जादू नहीं है। यह सिर्फ बहुत सारा डेटा + बहुत सारा गणित + बहुत सारी बिजली का परिणाम है। लेकिन यह परिणाम इतना ताकतवर हो गया है कि अब यह नई चीजें बना रहा है, कोड लिख रहा है, पेंटिंग बना रहा है, और हमारी नौकरियां भी बदल रहा है।
इसलिए जरूरी है कि हम इसे डरें नहीं, समझें और सही तरीके से इस्तेमाल करें . Read also Ancient Indias Hidden Science