Nvidia CEO Says His AI Chips Are Improving Faster Than Moore’s Law

एनवीडिया के सीईओ जेन्सेन हुआंग का कहना है कि उनकी कंपनी के एआई चिप्स का प्रदर्शन मूर के कानून द्वारा निर्धारित ऐतिहासिक दरों की तुलना में तेजी से आगे बढ़ रहा है, यह नियम दशकों से कंप्यूटिंग प्रगति को आगे बढ़ा रहा है।

हुआंग ने लास वेगास में सीईएस में 10,000 लोगों की भीड़ को मुख्य भाषण देने के अगले दिन मंगलवार को टेकक्रंच के साथ एक साक्षात्कार में कहा, “हमारे सिस्टम मूर के कानून की तुलना में तेजी से प्रगति कर रहे हैं।”

1965 में इंटेल के सह-संस्थापक गॉर्डन मूर द्वारा गढ़े गए, मूर के कानून ने भविष्यवाणी की थी कि कंप्यूटर चिप्स पर ट्रांजिस्टर की संख्या हर साल लगभग दोगुनी हो जाएगी, जो अनिवार्य रूप से उन चिप्स के प्रदर्शन को दोगुना कर देगी। यह भविष्यवाणी अधिकतर सफल रही और दशकों तक क्षमता में तेजी से प्रगति हुई और लागत में गिरावट आई।

हाल के वर्षों में, मूर का नियम धीमा हो गया है। हालाँकि, हुआंग का दावा है कि एनवीडिया के एआई चिप्स अपनी त्वरित गति से आगे बढ़ रहे हैं; कंपनी का कहना है कि उसका नवीनतम डेटासेंटर सुपरचिप पिछली पीढ़ी की तुलना में एआई अनुमान वर्कलोड चलाने के लिए 30 गुना से अधिक तेज है।

हुआंग ने कहा, “हम एक ही समय में आर्किटेक्चर, चिप, सिस्टम, लाइब्रेरी और एल्गोरिदम बना सकते हैं।” “यदि आप ऐसा करते हैं, तो आप मूर के नियम की तुलना में तेज़ी से आगे बढ़ सकते हैं, क्योंकि आप पूरे स्टैक में कुछ नया कर सकते हैं।”

एनवीडिया के सीईओ का साहसिक दावा ऐसे समय में आया है जब कई लोग सवाल कर रहे हैं कि क्या एआई की प्रगति रुक ​​गई है। अग्रणी AI लैब – जैसे Google, OpenAI और Anthropic – अपने AI मॉडल को प्रशिक्षित करने और चलाने के लिए Nvidia के AI चिप्स का उपयोग करते हैं, और इन चिप्स की प्रगति से AI मॉडल क्षमताओं में और प्रगति होने की संभावना है।

यह पहली बार नहीं है जब हुआंग ने सुझाव दिया है कि एनवीडिया मूर के नियम से आगे निकल रहा है। नवंबर में एक पॉडकास्ट पर, हुआंग ने सुझाव दिया कि एआई दुनिया “हाइपर मूर के नियम” की गति पर है।

हुआंग इस विचार को खारिज करते हैं कि एआई की प्रगति धीमी हो रही है। इसके बजाय उनका दावा है कि अब तीन सक्रिय एआई स्केलिंग कानून हैं: पूर्व-प्रशिक्षण, प्रारंभिक प्रशिक्षण चरण जहां एआई मॉडल बड़ी मात्रा में डेटा से पैटर्न सीखते हैं; प्रशिक्षण के बाद, जो मानव प्रतिक्रिया जैसे तरीकों का उपयोग करके एआई मॉडल के उत्तरों को ठीक करता है; और परीक्षण-समय की गणना, जो अनुमान चरण के दौरान होती है और प्रत्येक प्रश्न के बाद एआई मॉडल को “सोचने” के लिए अधिक समय देती है।

हुआंग ने टेकक्रंच को बताया, “कंप्यूटिंग के इतिहास में मूर का नियम बहुत महत्वपूर्ण था क्योंकि इसने कंप्यूटिंग लागत को कम कर दिया था।” “यही बात अनुमान के साथ होने वाली है जहां हम प्रदर्शन को बढ़ाते हैं, और परिणामस्वरूप, अनुमान की लागत कम होने वाली है।”

(बेशक, एआई बूम की मदद से एनवीडिया पृथ्वी पर सबसे मूल्यवान कंपनी बन गई है, इसलिए ऐसा कहना हुआंग के लिए फायदेमंद है।)

स्क्रीनशॉट 2025 01 06 रात्रि 10.13.37 बजेस्क्रीनशॉट 2025 01 06 रात्रि 10.13.37 बजे
एनवीडिया के सीईओ जेन्सेन हुआंग एक ढाल की तरह जीबी200 एनवीएल72 का उपयोग कर रहे हैं (छवि क्रेडिट: एनवीडिया)

एआई मॉडल को प्रशिक्षित करने की चाहत रखने वाली तकनीकी कंपनियों के लिए एनवीडिया की एच100 पसंद की चिप थी, लेकिन अब जब तकनीकी कंपनियां अनुमान पर अधिक ध्यान केंद्रित कर रही हैं, तो कुछ ने सवाल किया है कि क्या एनवीडिया की महंगी चिप्स अभी भी शीर्ष पर रहेंगी।

एआई मॉडल जो परीक्षण-समय गणना का उपयोग करते हैं, आज चलाना महंगा है। इस बात की चिंता है कि OpenAI का o3 मॉडल, जो परीक्षण-समय गणना के एक उन्नत संस्करण का उपयोग करता है, अधिकांश लोगों के उपयोग के लिए बहुत महंगा होगा। उदाहरण के लिए, ओपनएआई ने सामान्य बुद्धि के परीक्षण पर मानव-स्तर के स्कोर प्राप्त करने के लिए ओ3 का उपयोग करके प्रति कार्य लगभग 20 डॉलर खर्च किए। चैटजीपीटी प्लस सदस्यता की लागत पूरे महीने के उपयोग के लिए $20 है।

हुआंग ने सोमवार के मुख्य वक्ता के दौरान मंच पर एनवीडिया के नवीनतम डेटासेंटर सुपरचिप, जीबी200 एनवीएल72 को एक ढाल की तरह पकड़ रखा था। यह चिप एनवीडिया के पिछले सबसे ज्यादा बिकने वाले चिप्स, एच100 की तुलना में एआई अनुमान वर्कलोड चलाने में 30 से 40 गुना तेज है। हुआंग का कहना है कि प्रदर्शन में इस उछाल का मतलब है कि ओपनएआई के ओ3 जैसे एआई रीजनिंग मॉडल, जो अनुमान चरण के दौरान महत्वपूर्ण मात्रा में गणना का उपयोग करते हैं, समय के साथ सस्ते हो जाएंगे।

हुआंग का कहना है कि उनका ध्यान कुल मिलाकर अधिक प्रदर्शन करने वाले चिप्स बनाने पर है, और अधिक प्रदर्शन करने वाले चिप्स लंबे समय में कम कीमतें पैदा करते हैं।

हुआंग ने टेकक्रंच को बताया, “प्रदर्शन और लागत सामर्थ्य दोनों में परीक्षण-समय की गणना के लिए प्रत्यक्ष और तत्काल समाधान, हमारी कंप्यूटिंग क्षमता को बढ़ाना है।” उन्होंने कहा कि लंबी अवधि में, एआई रीज़निंग मॉडल का उपयोग एआई मॉडल के पूर्व-प्रशिक्षण और प्रशिक्षण के बाद के लिए बेहतर डेटा बनाने के लिए किया जा सकता है।

हमने निश्चित रूप से पिछले साल एआई मॉडल की कीमतों में गिरावट देखी है, जिसका कुछ कारण एनवीडिया जैसी हार्डवेयर कंपनियों की कंप्यूटिंग सफलताएं थीं। हुआंग का कहना है कि वह एआई रीजनिंग मॉडल के साथ इस प्रवृत्ति को जारी रखने की उम्मीद करते हैं, भले ही हमने ओपनएआई से जो पहला संस्करण देखा है वह काफी महंगा रहा है।

अधिक मोटे तौर पर, हुआंग ने दावा किया कि आज उसके एआई चिप्स 10 साल पहले बनाए गए चिप्स से 1,000 गुना बेहतर हैं। यह मूर के नियम द्वारा निर्धारित मानक की तुलना में बहुत तेज़ गति है, एक हुआंग का कहना है कि उसे जल्द ही रुकने का कोई संकेत नहीं दिखता है।

Leave a Comment

You cannot copy content of this page