Lok Shakti

Nationalism Always Empower People

एआई रेस कौन जीतेगा? Google या Microsoft नहीं बल्कि खुला स्रोत, Google के वरिष्ठ इंजीनियर कहते हैं

Default Featured Image

जनरेटिव एआई युग की शुरुआत के साथ बड़ी तकनीकी कंपनियों के बीच प्रतिस्पर्धा नई ऊंचाइयों पर पहुंच रही है – और कुछ ने इसे ‘एआई युद्ध’ भी घोषित कर दिया है। ऐसा लगता है कि माइक्रोसॉफ्ट बिंग चैट और इमेज क्रिएटर जैसे जनरेटिव एआई-संचालित उत्पादों के अपने विशाल शस्त्रागार के लिए सबसे आगे है। इस बीच, Google बहुत पीछे नहीं लगता है, यहां तक ​​​​कि यह अभी तक एक स्टैंडअलोन जनरेटिव एआई उत्पाद लॉन्च करने या तकनीक को अपने सबसे बड़े उत्पाद, Google खोज में प्लग करने के लिए नहीं है।

हालाँकि, Google के एक वरिष्ठ सॉफ्टवेयर इंजीनियर ने दावा किया है कि यह Microsoft या OpenAI नहीं है जिससे खोज इंजन को डरना चाहिए, बल्कि यह खुला स्रोत है।

Google के वरिष्ठ सॉफ्टवेयर इंजीनियर और बेटर इंजीनियरिंग के संस्थापक ल्यूक सर्नौ ने एक दस्तावेज़ में कहा कि न तो Google और न ही OpenAI AI हथियारों की दौड़ जीतने की स्थिति में है। उन्होंने सुझाव दिया कि OpenAI के साथ Google की प्रतिद्वंद्विता ने कंपनी को ओपन-सोर्स तकनीक में तेजी से हो रहे विकास से विचलित कर दिया है: “जब हम झगड़ा कर रहे थे, एक तीसरा गुट चुपचाप हमारा दोपहर का भोजन खा रहा था। मैं बात कर रहा हूँ, बेशक, खुले स्रोत के बारे में।

सर्नौ के बयान एक दस्तावेज़ का हिस्सा थे जो अप्रैल की शुरुआत में Google पर एक इंटरनेट सिस्टम पर प्रकाशित हुआ था। इस मामले से परिचित एक व्यक्ति का हवाला देते हुए रिपोर्ट के अनुसार, तब से इसे Googlers के बीच हजारों बार साझा किया गया है। 4 मई को, परामर्श फर्म सेमीएनालिसिस द्वारा दस्तावेज़ प्रकाशित किया गया था, और उसके बाद सिलिकॉन वैली में परिचालित किया गया है।

“हमारे पास कोई गुप्त सॉस नहीं है”

जब बड़े भाषा मॉडल की बात आती है, तो यह मेटा का LLaMA है जो ओपन-सोर्स समुदाय का पसंदीदा प्रतीत होता है। मॉडल, जिसे फरवरी में जारी किया गया था, मेटा द्वारा प्राकृतिक भाषा प्रसंस्करण और भावना विश्लेषण सहित कई कार्यों में GPT-3 से बेहतर प्रदर्शन करने का दावा किया गया है। यह अनुकूलन योग्य वज़न के साथ बहुत अधिक अनुकूलनीय है जो इसे कम शक्तिशाली हार्डवेयर पर चलाने की अनुमति देता है, जिससे यह अधिक डेवलपर-अनुकूल हो जाता है।

लेकिन LLaMA एकमात्र डेवलपर-अनुकूल LLM नहीं है और Sernau स्पष्ट रूप से इसके बारे में जानता है।

“जबकि हमारे मॉडल अभी भी गुणवत्ता के मामले में थोड़ी बढ़त रखते हैं, अंतर आश्चर्यजनक रूप से जल्दी से बंद हो रहा है। ओपन-सोर्स मॉडल तेज, अधिक अनुकूलन योग्य, अधिक निजी और पाउंड-फॉर-पाउंड अधिक सक्षम हैं। वे $100 और 13B पैराम के साथ काम कर रहे हैं जिससे हम $10M और 540B पर संघर्ष कर रहे हैं। और वे ऐसा हफ्तों में कर रहे हैं, महीनों में नहीं।”

“हमारे पास कोई गुप्त चटनी नहीं है,” सर्नौ ने लिखा। “हमारी सबसे अच्छी आशा है कि Google के बाहर अन्य लोग जो कर रहे हैं उससे सीखें और सहयोग करें।”

उन्होंने यह भी सुझाव दिया कि जब अन्य उच्च गुणवत्ता वाले मॉडल मुफ्त में उपलब्ध हों तो ग्राहक प्रतिबंधात्मक मॉडल के लिए भुगतान करने को तैयार नहीं होंगे।

“विशालकाय मॉडल हमें धीमा कर रहे हैं”

मापदंडों की संख्या को अक्सर प्राथमिक कारक के रूप में देखा जाता है जो सटीकता निर्धारित करता है। लेकिन एलएलएम को सैकड़ों अरबों मापदंडों के साथ प्रशिक्षित करने के लिए पर्याप्त कंप्यूटिंग संसाधनों की आवश्यकता होती है, जो उच्च लागत और ऊर्जा खपत का अनुवाद करता है। ऐसे मॉडलों को चलाना अत्यधिक महंगा भी होता है।

सर्नौ सुझाव देते हैं कि विशाल मॉडल Google को धीमा कर रहे हैं: “लंबे समय में, सबसे अच्छे मॉडल वे होते हैं जिन्हें जल्दी से दोहराया जा सकता है। अब जब हम जानते हैं कि <20B पैरामीटर शासन में क्या संभव है, तो हमें बाद के विचार से अधिक छोटे संस्करण बनाने चाहिए।"

चीजों को परिप्रेक्ष्य में रखने के लिए, इंजीनियर ने विकुना-13B का हवाला देते हुए कहा कि इस तरह के मॉडल “$100 और 13B पैराम्स के साथ काम कर रहे हैं जो हम $10M और 540B के साथ संघर्ष करते हैं।” उन्होंने कहा कि बड़े मॉडल लंबे समय में अधिक सक्षम नहीं होते हैं यदि छोटे मॉडल, जो अपडेट करने के लिए सस्ते होते हैं, तेजी से पुनरावृति करते हैं।

अधिक ओपन-सोर्स नीति के लिए Google को आगे बढ़ाकर Sernau समाप्त हो गया।

“अंत में, ओपनएआई कोई फर्क नहीं पड़ता। वे वही गलतियाँ कर रहे हैं जो हम खुले स्रोत के सापेक्ष उनकी मुद्रा में हैं, और बढ़त बनाए रखने की उनकी क्षमता सवालों के घेरे में है। ओपन-सोर्स विकल्प अंततः उन्हें ग्रहण कर सकते हैं और करेंगे जब तक कि वे अपना रुख नहीं बदलते। इस संबंध में, कम से कम, हम पहला कदम उठा सकते हैं,” उन्होंने निष्कर्ष निकाला।