
गगन मलिक द्वारा
सब कहते हैं कि सबसे अच्छी कृत्रिम बुद्धिमत्ता वही होती है जो सबसे सक्षम हो। सबसे बड़ा मॉडल इस्तेमाल करो, बेहतर प्रॉम्प्ट लिखो और फिर हट जाओ। मुझे लगता है कि यह सोच गलत है।
जब आप फ्रंटियर एलएलएम का बिना किसी पूर्व संदर्भ के उपयोग करते हैं, तो यह आपके आउटपुट को इंटरनेट के मध्य की ओर खींच लेता है। मैं एक विशिष्ट शैली में लिखता हूँ, जिसे निबंधों, वीडियो और सोशल मीडिया पोस्ट के माध्यम से विकसित करने में वर्षों लगे। जब मैंने अपने ड्राफ्ट को बिना किसी संदर्भ के जीपीटी-4 और क्लाउड में डाला, तो आउटपुट साफ-सुथरा लेकिन सपाट था। यह कोई आकस्मिक घटना नहीं है। 2025 में 'PNAS' में प्रकाशित शोध में पाया गया कि एलएलएम व्यवस्थित रूप से एकरूप आउटपुट उत्पन्न करते हैं, जिसमें प्रत्येक अतिरिक्त एआई-जनित रचना किसी कार्य में उतनी अनूठी विविधता नहीं जोड़ती जितनी कि मानव-लिखित रचना जोड़ती है। एक अलग पीयर-रिव्यू अध्ययन में पाया गया कि निर्देश-आधारित मॉडल एक विशेष संज्ञा-प्रधान, सूचनात्मक रूप से सघन शैली में प्रशिक्षित होते हैं जो अन्य लेखन शैलियों की नकल करने की उनकी क्षमता को सक्रिय रूप से सीमित करती है। मॉडल विफल नहीं हो रहा है। यह ठीक वही कर रहा है जिसके लिए इसे बनाया गया था, यानी सबकी सेवा करना, आपकी नहीं। pnas
इसका सीधा जवाब यही होगा कि यह प्रॉम्प्टिंग की समस्या है। इसे और अधिक संदर्भ दें, बेहतर निर्देश लिखें, और परिणाम बेहतर हो जाते हैं। यह सच है, और मैंने इसे आजमाया भी है। बेहतर प्रॉम्प्टिंग से वाकई मदद मिलती है। लेकिन 2025 के एक arXiv अध्ययन ने ठीक इसी धारणा का परीक्षण किया और पाया कि कुछ-कुछ प्रॉम्प्टिंग के बावजूद, LLM को ब्लॉग और फ़ोरम में लिखे गए सूक्ष्म, अनौपचारिक लेखन को समझने में अभी भी कठिनाई होती है, जबकि अधिकांश व्यक्तिगत सामग्री इसी शैली में लिखी जाती है। एक समय ऐसा आता है जब आप मॉडल को यह सिखाने में अधिक समय लगा रहे होते हैं कि आप कौन हैं, जबकि इसका उपयोग करके आप समय बचा नहीं रहे होते। यह एक दोषपूर्ण कार्यप्रणाली है। arxiv
आपके अपने काम पर आधारित एक परिष्कृत मॉडल आपके बौद्धिक इतिहास को जानता है, न कि केवल आपके अंतिम संदेश को। मेरे पास पाँच वर्षों का लेखन कार्य है: निबंध, प्रतिलेख, नोट्स, मसौदे। यह केवल विषयवस्तु नहीं है। यह इस बात का रिकॉर्ड है कि मेरी सोच कैसे विकसित हुई है, मैं किन विषयों पर बार-बार लौटता हूँ, और किन विषयों पर मैंने अपना विचार बदला है। व्यक्तिगत सामग्री पर मॉडल को परिष्कृत करना एक स्थापित तकनीक है। अकादमिक क्षेत्र के एक प्रलेखित मामले में परिष्कृत मॉडल के आउटपुट और मूल शोधकर्ता की लेखन शैली के बीच 0.8 का कोसाइन समानता स्कोर प्राप्त हुआ, जो दर्शाता है कि एक मॉडल न केवल शब्दावली बल्कि एक केंद्रित डेटासेट से संरचनात्मक और शैलीगत पैटर्न भी सीख सकता है। इसने मेरे व्यक्तिगत संग्रह को उस तरह से उपयोगी बना दिया जैसा खोज कभी नहीं कर सकती थी। blog.gopenai
कुछ लोग कहेंगे कि रिट्रीवल-ऑगमेंटेड जनरेशन (RAG) बिना फाइन-ट्यूनिंग के भी वही काम कर देता है। आप अपने नोट्स पर एक RAG पाइपलाइन बनाते हैं और मॉडल को उस पर क्वेरी करने देते हैं। इससे आप आधे रास्ते तक पहुँच जाते हैं। लेकिन जैसा कि AWS और स्वतंत्र तकनीकी विश्लेषण दोनों पुष्टि करते हैं, RAG और फाइन-ट्यूनिंग अलग-अलग समस्याओं का समाधान करते हैं: RAG मौजूदा जानकारी को रिट्रीव करता है, जबकि फाइन-ट्यूनिंग टोन, रिदम और स्ट्रक्चर के स्तर पर मॉडल के जनरेटिव व्यवहार को बदलता है। ये अलग-अलग समस्याएं हैं और इनके लिए अलग-अलग समाधानों की आवश्यकता होती है। दोनों का हाइब्रिड अक्सर वास्तविक मूल्य प्रदान करता है। kairntech
जितना अधिक समय तक आप किसी सामान्य मॉडल का उपयोग करके लिखते हैं, उतना ही आप उसी तरह लिखने लगते हैं। मैंने लगभग अठारह महीनों में यह बात महसूस की। मेरे ड्राफ्ट अधिक सहज, अधिक संरचित और कम आश्चर्यजनक हो गए। यह प्रमाणित है। अप्रैल 2025 में प्रकाशित कॉर्नेल विश्वविद्यालय के एक अध्ययन में पाया गया कि जब लोगों ने एआई लेखन सहायक का उपयोग किया, तो उनका लेखन एकरूप हो गया, जिसमें विशिष्ट सांस्कृतिक और व्यक्तिगत स्वर अधिक समान हो गए। प्रमुख शोधकर्ता ने इसे उन पहले अध्ययनों में से एक बताया जो यह दर्शाता है कि लेखन में एआई का उपयोग सांस्कृतिक रूढ़िवादिता और भाषा के एकीकरण का कारण बन सकता है। एक अन्य अध्ययन में पाया गया कि शिक्षकों ने एआई-सहायता प्राप्त निबंधों को अधिक धाराप्रवाह और सुव्यवस्थित माना, लेकिन उनमें स्वर और मौलिक अंतर्दृष्टि की कमी पाई। डिज़ाइनर इस पैटर्न को पहले से ही जानते हैं: आप जिन उपकरणों का उपयोग करते हैं, आप उन्हीं के अनुरूप बन जाते हैं। news.cornell
इसका सीधा सा जवाब यह है कि यह अनुशासन की समस्या है। बिना AI के अपना पहला ड्राफ्ट लिखें, अपने लक्ष्य पर केंद्रित रहें, और भटकाव रुक जाएगा। शायद। लेकिन संरचनात्मक समस्या यह है कि एक सामान्य उपकरण को आपकी आवाज़ को संरक्षित करने में कोई दिलचस्पी नहीं होती; बल्कि उसे इसे दबाने का पूरा प्रोत्साहन मिलता है। जून 2025 के 'न्यू यॉर्कर' के एक लेख में इसे स्पष्ट रूप से कहा गया था: बड़े भाषा मॉडल व्यापक डेटासेट के भीतर पैटर्न की पहचान करने के लिए डिज़ाइन किए गए हैं, जो आम सहमति की ओर झुकाव वाले आउटपुट उत्पन्न करते हैं, और यह प्रवृत्ति समय के साथ न केवल आउटपुट को बल्कि उनका उपयोग करने वाले मनुष्यों को भी प्रभावित करती है। आपकी आवाज़ पर प्रशिक्षित मॉडल बनाने से उपकरण की प्रोत्साहन संरचना ही बदल जाती है। आप मौजूदा धारा के विरुद्ध चलना बंद कर देते हैं। newyorker
ए.आर. रहमान भारतीय सिनेमा की पहचान सिर्फ पश्चिमी संगीत सीखकर और वहीं रुककर नहीं बने। उन्होंने चेन्नई स्थित अपने घर में एक रिकॉर्डिंग स्टूडियो बनाया, जब दूसरे लोग लाइव ऑर्केस्ट्रा के साथ काम कर रहे थे, तब उन्होंने एमआईडीआई कंपोज़िशन का प्रशिक्षण लिया और कर्नाटक शास्त्रीय संगीत, सूफी भक्ति संगीत और पश्चिमी पॉप संगीत को एक ऐसे व्याकरण में पिरोया जिसे कोई और दोहरा नहीं सका, क्योंकि किसी और ने प्रभावों के ऐसे संयोजन का अनुभव नहीं किया था। उनके द्वारा इस्तेमाल किए गए उपकरण तो हर किसी के लिए उपलब्ध थे। लेकिन उनका मूल विचार पूरी तरह से उनका अपना था। एक सामान्य एलएलएम आपको उपकरण देता है। एक व्यक्तिगत मॉडल आपको उसका मूल रूप देता है।
असली आपत्ति यह है: एक छोटे व्यक्तिगत डेटासेट पर बारीकी से काम करने से आपकी कमजोरियाँ बढ़ सकती हैं, न कि केवल आपकी खूबियाँ। यदि आपके लेखन में कमियाँ या संरचनात्मक त्रुटियाँ हैं, तो व्यक्तिगत मॉडल उन्हें भी सीख लेता है। अंततः आपके पास एक ऐसा उपकरण होता है जो आपकी तरह ही सटीक रूप से लिखता है, जिसमें वे हिस्से भी शामिल हैं जिन्हें संपादन की आवश्यकता हो सकती है। यह एक प्रमाणित सीमा है; बारीकी से तैयार किए गए मॉडल प्रशिक्षण डेटा में मौजूद पैटर्न को सुदृढ़ करने का जोखिम बढ़ाते हैं और उन पैटर्न को चुनौती देने वाले संदर्भों को सामने नहीं लाते हैं। docs.aws.amazon
यह सच है। लेकिन यह उपयोग के संदर्भ को गलत समझता है। एक व्यक्तिगत मॉडल आवाज और निरंतरता को संभालता है। यह संपादकीय चुनौती का स्थान नहीं ले सकता; वह अभी भी बाहरी स्रोतों से ही आनी चाहिए। अपनी शैली में अभ्यास करने वाला संगीतकार आलोचना से बच नहीं रहा है। बल्कि वह यह सुनिश्चित कर रहा है कि आलोचना किसी ऐसी चीज पर पड़े जो वास्तव में उसकी अपनी हो।
अगले दशक में महत्वपूर्ण उपकरण वे होंगे जो आपको इतनी अच्छी तरह से जानते हों कि वे वास्तव में उपयोगी हों, न कि केवल सामान्य रूप से सक्षम हों। यदि आप अपनी आवाज़ को ऐसे मॉडल को सौंपते रहेंगे जो दूसरों की सोच पर प्रशिक्षित है, तो आप स्वयं को संवर्धित नहीं कर रहे हैं; आप धीरे-धीरे अपनी विशिष्टता को दूसरों को हस्तांतरित कर रहे हैं। जो लोग अभी व्यक्तिगत एआई अवसंरचना का निर्माण करेंगे, वे अपनी बौद्धिक शक्ति के मालिक होंगे; बाकी लोग अगले दस साल एक-दूसरे की तरह बोलते रहेंगे। news.cornell