यह एक AI अनुवादित पोस्ट है।
अग्रणी AI मॉडल का विरोधाभास, पारदर्शिता
- लेखन भाषा: कोरियाई
- •
- आधार देश: सभी देश
- •
- आईटी
भाषा चुनें
durumis AI द्वारा संक्षेपित पाठ
- स्टैनफोर्ड यूनिवर्सिटी के शोधकर्ताओं ने GPT-4 सहित 10 अत्याधुनिक AI सिस्टम का विश्लेषण किया, जिसमें डेटासेट, प्रशिक्षण विधियों जैसी AI मॉडल की पारदर्शिता की कमी का पता चला।
- विशेष रूप से, ओपनएआई, गूगल जैसी प्रमुख AI कंपनियां लाभ-केंद्रित व्यावसायिक मॉडल का पीछा कर रही हैं, जिसके कारण वे डेटा प्रकटीकरण में रूढ़िवादी दृष्टिकोण अपना रही हैं, और यह AI तकनीक के विकास को बाधित कर सकता है और एकाधिकारपूर्ण भविष्य की ओर ले जा सकता है।
- विशेषज्ञों ने तर्क दिया है कि AI मॉडल की पारदर्शिता को बढ़ाकर पुनरुत्पादन क्षमता सुनिश्चित की जानी चाहिए और सामाजिक जिम्मेदारी को मजबूत किया जाना चाहिए, और AI तकनीक के विकास के साथ-साथ सामाजिक समझौते और नियमन संबंधी चर्चाओं का आह्वान किया जा रहा है।
पिछले 18 दिनों में स्टैनफोर्ड विश्वविद्यालय के शोधकर्ताओं द्वारा प्रकाशित एक अध्ययन से पता चलता है कि GPT-4 और अन्य अत्याधुनिक AI सिस्टम के रहस्य कितने गहरे और संभावित रूप से खतरनाक हैं।
फाउंडेशन मॉडल पारदर्शिता सूचकांक का परिचय, स्टैनफोर्ड विश्वविद्यालय
उन्होंने कुल 10 अलग-अलग AI सिस्टम की जांच की, जिनमें से अधिकांश बड़े भाषा मॉडल थे, जैसे कि ChatGPT और अन्य चैटबॉट में उपयोग किया जाता है। इसमें OpenAI का GPT-4, Google का PaLM 2, Amazon का Titan Text जैसे व्यापक रूप से उपयोग किए जाने वाले वाणिज्यिक मॉडल शामिल हैं, जिसमें डेवलपर्स द्वारा मॉडल प्रशिक्षण के लिए उपयोग किए गए डेटा के बारे में कितना पारदर्शिता से खुलासा किया गया है (डेटा संग्रह और एनाटोमेशन के तरीके, कॉपीराइट किए गए सामग्रियों की उपस्थिति आदि) सहित 13 मानदंडों के आधार पर पारदर्शिता का मूल्यांकन किया गया। उन्होंने यह भी जांच की कि क्या मॉडल को प्रशिक्षित करने और चलाने के लिए उपयोग किए गए हार्डवेयर, उपयोग किए गए सॉफ्टवेयर फ्रेमवर्क, और परियोजना की ऊर्जा खपत के बारे में खुलासा किया गया है।
परिणाम यह था कि सभी मानदंडों पर पारदर्शिता के पैमाने पर 54% से अधिक अंक हासिल करने वाला कोई भी AI मॉडल नहीं था। कुल मिलाकर, Amazon का Titan Text को पारदर्शिता में सबसे कम रेटिंग मिली, जबकि Meta का Llama 2 को सबसे खुला पाया गया। दिलचस्प बात यह है कि हाल ही में ध्यान आकर्षित करने वाले खुले और बंद मॉडल के विपरीत संरचना के प्रमुख प्रतिनिधि, Llama 2, एक खुला स्रोत मॉडल होने के बावजूद, प्रशिक्षण के लिए उपयोग किए गए डेटा, डेटा संग्रह और क्यूरेशन के तरीके आदि का खुलासा नहीं किया है। दूसरे शब्दों में, हमारे समाज पर AI के बढ़ते प्रभाव के बावजूद, उद्योग में संबंधित अपारदर्शिता एक व्यापक और लगातार घटना है।
यह इसका अर्थ है कि AI उद्योग को वैज्ञानिक प्रगति के बजाय लाभ-केंद्रित क्षेत्र बनने का खतरा है, जो कुछ कंपनियों के नेतृत्व में एकाधिकारपूर्ण भविष्य की ओर ले जा सकता है।है।
एरिक ली/ब्लूमबर्ग गेटी इमेज के माध्यम से
OpenAI के सीईओ सैम ऑल्टमैन पहले ही दुनिया भर के नीति निर्माताओं से मिल चुके हैं और सार्वजनिक रूप से इस अपरिचित और नए बुद्धिमत्ता के बारे में समझाने और संबंधित नियमों को ठीक करने में मदद करने की अपनी इच्छा व्यक्त कर चुके हैं। हालाँकि, वह सिद्धांत रूप में AI की निगरानी के लिए एक अंतरराष्ट्रीय संगठन के विचार का समर्थन करते हैं, लेकिन उनका मानना है कि कुछ सीमित नियम, जैसे कि डेटासेट से सभी कॉपीराइट किए गए सामग्रियों को प्रतिबंधित करना, अनुचित बाधाएँ बन सकते हैं। OpenAI कंपनी के नाम में शामिल "खुलापन" स्पष्ट रूप से उस उदार पारदर्शिता से बदल गया है जो इसकी शुरुआत में प्रस्तुत की गई थी।
हालांकि, इस स्टैनफोर्ड रिपोर्ट के निष्कर्ष से पता चलता है कि प्रतिस्पर्धा के लिए अपने-अपने मॉडल को इतना गुप्त रखने की आवश्यकता नहीं है। यह परिणाम लगभग सभी कंपनियों के खराब प्रदर्शन का संकेत भी है। उदाहरण के लिए, कहा जाता है कि कोई भी कंपनी यह नहीं बता रही है कि कितने उपयोगकर्ता अपने मॉडल पर निर्भर हैं, या वे अपने मॉडल का उपयोग करने वाले क्षेत्रों या बाजार खंडों के बारे में आँकड़े प्रदान कर रहे हैं।
खुले स्रोत को सिद्धांत के रूप में अपनाने वाले संगठनों के बीच एक कहावत है कि "बहुत सारी आँखें हर कीड़े को पकड़ लेती हैं।" (लिनस का कानून) प्राथमिक संख्या समस्याओं को हल करने और उन्हें ठीक करने के लिए आवश्यक सुधारों को खोजने में मदद करते हैं।
लेकिन खुले स्रोत अभ्यास धीरे-धीरे सार्वजनिक कंपनियों के भीतर और बाहर सामाजिक स्थिति और मूल्य मान्यता को कम करने की प्रवृत्ति रखता है।इसलिए, इसका बिना शर्त जोर देना ज्यादा मायने नहीं रखता। इसलिए, मॉडल के खुले या बंद होने के बारे में फ्रेम में रहने के बजाय, 'डेटा' पर ध्यान केंद्रित करना बेहतर है, जो शक्तिशाली AI मॉडल का आधार है, और धीरे-धीरे बाहरी पहुंच को व्यापक बनानाचर्चा का फोकस होना चाहिए।
वैज्ञानिक प्रगति के लिए, यह सुनिश्चित करना महत्वपूर्ण है कि पुनरुत्पादन क्षमता (पुनरुत्पादनक्षमता) प्राप्त हो। इससे प्रत्येक मॉडल निर्माण के प्रमुख घटकों के लिए पारदर्शिता सुनिश्चित करने के तरीकों को विकसित किया जा सकता है, अन्यथा उद्योग को बंद और स्थिर एकाधिकार की स्थिति में बंद होने का खतरा है। और यह याद रखना महत्वपूर्ण है कि यह वर्तमान में और भविष्य में पूरे उद्योग में AI तकनीक के तेजी से प्रसार के संबंध में काफी उच्च प्राथमिकता है।
पत्रकारों या वैज्ञानिकों के लिए डेटा को समझना महत्वपूर्ण हो गया है, और नीति निर्माताओं के लिए पारदर्शिता एक पूर्व नियोजित नीति प्रयास की शर्त है। जनता के लिए भी पारदर्शिता महत्वपूर्ण है क्योंकि वे AI सिस्टम के अंतिम उपयोगकर्ता हैं, जो बौद्धिक संपदा अधिकारों, ऊर्जा उपयोग और पूर्वाग्रह से संबंधित संभावित मुद्दों के लिए अपराधी या पीड़ित बन सकते हैं। सैम ऑल्टमैन का तर्क है कि AI से मानवता के विनाश का खतरा महामारी या परमाणु युद्ध जैसे सामाजिक स्तर के खतरों में से एक है और इसे वैश्विक प्राथमिकता दी जानी चाहिए। हालाँकि, उस खतरनाक स्थिति तक पहुँचने से पहले, हमारे समाज को AI के साथ एक स्वस्थ संबंध बनाए रखना होगा, जो इसके अस्तित्व की आधारशिला है।
*यह लेख 23 अक्टूबर 2023 को इलेक्ट्रॉनिक समाचार पत्र में प्रकाशित नामित स्तंभ का मूल संस्करण है।
संदर्भ