Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

यह एक AI अनुवादित पोस्ट है।

Byungchae Ryan Son

अग्रणी AI मॉडल का विरोधाभास, पारदर्शिता

  • लेखन भाषा: कोरियाई
  • आधार देश: सभी देश country-flag

भाषा चुनें

  • हिन्दी
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • Magyar

durumis AI द्वारा संक्षेपित पाठ

  • स्टैनफोर्ड यूनिवर्सिटी के शोधकर्ताओं ने GPT-4 सहित 10 अत्याधुनिक AI सिस्टम का विश्लेषण किया, जिसमें डेटासेट, प्रशिक्षण विधियों जैसी AI मॉडल की पारदर्शिता की कमी का पता चला।
  • विशेष रूप से, ओपनएआई, गूगल जैसी प्रमुख AI कंपनियां लाभ-केंद्रित व्यावसायिक मॉडल का पीछा कर रही हैं, जिसके कारण वे डेटा प्रकटीकरण में रूढ़िवादी दृष्टिकोण अपना रही हैं, और यह AI तकनीक के विकास को बाधित कर सकता है और एकाधिकारपूर्ण भविष्य की ओर ले जा सकता है।
  • विशेषज्ञों ने तर्क दिया है कि AI मॉडल की पारदर्शिता को बढ़ाकर पुनरुत्पादन क्षमता सुनिश्चित की जानी चाहिए और सामाजिक जिम्मेदारी को मजबूत किया जाना चाहिए, और AI तकनीक के विकास के साथ-साथ सामाजिक समझौते और नियमन संबंधी चर्चाओं का आह्वान किया जा रहा है।

पिछले 18 दिनों में स्टैनफोर्ड विश्वविद्यालय के शोधकर्ताओं द्वारा प्रकाशित एक अध्ययन से पता चलता है कि GPT-4 और अन्य अत्याधुनिक AI सिस्टम के रहस्य कितने गहरे और संभावित रूप से खतरनाक हैं।

फाउंडेशन मॉडल पारदर्शिता सूचकांक का परिचय, स्टैनफोर्ड विश्वविद्यालय


उन्होंने कुल 10 अलग-अलग AI सिस्टम की जांच की, जिनमें से अधिकांश बड़े भाषा मॉडल थे, जैसे कि ChatGPT और अन्य चैटबॉट में उपयोग किया जाता है। इसमें OpenAI का GPT-4, Google का PaLM 2, Amazon का Titan Text जैसे व्यापक रूप से उपयोग किए जाने वाले वाणिज्यिक मॉडल शामिल हैं, जिसमें डेवलपर्स द्वारा मॉडल प्रशिक्षण के लिए उपयोग किए गए डेटा के बारे में कितना पारदर्शिता से खुलासा किया गया है (डेटा संग्रह और एनाटोमेशन के तरीके, कॉपीराइट किए गए सामग्रियों की उपस्थिति आदि) सहित 13 मानदंडों के आधार पर पारदर्शिता का मूल्यांकन किया गया। उन्होंने यह भी जांच की कि क्या मॉडल को प्रशिक्षित करने और चलाने के लिए उपयोग किए गए हार्डवेयर, उपयोग किए गए सॉफ्टवेयर फ्रेमवर्क, और परियोजना की ऊर्जा खपत के बारे में खुलासा किया गया है।


परिणाम यह था कि सभी मानदंडों पर पारदर्शिता के पैमाने पर 54% से अधिक अंक हासिल करने वाला कोई भी AI मॉडल नहीं था। कुल मिलाकर, Amazon का Titan Text को पारदर्शिता में सबसे कम रेटिंग मिली, जबकि Meta का Llama 2 को सबसे खुला पाया गया। दिलचस्प बात यह है कि हाल ही में ध्यान आकर्षित करने वाले खुले और बंद मॉडल के विपरीत संरचना के प्रमुख प्रतिनिधि, Llama 2, एक खुला स्रोत मॉडल होने के बावजूद, प्रशिक्षण के लिए उपयोग किए गए डेटा, डेटा संग्रह और क्यूरेशन के तरीके आदि का खुलासा नहीं किया है। दूसरे शब्दों में, हमारे समाज पर AI के बढ़ते प्रभाव के बावजूद, उद्योग में संबंधित अपारदर्शिता एक व्यापक और लगातार घटना है।


यह इसका अर्थ है कि AI उद्योग को वैज्ञानिक प्रगति के बजाय लाभ-केंद्रित क्षेत्र बनने का खतरा है, जो कुछ कंपनियों के नेतृत्व में एकाधिकारपूर्ण भविष्य की ओर ले जा सकता है।है।

एरिक ली/ब्लूमबर्ग गेटी इमेज के माध्यम से


OpenAI के सीईओ सैम ऑल्टमैन पहले ही दुनिया भर के नीति निर्माताओं से मिल चुके हैं और सार्वजनिक रूप से इस अपरिचित और नए बुद्धिमत्ता के बारे में समझाने और संबंधित नियमों को ठीक करने में मदद करने की अपनी इच्छा व्यक्त कर चुके हैं। हालाँकि, वह सिद्धांत रूप में AI की निगरानी के लिए एक अंतरराष्ट्रीय संगठन के विचार का समर्थन करते हैं, लेकिन उनका मानना है कि कुछ सीमित नियम, जैसे कि डेटासेट से सभी कॉपीराइट किए गए सामग्रियों को प्रतिबंधित करना, अनुचित बाधाएँ बन सकते हैं। OpenAI कंपनी के नाम में शामिल "खुलापन" स्पष्ट रूप से उस उदार पारदर्शिता से बदल गया है जो इसकी शुरुआत में प्रस्तुत की गई थी।


हालांकि, इस स्टैनफोर्ड रिपोर्ट के निष्कर्ष से पता चलता है कि प्रतिस्पर्धा के लिए अपने-अपने मॉडल को इतना गुप्त रखने की आवश्यकता नहीं है। यह परिणाम लगभग सभी कंपनियों के खराब प्रदर्शन का संकेत भी है। उदाहरण के लिए, कहा जाता है कि कोई भी कंपनी यह नहीं बता रही है कि कितने उपयोगकर्ता अपने मॉडल पर निर्भर हैं, या वे अपने मॉडल का उपयोग करने वाले क्षेत्रों या बाजार खंडों के बारे में आँकड़े प्रदान कर रहे हैं।


खुले स्रोत को सिद्धांत के रूप में अपनाने वाले संगठनों के बीच एक कहावत है कि "बहुत सारी आँखें हर कीड़े को पकड़ लेती हैं।" (लिनस का कानून) प्राथमिक संख्या समस्याओं को हल करने और उन्हें ठीक करने के लिए आवश्यक सुधारों को खोजने में मदद करते हैं।


लेकिन खुले स्रोत अभ्यास धीरे-धीरे सार्वजनिक कंपनियों के भीतर और बाहर सामाजिक स्थिति और मूल्य मान्यता को कम करने की प्रवृत्ति रखता है।इसलिए, इसका बिना शर्त जोर देना ज्यादा मायने नहीं रखता। इसलिए, मॉडल के खुले या बंद होने के बारे में फ्रेम में रहने के बजाय, 'डेटा' पर ध्यान केंद्रित करना बेहतर है, जो शक्तिशाली AI मॉडल का आधार है, और धीरे-धीरे बाहरी पहुंच को व्यापक बनानाचर्चा का फोकस होना चाहिए।


वैज्ञानिक प्रगति के लिए, यह सुनिश्चित करना महत्वपूर्ण है कि पुनरुत्पादन क्षमता (पुनरुत्पादनक्षमता) प्राप्त हो। इससे प्रत्येक मॉडल निर्माण के प्रमुख घटकों के लिए पारदर्शिता सुनिश्चित करने के तरीकों को विकसित किया जा सकता है, अन्यथा उद्योग को बंद और स्थिर एकाधिकार की स्थिति में बंद होने का खतरा है। और यह याद रखना महत्वपूर्ण है कि यह वर्तमान में और भविष्य में पूरे उद्योग में AI तकनीक के तेजी से प्रसार के संबंध में काफी उच्च प्राथमिकता है।


पत्रकारों या वैज्ञानिकों के लिए डेटा को समझना ​​महत्वपूर्ण हो गया है, और नीति निर्माताओं के लिए पारदर्शिता एक पूर्व नियोजित नीति प्रयास की शर्त है। जनता के लिए भी पारदर्शिता महत्वपूर्ण है क्योंकि वे AI सिस्टम के अंतिम उपयोगकर्ता हैं, जो बौद्धिक संपदा अधिकारों, ऊर्जा उपयोग और पूर्वाग्रह से संबंधित संभावित मुद्दों के लिए अपराधी या पीड़ित बन सकते हैं। सैम ऑल्टमैन का तर्क है कि AI से मानवता के विनाश का खतरा महामारी या परमाणु युद्ध जैसे सामाजिक स्तर के खतरों में से एक है और इसे वैश्विक प्राथमिकता दी जानी चाहिए। हालाँकि, उस खतरनाक स्थिति तक पहुँचने से पहले, हमारे समाज को AI के साथ एक स्वस्थ संबंध बनाए रखना होगा, जो इसके अस्तित्व की आधारशिला है।


*यह लेख 23 अक्टूबर 2023 को इलेक्ट्रॉनिक समाचार पत्र में प्रकाशित नामित स्तंभ का मूल संस्करण है।


संदर्भ


Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
OpenAI का शासन नाटक, AI का नैतिक भविष्य OpenAI के CEO सैम ऑल्टमैन को बोर्ड द्वारा बर्खास्त कर दिया गया था, लेकिन पांच दिनों में उन्हें वापस लाया गया। यह घटना OpenAI के अनोखे ढाँचे को उजागर करती है, जो मानवता के लिए एक मिशन का दावा करती है, साथ ही साथ विशाल तकनीक के संभावित जोखिमों के बारे में च

14 मई 2024

2023 में जेनेरेटिव AI, मानव अर्थ के बाद 2023 AI द्वारा तकनीकी उद्योग में व्यापक परिवर्तन लाने का वर्ष था, जिसमें जेनेरेटिव AI प्लेटफ़ॉर्म बदलाव, जनता के बीच परिचितता में वृद्धि, AI विनियमन कानूनों पर सहमति जैसे महत्वपूर्ण बदलाव शामिल थे। 2024 में, AI प्रौद्योगिकी के विकास के साथ-साथ मानव अर्थ क

16 मई 2024

एल्गोरिथम ब्रांडिंग का युग आ रहा है एलोन मस्क, गूगल के सीईओ सुंदर पिचाई, ओपन एआई के सैम ऑल्टमैन जैसे एआई विशेषज्ञ, आर्टिफिशियल इंटेलिजेंस के खतरों की चेतावनी देते हुए मानवता के भविष्य के लिए अलग-अलग समाधान प्रस्तुत करते हैं। 24 अप्रैल, 2023 को इलेक्ट्रॉनिक्स टाइम्स के कॉलम में इनके दावों और

10 मई 2024

ओपन सोर्स से पूरा AI फुल स्टैक AI इकोसिस्टम में नए ओपन सोर्स LLM (बड़े भाषा मॉडल) मॉडल तेजी से सामने आ रहे हैं। Mistral, Llama, phi-2 जैसे शक्तिशाली प्रदर्शन और ओपन लाइसेंस वाले मॉडल सार्वजनिक किए गए हैं, और इनका उपयोग करने के लिए विभिन्न उपकरण भी विकसित किए जा रहे हैं। LangChain, Llam
RevFactory
RevFactory
RevFactory
RevFactory

5 फ़रवरी 2024

Mr. Know-All – 2023.7 2023 के जुलाई में AI मासिक पत्रिका "Mr. Know-All" के पहले अंक में Claude 2, Azure OpenAI, LangChain, LlamaIndex जैसी नवीनतम AI तकनीकों और रुझानों को पेश किया गया है। खास तौर पर, व्यक्तिगत डेटा को एम्बेड करने वाले LlamaIndex और चेनिंग की प्रमुख अवधारणा पर
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 मार्च 2024

SK C&C ने कस्टमाइज्ड sLLM कार्यान्वयन सपोर्ट प्लेटफ़ॉर्म 'सॉल्यूर LLMOps' लॉन्च किया SK C&C ने व्यावसायिक अनुकूलित छोटे पैमाने पर बड़े भाषा मॉडल (sLLM) के निर्माण के लिए एक प्लेटफ़ॉर्म 'सॉल्यूर LLMOps' लॉन्च किया है। यह प्लेटफ़ॉर्म चैटजीपीटी, हाइपरक्लोवाX जैसे विभिन्न फाउंडेशन मॉडल का उपयोग करके sLLM को आसानी से बनाने के लिए ड्रैग एंड ड्र
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

20 मई 2024

मि. नो-ऑल 6 - मार्च 2024 LLaMa, Falcon, MPT, StarCoder जैसे ओपन-सोर्स LLM को स्थानीय रूप से चलाने योग्य प्लेटफ़ॉर्म LM Studio, और AI सॉफ़्टवेयर इंजीनियर डेविन, मल्टी-एजेंट ऑटोमेशन प्लेटफ़ॉर्म crewAI जैसे विभिन्न AI टूल और सेवाओं का परिचय देता है। इसके अलावा, AI क्षमता विकास के लि
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 मार्च 2024

स्नोफ्लेक ने उद्योग की अग्रणी खुलेपन वाला एंटरप्राइज़-ग्रेड LLM 'आर्कटिक' लॉन्च किया स्नोफ्लेक ने उद्योग की अग्रणी खुलेपन और प्रदर्शन वाला एक बड़ा भाषा मॉडल 'स्नोफ्लेक आर्कटिक' लॉन्च किया है। यह अपाचे 2.0 लाइसेंस के तहत मुफ्त है, वाणिज्यिक उपयोग के लिए भी उपलब्ध है, और कई फ्रेमवर्क का समर्थन करता है, जो इसे अनुकूलन योग्य बनाता है। आर्कटिक
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

25 अप्रैल 2024

स्नोफ्लेक ने डेटा ट्रेंड्स 2024 रिपोर्ट जारी की… AI डेवलपर प्रति दिन औसतन 90 ऐप डेवलप करते हैं स्नोफ्लेक ने 9,000 से अधिक ग्राहकों पर किए गए सर्वेक्षण के परिणामस्वरूप पाया कि LLM ऐप में चैटबॉट की संख्या बढ़ रही है, डेवलपर पायथन को पसंद करते हैं, और अनौपचारिक डेटा प्रोसेसिंग में 123% की वृद्धि हुई है।
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

16 मई 2024