Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

यह एक AI अनुवादित पोस्ट है।

Byungchae Ryan Son

OpenAI का शासन नाटक, AI का नैतिक भविष्य

  • लेखन भाषा: कोरियाई
  • आधार देश: सभी देश country-flag

भाषा चुनें

  • हिन्दी
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • Magyar

durumis AI द्वारा संक्षेपित पाठ

  • OpenAI के CEO सैम ऑल्टमैन को बोर्ड द्वारा बर्खास्त करने के बाद फिर से CEO के रूप में बहाल करने की घटना हुई, जो OpenAI की अनोखी गैर-लाभकारी के भीतर लाभकारी संरचना और बोर्ड के सुरक्षा पर जोर का प्रमाण है।
  • इस घटना ने AI विकास और विनियमन के बारे में सामाजिक चिंता को बढ़ावा दिया है, AI के भविष्य के बारे में विभिन्न दृष्टिकोणों और व्याख्याओं को प्रकट किया है।
  • विशेष रूप से, यह दर्शाता है कि AI के भविष्य के बारे में कल्पना वास्तविकता को कैसे प्रभावित कर सकती है, और यह तर्क दिया गया है कि AI के भविष्य को निर्धारित करने में विभिन्न सामाजिक और सांस्कृतिक संदर्भों पर विचार किया जाना चाहिए।

कुछ समय पहले, ChatGPT के लॉन्च के कुछ महीनों बाद, एक गैर-लाभकारी संगठन OpenAI के बोर्ड में एक बड़ा नाटक सामने आया, जिसने कुछ ही महीनों में शून्य से 1 बिलियन डॉलर का वार्षिक राजस्व अर्जित किया था। कंपनी के सीईओ सैम ऑल्टमैन को निकाल दिया गया और बाद में उन्हें ओपनएआई सीईओ के पद पर वापस लाया गया, जिसके बाद उन्होंने माइक्रोसॉफ्ट में काम करने की घोषणा की। आमतौर पर, संस्थापक सीईओ कंपनी की सबसे शक्तिशाली शक्ति होते हैं, इसलिए बोर्ड द्वारा संस्थापक सीईओ को निकालना बहुत दुर्लभ होता है, खासकर जब किसी कंपनी का मूल्य 800 बिलियन डॉलर है।


फिर भी, यह 5-दिवसीय तीव्र नाटक ओपनएआई के अद्वितीय ढाँचे के कारण हुआ, जो "मानवता के लिए" अपने मिशन वक्तव्य से बंधा हुआ है। "मानवता और अवलोकन योग्य ब्रह्मांड के सभी को नष्ट होने से बचाने के लिए" लक्ष्य के अनुरूप, बोर्ड के तीन स्वतंत्र सदस्य, जिन्हें ऑल्टमैन को बर्खास्त करने के पीछे प्रमुख व्यक्ति माना जाता है, सभी कंपनी के मिशन से जुड़े प्रभावी परोपकार (EA) से जुड़े हैं।

OpenAI की बोर्ड संरचना


साल भर दुनिया भर में मीडिया और सरकारों को अपने द्वारा विकसित तकनीक के अस्तित्वगत खतरों के बारे में चेतावनी देते हुए, ऑल्टमैन ने ओपनएआई के अजीबोगरीब गैर-लाभकारी-अंदर-लाभकारी संरचना का वर्णन किया है क्योंकि एक लाल झंडा है कि जिम्मेदारी से AI के विकास के लिए एक चेतावनी है, और यह कि यदि वह खतरनाक काम करता है या मानवता के हितों के खिलाफ काम करता है, तो बोर्ड उसे बाहर निकाल सकता है। उन्होंने जून में ब्लूमबर्ग के साथ एक साक्षात्कार में उल्लेख किया। दूसरे शब्दों में, यह एक ऐसी संरचना थी जिसे जानबूझकर डिज़ाइन किया गया था ताकि बोर्ड सीईओ को किसी भी समय निकाल सके, जो अनियंत्रित एजीआई के उदय से संबंधित सुरक्षा को धन से अधिक प्राथमिकता देता है।


तो हमें इस ओपन एआई के नए सीईओ के बारे में क्या सोचना चाहिए, जो पिछले सीईओ के समान है?


इस घटना को एक बदलाव के बिना एक उपाख्यान के रूप में समाप्त करना मुश्किल है, क्योंकि यह इस तथ्य को उजागर करता है कि आधुनिक समाज पर सबसे बड़ा प्रभाव डालने वाले नैतिक कृत्रिम बुद्धिमत्ता विकास से संबंधित निर्णय कुछ लोगों के विचारों से ही लिए गए थे। सैम ऑल्टमैन अब उस युग का प्रतीक बन गया है जहां दुनिया की निगाहें एआई के विकास और विनियमन पर टिकी हैं। और हमने उस प्रक्रिया को देखा जिसमें उनके फैसलों और कार्यों को रोकने के लिए लगभग एकमात्र बाहरी साधन को हटा दिया गया था, और बाद में अतिरिक्त बाहरी साधनों के महत्व की पुष्टि हुई।


इस घटना ने उन लोगों के बीच रेखाओं को स्पष्ट कर दिया है जो मानते हैं कि एआई मानवता को नष्ट कर देगा, उन लोगों के बीच जो मानते हैं कि तकनीक एक स्वर्णिम युग को जन्म देगी, उन लोगों के बीच जो मुक्त बाजार पूंजीवाद में विश्वास करते हैं, और उन लोगों के बीच जो विनाशकारी तकनीक की क्षमता के संभावित नुकसान और मुनाफे के लिए इच्छा के बीच संतुलन बनाने के लिए कठोर नियमों का समर्थन करते हैं। और यह इंगित करता है कि सभी मानवता के साथ एक एआई भविष्य के बारे में आशंकाओं से शुरू होते हैं, जिससे हमारे बीच एक एआई भविष्य की भविष्यवाणी करने वाले विभिन्न समुदायों की आवश्यकता का पता चलता है।


वाशिंगटन विश्वविद्यालय की प्रोफेसर येजिन चोई, जिन्हें दुनिया के शीर्ष 100 AI प्रभावशाली व्यक्तियों में से एक के रूप में सूचीबद्ध किया गया है, ने अपने TED वार्ता में बताया कि विभिन्न राष्ट्रीय परीक्षाओं को पास करने वाले एआई, 12-लीटर और 6-लीटर केबर के माध्यम से 6-लीटर पानी के मापन में बेवकूफी भरे अनावश्यक चरण जोड़ते हैं।सामान्य ज्ञान की कमी के कारण है।यह समझाया गया है कि मानव समाज में अर्जित किया गया है।


जब हम भविष्य की भविष्यवाणी करते हैं, तो हम अक्सर बाहरी लोगों के दृष्टिकोण से कुछ नया पहचानते हैं, यह देखकर कि "सीमा" कहाँ है जो दर्शाती है कि मुख्यधारा कहाँ जा रही है। इस मामले में, जो स्थिर भविष्य का दृष्टिकोण बाहरी लोगों से देखता है वह हमेशा वर्तमान के आधार पर "जीवंत अनुभव" से सारांशित अपेक्षाएंहै। अमेरिकी मानवविज्ञानी अरजुन अप्पदुराई ने तर्क दिया है कि कल्पना एक निजी और व्यक्तिगत क्षमता नहीं है, बल्कि एक सामाजिक अभ्यास है। इसका मतलब है कि विभिन्न भविष्य के लिए कल्पनाएं वास्तविकता बन सकती हैं, और यह घटना एजीआई के उदय से जुड़े चिंताजनक भविष्य की कल्पनाओं द्वारा बनाए गए दृश्यों में से एक है।


यह देखते हुए कि उद्योग के नेताओं द्वारा भविष्य के बारे में अपेक्षाओं का राजनीतिक रूप से महत्वपूर्ण अर्थ है, भविष्य में एआई के भविष्य को निर्धारित करने में विभिन्न सामाजिक और सांस्कृतिक संदर्भों में सामूहिक रूप से कल्पना और गठित किए गए भविष्य की गहरी समझ की आवश्यकता होगी। विभिन्न समुदायों के भीतर जीवंत अनुभवों के आधार पर सामूहिक अपेक्षाओं को प्रोत्साहित करने के अवसरों का निर्माण कैसे संभव है? यह वह सवाल है जो हमसे पूछा जाना चाहिए।



संदर्भ


Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
एल्गोरिथम ब्रांडिंग का युग आ रहा है एलोन मस्क, गूगल के सीईओ सुंदर पिचाई, ओपन एआई के सैम ऑल्टमैन जैसे एआई विशेषज्ञ, आर्टिफिशियल इंटेलिजेंस के खतरों की चेतावनी देते हुए मानवता के भविष्य के लिए अलग-अलग समाधान प्रस्तुत करते हैं। 24 अप्रैल, 2023 को इलेक्ट्रॉनिक्स टाइम्स के कॉलम में इनके दावों और

10 मई 2024

अग्रणी AI मॉडल का विरोधाभास, पारदर्शिता अत्याधुनिक AI सिस्टम की पारदर्शिता की कमी एक गंभीर समस्या के रूप में उभरी है। स्टैनफोर्ड यूनिवर्सिटी के शोधकर्ताओं ने GPT-4 सहित 10 AI सिस्टम का विश्लेषण किया परिणाम, डेटा स्रोत, प्रशिक्षण विधियाँ, ऊर्जा खपत जैसी जानकारी पारदर्शी रूप से प्रकट करने वाला को

14 मई 2024

2023 में जेनेरेटिव AI, मानव अर्थ के बाद 2023 AI द्वारा तकनीकी उद्योग में व्यापक परिवर्तन लाने का वर्ष था, जिसमें जेनेरेटिव AI प्लेटफ़ॉर्म बदलाव, जनता के बीच परिचितता में वृद्धि, AI विनियमन कानूनों पर सहमति जैसे महत्वपूर्ण बदलाव शामिल थे। 2024 में, AI प्रौद्योगिकी के विकास के साथ-साथ मानव अर्थ क

16 मई 2024

व्यक्तिगत रूप से सोचा गया संक्षिप्त भविष्य डेवलपर के भविष्य में AI बड़ा बदलाव लाएगा। प्रोटोटाइप निर्माण, फ्रंट-एंड डेवलपमेंट जैसे साधारण कार्यों को AI संभालेगा, लेकिन कुशल डेवलपर रणनीतिक समस्या समाधान और रचनात्मक विचार निर्माण पर ध्यान केंद्रित करेंगे। दूसरी ओर, AI के दुरुपयोग की संभावना, जैसे सुर
Mark Ball Blog
Mark Ball Blog
भविष्य की कल्पना की गई तस्वीर
Mark Ball Blog
Mark Ball Blog

26 मार्च 2024

'दक्षिण कोरियाई डेलॉयट समूह "ग्लोबल सीईओ सर्वेक्षण" रिपोर्ट जारी करता है' दुनिया की 10 में से 6 कंपनियों ने जेनरेटिव AI को अपने काम के ऑटोमेशन में अपनाया है, और सीईओ इस साल अपने कारोबार के विकास को लेकर आशावादी हैं। 46% सीईओ का कहना है कि वे अगले एक साल में नई सेवाएं और उत्पाद लॉन्च करने की योजना बना रहे हैं। डेलॉयट ग्लोबल सीईओ
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

9 मई 2024

मानव को पार करने वाली कृत्रिम बुद्धिमत्ता, भविष्य का आशीर्वाद या अभिशाप? कृत्रिम बुद्धिमत्ता (AI) के विकास ने मानव जाति के लिए आशीर्वाद या अभिशाप होने पर बहस छेड़ दी है। AI चिकित्सा, विज्ञान, अर्थशास्त्र जैसे विभिन्न क्षेत्रों में क्रांति ला सकता है, लेकिन मानव नियंत्रण से बाहर होने पर खतरा पैदा करने की भी संभावना है। AI की नै
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

25 मई 2024

Mr. Know-All – 2023.7 2023 के जुलाई में AI मासिक पत्रिका "Mr. Know-All" के पहले अंक में Claude 2, Azure OpenAI, LangChain, LlamaIndex जैसी नवीनतम AI तकनीकों और रुझानों को पेश किया गया है। खास तौर पर, व्यक्तिगत डेटा को एम्बेड करने वाले LlamaIndex और चेनिंग की प्रमुख अवधारणा पर
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 मार्च 2024

ओपन सोर्स से पूरा AI फुल स्टैक AI इकोसिस्टम में नए ओपन सोर्स LLM (बड़े भाषा मॉडल) मॉडल तेजी से सामने आ रहे हैं। Mistral, Llama, phi-2 जैसे शक्तिशाली प्रदर्शन और ओपन लाइसेंस वाले मॉडल सार्वजनिक किए गए हैं, और इनका उपयोग करने के लिए विभिन्न उपकरण भी विकसित किए जा रहे हैं। LangChain, Llam
RevFactory
RevFactory
RevFactory
RevFactory

5 फ़रवरी 2024

BSI ने जिम्मेदार AI प्रबंधन का समर्थन करने के लिए पहली वैश्विक मार्गदर्शिका जारी की BSI ने आर्टिफिशियल इंटेलिजेंस (AI) के सुरक्षित और जिम्मेदार उपयोग के लिए एक अंतरराष्ट्रीय मानक (BS ISO/IEC 42001) जारी किया है। यह मानक संगठनों को AI का प्रबंधन करने और जोखिमों को कम करने के तरीके प्रदान करता है, पारदर्शिता, जवाबदेही और विश्वास निर्माण पर
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

9 मई 2024