![translation](https://cdn.durumis.com/common/trans.png)
Dit is een door AI vertaalde post.
Het governance-drama van OpenAI: De ethische toekomst van AI
- Taal van de tekst: Koreaans
- •
-
Referentieland: Alle landen
- •
- Informatietechnologie
Selecteer taal
Samengevat door durumis AI
- De gebeurtenis waarbij Sam Altman, CEO van OpenAI, door de raad van bestuur werd ontslagen en vervolgens terugkeerde als CEO, toont de unieke non-profit-within-profit-structuur van OpenAI en de nadruk die de raad van bestuur legt op veiligheid.
- Deze gebeurtenis heeft de aandacht van de samenleving voor de ontwikkeling en regulering van AI versterkt en verschillende standpunten en interpretaties over de toekomst van AI blootgelegd.
- Met name wordt aangetoond dat verbeelding over de toekomst van AI invloed kan hebben op de realiteit, en er wordt betoogd dat verschillende sociale en culturele contexten moeten worden meegenomen bij het bepalen van de toekomst van AI.
Een paar maanden na de lancering van ChatGPT speelde er een enorm drama in de raad van bestuur van OpenAI, een non-profitorganisatie die in enkele maanden tijd van nul naar een omzet van $ 1 miljard per jaar groeide. De CEO van het bedrijf, Sam Altman, werd ontslagen en na de aankondiging van zijn vertrek naar Microsoft werd besloten hem terug te benoemen tot CEO van OpenAI. Gewoonlijk is de oprichter-CEO de sterkste kracht in een bedrijf, dus het is zeldzaam dat een raad van bestuur een oprichter-CEO ontslaat, en dat is helemaal niet gebruikelijk voor een gigantisch bedrijf met een waarde van $ 80 miljard.
Toch kon dit drama van vijf dagen plaatsvinden dankzij de unieke structuur van OpenAI, die gebonden is aan een missieverklaring "voor de mensheid". Drie onafhankelijke leden van de raad van bestuur, die naar verluidt de beslissing tot ontslag van Altman hebben genomen, zijn allemaal verbonden met de missie van het bedrijf en met effectief altruïsme (EA), gericht op het bereiken van het doel "zodat de mensheid en alles in het waarneembare universum niet verloren gaan".
de raad van bestuurstructuur van OpenAI
Altman heeft dit jaar de hele wereld rondgereisd om media en overheden te waarschuwen voor de existentiële risico's van de technologie die hij ontwikkelt.
Hij heeft de ongebruikelijke non-profit-binnen-profitstructuur van OpenAI beschreven als een waarschuwing voor de roekeloze ontwikkeling van krachtige AI, en zei in een interview met Bloomberg in juni dat de raad van bestuur hem zou kunnen ontslaan
als hij zich zou bezighouden met gevaarlijk of onverantwoordelijk gedrag, of gedrag dat schadelijk is voor de mensheid.
Met andere woorden, de structuur was bewust ontworpen om de raad van bestuur, die de veiligheid boven alles stelde in verband met de opkomst van ongecontroleerde AGI, in staat te stellen de CEO op elk moment te ontslaan.
Hoe moeten we dan de huidige situatie bekijken, waarbij de nieuwe CEO van OpenAI dezelfde is als de vorige?
Het is moeilijk om dit af te doen als een gebeurtenis die zonder enige verandering is geëindigd. Het is belangrijk om te erkennen dat de beslissingen over de ontwikkeling van ethische kunstmatige intelligentie, die de grootste invloed kunnen hebben op onze samenleving, zijn genomen door een zeer kleine groep mensen. Sam Altman is nu het symbool van ons tijdperk, waar de ogen van de hele wereld gericht zijn op de ontwikkeling en regulering van AI. We hebben gezien hoe het enige externe middel dat zijn oordeel en beslissingen in de toekomst had kunnen tegenhouden, in feite werd afgeschaft, en we hebben het belang van extra externe middelen bevestigd.
Deze gebeurtenissen hebben ook de standpunten en interpretaties van verschillende groepen duidelijker gemaakt: doemdenkers die zich zorgen maken dat AI de mensheid zal vernietigen, transhumanisten die geloven dat technologie een utopische toekomst zal versnellen, mensen die geloven in vrije marktkapitalisme, en voorstanders van strikte regelgeving om gigantische technologiebedrijven te beteugelen, die geloven dat een evenwicht tussen de potentiële gevaren van krachtige, disruptieve technologie en de drang om geld te verdienen, niet kan worden bereikt. En het is belangrijk om te erkennen dat al deze perspectieven voortkomen uit de angst voor de toekomst van de mensheid samen met AI. Dit betekent dat er behoefte is aan meer verschillende gemeenschappen die de toekomst kunnen voorspellen.
Yejin Choi, professor aan de Universiteit van Washington, die tot de 100 meest invloedrijke mensen op het gebied van AI ter wereld behoort, legde in haar TED-talk uit waarom kunstmatige intelligentie die geslaagd is voor verschillende nationale examens, op een domme, onnodige manier 6 liter water meet met behulp van 12 liter en 6 liter waterkokers. Dit komt door het gebrek aan 'common sense' leren in de samenleving.
Als we de toekomst proberen te voorspellen, identificeren we vaak nieuwe dingen vanuit een extern perspectief, op basis van de 'grenzen' die aangeven waar de mainstream naartoe gaat. Wat vanuit een extern perspectief als een stabiele toekomstvooruitzicht wordt beschouwd, is altijd tot op zekere hoogte gebaseerd op het heden. “Levendige ervaringen” die zijn geabstraheerd tot verwachtingen.
De Amerikaanse antropoloog Arjun Appadurai beweerde dat verbeelding geen privé- of persoonlijke vaardigheid is, maar een sociale praktijk. Dit betekent dat verschillende toekomstbeelden daadwerkelijk kunnen uitkomen. Deze gebeurtenissen kunnen worden geïnterpreteerd als een van de landschappen die zijn gecreëerd door de verbeelding van een onzekere toekomst met betrekking tot de opkomst van AGI.
Nu we hebben vastgesteld dat de verwachtingen van industrieleiders voor de toekomst politiek belangrijke implicaties hebben, zullen we in de toekomst een dieper begrip nodig hebben van de toekomst, die collectief wordt ingebeeld en geconstrueerd in verschillende sociale en culturele contexten, om de toekomst van AI te bepalen. Het is nu tijd om de vraag te stellen hoe we kansen kunnen creëren om collectieve verwachtingen te presenteren die voortkomen uit levendige ervaringen in verschillende gemeenschappen.
Referenties