Esta é uma postagem traduzida por IA.
O drama de governança da OpenAI, o futuro ético da IA
- Idioma de escrita: Coreana
- •
- País de referência: Todos os países
- •
- TI
Selecionar idioma
Texto resumido pela IA durumis
- O incidente em que Sam Altman, CEO da OpenAI, foi demitido pelo conselho de administração e voltou a ser CEO mostra a estrutura incomum da OpenAI, uma organização sem fins lucrativos que abriga fins lucrativos, e o foco do conselho na segurança.
- Este evento aumentou o interesse social pelo desenvolvimento e regulamentação da IA e revelou uma variedade de perspectivas e interpretações sobre o futuro da IA.
- Em particular, isso mostra como a imaginação sobre o futuro da IA pode influenciar a realidade, e é levantada a alegação de que vários contextos sociais e culturais devem ser considerados ao determinar o futuro da IA.
Há alguns meses, após o lançamento do ChatGPT, um drama extraordinário se desenrolou no conselho de administração da OpenAI, uma organização sem fins lucrativos que passou de sem dinheiro para uma receita anual de US$ 1 bilhão. Sam Altman, CEO da empresa, foi demitido e, após o anúncio de sua transferência para a Microsoft, foi recontratado como CEO da OpenAI. Normalmente, os CEOs fundadores são a força mais poderosa em uma empresa, e é raro um conselho demiti-los, especialmente em uma empresa gigante com um valor de mercado de US$ 80 bilhões.
No entanto, esse drama intenso de cinco dias foi possível devido à estrutura única da OpenAI, que está ligada à sua declaração de missão de "servir a humanidade". De acordo com o objetivo de "evitar que a humanidade e tudo o que é observável no universo desapareçam", os três membros independentes do conselho que lideraram a decisão de demissão de Altman estão todos relacionados ao altruísmo eficaz (EA) e sua conexão com a missão da empresa.
a estrutura do conselho da OpenAI
Durante todo este ano, viajando pelo mundo e alertando a mídia e governos sobre os riscos existenciais da tecnologia que ele estava desenvolvendo, Altman descreveu a estrutura incomum de lucro dentro de uma organização sem fins lucrativos da OpenAI como uma forma de soar o alarme para o desenvolvimento irresponsável de IAs poderosas, e em uma entrevista à Bloomberg em junho, ele disse que o conselho poderia demiti-lo se ele agisse de forma perigosa ou contra os interesses da humanidade. Em outras palavras, a estrutura foi deliberadamente projetada para que o conselho, que prioriza a segurança em relação à IA incontrolável, pudesse demitir o CEO a qualquer momento.
Então, como devemos encarar a situação atual, em que o novo CEO da OpenAI é o mesmo que o anterior?
Não é fácil caracterizar esse evento como um simples contratempo sem consequências, pois ele revelou que decisões relacionadas ao desenvolvimento ético da IA, que podem ter o maior impacto na sociedade contemporânea, estão sendo tomadas com base em opiniões de uma minoria. Sam Altman se tornou um símbolo da era em que o mundo inteiro está voltado para o desenvolvimento e regulamentação da IA. Vimos o processo que poderia ter impedido seus julgamentos e decisões futuros ser, na verdade, abandonado, e isso nos fez reconhecer a importância de meios externos adicionais.
Além disso, esse evento deixou mais claras as posições e interpretações de pessoas que temem a destruição da humanidade pela IA, transumanistas que acreditam que a tecnologia levará a um futuro utópico, indivíduos que confiam no livre mercado capitalista, e aqueles que defendem regulamentações rigorosas para conter grandes empresas de tecnologia, acreditando que o equilíbrio entre o potencial de danos de tecnologias disruptivas poderosas e o desejo de lucrar não pode ser alcançado. Isso significa que todos esses grupos começam com o medo do futuro da humanidade junto com a IA. Observar essa necessidade nos leva a reconhecer a necessidade de mais comunidades que possam prever esse futuro.
A professora Ye-Jin Choi da Universidade de Washington, que está entre as 100 pessoas mais influentes no campo da IA mundial, explicou em sua palestra no TED que a razão pela qual uma IA capaz de passar em vários exames nacionais adiciona etapas desnecessariamente tolas, como usar um jarro de 12 litros e um jarro de 6 litros para medir 6 litros de água, é devido à falta de aprendizado de senso comum, algo que os humanos aprendem na sociedade.
Quando prevemos o futuro, muitas vezes identificamos o novo como um observador externo, usando a "fronteira" como referência para onde a corrente principal está indo. Nesse caso, o que parece ser uma visão estável do futuro para um observador externo sempre é, em certa medida, uma expectativa abstrata que foi abstraída de “experiências vívidas” com base no presente. O antropólogo americano Arjun Appadurai argumentou que a imaginação não é uma capacidade privada e pessoal, mas uma prática social. Isso significa que diferentes imaginações do futuro podem se tornar realidade, e esse evento pode ser interpretado como uma das paisagens criadas pela imaginação do futuro incerto do AGI.
Agora que reconhecemos que as expectativas dos líderes do setor sobre o futuro têm significado político, precisaremos de uma compreensão mais profunda do futuro que está sendo imaginado e construído coletivamente em vários contextos sociais e culturais para determinar o futuro da IA. Como podemos criar oportunidades para apresentar expectativas coletivas que se baseiam em experiências vívidas em uma variedade de comunidades? Essa é a pergunta que devemos fazer agora.
Referências