Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

Esta é uma postagem traduzida por IA.

Byungchae Ryan Son

O drama de governança da OpenAI, o futuro ético da IA

  • Idioma de escrita: Coreana
  • País de referência: Todos os países country-flag

Selecionar idioma

  • Português
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

Texto resumido pela IA durumis

  • O incidente em que Sam Altman, CEO da OpenAI, foi demitido pelo conselho de administração e voltou a ser CEO mostra a estrutura incomum da OpenAI, uma organização sem fins lucrativos que abriga fins lucrativos, e o foco do conselho na segurança.
  • Este evento aumentou o interesse social pelo desenvolvimento e regulamentação da IA e revelou uma variedade de perspectivas e interpretações sobre o futuro da IA.
  • Em particular, isso mostra como a imaginação sobre o futuro da IA pode influenciar a realidade, e é levantada a alegação de que vários contextos sociais e culturais devem ser considerados ao determinar o futuro da IA.

Há alguns meses, após o lançamento do ChatGPT, um drama extraordinário se desenrolou no conselho de administração da OpenAI, uma organização sem fins lucrativos que passou de sem dinheiro para uma receita anual de US$ 1 bilhão. Sam Altman, CEO da empresa, foi demitido e, após o anúncio de sua transferência para a Microsoft, foi recontratado como CEO da OpenAI. Normalmente, os CEOs fundadores são a força mais poderosa em uma empresa, e é raro um conselho demiti-los, especialmente em uma empresa gigante com um valor de mercado de US$ 80 bilhões.


No entanto, esse drama intenso de cinco dias foi possível devido à estrutura única da OpenAI, que está ligada à sua declaração de missão de "servir a humanidade". De acordo com o objetivo de "evitar que a humanidade e tudo o que é observável no universo desapareçam", os três membros independentes do conselho que lideraram a decisão de demissão de Altman estão todos relacionados ao altruísmo eficaz (EA) e sua conexão com a missão da empresa.

a estrutura do conselho da OpenAI


Durante todo este ano, viajando pelo mundo e alertando a mídia e governos sobre os riscos existenciais da tecnologia que ele estava desenvolvendo, Altman descreveu a estrutura incomum de lucro dentro de uma organização sem fins lucrativos da OpenAI como uma forma de soar o alarme para o desenvolvimento irresponsável de IAs poderosas, e em uma entrevista à Bloomberg em junho, ele disse que o conselho poderia demiti-lo se ele agisse de forma perigosa ou contra os interesses da humanidade. Em outras palavras, a estrutura foi deliberadamente projetada para que o conselho, que prioriza a segurança em relação à IA incontrolável, pudesse demitir o CEO a qualquer momento.


Então, como devemos encarar a situação atual, em que o novo CEO da OpenAI é o mesmo que o anterior?


Não é fácil caracterizar esse evento como um simples contratempo sem consequências, pois ele revelou que decisões relacionadas ao desenvolvimento ético da IA, que podem ter o maior impacto na sociedade contemporânea, estão sendo tomadas com base em opiniões de uma minoria. Sam Altman se tornou um símbolo da era em que o mundo inteiro está voltado para o desenvolvimento e regulamentação da IA. Vimos o processo que poderia ter impedido seus julgamentos e decisões futuros ser, na verdade, abandonado, e isso nos fez reconhecer a importância de meios externos adicionais.


Além disso, esse evento deixou mais claras as posições e interpretações de pessoas que temem a destruição da humanidade pela IA, transumanistas que acreditam que a tecnologia levará a um futuro utópico, indivíduos que confiam no livre mercado capitalista, e aqueles que defendem regulamentações rigorosas para conter grandes empresas de tecnologia, acreditando que o equilíbrio entre o potencial de danos de tecnologias disruptivas poderosas e o desejo de lucrar não pode ser alcançado. Isso significa que todos esses grupos começam com o medo do futuro da humanidade junto com a IA. Observar essa necessidade nos leva a reconhecer a necessidade de mais comunidades que possam prever esse futuro.


A professora Ye-Jin Choi da Universidade de Washington, que está entre as 100 pessoas mais influentes no campo da IA mundial, explicou em sua palestra no TED que a razão pela qual uma IA capaz de passar em vários exames nacionais adiciona etapas desnecessariamente tolas, como usar um jarro de 12 litros e um jarro de 6 litros para medir 6 litros de água, é devido à falta de aprendizado de senso comum, algo que os humanos aprendem na sociedade.


Quando prevemos o futuro, muitas vezes identificamos o novo como um observador externo, usando a "fronteira" como referência para onde a corrente principal está indo. Nesse caso, o que parece ser uma visão estável do futuro para um observador externo sempre é, em certa medida, uma expectativa abstrata que foi abstraída de “experiências vívidas” com base no presente. O antropólogo americano Arjun Appadurai argumentou que a imaginação não é uma capacidade privada e pessoal, mas uma prática social. Isso significa que diferentes imaginações do futuro podem se tornar realidade, e esse evento pode ser interpretado como uma das paisagens criadas pela imaginação do futuro incerto do AGI.


Agora que reconhecemos que as expectativas dos líderes do setor sobre o futuro têm significado político, precisaremos de uma compreensão mais profunda do futuro que está sendo imaginado e construído coletivamente em vários contextos sociais e culturais para determinar o futuro da IA. Como podemos criar oportunidades para apresentar expectativas coletivas que se baseiam em experiências vívidas em uma variedade de comunidades? Essa é a pergunta que devemos fazer agora.



Referências


Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
O paradoxo dos modelos de IA de ponta: Transparência A falta de transparência nos sistemas de IA de ponta tornou-se um problema sério. Pesquisadores da Universidade de Stanford analisaram 10 sistemas de IA, incluindo o GPT-4, e concluíram que nenhum modelo divulga informações de forma transparente, como ori

14 de maio de 2024

O significado humano em 2023 e além da IA ​​gerativa 2023 foi um ano de mudanças importantes, com a IA dominando a indústria tecnológica, incluindo a transição para plataformas de IA gerativa, o aumento da familiaridade do público e o acordo sobre leis de regulamentação de IA. Em 2024, com o avanço da tecno

16 de maio de 2024

A IA assumirá todas as funções de novos funcionários? A Microsoft está intensificando a competição no mercado de IA com a contratação do fundador da Inflection AI. Com receios de que a IA substitua empregos, novos funcionários podem usar a IA para promover o crescimento rápido, enquanto funcionários experie

20 de maio de 2024

O futuro breve, na minha opinião A IA causará grandes mudanças no futuro dos desenvolvedores. A IA substituirá tarefas simples, como a criação de protótipos e o desenvolvimento de front-end, mas desenvolvedores habilidosos se concentrarão na resolução estratégica de problemas e na geraçã
Mark Ball Blog
Mark Ball Blog
Imagem do futuro na minha opinião
Mark Ball Blog
Mark Ball Blog

26 de março de 2024

Mr. Know-All – 2023.7 A edição de julho de 2023 da revista mensal de IA "Mr. Know-All", edição nº 1, apresenta as últimas tecnologias e tendências de IA, incluindo Claude 2, Azure OpenAI, LangChain e LlamaIndex. Em particular, fornece uma explicação detalhada do conceito chave
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 de março de 2024

Inteligência artificial que supera os humanos: uma bênção ou uma maldição para o futuro? O desenvolvimento da inteligência artificial (IA) tem gerado um debate acalorado sobre se será uma bênção ou uma maldição para a humanidade. A IA pode trazer inovações em diversas áreas, como medicina, ciência e economia, mas também há o risco de se torna
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

25 de maio de 2024

Construindo um AI Full Stack com Open Source Novos modelos de LLM (Large Language Model) de código aberto estão surgindo no ecossistema de IA. Mistral, Llama e phi-2 são alguns exemplos de modelos poderosos com licenças abertas que foram lançados. Ferramentas para utilizá-los também estão sendo dese
RevFactory
RevFactory
RevFactory
RevFactory

5 de fevereiro de 2024

Relatório da pesquisa 'Global CEO Survey' do Deloitte Korea publicado Seis em cada dez empresas globais implementaram IA generativa para automação de tarefas e CEOs estão otimistas sobre o crescimento das empresas este ano, com 46% planejando lançar novos serviços e produtos dentro de um ano. Esses resultados foram publicad
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

9 de maio de 2024

NetApp lança relatório sobre a complexidade da nuvem em 2024, prevendo uma era de inovação ou morte impulsionada pela IA em todo o mundo O relatório sobre a complexidade da nuvem da NetApp analisa a disparidade entre líderes e seguidores da IA, destacando a importância de uma infraestrutura de dados integrada para o sucesso da IA. O relatório destaca o sucesso de líderes da IA, enfatizando
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

25 de abril de 2024