Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

AI가 번역한 다른 언어 보기

Byungchae Ryan Son

OpenAI의 거버넌스 드라마, AI의 윤리적 미래

  • 작성 언어: 한국어
  • 기준국가: 모든 국가 country-flag

언어 선택

  • 한국어
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

durumis AI가 요약한 글

  • OpenAI는 인류에게 이익을 가져다주는 것을 목표로 하며, 이를 위해 이사회는 CEO 샘 알트먼을 해고하고 복직시키는 드라마틱한 상황을 연출했다.
  • 이는 OpenAI의 독특한 비영리 내 영리 구조로 인해 가능했으며, 알트먼의 해고는 이사회가 AI의 안전을 우선시하는 것을 보여주는 사건이다.
  • 이 사건은 AI 개발의 윤리적 문제를 극명하게 드러냈으며, 다양한 커뮤니티의 목소리를 반영하여 AI의 미래를 결정해야 한다는 필요성을 제기한다.

얼마 전, ChatGPT 출시 이후 몇 달 만에 무일푼에서 연간 10억 달러의 매출로 성장한 비영리 기업인 OpenAI의 이사회 내에서 엄청난 드라마가 펼쳐졌다. 회사의 CEO인 샘 알트먼이 해고되었고 그의 마이크로 소프트에의 이직 발표 이후 다시 OpenAI CEO로의 복직이 결정되었다. 보통 창업 CEO는 회사의 가장 강력한 힘이기에 이사회가 창업 CEO를 해고하는 경우는 거의 없는 일이며, 무엇보다 기업 가치가 800억 달러에 달하는 거대 기업이라면 손도 대지 않는다.


그럼에도 이 같은 5일간의 긴박한 드라마가 펼쳐질 수 있었던 건 OpenAI가 ‘인류를 위해’라는 사명 선언문에 묶여 있는 독특한 구조에 기반한다. ‘인류와 관측 가능한 우주의 모든 것이 사라지지 않도록’이라는 목표에 맞춰 알트먼의 해임 결정을 주도한 것으로 알려진 세 명의 독립 이사회 멤버는 모두 회사의 사명과 연결된 효과적인 이타주의(EA, effective altruism)와 관련이 있다.

the board structure of OpenAI


올 한 해 전 세계를 순회하며 언론과 정부를 상대로 자신이 개발 중인 기술의 실존적 위험에 대해 경고하면서, 알트먼은 OpenAI의 특이한 비영리 내 영리 구조를 강력한 AI의 무책임한 개발에 대한 경종을 울리는 것으로 묘사해 왔으며, 만약 그가 위험한 행동을 하거나 인류의 이익에 반하는 행동을 한다면 이사회는 그를 쫓아낼 수 있는 구조임을 지난 6월의 블룸버그와의 인터뷰에서 언급하기도 했다. 다시 말해 돈보다 통제 불가능한 AGI의 출현과 관련한 안전을 우선시하는 이사회가 언제든지 CEO를 해고할 수 있도록 의도적으로 설계된 구조였다.


그럼 이 Open AI의 새 CEO가 이전의 CEO와 동일하다는 현 상황을 우리는 어떻게 바라봐야 할까?


결과적으로 변화가 없었다는 해프닝으로 마무리하기 어려운 이유는 현시대 우리 사회에 가장 큰 영향을 끼칠 수 있는 윤리적 인공지능 개발과 관련한 결정이 극히 소수의 의견만으로 이루어졌음을 확인하게 된 점에 있다. 샘 알트먼은 이제 AI 개발과 규제를 향한 전 세계의 시선이 몰린 시대의 상징과 같다. 그리고 앞으로의 그의 판단과 결정을 막아설 수 있었던 거의 유일한 외부의 수단이 사실상 폐기된 과정을 우리는 보았으며 이후의 추가적인 외부 수단의 중요성을 확인하게 되었다.


또한 이번 사태로 AI가 인류를 파괴할 것이라고 걱정하는 파멸론자, 기술이 유토피아적 미래를 앞당길 것이라고 생각하는 트랜스휴머니스트, 자유분방한 시장 자본주의를 믿는 사람들, 강력한 파괴적 기술의 잠재적 피해와 돈벌이에 대한 욕구 사이의 균형을 맞출 수 없다고 믿는 거대 기술 기업 억제를 위한 엄격한 규제를 지지하는 사람들의 입장과 해석이 한층 명확해졌다. 그리고 이는 곧 모두 AI와 함께하는 인간의 미래를 향한 두려움에서 시작된다는 점에서 이 미래를 예측하는 주체를 확인할 수 있는 더욱 다양한 커뮤니티의 필요를 확인하고 있음에 주목할 필요가 있다.


세계 AI 분야 가장 영향력 있는 100인에 포함된 바 있는 워싱턴대 최예진 교수는 그녀의 TED 강연에서 각종 국가고시에 합격하는 인공지능이 12리터, 6리터의 주전자들을 통한 6리터 물의 양 측정 시 바보같이 불필요한 과정을 덧붙이는 이유가 인간이 사회에서 습득하는 상식의 학습 부족에 기인한다고 설명했다.


미래를 예측할 때, 우리는 종종 주류가 어디로 향하고 있는지를 나타내는 '한계'를 기준으로 외부자로서의 입장에서 새로운 것을 식별한다. 이때 외부에서 안정적인 미래의 비전으로 보이는 것은 항상 어느 정도는 현재를 기준으로 하는 “생생한 경험”에서 추상화된 기대다. 미국의 인류학자 아르준 아파두라이는 상상력을 사적이고 개인적인 능력이 아닌 사회적 실천이라 주장한 바 있다. 이는 곧 다양한 미래에 대한 상상력이 현실로 나타날 수 있음을 의미하며 이번 사태는 AGI의 출현과 관련된 불안한 미래에의 상상력이 만들어낸 풍경 중 하나일 것이라 해석할 수 있다.


미래를 향한 업계 리더들의 기대가 정치적으로 중요한 의미를 가짐을 확인한 만큼 앞으로는 AI의 미래를 결정하는 데 있어 다양한 사회적, 문화적 맥락에서 집단적으로 상상되고 구성되는 미래에 대한 더 깊은 이해를 필요로 할 것이다. 더 다양한 커뮤니티 내에서의 생생한 경험들을 바탕으로 하는 집단적 기대를 적극적으로 제시할 수 있는 기회의 창출은 과연 어떻게 가능한가에 질문을 던질 때다.



References


Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
생성AI의 2023년, 이후의 인간 의미 2023년은 AI 기술이 급격히 발전하고 대중화된 한 해였으며, 생성 AI의 등장, AI에 대한 대중의 익숙함 증가, EU의 AI 규제 법안 합의 등이 주요 특징입니다.

2024년 5월 16일

선도적 AI 모델의 역설, 투명성 스탠퍼드 대학교 연구진은 GPT-4를 포함한 10개의 AI 시스템의 투명성을 평가한 결과, 데이터셋, 훈련 방법, 하드웨어 등의 정보 공개 수준이 매우 낮다는 것을 밝혀냈습니다. 이는 AI 업계의 폐쇄성이 심화되고 있으며, AI 발전에 재현성 확보와 투명성이 중요함을 시사합니다. 특히 데이터셋에 대한 접근성을 확대하여 AI 시스템의 신뢰성과 안전성을 높여야 한다는 주장이 제기됩니다.

2024년 5월 14일

알고리즘 브랜딩의 시대가 온다 일론 머스크, 순다르 피차이, 샘 올트먼 등 AI 분야의 주요 인물들이 인공지능의 미래에 대한 우려와 기대를 표명하며 인공지능 시대의 인류의 역할과 책임에 대한 논쟁이 뜨겁습니다.

2024년 5월 10일

인간을 능가하는 인공지능, 미래의 축복인가 재앙인가? 인공지능(AI)의 발전은 인류 문명에 큰 변화를 가져올 수 있지만, AI가 인류에게 축복인지 재앙인지는 아직 불확실합니다. AI 전문가들은 AI의 잠재적 이점과 위험성을 놓고 뜨거운 논쟁을 벌이고 있습니다. AI가 인류에게 도움을 줄 수 있는 반면, 인간을 지배하거나 심각한 재앙을 초래할 가능성도 존재합니다. AI 윤리와 안전성 연구를 통해 AI를 통제하고 인류에게 도움이 되도록 활용해야 합니다.
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

2024년 5월 25일

개인적으로 생각하는 짧은 미래 AI 기술 발전으로 인해 개발자, 프롬프트 엔지니어, 생물학자 등 다양한 직업에 변화가 예상됩니다. 특히 AI는 프로그래밍을 자동화하고, 바이러스 개발 등 윤리적 문제를 야기할 수 있어 주의가 필요합니다.
Mark Ball Blog
Mark Ball Blog
개인적으로 생각하는 미래에 대한 이미지
Mark Ball Blog
Mark Ball Blog

2024년 3월 26일

스플렁크, 2024년 보안 현황 보고서 발표 스플렁크가 발표한 2024년 보안 현황 보고서에 따르면 조사 대상 기업의 93%가 생성형 AI를 사용하고 있지만, 34%는 생성형 AI 정책을 수립하지 않았습니다.
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

2024년 5월 13일

주식투자하기에 좋은 시절은 갔다고 말하는 Seth Klarman과 Fed 워런 버핏의 뒤를 잇는 투자자로 불리는 세스 클라만은 공개시장에서 알파를 찾기가 점점 어려워지고 있으며, 그 대안으로 프라이빗 마켓과 글로벌 시장에 더 집중하고 있다고 말했습니다. 그는 일반 투자자라면 거래 비용이 낮고 시장 수익률을 따라가는 인덱스 펀드 투자가 장기적으로 유리하지만, 투자 시기와 매매 타이밍이 중요하며, 인간의 심리적 약점으로 인해 인덱스 펀드 투자도 실패할 가능성이 있다고 지적했습니다. 또한 미 연준 수석 이코노미스트인 마이클 스몰얀
고집스런가치투자
고집스런가치투자
고집스런가치투자
고집스런가치투자

2024년 4월 3일

Mr. Know-All – 2023.7 2023년 7월 AI 월간 매거진 "Mr. Know-All" 1호에서는 Claude 2, Azure OpenAI, LangChain, LlamaIndex 등 생성형 AI 관련 소식과 함께, 샤나파키 박사가 주최하는 generative AI에 대한 토론 내용을 요약했습니다.
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

2024년 3월 21일

넷앱, 2024년 클라우드 복잡성 보고서 발표… 전 세계에 전개될 AI 혁신이냐 죽음이냐의 시대 전망 넷앱은 AI 리더와 후발주자 간 격차를 분석한 클라우드 복잡성 보고서를 발표했습니다. 보고서에 따르면 AI 리더는 하이브리드 IT 환경에서 데이터 통합도와 신뢰도가 높아 AI 이니셔티브 성공 가능성이 높습니다.
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

2024년 4월 25일