Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

AI가 번역한 다른 언어 보기

Byungchae Ryan Son

알고리즘 브랜딩의 시대가 온다

  • 작성 언어: 한국어
  • 기준국가: 모든 국가 country-flag

언어 선택

  • 한국어
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

durumis AI가 요약한 글

  • 일론 머스크는 AI의 위험성을 침팬지 사례를 통해 설명하며 진실을 추구하는 AI인 TruthGPT 개발 계획을 밝혔으며, 구글 CEO 순다르 피차이는 AI 기술의 발전에 따라 사회가 기존의 기술에 대비해야 한다고 경고했다.
  • 오픈 AI의 샘 올트먼은 범용인공지능(AGI)의 출현을 최대한 짧은 시간 안에 이루는 것이 목표라고 밝히며 인간에게 친화적인 AI 개발을 강조했다.
  • 이 글은 인공지능(AI)의 발전과 함께 인간의 역할과 AI 알고리즘의 브랜딩에 대해 논하며, 인간 종의 생존을 기준으로 하는 AI 개발의 방향에 대해 질문을 던진다.

"우리는 인류가 모든 침팬지를 사냥하여 죽이기로 결정할 수 있다는 것을 알고 있습니다."


일론 머스크는 지난 14일 Fox News와의 인터뷰에서 진실을 추구하는 AI인 TruthGPT의 개발 계획을 언급하며 앞으로의 인공지능의 인간을 대하는 태도에 대한 우려를 침팬지 사례를 통해 이전 어떤 설명보다 더 직관적으로 대중에게 전달했다. 이 같은 표현은 2016년 그가 설립한 뇌신경과학 스타트업 뉴럴링크가 지속적으로 원숭이 뇌에 컴퓨터 칩을 이식하는 도중 극도의 고통을 가해 죽음에 이르게 했다는 동물 학대 논란과 비판을 마주하고 있다는 점에서 더 현실적으로 다가온다.

A monkey with a Neuralink implanted in its brain. The Verge


TruthGPT는 명칭에서 드러나듯 ChatGPT와의 기술적 연관이 드러나 구글의 Bard, Open AI의 ChatGPT와 다른 제3의 선택지가 되기에는 아직은 기획 초기의 수준으로 판단된다. 하지만 이 새로운 AI 개발의 당위성, 즉 우주의 본질을 이해하려고 노력하는 AI를 만들면 우주의 흥미로운 일부인 인간을 전멸시킬 가능성이 낮아질 거라는 그의 논리는 충분히 설득적이다. 일론 머스크가 가장 우려하는 인공지능의 위험은 문명 파괴의 잠재력이기 때문이다.


같은 날인 지난 14일 CBS와의 인터뷰에서 구글 CEO 순다르 피차이는 모든 회사의 모든 제품이 AI의 빠른 발전에 영향을 받을 것이라 전망하며, 사회가 기존의 기술의 진화에 대비해야 한다고 경고했다. 하지만 그는 구글이 AI 기술이 특정한 답을 어떻게 생산해 내는지 완전히 이해하지 못하고 있음을 인정했고 이에 대해 사회자가 어떻게 그런 상태로 사회에 인공지능을 풀어놓았느냐는 질문에 대해 우리는 인간의 마음이 어떻게 작동하는지 완전히 이해하지 못한다라는 답변을 했다.


오존층 구멍을 발견해 노벨 화학상을 받은 네덜란드의 대기화학자 파울 크루첸은 2000년 2월 멕시코에서 열린 지구환경 국제회의에서 우리는 이제 인류세(Anthropocene)에 살고 있다고 말했다. 인류세는 인류로 인해 빚어진 지질시대로 대기의 변화를 기준으로 할 경우 산업 혁명을 시작으로 인류가 지구 환경에 큰 영향을 미친 세로 설정한 개념이다. 이같이 인류 문명의 발전 과정에서 지구 환경을 파괴하거나 다른 종의 생존을 결정할 수 있는 힘은 모두 인간의 지능에서 비롯되었다. 하지만 이제 인공지능(AI)이 등장했고 우리는 이 낯설고 잠재적으로 가장 위협적인 존재를 다뤄본 경험이 부족한 채로 사회에 던져놓은 상황을 맞이했다.


반면 오픈 AI의 수장 샘 올트먼은 지난달 26일 AI 연구원 렉스 프리드먼의 팟캐스트에 출연해서 현재 수준보다 뛰어난 범용인공지능(AGI)의 출현을 최대한 짧은 시간 안에 이루는 것이 목표라고 밝혔다. AI가 초지능을 얻게 되는 순간은 갑작스럽고 빠르게 발생할 수 있기 때문에 현재의 AI보다 한 단계 더 뛰어난 AGI를 빠르게 만들어서 이후부터 초지능에 도달하는 긴 시간 동안 인간에게 친화적 AI를 만들어 가는 것이 인류를 위한 최선이라는 생각을 밝힌 것이다.


현재 세계에서 진행되고 있는 AI 전쟁에서 가장 많이 언급되는 이들 세 사람은 AI와 함께하는 인간의 삶이라는 주제를 향한 공통된 관심을 보인다. 그러나 우리가 기억해야 하는 건 그들 이야기의 최종 목표는 특정 행동을 보이는 컴퓨팅 시스템, 즉 AI를 만드는 것이라는 점이다. 이 혁신적인 모델은 가차 없이 기계와 데이터 중심이며, 이전 세상에서 중요하던 사람은 점점 더 자율적인 시스템의 데이터 욕구를 충족시키기 위한 행동 입력의 제공자로 묘사될 수 있다는 점이다. 이 때문에 아이러니하게도 머스크가 언급한 진실에 대한 관심과 논의가 다시 인류에게로 향하도록 하는 것이 앞으로 더 중요해질 것이다. 사라지는 직업군에 속한 사람이 자신의 주체성을 재확인하고 더 적극적으로 발휘할 수 있도록 돕는 기준과 방법은 무엇이 될 수 있을지, 우리가 하는 경험에 의미를 부여하는 주체는 여전히 인간일 수 있을지, 이러한 인식을 잊지 않도록 돕는 제도적 장치와 커뮤니티의 주제는 무엇이 되어야 하는지를 논할 필요가 있다.


브랜딩은 타깃 고객에게 그들과 같은 길 위에 서 있음의 선언이다. 어쩌면 지금 우리는 인간 종의 생존을 기준으로 하는 세 가지 양상의 AI 알고리즘 브랜딩의 시도를 보고 있는지도 모른다. 인류 보전을 위한 머스크의 '우주로의 관심 전환', 피차이의 '허위 및 가짜 정보 시대의 사회적 적응', 올트먼의 '인간 친화적 AI 개발을 위한 타임라인' 가운데 당신이 선호하는 알고리즘은 무엇인가.



*이 글은 23년 4월 24일 자 전자신문 기명칼럼에 게재된 내용의 원본입니다.


References


Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
AI 시대의 '몸': 화면 너머의 인간 신체를 보라 UMG가 TikTok에서 음악 카탈로그를 삭제한 이유는 AI 음악 창작 장려와 저작권 침해에 대한 우려 때문입니다. AI는 빠르게 발전하고 있으며, 이로 인해 인류의 미래에 대한 예측이 시급해졌습니다. AI의 자유로운 진화를 옹호하는 견해와 인간과 AI의 상호의존성을 강조하는 견해가 공존합니다.

2024년 5월 16일

OpenAI의 거버넌스 드라마, AI의 윤리적 미래 OpenAI의 CEO 샘 알트먼이 이사회에 의해 해고되었다가 다시 복직된 사건은 인공지능 개발의 윤리적 문제와 그에 따른 사회적 영향에 대한 우려를 드러냅니다. 특히 인류에게 위협이 될 수 있는 강력한 AI 개발과 관련해 이사회가 CEO를 해고할 수 있는 권한을 갖도록 설계된 OpenAI의 구조는 AI 개발과 규제에 대한 사회적 논의가 더욱 활발해질 필요성을 보여줍니다.

2024년 5월 14일

생성AI의 2023년, 이후의 인간 의미 2023년은 AI 기술이 급격히 발전하고 대중화된 한 해였으며, 생성 AI의 등장, AI에 대한 대중의 익숙함 증가, EU의 AI 규제 법안 합의 등이 주요 특징입니다.

2024년 5월 16일

인간을 능가하는 인공지능, 미래의 축복인가 재앙인가? 인공지능(AI)의 발전은 인류 문명에 큰 변화를 가져올 수 있지만, AI가 인류에게 축복인지 재앙인지는 아직 불확실합니다. AI 전문가들은 AI의 잠재적 이점과 위험성을 놓고 뜨거운 논쟁을 벌이고 있습니다. AI가 인류에게 도움을 줄 수 있는 반면, 인간을 지배하거나 심각한 재앙을 초래할 가능성도 존재합니다. AI 윤리와 안전성 연구를 통해 AI를 통제하고 인류에게 도움이 되도록 활용해야 합니다.
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

2024년 5월 25일

개인적으로 생각하는 짧은 미래 AI 기술 발전으로 인해 개발자, 프롬프트 엔지니어, 생물학자 등 다양한 직업에 변화가 예상됩니다. 특히 AI는 프로그래밍을 자동화하고, 바이러스 개발 등 윤리적 문제를 야기할 수 있어 주의가 필요합니다.
Mark Ball Blog
Mark Ball Blog
개인적으로 생각하는 미래에 대한 이미지
Mark Ball Blog
Mark Ball Blog

2024년 3월 26일

Mr. Know-All – 2023.7 2023년 7월 AI 월간 매거진 "Mr. Know-All" 1호에서는 Claude 2, Azure OpenAI, LangChain, LlamaIndex 등 생성형 AI 관련 소식과 함께, 샤나파키 박사가 주최하는 generative AI에 대한 토론 내용을 요약했습니다.
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

2024년 3월 21일

LLM (Large Language Model) 이란? LLM은 방대한 텍스트 데이터를 학습하여 인간과 유사한 언어를 이해하고 생성하는 대형 언어 모델입니다. 문장 생성, 답변 제공, 텍스트 요약, 번역 등 다양한 작업을 수행할 수 있으며, 인공 지능 챗봇, 자동 번역, 텍스트 생성 등 다양한 분야에 활용될 수 있습니다.
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

2024년 4월 1일

AI 시대의 도래, 기술 혁신과 윤리 간 조화를 이루다 구글과 오픈AI는 각각 새로운 AI 모델인 '제미니'와 'GPT-4'를 공개하며 인공지능 기술의 혁신을 이끌고 있습니다. 제미니는 다양한 형태의 정보를 이해하고 답변을 제공하는 진화된 언어 모델로, 구글의 다양한 서비스에 통합되어 사용자 편의성을 향상시킬 예정입니다.
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

2024년 5월 18일

스플렁크, 2024년 보안 현황 보고서 발표 스플렁크가 발표한 2024년 보안 현황 보고서에 따르면 조사 대상 기업의 93%가 생성형 AI를 사용하고 있지만, 34%는 생성형 AI 정책을 수립하지 않았습니다.
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

2024년 5월 13일