Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

Esta é uma postagem traduzida por IA.

Byungchae Ryan Son

O paradoxo dos modelos de IA de ponta: Transparência

  • Idioma de escrita: Coreana
  • País de referência: Todos os países country-flag

Selecionar idioma

  • Português
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

Texto resumido pela IA durumis

  • Pesquisadores da Universidade de Stanford analisaram 10 sistemas de IA de ponta, incluindo o GPT-4, e descobriram que os modelos de IA carecem de transparência, como conjuntos de dados e métodos de treinamento.
  • Em particular, empresas de IA importantes, como OpenAI e Google, têm sido relutantes em divulgar dados, com modelos de negócios centrados no lucro, o que pode prejudicar o desenvolvimento da tecnologia de IA e levar a um futuro monopolista.
  • Especialistas argumentam que a transparência dos modelos de IA deve ser aumentada para garantir a reprodutibilidade e fortalecer a responsabilidade social, pedindo um debate sobre regulamentação e consenso social à medida que a tecnologia de IA avança.

Um estudo publicado em 18 de agosto por pesquisadores da Universidade de Stanford revelou o quão profundas e potencialmente perigosas são as informações privilegiadas sobre o GPT-4 e outros sistemas de IA de ponta.

Apresentação do Índice de Transparência de Modelos de Fundamentação, Universidade de Stanford


Eles analisaram um total de 10 sistemas de IA diferentes, a maioria deles modelos de linguagem grandes, como os usados em ChatGPT e outros chatbots. Isso incluiu modelos comerciais amplamente usados, como GPT-4 do OpenAI, PaLM 2 do Google e Titan Text da Amazon, avaliando a abertura em 13 critérios, incluindo o quão transparentemente os desenvolvedores divulgaram os dados usados para treinar os modelos (incluindo como os dados foram coletados e anotados e se o material com direitos autorais foi incluído). Eles também investigaram se a divulgação de hardware usado para treinar e executar os modelos, os frameworks de software usados e o consumo de energia do projeto foi divulgado.


Os resultados mostraram que nenhum modelo de IA atingiu mais de 54% na escala de transparência em todos os critérios mencionados. No geral, o Titan Text da Amazon foi considerado o menos transparente, enquanto o Llama 2 do Meta foi classificado como o mais aberto. O que é interessante é que o Llama 2, um proeminente modelo de código aberto, não divulgou os dados usados no treinamento, como métodos de coleta e curadoria de dados, embora seja um modelo de código aberto próprio. Em outras palavras, a falta de transparência da indústria está se tornando uma ocorrência generalizada e persistente, apesar do crescente impacto da IA em nossa sociedade.


Isso significa que a indústria de IA corre o risco de se tornar um campo focado em lucros, em vez de avanços científicos,e isso pode levar a um futuro monopolizado, liderado por empresas específicas.

Eric Lee/Bloomberg via Getty Images


O CEO do OpenAI, Sam Altman, já se encontrou com formuladores de políticas de todo o mundo para explicar a eles essa nova e desconhecida inteligência e se oferecer para ajudá-los a solidificar os regulamentos relacionados. Embora ele apoie, em princípio, a ideia de uma organização internacional que supervisione a IA, ele também acredita que algumas regras restritas, como proibir todos os materiais protegidos por direitos autorais em conjuntos de dados, podem ser obstáculos injustos. Isso deixa claro que a “abertura” contida no nome da empresa OpenAI está claramente distorcida em relação à transparência radical que foi apresentada em seu início.


No entanto, os resultados do relatório de Stanford revelam que não há necessidade de todas as empresas manterem seus modelos em segredo para fins de competição. Isso ocorre porque os resultados também são um indicador do desempenho ruim de quase todas as empresas. Por exemplo, nenhuma empresa teria fornecido estatísticas sobre quantos usuários dependem de seus modelos ou quais partes do mercado ou regiões usam seus modelos.


Em organizações que adotam o código aberto como princípio, há um ditado: “Onde há muitos olhos, todos os erros são expostos”. (Lei de Linus) Números brutos ajudam a descobrir e corrigir problemas que podem ser corrigidos.


No entanto, as práticas de código aberto tendem a perder gradualmente o prestígio e o reconhecimento social dentro e fora das empresas,portanto, um destaque incondicional não é muito significativo. Portanto, em vez de ficar preso ao quadro de se o modelo é aberto ou fechado, é uma escolha melhor focar a discussão em ampliar gradualmente o acesso externo aos 'dados' que formam a base dos modelos de IA.


Para o avanço científico, é importante garantir a reprodutibilidade (reprodutibilidade),que verifica se resultados de pesquisa específicos aparecem novamente. Isso garante a transparência para os principais componentes da criação de cada modelo. Caso contrário, a indústria provavelmente acabará em um estado fechado e estagnado de monopólio. E isso precisa ser considerado uma prioridade alta em meio ao crescente e futuro uso da IA em toda a indústria.


É importante que jornalistas e cientistas entendam os dados, e a transparência é um pré-requisito para os esforços políticos planejados. A transparência também é importante para o público, pois, como usuários finais de sistemas de IA, eles podem se tornar vítimas ou vítimas de problemas potenciais relacionados a direitos autorais, uso de energia e vieses. Sam Altman argumenta que o risco de extinção da humanidade por meio da IA deve ser uma prioridade global, como outras ameaças sociais de grande escala, como pandemias e guerra nuclear. No entanto, não devemos esquecer que a sobrevivência da nossa sociedade depende de um relacionamento saudável com a IA em desenvolvimento antes que os cenários catastróficos que ele menciona se concretizem.


*Este artigo é o original do artigo colunista publicado no jornal eletrônico em 23 de outubro de 2023.


Referências


Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
O drama de governança da OpenAI, o futuro ético da IA O incidente em que Sam Altman, CEO da OpenAI, foi demitido pelo conselho de administração, mas voltou ao cargo cinco dias depois, revela a estrutura incomum da OpenAI, que visa uma missão para a humanidade, e as preocupações sobre os riscos potenciais da

14 de maio de 2024

O significado humano em 2023 e além da IA ​​gerativa 2023 foi um ano de mudanças importantes, com a IA dominando a indústria tecnológica, incluindo a transição para plataformas de IA gerativa, o aumento da familiaridade do público e o acordo sobre leis de regulamentação de IA. Em 2024, com o avanço da tecno

16 de maio de 2024

O corpo do trabalho é 'Híbrido'. A OpenAI, desenvolvedora do ChatGPT, foi o 17º site mais popular do mundo em maio, registrando mais visitas do que Netflix e Linkedin. Especialmente com o lançamento do aplicativo móvel, a IA generativa está se aproximando de nossa vida cotidiana, ultrapa

13 de maio de 2024

Construindo um AI Full Stack com Open Source Novos modelos de LLM (Large Language Model) de código aberto estão surgindo no ecossistema de IA. Mistral, Llama e phi-2 são alguns exemplos de modelos poderosos com licenças abertas que foram lançados. Ferramentas para utilizá-los também estão sendo dese
RevFactory
RevFactory
RevFactory
RevFactory

5 de fevereiro de 2024

Mr. Know-All – 2023.7 A edição de julho de 2023 da revista mensal de IA "Mr. Know-All", edição nº 1, apresenta as últimas tecnologias e tendências de IA, incluindo Claude 2, Azure OpenAI, LangChain e LlamaIndex. Em particular, fornece uma explicação detalhada do conceito chave
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 de março de 2024

Snowflake lança 'Arctic', LLM empresarial com o mais alto nível de abertura do setor A Snowflake lançou o 'Arctic', um modelo de linguagem de grande escala de código aberto. Ele está disponível sob a licença Apache 2.0 para uso comercial gratuito e oferece o mais alto nível de desempenho e eficiência do setor. Ele fornece eficiência de to
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

25 de abril de 2024

Snowflake publica relatório de tendências de dados de 2024... Desenvolvedores de IA criam em média 90 aplicativos por dia A Snowflake, com base em uma pesquisa com mais de 9.000 clientes, revelou que a proporção de chatbots entre os aplicativos LLM aumentou, os desenvolvedores preferem Python e a quantidade de dados não estruturados também aumentou. Descubra mais detalhes no
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

16 de maio de 2024

Mr. Know-All 2 - Agosto de 2023 Abordamos o tratamento de arquivos PDF para o treinamento de LLM com dados internos da empresa. Usando OpenAI API, LangChain e Streamlit, explicamos o processo de integração de um vetor de armazenamento como FAISS e ChromaDB. Fornecemos informações sobre
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 de março de 2024

O que é LLM (Large Language Model)? O modelo de linguagem de grande porte (LLM) é uma tecnologia central da inteligência artificial que aprende com uma quantidade enorme de dados de texto para adquirir a capacidade de processar linguagem semelhante à humana, podendo ser usada em uma varieda
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

1 de abril de 2024