![translation](https://cdn.durumis.com/common/trans.png)
Esta é uma postagem traduzida por IA.
O paradoxo dos modelos de IA de ponta: Transparência
- Idioma de escrita: Coreana
- •
-
País de referência: Todos os países
- •
- TI
Selecionar idioma
Texto resumido pela IA durumis
- Pesquisadores da Universidade de Stanford analisaram 10 sistemas de IA de ponta, incluindo o GPT-4, e descobriram que os modelos de IA carecem de transparência, como conjuntos de dados e métodos de treinamento.
- Em particular, empresas de IA importantes, como OpenAI e Google, têm sido relutantes em divulgar dados, com modelos de negócios centrados no lucro, o que pode prejudicar o desenvolvimento da tecnologia de IA e levar a um futuro monopolista.
- Especialistas argumentam que a transparência dos modelos de IA deve ser aumentada para garantir a reprodutibilidade e fortalecer a responsabilidade social, pedindo um debate sobre regulamentação e consenso social à medida que a tecnologia de IA avança.
Um estudo publicado em 18 de agosto por pesquisadores da Universidade de Stanford revelou o quão profundas e potencialmente perigosas são as informações privilegiadas sobre o GPT-4 e outros sistemas de IA de ponta.
Apresentação do Índice de Transparência de Modelos de Fundamentação, Universidade de Stanford
Eles analisaram um total de 10 sistemas de IA diferentes, a maioria deles modelos de linguagem grandes, como os usados em
ChatGPT e outros chatbots. Isso incluiu modelos comerciais amplamente usados, como GPT-4 do OpenAI, PaLM 2 do Google e
Titan Text da Amazon, avaliando a abertura em 13 critérios, incluindo o quão transparentemente os desenvolvedores
divulgaram os dados usados para treinar os modelos (incluindo como os dados foram coletados e anotados e se o material com
direitos autorais foi incluído). Eles também investigaram se a divulgação de hardware usado para treinar e executar os
modelos, os frameworks de software usados e o consumo de energia do projeto foi divulgado.
Os resultados mostraram que nenhum modelo de IA atingiu mais de 54% na escala de transparência em todos os critérios mencionados. No geral, o Titan Text da Amazon foi considerado o menos transparente, enquanto o Llama 2 do Meta foi classificado como o mais aberto. O que é interessante é que o Llama 2, um proeminente modelo de código aberto, não divulgou os dados usados no treinamento, como métodos de coleta e curadoria de dados, embora seja um modelo de código aberto próprio. Em outras palavras, a falta de transparência da indústria está se tornando uma ocorrência generalizada e persistente, apesar do crescente impacto da IA em nossa sociedade.
Isso significa que a indústria de IA corre o risco de se tornar um campo focado em lucros, em vez de avanços científicos,e isso pode levar a um futuro monopolizado, liderado por empresas específicas.
Eric Lee/Bloomberg via Getty Images
O CEO do OpenAI, Sam Altman, já se encontrou com formuladores de políticas de todo o mundo para explicar a eles essa nova e
desconhecida inteligência e se oferecer para ajudá-los a solidificar os regulamentos relacionados. Embora ele apoie, em
princípio, a ideia de uma organização internacional que supervisione a IA, ele também acredita que algumas regras restritas, como
proibir todos os materiais protegidos por direitos autorais em conjuntos de dados, podem ser obstáculos injustos. Isso deixa claro
que a “abertura” contida no nome da empresa OpenAI está claramente distorcida em relação à transparência radical que foi
apresentada em seu início.
No entanto, os resultados do relatório de Stanford revelam que não há necessidade de todas as empresas manterem seus modelos em segredo para fins de competição. Isso ocorre porque os resultados também são um indicador do desempenho ruim de quase todas as empresas. Por exemplo, nenhuma empresa teria fornecido estatísticas sobre quantos usuários dependem de seus modelos ou quais partes do mercado ou regiões usam seus modelos.
Em organizações que adotam o código aberto como princípio, há um ditado: “Onde há muitos olhos, todos os erros são expostos”. (Lei de Linus) Números brutos ajudam a descobrir e corrigir problemas que podem ser corrigidos.
No entanto, as práticas de código aberto tendem a perder gradualmente o prestígio e o reconhecimento social dentro e fora das empresas,portanto, um destaque incondicional não é muito significativo. Portanto, em vez de ficar preso ao quadro de se o modelo é aberto ou fechado, é uma escolha melhor focar a discussão em ampliar gradualmente o acesso externo aos 'dados' que formam a base dos modelos de IA.
Para o avanço científico, é importante garantir a reprodutibilidade (reprodutibilidade),que verifica se resultados de pesquisa específicos aparecem novamente. Isso garante a transparência para os principais componentes da criação de cada modelo. Caso contrário, a indústria provavelmente acabará em um estado fechado e estagnado de monopólio. E isso precisa ser considerado uma prioridade alta em meio ao crescente e futuro uso da IA em toda a indústria.
É importante que jornalistas e cientistas entendam os dados, e a transparência é um pré-requisito para os esforços políticos planejados. A transparência também é importante para o público, pois, como usuários finais de sistemas de IA, eles podem se tornar vítimas ou vítimas de problemas potenciais relacionados a direitos autorais, uso de energia e vieses. Sam Altman argumenta que o risco de extinção da humanidade por meio da IA deve ser uma prioridade global, como outras ameaças sociais de grande escala, como pandemias e guerra nuclear. No entanto, não devemos esquecer que a sobrevivência da nossa sociedade depende de um relacionamento saudável com a IA em desenvolvimento antes que os cenários catastróficos que ele menciona se concretizem.
*Este artigo é o original do artigo colunista publicado no jornal eletrônico em 23 de outubro de 2023.
Referências