![translation](https://cdn.durumis.com/common/trans.png)
Esta é uma postagem traduzida por IA.
A mudança na nossa relação com os algoritmos
- Idioma de escrita: Coreana
- •
-
País de referência: Todos os países
- •
- TI
Selecionar idioma
Texto resumido pela IA durumis
- A IA generativa, incluindo o ChatGPT, está a avançar a ponto de substituir o papel dos humanos, o que levanta preocupações sobre a violação dos direitos dos criadores, bem como a necessidade de repensar a nossa relação com os algoritmos.
- Os algoritmos influenciam muitos aspetos da nossa vida e nós reconhecemos a sua presença, somos curiosos sobre eles e vemos-nos como seres ativos.
- Em particular, a IA generativa utiliza conteúdos existentes no processo de geração de resultados de acordo com as solicitações do utilizador, pelo que é necessário estabelecer uma nova relação com os algoritmos de IA e refletir sobre a responsabilidade ética.
“Agora temos modelos de IA que analisam a linguagem humana para extrair modelos do mundo.”
No mês passado, em 19 de janeiro, em um evento de caridade em Ontário, Canadá, o psicólogo clínico Dr. Jordan Peterson, da Universidade de Toronto, mencionou os casos de uso recentes do ChatGPT, mostrando a nova tensão entre humanos e algoritmos que a IA irá criar no futuro. O Dr. Peterson alertou que modelos de linguagem de grande porte, como a IA generativa, logo serão capazes de usar imagens e movimentos para extrair padrões por conta própria e testá-los no mundo, tornando-se inteligentes o suficiente para desempenhar o papel de cientistas humanos em segundos.
GPT-3, DALL-E, StableDiffusion, etc., são agora a base de quase todos os sistemas de IA e estão tornando a mudança de paradigma da IA visível. E esses sistemas poderosos que geram imagens e texto de acordo com as necessidades do usuário inevitavelmente causam conflitos com os criadores já existentes dentro das indústrias estabelecidas. Em novembro passado, o 'GitHub Copilot' da Microsoft foi processado por uma ação coletiva alegando que estava violando os direitos legais de inúmeros autores que publicaram código sob licenças de código aberto para fins de aprendizado de IA. A Recording Industry Association of America (RIAA) também divulgou um comunicado em outubro, destacando que a geração e remixagem de música baseada em IA pode ameaçar os direitos dos músicos, bem como sua situação financeira.
Esses casos nos lembram a questão de 'ser justo para todos' ao usar conjuntos de dados baseados em material protegido por direitos autorais para treinar sistemas e produzir resultados. No entanto, devemos notar que essas controvérsias se concentram em grande parte em aspectos centrados em novas tecnologias. Em última análise, como os humanos são os que inserem texto nos modelos de IA para obter os resultados desejados, devemos primeiro nos concentrar em como os humanos devem se relacionar com os algoritmos no futuro.
Os algoritmos já são um eixo na criação do nosso mundo, como os humanos. Temos considerado muito a vigilância social em relação à opacidade dos algoritmos. Em particular, sabíamos que a falta de transparência tornava difícil avaliar quem era o responsável e nos preocupava que os vieses ocultos pudessem persistir e, portanto, levar a resultados injustos. Portanto, 'como devemos lidar com algoritmos' pode ser uma pergunta mais importante e podemos encontrar pistas em nossa familiaridade com algoritmos de geração de conteúdo.
Primeiro,reconhecemos a existência de algoritmos. As palavras 'recomendação' e 'seleção', que aparecem frequentemente em conversas relacionadas a conteúdo e publicidade, demonstram como as pessoas constroem vocabulário em torno de algoritmos em compras online e mídia social. Também,somos curiosos sobre algoritmos. Quando a página inicial do YouTube é preenchida com conteúdo de uma categoria específica, ou quando achamos que nosso conteúdo não está sendo exibido o suficiente, geralmente expressamos nossa curiosidade sobre algoritmos com respostas não amigáveis.
Finalmente,queremos que os algoritmos sejam ativos e vivos, existindo para nós. Para criar novos hábitos, aprender e lembrar, confiamos em algoritmos e tentamos controlá-los totalmente. Tentativas de usar hashtags irrelevantes, ativar o modo 'Não perturbe' ou enviar feedback sobre opções de anúncios. E quando todas essas tentativas fracassam, tentamos nos desconectar dos algoritmos por meio de desintoxicação digital ou consumo de conteúdo de boletim informativo.
Em resumo, as pessoas tendem a mostrar falta de confiança, avaliações negativas e um apego ao passado quando seus relacionamentos com algoritmos não progridem da maneira desejada. E isso é muito semelhante aos relacionamentos sociais que temos no dia a dia. Além disso, enquanto o relacionamento com os algoritmos de geração de conteúdo anteriores era principalmente unilateral na área de 'consumo', o relacionamento com os algoritmos de IA de processamento de linguagem de grande porte atuais é mais próximo de um relacionamento bilateral na área de 'geração'. Devido ao fato de que os resultados solicitados pelo usuário não são totalmente originais, mas são baseados nas obras criativas de outras pessoas no mundo, é importante reconhecer que nossa atitude e abordagem em relação aos algoritmos de IA generativa devem mudar fundamentalmente.
Mesmo com a janela do ChatGPT aberta, os algoritmos de IA simplesmente esperam. Talvez sua capacidade incrível esteja apenas oculta, mas quando você escreve algo, pode estar ajudando a florescer um relacionamento social oculto com outra pessoa no mundo em que você vive.
*Este artigo é baseado no original publicado no Coluna de opinião do Electronic Times de 9 de janeiro de 2023.
Referências