top of page

Modelos de IA: O Colapso Ao Treinar com Dados Recursivamente Generados

Pesquisadores alertam sobre os riscos do treinamento de LLMs com textos gerados por si próprios.

Pesquisadores alertam sobre os riscos do treinamento de LLMs com textos gerados por si próprios.

Modelos de IA sob Ameaça: O Colapso ao Usar Dados Recursivos

F. Schubert

F. Schubert

A humanist first, passionate about human interactions, AI, Space, Human Life and a DJ. 20 year experienced in Team Management in BBAS3 and also founder of Estudio1514.com. São Paulo, Brazil based.

  • Instagram
  • Facebook
  • LinkedIn

O artigo discute o colapso dos modelos de linguagem de inteligência artificial (LLMs) quando treinados com dados gerados por versões anteriores, indicando que essa prática pode degradar a qualidade e a eficácia dos resultados gerados. Aborda a complexidade do treinamento de LLMs, o fenômeno do colapso do modelo, suas implicações na distribuição de dados ao longo do tempo, e a importância de acessar dados originais.

Summary

O desenvolvimento dos LLMs tem se tornado um tema de crescente importância no contexto da inteligência artificial. Estes modelos de linguagem de grande escala, como o GPT-3, são produtos de um processo de treinamento que exige quantidades massivas de dados. Muitos não percebem que a natureza desses dados pode influenciar significativamente o desempenho e a qualidade dos modelos resultantes. Este artigo analisa um fenômeno intrigante que ocorre quando esses modelos são treinados com textos gerados por suas próprias versões anteriores.

A criação de LLMs é intrinsecamente complexa e depende de grandes quantidades de dados de treinamento. De fato, muitos dos modelos atualmente disponíveis foram alimentados predominantemente com texto gerado por humanos. Isso, porém, está mudando. À medida que mais modelos futuros forem desenvolvidos, a dependência de dados extraídos da internet pode levar a um ciclo de aprendizado vicioso. Como o treinamento desses modelos se baseará em dados produzidos por seus antecessores, é vital investigar o que ocorre quando o texto produzido por uma versão do GPT constitui a maioria do conjunto de treinamento dos modelos subsequentes.

Pesquisadores descobriram que o aprendizado indiscriminado com dados gerados por outros modelos resulta no que se chama de 'colapso do modelo'. Este é um processo degenerativo onde, ao longo do tempo, os modelos começam a esquecer a verdadeira distribuição dos dados subjacentes, mesmo quando não há alteração na distribuição ao longo do tempo. O fenômeno é preocupante pois pode deteriorar a capacidade dos modelos de produzir resultados coerentes e relevantes.

A literatura fornece exemplos de como o colapso do modelo se manifesta em diferentes tipos de algoritmos, incluindo GMMs (Modelos Mistos Gaussianos), VAEs (Autoencoders Variacionais) e, naturalmente, LLMs. A observação deste fenômeno é fundamental para entender as limitações e os perigos potencialmente inerentes ao uso de LLMs em larga escala.

Com o passar do tempo, observa-se que os modelos começam a perder informações sobre a distribuição verdadeira dos dados. Este processo se inicia com o desaparecimento das caudas da distribuição e a convergência dos comportamentos aprendidos em um ponto estimado que apresenta variação muito reduzida. Essa perda de diversidade informativa é alarmante, indicando que esses modelos estão se tornando menos efetivos na geração de respostas que refletem a complexidade do mundo real.

De acordo com as pesquisas, o colapso do modelo é um fenômeno inevitável, mesmo sob condições quase ideais para o aprendizado de longo prazo. Isso significa que mesmo na ausência de erro de estimação de função, os modelos estão destinados a esquecer dados importantes, essencialmente reduzindo a eficácia do aprendizado ao longo do tempo.

Um aspecto crítico que emerge desta discussão é a necessidade de acesso à distribuição original dos dados. Em tarefas de aprendizado onde as caudas da distribuição subjacente são significativas, o acesso a dados gerados por humanos reais se torna não apenas um privilégio, mas uma necessidade. Sem esse acesso, os modelos tendem a falhar em capturar a complexidade necessária para representar interações humanas.

Além do mais, o uso massivo de LLMs para a geração e publicação de conteúdo na internet pode, de fato, comprometer a qualidade dos dados usados para treinar as versões futuras desses modelos. À medida que os dados coletados geram mais dados que, por sua vez, são reutilizados, existe o risco de que a originalidade e a autenticidade do material se percam, criando um ciclo vicioso de deterioração da qualidade.

Diante de tais considerações, é vital que pesquisadores e desenvolvedores abordem a formação de modelos de linguagem com uma nova perspectiva. O colapso do modelo em questão não é apenas uma questão técnica; é uma questão que merece discussões éticas e filosóficas mais amplas, especialmente considerando o impacto da inteligência artificial nas interações diárias da sociedade.

Portanto, a necessidade de pesquisa e investigação contínuas é crucial para evitar que a história do desenvolvimento dos LLMs se transforme em uma narrativa de desilusão e repetição.

O colapso do modelo refere-se a um fenômeno onde modelos de linguagem perdem informações sobre a verdadeira distribuição de dados ao longo do tempo, levando a uma redução na diversidade de resposta.

Dados humanos originais são necessários para garantir que os modelos capturem a complexidade e a diversidade das interações humanas, fundamentais para resultados relevantes.

A chave é assegurar um acesso contínuo e diversificado aos dados originais produzidos por humanos, combinando esse conhecimento com práticas de treinamento mais rigorosas.

O colapso reduz a capacidade dos modelos de gerar respostas coerentes e precisas, comprometendo sua robustez e utilidade.

Investir na investigação sobre o colapso do modelo e suas consequências é essencial a fim de promover um desenvolvimento saudável e sustentável para a inteligência artificial.

Fonte

Nature

Tags

Modelos de IA, Colapso do modelo, aprendizado de máquina, inteligência artificial

You may also like

A Inteligência Artificial Replica-se: Um Marco Aterrorizante?

Lewandowski Intervém: Proíbe Algemas e Garante Voo da FAB para Deportados dos EUA

Trump Demite 17 Fiscais Independentes em Agências Governamentais dos EUA

Formas de Ganhar Dinheiro na Internet: 15 Ideias Promissoras para 2025

bottom of page