1. Introdução

A aquisição da linguagem nas crianças segue uma sequência notavelmente consistente: da categorização de fonemas ao desenvolvimento do léxico e, finalmente, ao domínio de estruturas sintáticas complexas. Esta trajetória de desenvolvimento, observada desde a infância até cerca dos seis anos de idade, levanta questões fundamentais sobre os princípios computacionais subjacentes. Esta aprendizagem em etapas será uma característica única da neurobiologia humana, ou poderá emergir em sistemas artificiais? Este estudo aborda diretamente esta questão, comparando as trajetórias de aprendizagem de 54 crianças (com idades entre os 18 meses e os 6 anos) com as de 48 modelos GPT-2 treinados a partir do zero. A hipótese central é que, se surgirem etapas semelhantes em ambos, isso poderá apontar para restrições de aprendizagem partilhadas e orientadas pelos dados.

2. Metodologia

A investigação emprega um enquadramento comparativo, sondando tanto os aprendentes humanos como os artificiais em múltiplas etapas do seu desenvolvimento.

2.1 Configuração Experimental

Crianças: A produção linguística foi analisada em 54 crianças. A sua fala espontânea e a capacidade de repetir frases com complexidade sintática variável foram avaliadas, seguindo metodologias estabelecidas por Friedmann et al. (2021).

Modelos GPT-2: 48 instâncias do modelo GPT-2 (variante de 124M parâmetros) foram treinadas a partir de uma inicialização aleatória com objetivos padrão de modelação de linguagem (ex.: WebText). Os seus estados internos foram sondados em intervalos regulares ao longo do treino.

2.2 Recolha de Dados & Sondagens

Um conjunto de 96 sondagens de diagnóstico foi selecionado a partir de benchmarks estabelecidos:

  • BLiMP: Para avaliar o conhecimento gramatical em 67 fenómenos sintáticos.
  • Zorro: Para sondar o raciocínio semântico e de senso comum.
  • BIG-Bench: Para avaliar capacidades linguísticas e cognitivas mais amplas.

Estas sondagens foram aplicadas aos modelos GPT-2 em cada ponto de verificação (checkpoint) do treino e serviram como medidas análogas às tarefas de produção das crianças.

3. Resultados & Análise

3.1 Comparação da Trajetória de Aprendizagem

A análise revelou que os modelos GPT-2, tal como as crianças, adquirem competências linguísticas numa ordem sistemática. Tarefas mais simples (ex.: concordância gramatical básica) são dominadas mais cedo no treino, enquanto tarefas mais complexas (ex.: estruturas sintáticas aninhadas como orações relativas) exigem significativamente mais passos de treino (análogos ao tempo de desenvolvimento).

3.2 Esquema de Aprendizagem Paralela

Uma descoberta fundamental é a natureza paralela da aprendizagem. Mesmo tarefas que são totalmente adquiridas tardiamente no treino mostram uma melhoria mensurável desde os primeiros passos. Isto sugere que o modelo constrói representações fundamentais que são continuamente refinadas, em vez de aprender competências numa sequência estrita e isolada.

3.3 Etapas Partilhadas vs. Divergentes

O estudo identifica sobreposições e divergências críticas:

  • Partilhadas: A progressão geral de formas sintáticas mais simples para mais complexas.
  • Divergentes: A ordenação específica de algumas subcompetências diferiu. Por exemplo, os modelos podem adquirir certas regras sintáticas formais numa ordem diferente das crianças, possivelmente devido a diferenças na distribuição dos dados de treino versus a experiência perceptiva e social humana.

Isto destaca que, embora a pressão orientada pelos dados crie etapas, os detalhes da sequência de etapas são modulados pela arquitetura e pelos dados de entrada do aprendente.

Métricas Experimentais Principais

Modelos Treinados: 48 instâncias GPT-2

Sondagens de Diagnóstico: 96 tarefas do BLiMP, Zorro, BIG-Bench

Participantes Crianças: 54 (18 meses - 6 anos)

Descoberta Central: Correlação significativa na ordem das etapas de aprendizagem entre crianças e modelos, mas não idêntica.

4. Enquadramento Técnico

4.1 Formulação Matemática

O objetivo central de aprendizagem do GPT-2 é a previsão do próximo token através da estimativa de máxima verosimilhança. Dada uma sequência de tokens $x_1, x_2, ..., x_t$, o modelo parametrizado por $\theta$ é treinado para minimizar a log-verosimilhança negativa:

$L(\theta) = -\sum_{t} \log P(x_t | x_{

A precisão da sonda $A_p(\theta, \tau)$ para uma sonda linguística específica $p$ no passo de treino $\tau$ mede a capacidade emergente. A trajetória de aprendizagem é a função $\tau \rightarrow \{A_{p_1}(\theta, \tau), A_{p_2}(\theta, \tau), ...\}$. A análise do estudo compara a ordem em que diferentes sondagens $p$ ultrapassam um limiar de desempenho (ex.: 80% de precisão) ao longo de $\tau$ para os modelos e ao longo da idade para as crianças.

4.2 Exemplo do Enquadramento de Análise

Caso: Monitorização da Aquisição de Orações Relativas

Tarefa de Sondagem: Distinguir frases gramaticais ("O rapaz que eu vi cantou") de agramaticais ("O rapaz que eu vi cantar").

Passos da Análise:

  1. Extração de Dados: Para cada ponto de verificação do modelo $\tau$, calcular a precisão num conjunto equilibrado de 100 sondagens de orações relativas.
  2. Definição de Limiar: Definir o passo de aquisição $\tau_{acquire}$ como o primeiro ponto de verificação onde a precisão > 80% e se mantém acima nos pontos seguintes.
  3. Correlação: Comparar a ordem de classificação de $\tau_{acquire}$ para a sonda de orações relativas com outras sondagens sintáticas (ex.: concordância sujeito-verbo, formação de perguntas).
  4. Alinhamento Humano: Mapear $\tau_{acquire}$ para a faixa etária típica (ex.: ~42 meses) em que as crianças dominam esta estrutura na produção.

Este enquadramento permite uma comparação quantitativa dos cronogramas de desenvolvimento em sistemas de aprendizagem fundamentalmente diferentes.

5. Visualização dos Resultados

Gráfico Conceptual: Comparação da Trajetória de Aprendizagem

Os resultados podem ser visualizados num gráfico de eixos duplos:

  • Eixo X (Tempo): Para as crianças, é a Idade (meses). Para o GPT-2, são os Passos de Treino (escala logarítmica).
  • Eixo Y: Precisão de Desempenho (%) numa escala normalizada.
  • Múltiplas Linhas: Cada linha representa uma competência linguística diferente (ex.: Discriminação de Fonemas, SVO Básico, Formação de Perguntas, Sintaxe Aninhada).

O gráfico mostraria ambas as trajetórias a exibir uma curva de aprendizagem em forma de S para cada competência, mas com a ordenação das linhas (qual competência sobe primeiro) sendo semelhante, embora não perfeitamente idêntica. Uma segunda visualização chave seria um mapa de calor mostrando a matriz de correlação da ordem de aquisição em todas as 96 sondagens para o conjunto de modelos versus a ordem observada nas crianças, destacando agrupamentos de correlação alta e baixa.

6. Ideia Central & Perspetiva do Analista

Ideia Central: Este artigo apresenta uma descoberta crucial e matizada: a estruturação em etapas da aprendizagem da linguagem não é um mistério exclusivamente humano, mas uma propriedade emergente da otimização incremental e orientada pelos dados sob restrições. No entanto, o plano dessas etapas é co-autorado pela arquitetura inata do aprendente. O GPT-2 e as crianças convergem num currículo "do simples para o complexo" porque os dados contêm esse currículo. Eles divergem nos detalhes porque os "vieses indutivos" de um transformer (Vaswani et al., 2017) diferem dos preconceitos cognitivos e perceptivos de uma criança humana.

Fluxo Lógico: O argumento é elegantemente construído. Começa com um facto empírico bem estabelecido (etapas ordenadas nas crianças), coloca uma questão computacional (esta ordem emerge na IA?) e usa uma metodologia robusta e de múltiplas sondagens para a testar. A passagem de demonstrar que "a ordem existe" para analisar a sua "natureza paralela" e, finalmente, dissecar os elementos "partilhados/divergentes" é logicamente poderosa. Espelha a progressão analítica em trabalhos fundamentais como o artigo do CycleGAN (Zhu et al., 2017), que não apenas apresentou um novo modelo, mas decompôs sistematicamente o problema da tradução de imagens não emparelhadas em restrições de consistência cíclica.

Pontos Fortes & Fraquezas: O ponto forte do estudo é o seu rigor metodológico e comparabilidade direta. Usar múltiplas instâncias de modelos e um vasto conjunto de sondagens mitiga o ruído. A principal fraqueza, implicitamente reconhecida, é a assimetria na medição: produção nas crianças vs. precisão da sonda interna nos modelos. Um modelo "saber" uma regra sintática numa sonda equivale a uma criança "usá-la" na fala espontânea? Não necessariamente. Isto é semelhante às críticas a benchmarks como o ImageNet, onde os modelos aprendem atalhos (Geirhos et al., 2020). O conjunto de sondagens, embora amplo, pode não capturar a essência integrada e comunicativa da aquisição da linguagem humana.

Ideias Acionáveis: Para investigadores de IA, isto é uma mina de ouro para aprendizagem curricular e diagnóstico de modelos. Se quisermos que os modelos aprendam como humanos, precisamos de conceber sequências de dados de treino ou funções de perda que espelhem melhor o cronograma de desenvolvimento humano. Para cientistas cognitivos, o trabalho fornece um novo banco de testes manipulável: alterar a arquitetura do modelo (ex.: introduzir conexões recorrentes como nas LSTMs) ou os dados de treino (ex.: adicionar entrada multimodal) e ver como a trajetória de desenvolvimento se altera. Isto pode ajudar a isolar a contribuição de vieses humanos específicos. A ideia final é que construir uma IA melhor e compreender a cognição humana são agora um esforço único e interligado.

7. Aplicações Futuras & Direções

  • Benchmarks de Desenvolvimento para IA: Criar benchmarks padronizados de "marcos de desenvolvimento" para LLMs, passando da avaliação estática para a análise dinâmica da trajetória.
  • Conceção de Currículo Informada: Usar conhecimentos do desenvolvimento infantil para estruturar a ordem dos dados de treino para um treino de modelos mais eficiente e robusto, potencialmente reduzindo os requisitos de dados e computação.
  • Inovação Arquitetural: Conceber novas arquiteturas de redes neurais que incorporem vieses cognitivos humanos hipotéticos (ex.: permanência do objeto, sinais de recompensa social) para ver se levam a trajetórias de aprendizagem mais semelhantes às humanas.
  • Ferramentas Clínicas: Desenvolver modelos de IA que sigam trajetórias de aprendizagem atípicas (simulando perturbações do desenvolvimento da linguagem) para gerar hipóteses e testar intervenções in silico.
  • Integração Multimodal: Estender esta investigação a modelos multimodais (visão, áudio, texto). Surgem etapas em que a integração cruzada de modalidades (ex.: aprender significados de palavras a partir do contexto visual) precede ou segue etapas puramente linguísticas, espelhando a aprendizagem dos bebés?

8. Referências

  1. Evanson, L., Lakretz, Y., & King, J. (2023). Language acquisition: do children and language models follow similar learning stages? arXiv preprint arXiv:2306.03586.
  2. Friedmann, N., Reznick, J., & et al. (2021). The order of acquisition of syntactic structures: A study of Hebrew-speaking children. Language Acquisition.
  3. Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., ... & Polosukhin, I. (2017). Attention is all you need. Advances in neural information processing systems, 30.
  4. Zhu, J. Y., Park, T., Isola, P., & Efros, A. A. (2017). Unpaired image-to-image translation using cycle-consistent adversarial networks. Proceedings of the IEEE international conference on computer vision (pp. 2223-2232).
  5. Geirhos, R., Jacobsen, J. H., Michaelis, C., Zemel, R., Brendel, W., Bethge, M., & Wichmann, F. A. (2020). Shortcut learning in deep neural networks. Nature Machine Intelligence, 2(11), 665-673.
  6. Radford, A., Wu, J., Child, R., Luan, D., Amodei, D., & Sutskever, I. (2019). Language models are unsupervised multitask learners. OpenAI blog, 1(8), 9.
  7. Bowman, S. R., & Dahl, G. E. (2021). What will it take to fix benchmarking in natural language understanding? Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies.