Os cérebros dos bebês não são tão imaturos quanto se pensava anteriormente; em vez disso, eles estão usando o período de “desamparo” pós-natal para aprender modelos fundamentais poderosos semelhantes aos que sustentam a Inteligência Artificial generativa, de acordo com um novo estudo.
Os cérebros dos bebês não são tão imaturos quanto se pensava anteriormente; em vez disso, eles estão usando o período de “desamparo” pós-natal para aprender modelos fundamentais poderosos semelhantes aos que sustentam a Inteligência Artificial generativa, de acordo com um novo estudo. O estudo, liderado por um neurocientista do Trinity College Dublin e recém-publicado na revista Trends in Cognitive Sciences, descobre pela primeira vez que a explicação clássica para o desamparo infantil não é apoiada por dados cerebrais modernos. Comparados a muitos animais, os humanos são desamparados por um longo tempo após o nascimento. Muitos animais, como cavalos e galinhas, conseguem andar no dia em que nascem.
Esse período prolongado de desamparo coloca os bebês humanos em risco e impõe um enorme fardo aos pais, mas surpreendentemente sobreviveu à pressão evolutiva. “Desde a década de 1960, os cientistas pensavam que o desamparo exibido pelos bebês humanos era devido às limitações do nascimento. A crença era de que, com cabeças grandes, os bebês humanos tinham que nascer cedo, resultando em cérebros imaturos e um período de desamparo que se estende até um ano de idade. Queríamos descobrir por que os bebês humanos eram desamparados por um período tão longo”, explica o Professor Rhodri Cusack, Professor de Neurociência Cognitiva e autor principal do artigo.
A equipe de pesquisa foi composta pelo Prof. Cusack, que mede o desenvolvimento do cérebro e da mente infantil usando neuroimagem; a Prof. Christine Charvet, da Auburn University, EUA, que compara o desenvolvimento cerebral entre espécies; e o Dr. Marc’Aurelio Ranzato, um pesquisador sênior de IA no DeepMind. “Nosso estudo comparou o desenvolvimento cerebral entre espécies animais. Ele foi baseado em um projeto de longa data, o Translating Time, que equaciona idades correspondentes entre espécies para estabelecer que os cérebros humanos são mais maduros do que muitas outras espécies ao nascer”, diz a Prof. Charvet.
Os pesquisadores usaram imagens cerebrais e descobriram que muitos sistemas no cérebro do bebê humano já estão funcionando e processando os ricos fluxos de informação dos sentidos. Isso contradiz a crença de longa data de que muitos sistemas cerebrais infantis são imaturos demais para funcionar. A equipe então comparou o aprendizado em humanos com os modelos mais recentes de aprendizado de máquina, onde redes neurais profundas se beneficiam de um período de “desamparo” de pré-treinamento. No passado, os modelos de IA eram treinados diretamente nas tarefas para as quais eram necessários; por exemplo, um carro autônomo era treinado para reconhecer o que via na estrada.
Mas agora os modelos são inicialmente pré-treinados para ver padrões dentro de grandes quantidades de dados, sem realizar nenhuma tarefa de importância. O modelo fundamental resultante é posteriormente usado para aprender tarefas específicas. Foi constatado que isso leva a um aprendizado mais rápido de novas tarefas e a um melhor desempenho. “Propomos que os bebês humanos utilizem de maneira semelhante o período de ‘desamparo’ na infância para pré-treinar, aprendendo modelos fundamentais poderosos, que passam a sustentar a cognição na vida posterior com alto desempenho e rápida generalização.
Isso é muito semelhante aos poderosos modelos de aprendizado de máquina que levaram aos grandes avanços na IA generativa nos últimos anos, como o ChatGPT da OpenAI ou o Gemini do Google”, explicou o Prof. Cusack. Os pesquisadores dizem que futuras pesquisas sobre como os bebês aprendem podem inspirar a próxima geração de modelos de IA. “Embora tenham ocorrido grandes avanços na IA, os modelos fundamentais consomem vastas quantidades de energia e requerem muito mais dados do que os bebês. Compreender como os bebês aprendem pode inspirar a próxima geração de modelos de IA. Os próximos passos na pesquisa seriam comparar diretamente o aprendizado em cérebros e IA”, concluiu.