O cérebro pode armazenar 10 vezes mais informações do que se pensava, segundo estudo

Pesquisas recentes mostraram que o cérebro humano tem maior capacidade de armazenar informações do que se pensava anteriormente. Essa descoberta abre caminho para a compreensão dos processos em nosso cérebro e como eles funcionam em patologias como o Alzheimer.

Cérebro humano
Um estudo recente liderado pelo Instituto Salk, que depende da Universidade da Califórnia, conseguiu identificar que a quantidade de informação que o cérebro transporta e depois consegue armazenar é muito maior do que se acreditava anteriormente.

Um grupo de pesquisadores desenvolveu um método para medir a força sináptica, a precisão da plasticidade e o armazenamento de informações no cérebro. Usando a teoria da informação, eles descobriram que as sinapses podem armazenar dez vezes mais informações do que se acreditava anteriormente, conforme indicado em um relatório de NeuroScience News. A descoberta melhora a compreensão da aprendizagem, da memória e de como esses processos evoluem ou se deterioram ao longo do tempo.

Nos próximos anos, pesquisadores de todo o mundo poderão utilizar esta técnica para fazer descobertas sobre a capacidade do cérebro humano de aprender novas competências, lembrar-se de ações quotidianas e armazenar informações de curto e longo prazo.

Esse conhecimento ajudaria agora a impulsionar a pesquisa sobre doenças neurodegenerativas e do neurodesenvolvimento. Também ajudaria a compreender o processo por trás dos distúrbios da memória e do cérebro, como o Alzheimer. O processo de aprender e lembrar de novas informações fortalece conexões importantes no cérebro.

Por exemplo, a cada virada de um baralho de cartas de vocabulário, as definições aparecem com mais rapidez e facilidade. Lembrar mais facilmente essas novas palavras e definições com a prática é a prova de que essas conexões neurais, chamadas sinapses, podem se fortalecer ou enfraquecer com o tempo, uma característica conhecida como plasticidade sináptica.

Na busca de saber como os humanos aprendem e lembram

Ser capaz de quantificar a dinâmica das sinapses individuais pode ser um desafio para os neurocientistas, mas as recentes inovações computacionais em Instituto Salk podem estar mudando isso e revelando novos insights sobre o cérebro ao longo do caminho. Para compreender como o cérebro aprende e retém informações, os cientistas tentam quantificar o quanto uma sinapse se tornou mais forte através da aprendizagem e o quanto mais forte ela pode se tornar.

youtube video id=WYawqmD2jis

A força sináptica, dizem os cientistas, pode ser medida observando as características físicas das sinapses, mas é muito mais difícil medir a precisão da plasticidade. Isso é se as sinapses enfraquecem ou se fortalecem em uma quantidade constante e quanta informação uma sinapse pode armazenar. Por trás disso está a busca pela compreensão de como os humanos aprendem e lembram, bem como como esses processos evoluem ao longo do tempo ou se deterioram com a idade ou doenças.

Todas essas descobertas foram publicadas na Neural Computation do MIT em 23 de abril de 2024. A equipe foi liderada por Mohammad Samavat, da Universidade da Califórnia, San Diego. “Estamos melhorando na identificação exata de onde e como os neurônios individuais estão conectados entre si, mas ainda temos muito que aprender sobre a dinâmica dessas conexões”, disse o professor Terrence Sejnowski, outro dos principais autores do estudo e detentor do título. Cátedra Francis Crick em Salk.

É a porta que se abre para um maior conhecimento do cérebro

Terrence Sejnowski finalizou com uma declaração que apoia aqueles que pensam que nosso cérebro é muito mais poderoso do que pensávamos. Ele disse que “criamos uma técnica para estudar a força das sinapses, a precisão com que os neurônios modulam essa força e a quantidade de informação que as sinapses são capazes de armazenar, o que nos levou a descobrir que nosso cérebro pode armazenar dez vezes mais informações do que pensávamos anteriormente.”

Plasticidade sináptica
O estudo busca entender mais sobre a plasticidade sináptica. Como as conexões neurais se fortalecem ou enfraquecem ao longo do tempo com base na experiência.

Quando uma mensagem viaja pelo cérebro, ela salta de neurônio em neurônio, fluindo da extremidade de um neurônio para os tentáculos estendidos, chamados dendritos, de outro. Cada dendrito de um neurônio é coberto por pequenos apêndices bulbosos, chamados espinhas dendríticas, e no final de cada espinha dendrítica está a sinapse, um pequeno espaço onde as duas células se encontram e um sinal eletroquímico é transmitido. Diferentes sinapses são ativadas para enviar mensagens diferentes.

A teoria da informação é uma forma matemática sofisticada de compreender o processamento da informação como uma entrada que viaja através de um canal ruidoso e é reconstruída na outra extremidade. A equipe também mediu a quantidade de informações contidas no processo. Apesar das diferenças no tamanho de cada espinha dendrítica, cada uma das 24 categorias de força sináptica continha uma quantidade semelhante, variando entre 4,1 e 4,6 bits de informação.

Referência da noticia:
Neural Computation - MIT: Synaptic Information Storage Capacity Measured With Information Theory