O cérebro pode armazenar 10 vezes mais informações do que se pensava, segundo estudo
Pesquisas recentes mostraram que o cérebro humano tem maior capacidade de armazenar informações do que se pensava anteriormente. Essa descoberta abre caminho para a compreensão dos processos em nosso cérebro e como eles funcionam em patologias como o Alzheimer.
Um grupo de pesquisadores desenvolveu um método para medir a força sináptica, a precisão da plasticidade e o armazenamento de informações no cérebro. Usando a teoria da informação, eles descobriram que as sinapses podem armazenar dez vezes mais informações do que se acreditava anteriormente, conforme indicado em um relatório de NeuroScience News. A descoberta melhora a compreensão da aprendizagem, da memória e de como esses processos evoluem ou se deterioram ao longo do tempo.
Esse conhecimento ajudaria agora a impulsionar a pesquisa sobre doenças neurodegenerativas e do neurodesenvolvimento. Também ajudaria a compreender o processo por trás dos distúrbios da memória e do cérebro, como o Alzheimer. O processo de aprender e lembrar de novas informações fortalece conexões importantes no cérebro.
Por exemplo, a cada virada de um baralho de cartas de vocabulário, as definições aparecem com mais rapidez e facilidade. Lembrar mais facilmente essas novas palavras e definições com a prática é a prova de que essas conexões neurais, chamadas sinapses, podem se fortalecer ou enfraquecer com o tempo, uma característica conhecida como plasticidade sináptica.
Na busca de saber como os humanos aprendem e lembram
Ser capaz de quantificar a dinâmica das sinapses individuais pode ser um desafio para os neurocientistas, mas as recentes inovações computacionais em Instituto Salk podem estar mudando isso e revelando novos insights sobre o cérebro ao longo do caminho. Para compreender como o cérebro aprende e retém informações, os cientistas tentam quantificar o quanto uma sinapse se tornou mais forte através da aprendizagem e o quanto mais forte ela pode se tornar.
A força sináptica, dizem os cientistas, pode ser medida observando as características físicas das sinapses, mas é muito mais difícil medir a precisão da plasticidade. Isso é se as sinapses enfraquecem ou se fortalecem em uma quantidade constante e quanta informação uma sinapse pode armazenar. Por trás disso está a busca pela compreensão de como os humanos aprendem e lembram, bem como como esses processos evoluem ao longo do tempo ou se deterioram com a idade ou doenças.
Todas essas descobertas foram publicadas na Neural Computation do MIT em 23 de abril de 2024. A equipe foi liderada por Mohammad Samavat, da Universidade da Califórnia, San Diego. “Estamos melhorando na identificação exata de onde e como os neurônios individuais estão conectados entre si, mas ainda temos muito que aprender sobre a dinâmica dessas conexões”, disse o professor Terrence Sejnowski, outro dos principais autores do estudo e detentor do título. Cátedra Francis Crick em Salk.
É a porta que se abre para um maior conhecimento do cérebro
Terrence Sejnowski finalizou com uma declaração que apoia aqueles que pensam que nosso cérebro é muito mais poderoso do que pensávamos. Ele disse que “criamos uma técnica para estudar a força das sinapses, a precisão com que os neurônios modulam essa força e a quantidade de informação que as sinapses são capazes de armazenar, o que nos levou a descobrir que nosso cérebro pode armazenar dez vezes mais informações do que pensávamos anteriormente.”
Quando uma mensagem viaja pelo cérebro, ela salta de neurônio em neurônio, fluindo da extremidade de um neurônio para os tentáculos estendidos, chamados dendritos, de outro. Cada dendrito de um neurônio é coberto por pequenos apêndices bulbosos, chamados espinhas dendríticas, e no final de cada espinha dendrítica está a sinapse, um pequeno espaço onde as duas células se encontram e um sinal eletroquímico é transmitido. Diferentes sinapses são ativadas para enviar mensagens diferentes.
A teoria da informação é uma forma matemática sofisticada de compreender o processamento da informação como uma entrada que viaja através de um canal ruidoso e é reconstruída na outra extremidade. A equipe também mediu a quantidade de informações contidas no processo. Apesar das diferenças no tamanho de cada espinha dendrítica, cada uma das 24 categorias de força sináptica continha uma quantidade semelhante, variando entre 4,1 e 4,6 bits de informação.
Referência da noticia:
Neural Computation - MIT: Synaptic Information Storage Capacity Measured With Information Theory