A rápida evolução da neurociência tem produzido uma grande massa de dados e uma série de fenômenos revelados por novos experimentos e intervenções. Entretanto, a compreensão teórica desses fenômenos não avançou com o mesmo ímpeto. Esta discrepância está descrita na página web do “Redwood Center for Theoretical Neuroscience” como um cenário rico em dados ainda que pobre teoricamente (data-rich yet theory-poor). Matemática e ciências correlatas são indispensáveis para que o equilábrio seja alcançado.

Um primeiro desafio surge da complexidade das bases de dados. As ferramentas matemáticas e estatísticas atuais são insuficientes para tratar com bases de dados tão grandes e problemas de tão alta dimensionalidade. Neste cenário, novos procedimentos são necessários para obtenção de métodos estatísticos de alta precisão e computacionalmente viáveis.

Um segundo desafio surge da aparente aleatoriedade apresentada por dados neuronais. Uma publicação recente afirma (em tradução livre)

“Dados experimentais sugerem que neurônios, sinapses e sistemas neuronais são inerentemente estocásticos [...]. De fato, muitos estudos experimentais chegam a conclusão de que estímulos externos apenas modulam a alta atividade estocástica expontaneamente disparada pela atividade de redes corticais de neurônios [. . . ]. Além disso, modelos tradicionais para computação neuronal são desafiados pelo fato de que sensores tradicionais de dados do ambiente são frequentemente ruidosos e ambiguos, exigindo que sistemas neuronais levem em conta a incerteza imposta por estimulos externos (Buesing et al., 2011).”

Nos últimos anos a comunidade científica tem demonstrado um crescente interesse pelo desenvolvimento de modelos probabilísticos com base na atividade cerebral (Deco et al., 2009; Harrison et al., 2005; Toyoizumi et al., 2009; Cessac, 2011; Stevenson & Kording, 2011). Esta abordagem recente tem a vantagem de levar em consideração o conhecimento sobre o sistema neuronal para construir modelos probabilísticos parsimoniosos. Entretanto, muitas das pesquisas probabilísticas sofrem de duas limitações que se opõem. Algumas pesquisas fornecem um tratamento matemático rigoroso de alguns modelos, mas sem confrontá-los com dados experimentais (veja, por exemplo, Cessac, 2011). Outras pesquisas utilizam modelos específicos para interpretar dados experimentais, porém sem um esforço sistemático para estudar propriedades matemáticas dos modelos envolvidos (Toyoizumi et al., 2009; Harrison et al., 2005), sendo analisados somente através de simulações numéricas.

Por outro lado, a teoria probabilística de sistemas com muitas componentes, inspirada na mecânica estatística clássica, foi proposta por inúmeros matemáticos nos anos 80. Provavelmente esta abordagem não apresentou influência em neurociência por ser baseada em ideias da mecânica estatística sem dados adequados para confrontar os modelos estocásticos multi-componentes propostos. Desde então uma grande massa de dados se tornou possível de coletar, graças a técnicas como eletroencefalografia de múltiplos canais (EEG) e ressonância magnética funcional (fMRI). A proposta do grupo é superar estas limitações através de uma conexão entre a teoria matemática e a análise estatística de dados experimentais.

Acessar


Esqueceu sua senha?