Monday 7 August 2017

Autoregressive Moving Average Investopedia


Média móvel integrada autoregressiva - ARIMA DEFINIÇÃO da média móvel autoregressiva integrada - ARIMA Um modelo de análise estatística que usa dados de séries temporais para prever tendências futuras. É uma forma de análise de regressão que busca prever movimentos futuros ao longo da caminhada aparentemente aleatória realizada pelas ações e no mercado financeiro, examinando as diferenças entre valores na série em vez de usar os valores de dados reais. As lags das séries diferenciadas são referidas como auto - gressivas e os atrasos dentro dos dados previstos são referidos como média móvel. BREAKING DOWN Média de Mudança Integrada Autoregressiva - ARIMA Este tipo de modelo é geralmente referido como ARIMA (p, d, q), com os números inteiros referentes ao autorregressivo. Partes médias integradas e móveis do conjunto de dados, respectivamente. A modelagem ARIMA pode levar em consideração tendências, sazonalidade. Ciclos, erros e aspectos não estacionários de um conjunto de dados ao fazer previsões. Média de Mudança Integrada Sustentável - ARIMA Um modelo de análise estatística que usa dados de séries temporais para prever tendências futuras. É uma forma de análise de regressão que busca prever movimentos futuros ao longo da caminhada aparentemente aleatória realizada pelas ações e no mercado financeiro, examinando as diferenças entre valores na série em vez de usar os valores de dados reais. Lags da série diferenciada são referidos como Autoregressivo e os atrasos dentro dos dados previstos são referidos como Média em Movimento. Este tipo de modelo é geralmente referido como ARIMA (p, d, q), com os números inteiros referentes às partes médias autorregressivas, integradas e móveis do conjunto de dados, respectivamente. A modelagem ARIMA pode levar em consideração tendências, sazonalidade, ciclos, erros e aspectos não estacionários de um conjunto de dados ao fazer previsões. Heterosqueticidade Condicional AutoRegressiva Generalizada - (GARCH) Um modelo estatístico utilizado pelas instituições financeiras para estimar a volatilidade dos retornos de estoque. Esta informação é usada pelos bancos para ajudar a determinar quais ações potencialmente fornecerão maiores retornos, bem como para prever o retorno dos investimentos atuais para ajudar no processo de orçamentação. Existem muitas variações do GARCH, incluindo NGARCH para incluir correlação, e IGARCH que restringe o parâmetro de volatilidade. Cada modelo pode ser usado para acomodar as qualidades específicas do estoque, indústria ou estado econômico. Causas causadoras do risco. A causalidade de Granger é um conceito estatístico de causalidade que se baseia na predição. De acordo com a causalidade de Granger, se um sinal X 1 Granger provoca (ou G-causas) um sinal X 2. Então os valores passados ​​de X 1 devem conter informações que ajudem a prever X 2 acima e além das informações contidas em valores passados ​​de X 2 sozinhos. Sua formulação matemática é baseada na modelagem de regressão linear de processos estocásticos (Granger, 1969). Existem extensões mais complexas para casos não-lineares, no entanto, essas extensões são muitas vezes mais difíceis de aplicar na prática. A causalidade de Granger (ou a causalidade de G) foi desenvolvida na década de 1960 e tem sido amplamente utilizada em economia desde a década de 1960. No entanto, é apenas nos últimos anos que as aplicações em neurociência tornaram-se populares. Conta pessoal de Clive Granger Figura 1: Prof. Clive W. J. Granger, destinatário do Prêmio Nobel de Economia 2003 O seguinte é um relato pessoal do desenvolvimento da causalidade de Granger gentilmente oferecida pelo Professor Clive Granger (Figura 1). Não edite esta seção. O tópico de como definir a causalidade manteve os filósofos ocupados por mais de dois mil anos e ainda não foi resolvido. É uma pergunta profunda e complicada com muitas respostas possíveis que não satisfazem a todos, e ainda assim continua sendo de alguma importância. Os pesquisadores gostariam de pensar que encontraram uma causa, que é uma relação profunda e fundamentalmente possivelmente útil. No início dos anos 1960, estava considerando um par de processos estocásticos relacionados que estavam claramente inter-relacionados e queria saber se esse relacionamento poderia ser dividido em um par de relacionamentos de sentido único. Sugeriu-me analisar uma definição de causalidade proposta por um matemático muito famoso, Norbert Weiner, por isso adaptei essa definição (Wiener 1956) em uma forma prática e discuti-a. Os economistas aplicados encontraram a definição compreensível e utilizável e as aplicações começaram a aparecer. No entanto, vários escritores afirmam que, claro, essa não é uma causalidade real, é apenas a causalidade de Granger. Assim, desde o início, as aplicações usaram esse termo para distingui-lo de outras possíveis definições. A definição básica de Granger Causality é bastante simples. Suponhamos que tenhamos três termos, (Xt,) (Yt,) e (Wt), e que primeiro tentamos prever (X) usando termos passados ​​de (Xt) e (Wt.) Então tentamos prever (X) Usando termos passados ​​de (Xt,) (Yt,) e (Wt.) Se a segunda previsão for mais bem sucedida, de acordo com as funções de custo padrão, o passado de (Y) parece conter informações que ajudam na previsão (X ) Que não está no passado (Xt) ou (Wt.) Em particular, (Wt) pode ser um vetor de possíveis variáveis ​​explicativas. Assim, (Yt) Granger causaria (X) se (a) (Yt) ocorrer antes (X) e (b) contém informações úteis na previsão (X) que não são encontradas em um grupo de outras variáveis ​​apropriadas. Naturalmente, o maior (Wt) é, e com mais cuidado seu conteúdo é selecionado, o critério mais rigoroso (Yt) está passando. Eventualmente, (Yt) pode parecer conter informações exclusivas sobre (X) que não são encontradas em outras variáveis, razão pela qual o rótulo de causalidade talvez seja apropriado. A definição se baseia fortemente na idéia de que a causa ocorre antes do efeito, que é a base da maioria, mas não de todas, das definições de causalidade. Algumas implicações são que é possível (Yt) causar (X) e para (Xt) causar (Y) um sistema estocástico de realimentação. No entanto, não é possível que um processo determinado, como uma tendência exponencial, seja uma causa ou seja causado por outra variável. É possível formular testes estatísticos para os quais agora designo como causalidade de G, e muitos estão disponíveis e são descritos em alguns livros de texto econométricos (veja também a seção a seguir e as referências). A definição foi amplamente citada e aplicada porque é pragmática, fácil de entender e para se candidatar. É geralmente acordado que não captura todos os aspectos da causalidade, mas o suficiente para valer a pena considerar em um teste empírico. Existem agora uma série de definições alternativas em economia, mas são pouco usadas porque são menos fáceis de implementar. Outras referências para esta conta pessoal são (Granger 1980 Granger 2001). Formulação matemática A causalidade G é normalmente testada no contexto de modelos de regressão linear. Para ilustração, considere um modelo auto-regressivo linear bivariado de duas variáveis ​​(X1) e (X2 :) onde (p) é o número máximo de observações atrasadas incluídas no modelo (a ordem do modelo), a matriz (A) contém os coeficientes de O modelo (ou seja, as contribuições de cada observação retardada para os valores previstos de (X1 (t)) e (X2 (t)) e (E1) e (E2) são resíduos (erros de predição) para cada série temporal. Se o A variação de (E1) (ou (E2)) é reduzida pela inclusão dos termos (X2) (ou (X1)) na primeira (ou segunda) equação, então é dito que (X2) (ou (X1) ) Granger - (G) - causes (X1) (ou (X2)). Em outras palavras, (X2) G-causes (X1) se os coeficientes em (A) forem conjuntamente significativamente diferentes de zero. Isso pode ser testado por Realizando um teste F da hipótese nula de que (A) 0, com premissas de estabilidade de covariância em (X1) e (X2.) A magnitude de uma interação de causalidade G pode ser estimada pelo logaritmo da estatística F correspondente ( Geweke 1982). N Oct que os critérios de seleção do modelo, como o Bayesian Information Criterion (BIC, (Schwartz, 1978)) ou o Akaike Information Criterion (AIC, (Akaike, 1974)) podem ser usados ​​para determinar a ordem do modelo apropriada (p.) Figura 2: Duas possíveis conectividades que não podem ser distinguidas pela análise em pares. Adaptado de Ding et al. (2006). Conforme mencionado na seção anterior, a causalidade de G pode ser prontamente estendida ao (n) caso variável, onde (ngt2,) estimando um (n) modelo autoregressivo variável. Neste caso, (X2) G-causes (X1) se as observações atrasadas de (X2) ajudam a prever (X1) quando as observações atrasadas de todas as outras variáveis ​​(X3 ldots XN) também são levadas em consideração. (Aqui, (X3 ldots XN) correspondem às variáveis ​​no conjunto (W) na seção anterior, veja também Boudjellaba et al. (1992) para uma interpretação usando modelos de média móvel autorregressiva (ARMA).) Esta extensão multivariada, às vezes referida Como causalidade G condicional (Ding et al., 2006), é extremamente útil porque as análises parciais repetidas entre variáveis ​​múltiplas às vezes podem dar resultados enganosos. Por exemplo, uma análise bivariada repetida seria incapaz de desambiguar os dois padrões de conectividade na Figura 2. Em contrapartida, uma análise de condição primária poderia inferir uma conexão causal de (X) a (Y) somente se as informações passadas em (X) ajudassem a prever o futuro (Y) acima e além desses sinais mediados por (Z.) Outra instância em que a causalidade G condicional é valiosa é quando uma única fonte dirige duas saídas com diferentes atrasos de tempo. Uma análise bivariada, mas não uma análise multivariada, inferiu falsamente uma conexão causal da saída com o menor atraso para a saída com o atraso mais longo. A aplicação da formulação acima da causalidade G faz dois pressupostos importantes sobre os dados: (i) que é covariante estacionário (ou seja, a média e a variância de cada série de tempo não mudam ao longo do tempo), e (ii) que pode ser Adequadamente descrito por um modelo linear. A seção Limitações e extensões descreverá extensões recentes que tentam superar essas limitações. Castidade espectral de G Ao usar métodos de Fourier é possível examinar a causalidade de G no domínio espectral (Geweke 1982 Kaminski et al., 2001). Isso pode ser muito útil para sinais neurofisiológicos, onde as decomposições de frequência são muitas vezes de interesse. Intuitivamente, a causalidade G espectral de (X1) a (X2) mede a fração da potência total na freqüência (f) de (X1) que é contribuída por (X2.) Para exemplos das vantagens de trabalhar no domínio da freqüência, veja Aplicação em neurociência. Para a completude, damos abaixo os detalhes matemáticos da causalidade espectral de G. A transformada de Fourier de (1) dá em que os componentes de (A) são Reescrevendo Equação (2) como onde (H) é a matriz de transferência. A matriz espectral (S) agora pode ser derivada como S (f) langle X (f) X (f) rangle langle H (f) Sigma H (f) rangle em que o asterisco indica transposição da matriz e conjugação complexa. (Sigma) é a matriz de covariância dos resíduos (E (t)) e (H) é a matriz de transferência. A causalidade G-espectral de (j) a (i) é então em que (S (f)) é o espectro de potência da variável (i) em frequência (f.) (Esta análise foi adaptada de (Brovelli et al., 2004 Kaminski et al., 2001)). Trabalho recente de Chen et al. (2006) indica que a aplicação das séries temporais neurofisiológicas G-causalidade Gewekes a multivariada (gt2) às vezes resulta em causalidade negativa em certas frequências, resultado que evade a interpretação física. Eles sugeriram uma versão revisada e condicional da medida Gewekes que pode superar esse problema usando um método de matriz de partição. Outras variações de causalidade G espectral são discutidas por Breitung e Candelon (2006) e Hosoya (1991). Duas medidas alternativas que estão intimamente relacionadas com a causalidade espectral G são coerência direta parcial (Baccala amp Sameshima 2001) e a função de transferência direta (Kaminski et al., 2001 note que esses autores mostraram uma equivalência entre a função de transferência direta e a causalidade G espectral) . Para resultados comparativos entre esses métodos, ver Baccala e Sameshima (2001), Gourevitch et al. (2006), e Pereda et al. (2005). Ao contrário da formulação original do domínio do tempo da causalidade de G, as propriedades estatísticas dessas medidas espectrais ainda não foram totalmente elucidadas. Isso significa que os testes de significância dependem frequentemente de dados de substituição, e a influência do pré-processamento de sinal (por exemplo, suavização, filtragem) na causalidade medida não é clara. Limitações e extensões A formulação original da causalidade G só pode fornecer informações sobre características lineares dos sinais. Existem extensões para casos não-lineares, no entanto, essas extensões podem ser mais difíceis de usar na prática e suas propriedades estatísticas são menos bem compreendidas. Na abordagem de Freiwald et al. (1999), os dados globais não-lineares são divididos em bairros localmente lineares (ver também Chen et al., 2004), enquanto Ancona et al. (2004) usaram um método de função de base radial para realizar uma regressão não linear global. Stationarity A aplicação da causalidade G assume que os sinais analisados ​​são covariantes estacionários. Os dados não estacionários podem ser tratados usando uma técnica de janela (Hesse et al., 2003), supondo que janelas suficientemente curtas de um sinal não estacionário sejam localmente estacionárias. Uma abordagem relacionada aproveita a natureza experimental por experimentação de muitas experiências neurofisiológicas (Ding et al., 2000). Nessa abordagem, as séries temporais de diferentes testes são tratadas como realizações separadas de um processo estocástico não estacionário com segmentos localmente estacionários. Dependência de variáveis ​​observadas Um comentário geral sobre todas as implementações da causalidade G é que elas dependem inteiramente da seleção apropriada de variáveis. Obviamente, fatores causais que não são incorporados no modelo de regressão não podem ser representados na saída. Assim, a causalidade de G não deve ser interpretada como refletindo diretamente cadeias causais físicas (ver conta pessoal). Aplicação em neurociência Figura 3: Interações causais entre os sensores de EEG durante o estágio 2 de sono. Adaptado de Kaminski et al (2001). Nos últimos anos, tem havido crescente interesse no uso da causalidade G para identificar interações causais em dados neurais. Por exemplo, Bernasconi e Konig (1999) aplicaram medidas espectrais de Gewekes para descrever interações causais entre diferentes áreas no córtex visual do gato, Liang et al. (2000) usaram uma técnica espectral variando o tempo para diferenciar as influências dinâmicas feedforward, feedback e lateral no córtex visual ventral do macaco durante a discriminação padrão, e Kaminski et al. (2001) observaram aumento de influências causais anteriores a posterior durante a transição do despertar para o sono por análise de sinais EEG (fig. 2). Mais recentemente, Brovelli et al. (2004) identificaram influências causais do córtex somatossensorial primário ao córtex motor na faixa de freqüência beta (15-30 Hz) durante a pressão de alavanca por macacos acordados. No domínio da ressonância magnética funcional. Roebroeck et al. (2005) aplicaram a causalidade de G aos dados adquiridos durante uma tarefa complexa de visuomotor, e Sato et al. (2006) usaram uma variação wavelet da causalidade G para identificar influências causais variáveis ​​no tempo. A causalidade de G também foi aplicada em sistemas neurais simulados para investigar a relação entre neuroanatomia. Dinâmica de rede. E comportamento (Seth 2005 Seth amp Edelman 2007). Um tema recorrente na aplicação da causalidade G aos dados empíricos é se o objetivo é recuperar a conectividade estrutural subjacente ou fornecer uma descrição da dinâmica de rede que pode diferir da estrutura. No caso anterior, a causalidade de G e suas variantes são bem sucedidas na medida em que podem explicar interações indiretas (usando causalidade G condicional) e variáveis ​​não observadas (um problema não resolvido). No último caso, embora a contabilização desses fatores ainda seja importante, a dinâmica da rede é vista como um produto conjunto da estrutura da rede e dos processos dinâmicos que operam nessa estrutura, que podem ser modulados pelo ambiente e pelo contexto. A causalidade G espectral é um bom exemplo de uma descrição causal que vai além da inferência da conectividade estrutural. Outros exemplos são fornecidos pelo trabalho de modelagem que mostra como a mesma estrutura de rede pode gerar diferentes redes causais dependendo do contexto (Seth 2005 Seth amp Edelman 2007). Técnicas alternativas Teoria da informação Schreiber (2000) introduziu o conceito de entropia de transferência, que é uma versão da informação mútua que opera em probabilidades condicionais. Ele é projetado para detectar a troca direcionada de informações entre duas variáveis, condicionada à história comum e às insumos. Para uma comparação da entropia de transferência com outras medidas causais, incluindo várias implementações da causalidade de G, veja (Lungarella et al. (Na imprensa)). Uma vantagem das medidas teóricas da informação, em comparação com a causalidade G padrão, é que elas são sensíveis às propriedades do sinal não-linear. Uma limitação da entropia de transferência, em comparação com a causalidade de G, é que está atualmente restrita a situações de bivariada. Além disso, as medidas teóricas de informação muitas vezes requerem substancialmente mais dados do que métodos de regressão, como a causalidade de G (Pereda et al., 2005). Modelos de máxima verossimilhança Para dados neurais consistindo em trens de espiga. É possível usar uma combinação de teoria dos processos pontuais e modelagem de máxima verossimilhança para detectar interações causais dentro de um conjunto de neurônios (Chornoboy et al., 1988 Okatan et al., 2005). Quadros alternativos As técnicas acima (incluindo a causalidade G) são orientadas por dados, na medida em que as interações causais são inferidas diretamente das séries temporais gravadas simultaneamente. Um modelo de modelo diferente para analisar a causalidade é dado pela modelagem de equações estruturais (Kline 2005). Nesta abordagem, um modelo causal é a primeira hipótese, os parâmetros livres são então estimados, e somente então é o ajuste do modelo para os dados avaliados. Embora este método faça um uso mais eficiente dos dados do que a causalidade G padrão, ele faz isso à custa de restringir o repertório possível. Descrições causais. Outra estrutura alternativa para determinar a causalidade é medir os efeitos de perturbações ou lesões seletivas (Keinan et al., 2004 Tononi amp Sporns 2003). Embora este método possa, em princípio, fornecer informações inequívocas sobre cadeias físicas causais, perturbando ou lesionando um sistema nem sempre é possível ou desejável e pode interromper o comportamento natural do sistema. Observações finais Os métodos de análise de séries temporais estão se tornando cada vez mais proeminentes nas tentativas de compreender as relações entre estrutura de rede e dinâmica de rede em configurações de neurociência. Existem muitos métodos lineares e não-lineares, com base em uma variedade de técnicas, incluindo modelagem de regressão, teoria da informação e teoria dos sistemas dinâmicos (Gourevitch et al., 2006 Pereda et al., 2005). A causalidade do G fornece um método que, na sua forma mais básica (ver formulação matemática), é fácil de implementar e repousa sobre uma base estatística firme. Extensões mais complexas ao domínio da frequência e aos dados não-lineares agora existem e continuam a ser desenvolvidas. No entanto, na análise de sinais neurofisiológicos, pode ser que os métodos simples e lineares devem ser testados antes de passar para alternativas mais complicadas. Uma revisão detalhada da teoria e aplicação da causalidade G pode ser encontrada em Ding et al. (2006). James P. LeSage forneceu uma caixa de ferramentas que inclui análise de causalidade G entre uma ampla seleção de rotinas econométricas. Esta caixa de ferramentas, projetada para MATLAB (Mathworks, Natick, MA), pode ser baixada de econometria espacial. Anil K. Seth desenvolveu uma caixa de ferramentas que se concentra na causalidade G do domínio do tempo e que inclui métodos para análise teórica de grafia das interações de causalidade G. Esta caixa de ferramentas, também projetada para MATLAB, pode ser baixada do site Anil K Seths. Os links para muitos outros recursos MATLAB para uma variedade de métodos de análise de séries temporais não-lineares são fornecidos no Apêndice de Pereda et al. (2005). Referências Akaike, H. 1974 Um novo olhar sobre a identificação do modelo estatístico. IEEE Trans. Autom. Controle 19, 716-723. Ancona, N. Marinazzo, D. amp Stramaglia, S. 2004 A função de base radial se aproxima da causalidade não linear de Granger de séries temporais. Revisão física E 70, 056221. Baccala, L. A. amp Sameshima, K. 2001 Coerência direta parcial: um novo conceito na determinação da estrutura neural. Biol Cybern 84, 463-74. Bernasconi, C. amp Konig, P. 1999 Sobre a direcionalidade das interações corticais estudadas por análise estrutural de gravações eletrofisiológicas. Biol Cybern 81, 199-210. Boudjellaba, H. Dufour, J. amp Roy, R. 1992 Testando a causalidade entre dois vetores em modelos de média móvel auto-regressiva multivariada. Jornal da American Statistical Association 87, 1082-90. Breitung, J. amp Candelon, B. 2006 Teste para causalidade de curto e longo prazo: uma abordagem de domínio de freqüência. Journal of Econometrics 132, 363-378. Brovelli, A. Ding, M. Ledberg, A. Chen, Y. Nakamura, R. amp Bressler, S. L. 2004 As oscilações beta em uma rede cortical sensório-sensorial de grande escala: influências direcionais reveladas pela causalidade de Granger. Proc Natl Acad Sci U S A 101, 9849-54. Chen, Y. Bressler, S. L. amp Ding, M. 2006 Frequência de decomposição da causalidade Granger condicional e aplicação a dados de potencial de campo neural multivariada. J Neurosci Methods 150, 228-37. Chen, Y. Rangarajan, G. Feng, J. amp Ding, M. 2004 Analisando múltiplas séries temporais não-lineares com causalidade prolongada de Granger. Letras de física A 324, 26-35. Chornoboy, E. S. Schramm, L. P. amp Karr, A. F. 1988 Identificação máxima de verossimilhança dos sistemas de processo do ponto neural. Biol Cybern 59, 265-75. Ding, M. Chen, Y. amp Bressler, S. L. 2006 Causalidade de Granger: Teoria básica e aplicação à neurociência. Em Schelter. S. Winterhalder, N. amp Timmer, J. Handbook of Time Series Analysis. Wiley, Wienheim. Ding, M. Bressler, S. L. Yang, W. amp Liang, H. 2000 Análise espectral de janela curta de potenciais relacionados a eventos corticais por modelagem auto-regressiva multivariada adaptativa: pré-processamento de dados, validação de modelo e avaliação de variabilidade. Cibernética Biológica 83, 35-45. Freiwald, WA Valdés, P. Bosch, J. Biscay, R. Jimenez, JC Rodriguez, LM Rodriguez, V. Kreiter, AK amp Singer, W. 1999 Testando a não-linearidade e a direção das interações entre os grupos neurais no córtex inferotemporal de macaque . J Neurosci Methods 94, 105-19. Geweke, J. 1982 Medição da dependência linear e feedback entre séries temporais múltiplas. Jornal da American Statistical Association 77, 304-313. Gourevitch, B. Bouquin-Jeannes, R. L. amp Faucon, G. 2006 Causalidade linear e não-linear entre sinais: métodos, exemplos e aplicações neurofisiológicas. Biol Cybern 95, 349-369. Granger, C. W. J. 1969 Investigando as relações causais por modelos econométricos e métodos cruzados espectrales. Econometrica 37, 424-438. Granger, C. W. J. 1980 Teste de causalidade: um ponto de vista pessoal. Journal of Economic Dynamics and Control 2, 329-352. Granger, C. W. J. 2001 Ensaios em Econometria: The Collected Papers of Clive W. J. Granger. Cambridge: Cambridge University Press. Hesse, W. Moller, E. Arnold, M. amp Schack, B. 2003 O uso da causalidade do EEG Granger no tempo para inspecionar as interdependências direcionadas das montagens neurais. J Neurosci Methods 124, 27-44. Hosoya, Y. 1991 A decomposição e medição da interdependência entre os processos estacionários de segunda ordem. Teoria da probabilidade e campos relacionados 88, 429-444. Kaminski, M. Ding, M. Truccolo, W. A. ​​amp Bressler, S. L. 2001 Avaliação das relações causais em sistemas neurais: causalidade de Granger, função de transferência direta e avaliação estatística de significância. Biol Cybern 85, 145-57. Keinan, A. Sandbank, B. Hilgetag, C. C. Meilijson, I. amp Ruppin, E. 2004 Atribuição justa da contribuição funcional em redes artificiais e biológicas. Neural Comput 16, 1887-915. Kline, R. B. 2005 Princípios e Práticas de Modelagem de Equações Estruturais: The Guildford Press. Liang, H. Ding, M. Nakamura, R. amp Bressler, S. L. 2000 Influências causais no córtex cerebral de primatas durante a discriminação do padrão visual. Neuroreport 11, 2875-80. Lungarella, M. Ishiguro, K. Kuniyoshi, Y. amp Otsu, N. (na imprensa) Métodos para quantificar a estrutura causal das séries temporais bivariadas. Revista internacional de bifurcação e caos. Okatan, M. Wilson, M. A. amp Brown, E. N. 2005 Analisando a conectividade funcional usando um modelo de probabilidade de rede de atividade de expansão de nevoeiro de conjunto. Neural Comput 17, 1927-61. Pereda, E. Quiroga, R. Q. amp Bhattacharya, J. 2005 Análise multivariada não linear de sinais neurofisiológicos. Prog Neurobiol 77, 1-37. Roebroeck, A. Formisano, E. amp Goebel, R. 2005 Mapeando a influência dirigida sobre o cérebro usando a causalidade de Granger e o fMRI. Neuroimagem 25, 230-42. Sato, J. R. Junior, E. A. Takahashi, D. Y. de Maria Felix, M. Brammer, M. J. amp Morettin, P. A. 2006 Um método para produzir mapas de conectividade funcional em evolução durante o curso de uma experiência de fMRI usando uma causalidade de Granger variando tempo com base em wavelets. Neuroimagem 31, 187-96. Schreiber, T. 2000 Medição da transferência de informações. Phys Rev Lett 85, 461-4. Schwartz, G. 1978 Estimativa da dimensão de um modelo. The Annals of Statistics 5, 461-464. Seth, A. K. 2005 Análise de conectividade causal de redes neurais evoluídas durante o comportamento. Rede: Computação em Sistemas Neurais 16, 35-55. Seth, A. K. amp Edelman, G. M. 2007 Distinguir as interações causais em populações neurais. Neural Comput. 19 (4): 910-933 Tononi, G. amp Sporns, O. 2003 Medição da integração de informações. BMC Neurosci 4, 31. Wiener, N. 1956 A teoria da predição. Em Matemática Moderna para Engenheiros, vol. 1 (ed. E. F. Beckenbach). Nova Iorque: McGraw-Hill.

No comments:

Post a Comment