Friday, 23 June 2017

Movendo Média Modelo Acf


Modelos ARIMA sazonais gerais: (0,1,1) x (0,1,1) etc. Esboço da modelagem ARIMA sazonal: A parte sazonal de um modelo ARIMA tem a mesma estrutura que a parte não sazonal: pode ter uma AR, um fator MA, ou uma ordem de diferenciação. Na parte sazonal do modelo, todos esses fatores operam em múltiplos de lag s (o número de períodos em uma estação). Um modelo ARIMA sazonal é classificado como um modelo ARIMA (p, d, q) x (P, D, Q), onde Pnúmero de termos sazonais autorregressivos (SAR), Dnúmero de diferenças sazonais, Na identificação de um modelo sazonal, o primeiro passo é determinar se é necessária ou não uma diferença sazonal, além ou talvez em vez de uma diferença não sazonal. Você deve olhar as parcelas de séries temporais e as parcelas ACF e PACF para todas as combinações possíveis de 0 ou 1 diferença não-sazonal e 0 ou 1 diferença sazonal. Cuidado: nunca use mais de uma diferença sazonal, nem mais do que duas diferenças totais (sazonal e não sazonal combinado). Se o padrão sazonal é forte e estável ao longo do tempo (por exemplo, alto no verão e baixa no inverno, ou vice-versa), então você provavelmente deve usar uma diferença sazonal, independentemente de usar uma diferença não sazonal, uma vez que isso vai Evitar o padrão sazonal de quotdying outquot nas previsões de longo prazo. Regra 12: Se a série tem um padrão sazonal forte e consistente, então você deve usar uma ordem de diferenciação sazonal - mas nunca use mais de uma ordem de diferenciação sazonal ou mais de 2 Ordens de diferenças totais (sazonais). A assinatura do SAR puro ou do comportamento SMA puro é semelhante à assinatura do AR puro ou do comportamento MA puro, exceto que o padrão aparece em múltiplos de lag s no ACF e no PACF. Por exemplo, um processo SAR puro (1) tem picos no ACF em defasagens s, 2s, 3s, etc. enquanto o PACF corta após o atraso s. Por outro lado, um processo puro de SMA (1) tem picos no PACF em defasagens s, 2s, 3s, etc. enquanto o ACF corta após o atraso s. Uma assinatura SAR geralmente ocorre quando a autocorrelação no período sazonal é positiva, ao passo que uma assinatura SMA geralmente ocorre quando a autocorrelação sazonal é negativa. Portanto: Regra 13: Se a autocorrelação no período sazonal é positiva. Considere a adição de um termo SAR ao modelo. Se a autocorrelação no período sazonal é negativa. Considere a adição de um termo SMA para o modelo. Tente evitar misturar os termos SAR e SMA no mesmo modelo e evite usar mais de um dos dois tipos. Geralmente, um termo SAR (1) ou SMA (1) é suficiente. Você raramente encontrará um processo SAR genuíno (2) ou SMA (2) e ainda mais raramente terá dados suficientes para estimar 2 ou mais coeficientes sazonais sem que o algoritmo de estimação entre em um loop quotfeedback. Embora um modelo ARIMA sazonal pareça ter Apenas alguns parâmetros, lembre-se que backforecasting requer a estimativa de uma ou duas estações vale de parâmetros implícitos para inicializá-lo. Portanto, você deve ter pelo menos 4 ou 5 temporadas de dados para caber um modelo ARIMA sazonal. Provavelmente, o modelo ARIMA sazonal mais comumente usado é o modelo (0,1,1) x (0,1,1) - isto é. Um modelo MA (1) xSMA (1) com uma diferença sazonal e não sazonal. Este é essencialmente um modelo de suavização exponencial quotseasonal. Quando os modelos ARIMA sazonais são montados em dados registrados, eles são capazes de rastrear um padrão sazonal multiplicativo. Exemplo: série AUTOSALE revisitada Lembre-se de que anteriormente previamos a série de vendas de varejo de automóveis usando uma combinação de deflação, ajuste sazonal e suavização exponencial. Vamos agora tentar montar a mesma série com modelos ARIMA sazonais, usando a mesma amostra de dados de janeiro de 1970 a maio de 1993 (281 observações). Como antes vamos trabalhar com vendas deflated auto - i. e. Vamos usar a série AUTOSALECPI como a variável de entrada. Aqui estão o diagrama de séries temporais e os gráficos ACF e PACF da série original, que são obtidos no procedimento de Previsão, traçando os quotresiduais de um modelo ARIMA (0,0,0) x (0,0,0) com constante: Quotsuspension bridgequot padrão no ACF é típico de uma série que é tanto nonstationary e fortemente sazonal. É claro que precisamos de pelo menos uma ordem de diferenciação. Se considerarmos uma diferença não sazonal, as parcelas correspondentes são as seguintes: A série diferenciada (os resíduos de um modelo de caminhada aleatória com crescimento) parece mais ou menos estacionária, mas ainda há autocorrelação muito forte no período sazonal (Intervalo 12). Como o padrão sazonal é forte e estável, sabemos (a partir da Regra 12) que queremos usar uma ordem de diferenciação sazonal no modelo. Aqui está a aparência da imagem após uma diferença sazonal (apenas): A série sazonalmente diferenciada mostra um padrão muito forte de autocorrelação positiva, como podemos lembrar de nossa tentativa anterior de encaixar um modelo de caminhada aleatória sazonal. Isso poderia ser uma assinatura quotAR - ou poderia sinalizar a necessidade de outra diferença. Se considerarmos uma diferença sazonal e não sazonal, obtêm-se os seguintes resultados: Estes são, naturalmente, os resíduos do modelo de tendência aleatória sazonal que foram ajustados aos dados de vendas de automóveis anteriormente. Agora vemos os sinais indicadores de overdifferencing suave. Os picos positivos no ACF e no PACF tornaram-se negativos. Qual é a ordem correta de diferenciação? Uma outra peça de informação que pode ser útil é um cálculo das estatísticas de erro da série em cada nível de diferenciação. Podemos calculá-los ajustando os correspondentes modelos ARIMA em que apenas é utilizada a diferenciação: Os menores erros, tanto no período de estimação quanto no período de validação, são obtidos pelo modelo A, que utiliza uma diferença de cada tipo. Isto, juntamente com o aparecimento das parcelas acima, sugere fortemente que devemos usar uma diferença sazonal e não sazonais. Observe que, exceto para o termo constante gratuíto, o modelo A é o modelo de tendência aleatória sazonal (SRT), enquanto o modelo B é apenas o modelo de caminhada aleatória sazonal (SRW). Como observamos anteriormente ao comparar esses modelos, o modelo SRT parece se encaixar melhor do que o modelo SRW. Na análise que se segue, vamos tentar melhorar esses modelos através da adição de termos sazonais ARIMA. Voltar ao topo da página. O modelo ARIMA (0,1,1) x (0,1,1) frequentemente usado: modelo SRT mais MA (1) e SMA (1) termos Retornando ao último conjunto de gráficos acima, observe que com uma diferença de Cada tipo existe um pico negativo no ACF no retardo 1 e também um pico negativo no ACF no retardo 12. Enquanto que o PACF mostra um padrão mais gradual na vizinhança de ambos os intervalos. Aplicando nossas regras para identificar modelos ARIMA (especificamente, Regra 7 e Regra 13), podemos agora concluir que o modelo SRT seria melhorado pela adição de um termo MA (1) e também um termo SMA (1). Além disso, pela Regra 5, excluímos a constante, uma vez que estão envolvidas duas ordens de diferenciação. Se fizermos tudo isso, obtemos o modelo ARIMA (0,1,1) x (0,1,1). Que é o modelo ARIMA sazonal mais utilizado. Sua equação de previsão é: onde 952 1 é o coeficiente MA (1) e 920 1 (capital theta-1) é o coeficiente SMA (1). Observe que este é apenas o modelo de tendência aleatória sazonal adotado pela adição de múltiplos dos erros nos intervalos 1, 12 e 13. Além disso, observe que o coeficiente do erro lag-13 é o produto do MA (1) e SMA (1). Este modelo é conceitualmente similar ao modelo de Winters, na medida em que aplica efetivamente o alisamento exponencial ao nível, tendência e sazonalidade de uma só vez, embora assente em bases teóricas mais sólidas, particularmente no que se refere ao cálculo de intervalos de confiança para as previsões de longo prazo. As suas parcelas residuais neste caso são as seguintes: Embora uma pequena quantidade de autocorrelação permaneça no retardo 12, o aspecto geral das parcelas é bom. Os resultados de ajuste do modelo mostram que os coeficientes MA (1) e SMA (1) estimados (obtidos após 7 iterações) são realmente significativos: As previsões do modelo se assemelham às do modelo de tendência aleatória sazonal - isto é. Eles pegar o padrão sazonal ea tendência local no final da série -, mas eles são um pouco mais suave na aparência, uma vez que tanto o padrão sazonal ea tendência estão sendo efetivamente média (em um tipo de suavização exponencial) durante o último Algumas estações: O que esse modelo realmente está fazendo Você pode pensar nisso da seguinte maneira. Primeiro calcula a diferença entre o valor de cada mês e uma média histórica ponderada exponencial 8222 para aquele mês que é calculado aplicando a suavização exponencial a valores que foram observados no mesmo mês em anos anteriores, onde a quantidade de suavização é determinada pela SMA (1 ). Em seguida, aplica a suavização exponencial simples a essas diferenças para prever o desvio da média histórica que será observada no próximo mês. O valor do coeficiente SMA (1) próximo de 1,0 sugere que muitas estações de dados estão sendo usadas para calcular a média histórica para um dado mês do ano. Lembre-se que um coeficiente de MA (1) em um modelo ARIMA (0,1,1) corresponde a 1-menos-alfa no modelo de suavização exponencial correspondente e que a idade média dos dados em um modelo de suavização exponencial é 1alpha. O coeficiente SMA (1) tem uma interpretação similar em relação às médias entre estações. Aqui seu valor de 0,91 sugere que a idade média dos dados utilizados para estimar o padrão sazonal histórico é um pouco mais de 10 anos (quase metade do comprimento do conjunto de dados), o que significa que um padrão sazonal quase constante está sendo assumido. O valor muito menor de 0,5 para o coeficiente MA (1) sugere que relativamente pouco alisamento está sendo feito para estimar o desvio atual da média histórica para o mesmo mês, de modo próximo month8217s previu desvio de sua média histórica será perto dos desvios Da média histórica observada nos últimos meses. Modelo ARIMA (1,0,0) x (0,1,0) com constante: modelo SRW mais AR (1) termo O modelo anterior foi um modelo de tendência aleatória sazonal (SRT) ajustado pela adição de MA 1) e SMA (1). Um modelo ARIMA alternativo para esta série pode ser obtido substituindo um termo AR (1) pela diferença não sazonal - isto é. Adicionando um termo AR (1) ao modelo Random Walk (SRW) sazonal. Isso nos permitirá preservar o padrão sazonal no modelo, ao mesmo tempo em que reduzimos a quantidade total de diferenciação, aumentando assim a estabilidade das projeções de tendência, se desejado. (Lembre-se que com uma única diferença sazonal, a série mostrou uma forte assinatura AR (1).) Se fizermos isso, obtemos um modelo ARIMA (1,0,0) x (0,1,0) com constante, Que produz os seguintes resultados: O coeficiente AR (1) é de fato altamente significativo eo RMSE é apenas 2,06, comparado a 3,00 para o modelo SRW (Modelo B no relatório de comparação acima). A equação de previsão para este modelo é: O termo adicional no lado direito é um múltiplo da diferença sazonal observada no último mês, o que tem o efeito de corrigir a previsão para o efeito de um ano excepcionalmente bom ou ruim. Aqui 981 1 denota o coeficiente AR (1), cujo valor estimado é 0,73. Assim, por exemplo, se as vendas no mês passado fossem X dólares à frente das vendas um ano antes, então a quantidade 0.73X seria adicionada à previsão para este mês. 956 denota o CONSTANTE na equação de previsão, cujo valor estimado é 0,20. A MEAN estimada, cujo valor é 0,75, é o valor médio das séries sazonalmente diferenciadas, que é a tendência anual nas previsões de longo prazo deste modelo. A constante é (por definição) igual à média vezes 1 menos o coeficiente AR (1): 0,2 0,75 (1 8211 0,73). O gráfico de previsão mostra que o modelo realmente faz um trabalho melhor do que o modelo SRW de acompanhamento de mudanças cíclicas (isto é, anormalmente bons ou maus anos): No entanto, o MSE para este modelo ainda é significativamente maior do que o obtido para o ARIMA (0, 1,1) x (0,1,1). Se olharmos para as parcelas de resíduos, veremos espaço para melhorias. Os resíduos mostram ainda algum sinal de variação cíclica: O ACF e o PACF sugerem a necessidade de ambos os coeficientes MA (1) e SMA (1): Uma versão melhorada: ARIMA (1,0,1) x (0,1,1) Com constante Se adicionarmos os termos MA (1) e SMA (1) indicados ao modelo precedente, obtemos um modelo ARIMA (1,0,1) x (0,1,1) com constante, cuja equação de previsão é This É quase o mesmo que o modelo ARIMA (0,1,1) x (0,1,1), exceto que substitui a diferença não sazonal por um termo AR (1) (uma diferença quotpartial) e incorpora um termo constante representando a Tendência de longo prazo. Assim, este modelo assume uma tendência mais estável do que o modelo ARIMA (0,1,1) x (0,1,1), e essa é a principal diferença entre eles. Os resultados de ajuste do modelo são os seguintes: Observe que o coeficiente estimado de AR (1) (981 1 na equação do modelo) é 0,96, que é muito próximo de 1,0, mas não tão próximo que sugere que ele deve ser substituído por Uma primeira diferença: seu erro padrão é 0,02, então é cerca de 2 erros padrão de 1,0. As outras estatísticas do modelo (os coeficientes estimados de MA (1) e SMA (1) e as estatísticas de erro nos períodos de estimação e de validação) são quase idênticas às do ARIMA (0,1,1) x (0,1 , 1) modelo. (Os coeficientes estimados de MA (1) e SMA (1) são 0,45 e 0,91 neste modelo versus 0,48 e 0,91 no outro.) A MEAN estimada de 0,68 é a tendência de longo prazo prevista (aumento anual médio). Este é essencialmente o mesmo valor que foi obtido no modelo (1,0,0) x (0,1,0) com constante. O erro padrão da média estimada é 0,26, portanto a diferença entre 0,75 e 0,68 não é significativa. Se a constante não fosse incluída neste modelo, seria um modelo de tendência atenuada: a tendência em suas previsões de muito longo prazo iria gradualmente se esvaindo. As previsões pontuais deste modelo parecem bastante semelhantes às do modelo (0,1,1) x (0,1,1), porque a tendência média é semelhante à tendência local no final da série. No entanto, os intervalos de confiança para este modelo aumentam um pouco menos rapidamente devido ao seu pressuposto de que a tendência é estável. Observe que os limites de confiança para as previsões de dois anos de antecedência agora permanecem dentro das linhas de grade horizontal em 24 e 44, enquanto que os do modelo (0,1,1) x (0,1,1) não: ARIMA sazonal Versus alisamento exponencial e ajuste sazonal: Agora vamos comparar o desempenho dos dois melhores modelos ARIMA contra modelos de suavização exponencial simples e linear acompanhados de ajuste sazonal multiplicativo, eo modelo de Winters, como mostrado nos slides sobre a previsão com ajuste sazonal: As estatísticas de erro para As previsões de um período antecipado para todos os modelos estão extremamente próximas neste caso. É difícil escolher um 8220winner8221 com base nesses números sozinho. Voltar ao topo da página. Quais são os tradeoffs entre os vários modelos sazonais Os três modelos que usam o ajuste sazonal multiplicativo lidar com a sazonalidade de uma forma explícita - ou seja. Os índices sazonais são explodidos como uma parte explícita do modelo. Os modelos ARIMA lidar com a sazonalidade de forma mais implícita - não podemos ver facilmente na saída ARIMA como a média de dezembro, digamos, difere da média de julho. Dependendo se é considerado importante isolar o padrão sazonal, isso pode ser um fator na escolha entre os modelos. Os modelos ARIMA têm a vantagem de que, uma vez inicializados, eles têm menos peças quotmoving do que os modelos exponenciais de suavização e ajuste e, como tal, eles podem ser menos propensos a sobrecarregar os dados. Os modelos ARIMA também têm uma teoria subjacente mais sólida no que se refere ao cálculo de intervalos de confiança para previsões de horizonte mais longo do que os outros modelos. Há diferenças mais dramáticas entre os modelos com relação ao comportamento de suas previsões e intervalos de confiança para as previsões de mais de um período no futuro. Este é o lugar onde as suposições que são feitas com relação às mudanças na tendência e padrão sazonal são muito importantes. Entre os dois modelos ARIMA, um (modelo A) estima uma tendência variável no tempo, enquanto o outro (modelo B) incorpora uma tendência média de longo prazo. (Poderíamos, se desejássemos, nivelar a tendência de longo prazo no modelo B, suprimindo o termo constante.) Entre os modelos de suavização-mais-ajuste exponencial, um (modelo C) assume uma tendência plana, enquanto o outro Modelo D) assume uma tendência variável no tempo. O modelo Winters (E) também assume uma tendência variável no tempo. Modelos que assumem uma tendência constante são relativamente mais confiantes em suas previsões de longo prazo do que modelos que não, e isso geralmente será refletido na medida em que os intervalos de confiança para as previsões se tornam mais amplos em horizontes de previsão mais longos. Modelos que não assumem tendências que variam no tempo geralmente têm intervalos de confiança mais estreitos para previsões de horizonte mais longo, mas mais estreito não é melhor a menos que esta suposição esteja correta. Os dois modelos de suavização exponencial combinados com o ajuste sazonal pressupõem que o padrão sazonal permaneceu constante ao longo dos 23 anos na amostra de dados, enquanto os outros três não. Na medida em que o padrão sazonal é responsável pela maior parte da variação mensal nos dados, é importante fazer o correto para prever o que acontecerá vários meses no futuro. Se se acredita que o padrão sazonal mudou lentamente ao longo do tempo, outra abordagem seria usar apenas um histórico de dados mais curto para ajustar os modelos que estimam índices sazonais fixos. Para o registro, aqui estão as previsões e 95 limites de confiança para maio de 1995 (24 meses adiante) que são produzidos pelos cinco modelos: As previsões de ponto são realmente surpreendentemente próximas umas das outras, em relação às larguras de todos os intervalos de confiança. A previsão do ponto de SES é a mais baixa, porque é o único modelo que não supor uma tendência ascendente no fim da série. O modelo ARIMA (1,0,1) x (0,1,1) c tem os limites de confiança mais estreitos, pois assume menor variação de tempo nos parâmetros do que os outros modelos. Além disso, sua previsão pontual é ligeiramente maior do que a dos outros modelos, pois está extrapolando uma tendência de longo prazo ao invés de uma tendência de curto prazo (ou tendência zero). O modelo de Winters é o menos estável dos modelos e sua previsão tem, portanto, os limites de confiança mais amplos, como era aparente nos gráficos de previsão detalhados para os modelos. E as previsões e limites de confiança do modelo ARIMA (0,1,1) x (0,1,1) e os do modelo de ajuste LESseasonal são praticamente idênticos Logar ou não logar Algo que ainda não fizemos, mas Pode ter, é incluir uma transformação log como parte do modelo. Os modelos ARIMA sazonais são modelos inerentemente aditivos, portanto, se quisermos capturar um padrão sazonal multiplicativo. Devemos fazer isso registrando os dados antes de montar o modelo ARIMA. Neste caso, a transformação de deflação parece ter feito um trabalho satisfatório de estabilização das amplitudes dos ciclos sazonais, por isso não há Parecem ser uma razão convincente para adicionar uma transformação log em termos de tendências de longo prazo. Se os resíduos mostraram um aumento acentuado da variância ao longo do tempo, poderíamos decidir o contrário. Ainda há uma questão de saber se os erros desses modelos têm uma variação consistente entre meses do ano. Se eles don8217t, então os intervalos de confiança para as previsões podem tender a ser muito grande ou muito estreito de acordo com a época. As parcelas residual-vs-tempo não mostram um problema óbvio a este respeito, mas para ser minucioso, seria bom olhar para a variância erro por mês. Se houver realmente um problema, uma transformação de log pode corrigi-lo. Retornar ao início da página. Identificar os números de AR ou MA termos em um modelo ARIMA ACF e PACF parcelas: Depois de uma série de tempo foi estacionária por diferenciação, o próximo passo na montagem de um ARIMA modelo é determinar se AR ou MA termos são Necessário para corrigir qualquer autocorrelação que permanece na série diferenciada. Claro, com software como Statgraphics, você poderia apenas tentar algumas combinações diferentes de termos e ver o que funciona melhor. Mas há uma maneira mais sistemática de fazer isso. Observando os gráficos de função de autocorrelação (ACF) e de autocorrelação parcial (PACF) das séries diferenciadas, você pode identificar tentativamente os números de AR e / ou MA que são necessários. Você já está familiarizado com a trama ACF: é apenas um gráfico de barras dos coeficientes de correlação entre uma série de tempo e defasagens de si mesmo. O gráfico do PACF é um gráfico dos coeficientes de correlação parcial entre a série e os atrasos de si. Em geral, a correlação quotpartial entre duas variáveis ​​é a quantidade de correlação entre elas que não é explicada por suas correlações mútuas com um conjunto especificado de outras variáveis. Por exemplo, se estivermos regredindo uma variável Y em outras variáveis ​​X1, X2 e X3, a correlação parcial entre Y e X3 é a quantidade de correlação entre Y e X3 que não é explicada por suas correlações comuns com X1 e X2. Esta correlação parcial pode ser calculada como a raiz quadrada da redução na variância que é conseguida pela adição de X3 à regressão de Y em X1 e X2. Uma auto-correlação parcial é a quantidade de correlação entre uma variável e uma defasagem de si mesma que não é explicada por correlações em todas as lâminas de ordem inferior. A autocorrelação de uma série temporal Y no intervalo 1 é o coeficiente de correlação entre Y t e Y t - 1. Que é presumivelmente também a correlação entre Y t -1 e Y t -2. Mas se Y t é correlacionado com Y t -1. E Y t -1 está igualmente correlacionado com Y t -2. Então devemos também esperar encontrar correlação entre Y t e Y t-2. De fato, a quantidade de correlação que deveríamos esperar no retardo 2 é precisamente o quadrado da correlação lag-1. Assim, a correlação em lag 1 quotpropagatesquot a lag 2 e presumivelmente para atrasos de ordem superior. A autocorrelação parcial no intervalo 2 é, portanto, a diferença entre a correlação real no retardo 2 e a correlação esperada devido à propagação da correlação no retardo 1. Aqui está a função de autocorrelação (ACF) da série UNITS, antes de qualquer diferenciação ser realizada: As autocorrelações são significativas para um grande número de defasagens - mas talvez as autocorrelações nos intervalos 2 e acima sejam meramente devidas à propagação da autocorrelação na defasagem 1. Isto é confirmado pelo gráfico PACF: Note que a parcela PACF tem um significado significativo Pico apenas no intervalo 1, o que significa que todas as autocorrelações de ordem superior são efetivamente explicadas pela autocorrelação lag-1. As autocorrelações parciais em todos os atrasos podem ser calculadas ajustando uma sucessão de modelos autorregressivos com números crescentes de defasagens. Em particular, a autocorrelação parcial com atraso k é igual ao coeficiente AR (k) estimado em um modelo autorregressivo com k termos - isto é. Um modelo de regressão múltipla no qual Y é regredido em LAG (Y, 1), LAG (Y, 2), etc. até LAG (Y, k). Assim, por mera inspeção do PACF você pode determinar quantos termos AR você precisa usar para explicar o padrão de autocorrelação em uma série de tempo: se a autocorrelação parcial é significativa em lag k e não significativa em qualquer maior atraso de ordem - ou seja. Se o PACF quotcuts offquot em lag k - então isso sugere que você deve tentar ajustar um modelo autorregressivo de ordem k PACF da série UNITS fornece um exemplo extremo do fenômeno de corte: tem um pico muito grande no intervalo 1 E nenhum outro pico significativo, indicando que na ausência de diferenciação um AR (1) modelo deve ser usado. No entanto, o termo AR (1) neste modelo resultará ser equivalente a uma primeira diferença, porque o coeficiente AR (1) estimado (que é a altura do pico PACF no intervalo 1) será quase exatamente igual a 1 . Agora, a equação de previsão para um modelo AR (1) para uma série Y sem ordens de diferenciação é: Se o coeficiente de AR (1) 981 1 nesta equação for igual a 1, é equivalente a prever que a primeira diferença De Y é constante - ie É equivalente à equação do modelo de caminhada aleatória com crescimento: O PACF da série UNITS está nos dizendo que, se não a diferenciar, então devemos ajustar um modelo AR (1) que se tornará equivalente a tomar Uma primeira diferença. Em outras palavras, está nos dizendo que UNITS realmente precisa de uma ordem de diferenciação para ser estacionalizada. AR e MA assinaturas: Se o PACF exibe um afiado corte enquanto o ACF decai mais lentamente (ou seja, tem picos significativos em maior defasagens), dizemos que a série estacionária exibe um quotAR assinatura, quot que significa que o padrão de autocorrelação pode ser explicado com mais facilidade Adicionando termos AR mais do que adicionando termos MA. Você provavelmente encontrará que uma assinatura AR é comumente associada com autocorrelação positiva no retardo 1 - isto é. Ele tende a surgir em séries que são ligeiramente sub diferenciadas. A razão para isto é que um termo AR pode agir como uma diferença quotpartial na equação de previsão. Por exemplo, em um modelo AR (1), o termo AR age como uma primeira diferença se o coeficiente autorregressivo for igual a 1, ele não faz nada se o coeficiente autorregressivo for zero e ele age como uma diferença parcial se o coeficiente estiver entre 0 e 1. Portanto, se a série é ligeiramente subdiferenciada - ie Se o padrão não estacionário de autocorrelação positiva não tiver sido completamente eliminado, ele irá cotar para uma diferença parcial exibindo uma assinatura AR. Portanto, temos a seguinte regra para determinar quando adicionar termos AR: Regra 6: Se o PACF da série diferenciada exibe um corte brusco e ou a autocorrelação lag-1 é positivo - i. e. Se a série aparece ligeiramente quotunderdifferencedquot - então considere adicionar um termo AR para o modelo. O intervalo em que o PACF corta é o número indicado de termos AR. Em princípio, qualquer padrão de autocorrelação pode ser removido de uma série estacionária adicionando termos auto-regressivos suficientes (defasagens da série estacionária) à equação de previsão, eo PACF indica quantos desses termos provavelmente serão necessários. No entanto, isso nem sempre é a maneira mais simples de explicar um determinado padrão de autocorrelação: às vezes é mais eficiente adicionar MA termos (atrasos dos erros de previsão) em vez disso. A função de autocorrelação (ACF) desempenha a mesma função para os termos MA que o PACF reproduz para os termos AR - ou seja, o ACF informa quantos termos MA são prováveis ​​de serem necessários para remover a autocorrelação remanescente da série diferenciada. Se a autocorrelação é significativa à lag k, mas não em qualquer defasagem maior - i. e. Se o ACF quotcuts offquot em lag k - isso indica que exatamente k MA termos devem ser utilizados na previsão equação. No último caso, dizemos que a série estacionária exibe uma assinatura quotMA, significando que o padrão de autocorrelação pode ser explicado mais facilmente adicionando termos MA do que adicionando termos AR. Uma assinatura de MA é vulgarmente associada com autocorrelação negativa no intervalo 1 - isto é. Tende a surgir em séries que são ligeiramente mais diferenciadas. A razão para isto é que um termo MA pode quotparcialmente cancelar uma ordem de diferenciação na equação de previsão. Para ver isso, lembre-se que um modelo ARIMA (0,1,1) sem constante é equivalente a um modelo Simple Exponential Smoothing. A equação de previsão para este modelo é onde o coeficiente MA (1) 952 1 corresponde à quantidade 1 - 945 no modelo SES. Se 952 1 for igual a 1, isso corresponde a um modelo SES com 945 0, que é apenas um modelo CONSTANTE porque a previsão nunca é atualizada. Isto significa que quando 952 1 é igual a 1, está realmente cancelando a operação de diferenciação que normalmente permite que a previsão SES se ancore novamente na última observação. Por outro lado, se o coeficiente de média móvel for igual a 0, este modelo se reduz a um modelo de caminhada aleatória - isto é. Ele deixa a operação de diferenciação sozinho. Portanto, se 952 1 for algo maior que 0, é como se estivéssemos cancelando parcialmente uma ordem de diferenciação. Se a série já está ligeiramente mais diferenciada - i. e. Se a autocorrelação negativa tiver sido introduzida - então as quotas serão feitas para que uma diferença seja parcialmente cancelada exibindo uma assinatura de MA. (Uma grande quantidade de agitação de braço está acontecendo aqui. Uma explicação mais rigorosa desse efeito é encontrada no folheto da Estrutura Matemática de Modelos ARIMA.) Daí a seguinte regra adicional: Regra 7: Se a ACF da série diferenciada exibir um Corte afiado e ou a autocorrelação lag-1 é negativo - Se a série aparece ligeiramente quotoverdifferencedquot - então considere adicionar um termo MA para o modelo. A defasagem em que o ACF corta é o número indicado de termos de MA. Um modelo para a série UNITS - ARIMA (2,1,0): Anteriormente, determinamos que a série UNITS necessitava (pelo menos) uma ordem de diferenciação não sazonal para ser estacionária. Depois de tomar uma diferença não sazonal - i. e. Se um modelo ARIMA (0,1,0) com constante - as parcelas ACF e PACF se assemelham a isto: Observe que (a) a correlação no retardo 1 é significativa e positiva, e (b) o PACF mostra um quotcutoff mais nítido do que O ACF. Em particular, o PACF tem apenas dois picos significativos, enquanto o ACF tem quatro. Assim, de acordo com a Regra 7 acima, a série diferenciada exibe uma assinatura AR (2). Se, portanto, definir a ordem do termo AR para 2 - i. e. Se um modelo ARIMA (2,1,0) - obtemos as seguintes parcelas ACF e PACF para os resíduos: A autocorrelação nos atrasos cruciais - ou seja, os retornos 1 e 2 - foi eliminada e não há nenhum padrão discernível Em atrasos de ordem superior. No entanto, o relatório de resumo de análise mostra que o modelo, no entanto, funciona bastante bem no período de validação, ambos os coeficientes AR são significativamente diferentes de zero eo padrão O desvio dos resíduos foi reduzido de 1,54371 para 1,4215 (quase 10) pela adição dos termos AR. Além disso, não há sinal de uma raiz quotunit porque a soma dos coeficientes AR (0.2522540.195572) não é próxima de 1. (As raízes unitárias são discutidas em mais detalhes abaixo). Em geral, este parece ser um bom modelo . As previsões (não-transformadas) para o modelo mostram uma tendência linear ascendente projetada para o futuro: A tendência nas previsões de longo prazo é devido ao fato de que o modelo inclui uma diferença não sazonal e um termo constante: este modelo é basicamente uma caminhada aleatória com Crescimento ajustado pela adição de dois termos autorregressivos - ou seja, Dois atrasos das séries diferenciadas. The slope of the long-term forecasts (i. e. the average increase from one period to another) is equal to the mean term in the model summary (0.467566). The forecasting equation is: where 956 is the constant term in the model summary (0.258178), 981 1 is the AR(1) coefficient (0.25224) and 981 2 is the AR(2) coefficient (0.195572). Mean versus constant: In general, the quotmeanquot term in the output of an ARIMA model refers to the mean of the differenced series (i. e. the average trend if the order of differencing is equal to 1), whereas the quotconstantquot is the constant term that appears on the right-hand-side of the forecasting equation . The mean and constant terms are related by the equation: CONSTANT MEAN(1 minus the sum of the AR coefficients). In this case, we have 0.258178 0.467566(1 - 0.25224 - 0.195572) Alternative model for the UNITS series--ARIMA(0,2,1): Recall that when we began to analyze the UNITS series, we were not entirely sure of the correct order of differencing to use. One order of nonseasonal differencing yielded the lowest standard deviation (and a pattern of mild positive autocorrelation), while two orders of nonseasonal differencing yielded a more stationary-looking time series plot (but with rather strong negative autocorrelation). Here are both the ACF and PACF of the series with two nonseasonal differences: The single negative spike at lag 1 in the ACF is an MA(1) signature, according to Rule 8 above. Thus, if we were to use 2 nonseasonal differences, we would also want to include an MA(1) term, yielding an ARIMA(0,2,1) model. According to Rule 5, we would also want to suppress the constant term. Here, then, are the results of fitting an ARIMA(0,2,1) model without constant: Notice that the estimated white noise standard deviation (RMSE) is only very slightly higher for this model than the previous one (1.46301 here versus 1.45215 previously). The forecasting equation for this model is: where theta-1 is the MA(1) coefficient. Recall that this is similar to a Linear Exponential Smoothing model, with the MA(1) coefficient corresponding to the quantity 2(1-alpha) in the LES model. The MA(1) coefficient of 0.76 in this model suggests that an LES model with alpha in the vicinity of 0.72 would fit about equally well. Actually, when an LES model is fitted to the same data, the optimal value of alpha turns out to be around 0.61, which is not too far off. Here is a model comparison report that shows the results of fitting the ARIMA(2,1,0) model with constant, the ARIMA(0,2,1) model without constant, and the LES model: The three models perform nearly identically in the estimation period, and the ARIMA(2,1,0) model with constant appears slightly better than the other two in the validation period. On the basis of these statistical results alone, it would be hard to choose among the three models. However, if we plot the long-term forecasts made by the ARIMA(0,2,1) model without constant (which are essentially the same as those of the LES model), we see a significant difference from those of the earlier model: The forecasts have somewhat less of an upward trend than those of the earlier model--because the local trend near the end of the series is slightly less than the average trend over the whole series--but the confidence intervals widen much more rapidly. The model with two orders of differencing assumes that the trend in the series is time-varying, hence it considers the distant future to be much more uncertain than does the model with only one order of differencing. Which model should we choose That depends on the assumptions we are comfortable making with respect to the constancy of the trend in the data. The model with only one order of differencing assumes a constant average trend--it is essentially a fine-tuned random walk model with growth--and it therefore makes relatively conservative trend projections. It is also fairly optimistic about the accuracy with which it can forecast more than one period ahead. The model with two orders of differencing assumes a time-varying local trend--it is essentially a linear exponential smoothing model--and its trend projections are somewhat more more fickle. As a general rule in this kind of situation, I would recommend choosing the model with the lower order of differencing, other things being roughly equal. In practice, random-walk or simple-exponential-smoothing models often seem to work better than linear exponential smoothing models. Mixed models: In most cases, the best model turns out a model that uses either only AR terms or only MA terms, although in some cases a quotmixedquot model with both AR and MA terms may provide the best fit to the data. However, care must be exercised when fitting mixed models. It is possible for an AR term and an MA term to cancel each others effects . even though both may appear significant in the model (as judged by the t-statistics of their coefficients). Thus, for example, suppose that the quotcorrectquot model for a time series is an ARIMA(0,1,1) model, but instead you fit an ARIMA(1,1,2) model--i. e. you include one additional AR term and one additional MA term. Then the additional terms may end up appearing significant in the model, but internally they may be merely working against each other. The resulting parameter estimates may be ambiguous, and the parameter estimation process may take very many (e. g. more than 10) iterations to converge. Hence: Rule 8: It is possible for an AR term and an MA term to cancel each others effects, so if a mixed AR-MA model seems to fit the data, also try a model with one fewer AR term and one fewer MA term--particularly if the parameter estimates in the original model require more than 10 iterations to converge. For this reason, ARIMA models cannot be identified by quotbackward stepwisequot approach that includes both AR and MA terms. In other words, you cannot begin by including several terms of each kind and then throwing out the ones whose estimated coefficients are not significant. Instead, you normally follow a quotforward stepwisequot approach, adding terms of one kind or the other as indicated by the appearance of the ACF and PACF plots. Unit roots: If a series is grossly under - or overdifferenced--i. e. if a whole order of differencing needs to be added or cancelled, this is often signalled by a quotunit rootquot in the estimated AR or MA coefficients of the model. An AR(1) model is said to have a unit root if the estimated AR(1) coefficient is almost exactly equal to 1. (By quotexactly equal quot I really mean not significantly different from . in terms of the coefficients own standard error . ) When this happens, it means that the AR(1) term is precisely mimicking a first difference, in which case you should remove the AR(1) term and add an order of differencing instead. (This is exactly what would happen if you fitted an AR(1) model to the undifferenced UNITS series, as noted earlier.) In a higher-order AR model, a unit root exists in the AR part of the model if the sum of the AR coefficients is exactly equal to 1. In this case you should reduce the order of the AR term by 1 and add an order of differencing. A time series with a unit root in the AR coefficients is nonstationary --i. e. it needs a higher order of differencing. Rule 9: If there is a unit root in the AR part of the model--i. e. if the sum of the AR coefficients is almost exactly 1--you should reduce the number of AR terms by one and increase the order of differencing by one. Similarly, an MA(1) model is said to have a unit root if the estimated MA(1) coefficient is exactly equal to 1. When this happens, it means that the MA(1) term is exactly cancelling a first difference, in which case, you should remove the MA(1) term and also reduce the order of differencing by one. In a higher-order MA model, a unit root exists if the sum of the MA coefficients is exactly equal to 1. Rule 10: If there is a unit root in the MA part of the model--i. e. if the sum of the MA coefficients is almost exactly 1--you should reduce the number of MA terms by one and reduce the order of differencing by one. For example, if you fit a linear exponential smoothing model (an ARIMA(0,2,2) model) when a simple exponential smoothing model (an ARIMA(0,1,1) model) would have been sufficient, you may find that the sum of the two MA coefficients is very nearly equal to 1. By reducing the MA order and the order of differencing by one each, you obtain the more appropriate SES model. A forecasting model with a unit root in the estimated MA coefficients is said to be noninvertible . meaning that the residuals of the model cannot be considered as estimates of the quottruequot random noise that generated the time series. Another symptom of a unit root is that the forecasts of the model may quotblow upquot or otherwise behave bizarrely. If the time series plot of the longer-term forecasts of the model looks strange, you should check the estimated coefficients of your model for the presence of a unit root. Rule 11: If the long-term forecasts appear erratic or unstable, there may be a unit root in the AR or MA coefficients. None of these problems arose with the two models fitted here, because we were careful to start with plausible orders of differencing and appropriate numbers of AR and MA coefficients by studying the ACF and PACF models. More detailed discussions of unit roots and cancellation effects between AR and MA terms can be found in the Mathematical Structure of ARIMA Models handout.2.1 Moving Average Models (MA models) Time series models known as ARIMA models may include autoregressive terms andor moving average terms. Na Semana 1, aprendemos um termo autorregressivo em um modelo de séries temporais para a variável x t é um valor retardado de x t. Por exemplo, um termo autorregressivo de atraso 1 é x t-1 (multiplicado por um coeficiente). Esta lição define termos de média móvel. Um termo de média móvel em um modelo de séries temporais é um erro passado (multiplicado por um coeficiente). Vamos (wt desviar N (0, sigma2w)), significando que os w t são identicamente, distribuídos independentemente, cada um com uma distribuição normal com média 0 e a mesma variância. O modelo de média móvel de ordem 1, denotado por MA (1) é (xt mu wt theta1w) O modelo de média móvel de 2ª ordem, denotado por MA (2) é (xt mu wt theta1w theta2w) , Denotado por MA (q) é (xt mu wt theta1w theta2w pontos thetaqw) Nota. Muitos livros didáticos e programas de software definem o modelo com sinais negativos antes dos termos. Isso não altera as propriedades teóricas gerais do modelo, embora ele inverta os sinais algébricos de valores de coeficientes estimados e de termos (não-quadrados) nas fórmulas para ACFs e variâncias. Você precisa verificar seu software para verificar se sinais negativos ou positivos foram usados ​​para escrever corretamente o modelo estimado. R usa sinais positivos em seu modelo subjacente, como fazemos aqui. Propriedades Teóricas de uma Série de Tempo com um Modelo MA (1) Observe que o único valor não nulo na ACF teórica é para o atraso 1. Todas as outras autocorrelações são 0. Assim, uma ACF de amostra com uma autocorrelação significativa apenas no intervalo 1 é um indicador de um possível modelo MA (1). Para os estudantes interessados, provas destas propriedades são um apêndice a este folheto. Exemplo 1 Suponha que um modelo MA (1) seja x t 10 w t .7 w t-1. Onde (wt overset N (0,1)). Assim, o coeficiente 1 0,7. O ACF teórico é dado por Um gráfico deste ACF segue. O gráfico apenas mostrado é o ACF teórico para um MA (1) com 1 0,7. Na prática, uma amostra normalmente não proporciona um padrão tão claro. Usando R, simulamos n 100 valores de amostra usando o modelo x t 10 w t .7 w t-1 onde w t iid N (0,1). Para esta simulação, segue-se um gráfico de séries temporais dos dados da amostra. Não podemos dizer muito desse enredo. A ACF de amostra para os dados simulados segue. Observamos que a amostra ACF não corresponde ao padrão teórico do MA subjacente (1), ou seja, que todas as autocorrelações para os atrasos de 1 serão 0 Uma amostra diferente teria uma ACF de amostra ligeiramente diferente mostrada abaixo, mas provavelmente teria as mesmas características gerais. Propriedades teóricas de uma série temporal com um modelo MA (2) Para o modelo MA (2), as propriedades teóricas são as seguintes: Note que os únicos valores não nulos na ACF teórica são para os retornos 1 e 2. As autocorrelações para atrasos maiores são 0 . Assim, uma ACF de amostra com autocorrelações significativas nos intervalos 1 e 2, mas autocorrelações não significativas para atrasos maiores indica um possível modelo MA (2). Iid N (0,1). Os coeficientes são 1 0,5 e 2 0,3. Como este é um MA (2), o ACF teórico terá valores não nulos apenas nos intervalos 1 e 2. Os valores das duas autocorrelações não nulas são: Um gráfico do ACF teórico segue. Como quase sempre é o caso, dados de exemplo não vai se comportar tão perfeitamente como a teoria. Foram simulados n 150 valores de amostra para o modelo x t 10 w t .5 w t-1 .3 w t-2. Onde w t iid N (0,1). O gráfico de série de tempo dos dados segue. Como com o gráfico de série de tempo para os dados de amostra de MA (1), você não pode dizer muito dele. A ACF de amostra para os dados simulados segue. O padrão é típico para situações em que um modelo MA (2) pode ser útil. Existem dois picos estatisticamente significativos nos intervalos 1 e 2, seguidos por valores não significativos para outros desfasamentos. Note que devido ao erro de amostragem, a ACF da amostra não corresponde exactamente ao padrão teórico. ACF para Modelos Gerais MA (q) Uma propriedade dos modelos MA (q) em geral é que existem autocorrelações não nulas para os primeiros q lags e autocorrelações 0 para todos os retornos gt q. Não-unicidade de conexão entre os valores de 1 e (rho1) no modelo MA (1). No modelo MA (1), para qualquer valor de 1. O recíproco 1 1 dá o mesmo valor para Como exemplo, use 0,5 para 1. E então use 1 (0,5) 2 para 1. Você obterá (rho1) 0,4 em ambas as instâncias. Para satisfazer uma restrição teórica chamada invertibilidade. Restringimos modelos MA (1) para ter valores com valor absoluto menor que 1. No exemplo dado, 1 0,5 será um valor de parâmetro permitido, enquanto 1 10,5 2 não. Invertibilidade de modelos MA Um modelo MA é dito ser inversível se for algébrica equivalente a um modelo de ordem infinita convergente. Por convergência, queremos dizer que os coeficientes de RA diminuem para 0 à medida que avançamos no tempo. Invertibilidade é uma restrição programada em séries temporais de software utilizado para estimar os coeficientes de modelos com MA termos. Não é algo que verificamos na análise de dados. Informações adicionais sobre a restrição de invertibilidade para modelos MA (1) são fornecidas no apêndice. Teoria Avançada Nota. Para um modelo MA (q) com um ACF especificado, existe apenas um modelo invertible. A condição necessária para a invertibilidade é que os coeficientes têm valores tais que a equação 1- 1 y-. - q y q 0 tem soluções para y que caem fora do círculo unitário. Código R para os Exemplos No Exemplo 1, traçamos o ACF teórico do modelo x t 10w t. 7w t-1. E depois simularam n 150 valores a partir deste modelo e traçaram a amostra de séries temporais ea amostra ACF para os dados simulados. Os comandos R utilizados para traçar o ACF teórico foram: acfma1ARMAacf (mac (0.7), lag. max10) 10 lags de ACF para MA (1) com theta1 0.7 lags0: 10 cria uma variável chamada lags que varia de 0 a 10. plot (Lags, acfma1, xlimc (1,10), ylabr, typeh, ACF principal para MA (1) com theta1 0,7) abline (h0) adiciona um eixo horizontal ao gráfico O primeiro comando determina o ACF e o armazena em um objeto Chamado acfma1 (nossa escolha de nome). O comando de plotagem (o terceiro comando) traça defasagens em relação aos valores de ACF para os retornos de 1 a 10. O parâmetro ylab marca o eixo y eo parâmetro principal coloca um título no gráfico. Para ver os valores numéricos do ACF basta usar o comando acfma1. A simulação e as parcelas foram feitas com os seguintes comandos. Xcarima. sim (n150, lista (mac (0.7))) Simula n 150 valores de MA (1) xxc10 adiciona 10 para fazer a média 10. Padrões de simulação significam 0. plot (x, typeb, mainSimulated MA (1) data) Acf (x, xlimc (1,10), mainACF para dados de amostras simulados) No Exemplo 2, traçamos o ACF teórico do modelo xt 10 wt. 5 w t-1 .3 w t-2. E depois simularam n 150 valores a partir deste modelo e traçaram a amostra de séries temporais ea amostra ACF para os dados simulados. Os comandos R utilizados foram acfma2ARMAacf (mac (0,5,0,3), lag. max10) acfma2 lags0: 10 parcela (lags, acfma2, xlimc (1,10), ylabr, tipoh, ACF principal para MA (2) com theta1 0,5, (X, typeb, main Simulado MA (2) Series) acf (x, xlimc (1,10), x2, MainACF para dados simulados de MA (2) Apêndice: Prova de Propriedades de MA (1) Para estudantes interessados, aqui estão as provas para propriedades teóricas do modelo MA (1). Quando h 1, a expressão anterior 1 w 2. Para qualquer h 2, a expressão anterior 0 (x) é a expressão anterior x (x) A razão é que, por definição de independência do wt. E (w k w j) 0 para qualquer k j. Além disso, porque w t tem média 0, E (w j w j) E (w j 2) w 2. Para uma série de tempo, aplique este resultado para obter o ACF fornecido acima. Um modelo MA reversível é aquele que pode ser escrito como um modelo de ordem infinita AR que converge de modo que os coeficientes AR convergem para 0 à medida que nos movemos infinitamente para trás no tempo. Bem demonstrar invertibilidade para o modelo MA (1). Em seguida, substitui-se a relação (2) para wt-1 na equação (1) (3) (zt wt theta1 (z-theta1w) wt theta1z-theta2w) No tempo t-2. A equação (2) torna-se Então substituimos a relação (4) para wt-2 na equação (3) (zt wt theta1 z - theta21w wt theta1z - theta21 (z - theta1w) wt theta1z-theta12z theta31w) Se continuássemos Infinitamente), obteríamos o modelo AR de ordem infinita (zt wt theta1 z - theta21z theta31z - theta41z pontos) Observe, no entanto, que se 1 1, os coeficientes multiplicando os desfasamentos de z aumentarão (infinitamente) Tempo. Para evitar isso, precisamos de 1 lt1. Esta é a condição para um modelo MA (1) invertible. Infinite Order MA model Na semana 3, bem ver que um modelo AR (1) pode ser convertido em um modelo de ordem infinita MA: (xt - mu wt phi1w phi21w pontos phik1 w dots sum phij1w) Esta soma de termos de ruído branco passado é conhecido Como a representação causal de um AR (1). Em outras palavras, x t é um tipo especial de MA com um número infinito de termos voltando no tempo. Isso é chamado de ordem infinita MA ou MA (). Uma ordem finita MA é uma ordem infinita AR e qualquer ordem finita AR é uma ordem infinita MA. Lembre-se na Semana 1, observamos que um requisito para um AR estacionário (1) é que 1 lt1. Vamos calcular o Var (x t) usando a representação causal. Esta última etapa usa um fato básico sobre séries geométricas que requer (phi1lt1) caso contrário, a série diverge. Navegação

No comments:

Post a Comment