Friday, September 30, 2016

Función De Autocorrelación Del Proceso De Movimiento Promedio

Propósito: Revisar la aleatoriedad parcelas autocorrelación (. Box y Jenkins, pp 28-32) son una herramienta comúnmente utilizada para el control de la aleatoriedad en un conjunto de datos. Esta aleatoriedad se determina mediante el cálculo de las autocorrelaciones para los valores de datos en el tiempo que varía queda. Si al azar, tales autocorrelaciones deben estar cerca de cero para cualquier y todas las separaciones temporizados. Si no aleatoria, a continuación, una o más de las autocorrelaciones será significativamente diferente de cero. Además, las parcelas de autocorrelación se utilizan en la etapa de identificación del modelo de Box-Jenkins autorregresivo, moviendo los modelos de series de tiempo promedio. Autocorrelación es sólo una medida de aleatoriedad Tenga en cuenta que no correlacionado no significa necesariamente aleatoria. Los datos que tienen autocorrelación significativa no es aleatoria. Sin embargo, los datos que no muestran autocorrelación significativa todavía pueden exhibir no aleatoriedad de otras maneras. Autocorrelación es sólo una medida de la aleatoriedad. En el contexto de la validación del modelo (que es el principal tipo de aleatoriedad que dicuss en el Manual), la comprobación de autocorrelación es típicamente una prueba suficiente de aleatoriedad desde los residuos de un pobre ajuste de modelos tienden a mostrar aleatoriedad no sutil. Sin embargo, algunas aplicaciones requieren una determinación más rigurosa de aleatoriedad. En estos casos, una batería de pruebas, lo que podría incluir la comprobación de la autocorrelación, se aplican ya que los datos pueden ser no aleatoria de muchas maneras diferentes y, a menudo sutiles. Un ejemplo de dónde se necesita una verificación más rigurosa para la aleatoriedad estaría en la prueba de los generadores de números aleatorios. Muestra Terreno: Autocorrelaciones debe estar cerca de cero para la aleatoriedad. Tal no es el caso en este ejemplo y por lo tanto la hipótesis de aleatoriedad no pasa esta parcela de muestreo de autocorrelación muestra que las series de tiempo no es aleatoria, sino que tiene un alto grado de autocorrelación entre las observaciones adyacentes y casi adyacentes. Definición: r (h) frente a h parcelas de autocorrelación están formados por Eje vertical: coeficiente de autocorrelación, donde C h es la función de autocovarianza y C 0 es la función de varianza Nota que R h está entre -1 y 1. Nótese que algunas fuentes pueden utilizar el siguiente fórmula para la función de autocovarianza Aunque esta definición tiene menos sesgo, el (1 / N) formulación tiene algunas propiedades estadísticas deseables y es la forma más comúnmente utilizada en la literatura estadísticas. Consulte las páginas 20 y 49-50 en Chatfield para más detalles. eje horizontal: Tiempo de retardo h (h 1, 2, 3.) La línea anterior también contiene varias líneas de referencia horizontales. La línea media está en cero. Las otras cuatro líneas son 95 y 99 bandas de confianza. Tenga en cuenta que hay dos fórmulas distintas para generar las bandas de confianza. Si la trama de autocorrelación está siendo utilizado para la prueba de aleatoriedad (es decir, no hay dependencia del tiempo en los datos), se recomienda la siguiente fórmula: donde N es el tamaño de la muestra, z es la función de distribución acumulada de la distribución normal estándar y (alfa ) es el nivel de significación. En este caso, las bandas de confianza se fija anchura que depende del tamaño de la muestra. Esta es la fórmula que se utilizó para generar las bandas de confianza en la trama anterior. parcelas de autocorrelación también se utilizan en la etapa de identificación del modelo para el montaje de modelos ARIMA. En este caso, un modelo de promedio móvil se asume para los datos y las siguientes bandas de confianza debe ser generada: donde k es el retraso, N es el tamaño de la muestra, z es la función de distribución acumulada de la distribución normal estándar y (alfa) se el nivel de significación. En este caso, las bandas de confianza aumentan al incrementar la demora. La trama de autocorrelación puede proporcionar respuestas a las siguientes preguntas: ¿Son los datos aleatorios es una observación relacionada con una observación adyacente es una observación relacionada con una observación dos veces eliminado (etc.) ¿El ruido blanco serie de tiempo observada es la serie de tiempo observada sinusoidal es el autorregresivo serie temporal observada Qué es un modelo apropiado para la serie de tiempo observada es el modelo válido y suficiente en el ss fórmula / Importancia sqrt válido: asegurar la validez de las conclusiones de ingeniería aleatoriedad (junto con el modelo fijo, la variación fijo y fijo de distribución) es uno de los cuatro supuestos que normalmente subyacen en todos los procesos de medición. El supuesto de aleatoriedad es críticamente importante por las siguientes tres razones: La mayoría de las pruebas estadísticas estándar dependen de la aleatoriedad. La validez de las conclusiones de la prueba está directamente vinculada a la validez de la hipótesis de aleatoriedad. Muchas fórmulas estadísticas de uso común dependen de la suposición de la aleatoriedad, la fórmula más común es la fórmula para la determinación de la desviación estándar de la media de la muestra: donde s es la desviación estándar de los datos. Aunque se utilizan en gran medida, los resultados del uso de esta fórmula son de ningún valor a menos que el supuesto de aleatoriedad sostiene. Para los datos univariados, el modelo por defecto es Si los datos no son al azar, este modelo es incorrecto y no válido, y las estimaciones de los parámetros (como la constante) se convierta sin sentido y no válidos. En resumen, si el analista no comprueba la aleatoriedad, la validez de muchas de las conclusiones estadísticas se convierte en sospechoso. La trama de autocorrelación es una excelente manera de comprobar para dicha primera etapa randomness. The en el desarrollo de un modelo Box-Jenkins es determinar si la serie es estacionaria y si hay alguna estacionalidad importante que necesita ser modelada. Estacionariedad puede evaluarse a partir de una trama secuencia de ejecución. La trama secuencia de ejecución debe mostrar la ubicación y la escala constante. También se puede detectar a partir de un gráfico de autocorrelación. En concreto, no estacionariedad se indica a menudo por una parcela de autocorrelación con descomposición muy lenta. Diferenciación para lograr la estacionariedad Box y Jenkins recomienda el enfoque de diferenciación para lograr la estacionariedad. Sin embargo, el ajuste de una curva y restando los valores ajustados de los datos originales también se puede utilizar en el contexto de modelos Box-Jenkins. En la etapa de identificación del modelo, nuestro objetivo es detectar la estacionalidad, si es que existe, y para identificar el orden autorregresivo para la temporada y términos de promedio móvil de temporada. Para muchas series, el período es conocido y un solo término estacionalidad es suficiente. Por ejemplo, para los datos mensuales incluiríamos suele ser una temporada término AR 12 o una temporada MA 12 plazo. Para los modelos Box-Jenkins, no eliminamos de manera explícita la estacionalidad antes de ajustar el modelo. En su lugar, incluimos el orden de los términos estacionales en la especificación del modelo con el software de estimación ARIMA. Sin embargo, puede ser útil aplicar una diferencia temporal a los datos y regenerar la autocorrelación y parcelas autocorrelación parcial. Esto puede ayudar en el modelo idenfitication del componente no estacional del modelo. En algunos casos, la diferenciación estacional puede eliminar la mayor parte o la totalidad del efecto estacionalidad. Identificar p y q Una vez estacionariedad y la estacionalidad se han abordado, el siguiente paso es identificar el orden (es decir, el (p) y (q)) de la autorregresivo y términos de medias móviles. Autocorrelación y autocorrelación parcial Parcelas Las herramientas principales para hacer esto son la trama de autocorrelación y la trama de autocorrelación parcial. La trama muestra de autocorrelación y la trama de autocorrelación parcial de la muestra se comparan con el comportamiento teórico de estas parcelas cuando el orden se conoce. Orden de proceso autorregresivo ((p)) En concreto, para un (1) proceso AR, la función de autocorrelación de la muestra debe tener una apariencia de forma exponencial decreciente. Sin embargo, los procesos de AR de orden superior son a menudo una mezcla de disminución exponencial y componentes sinusoidales amortiguadas. Para los procesos autorregresivos de orden superior, la autocorrelación muestra necesita ser complementado con una parcela de autocorrelación parcial. La autocorrelación parcial de un proceso AR ((p)) se hace cero en el retardo (p 1) y mayor, por lo que examinar la función de autocorrelación parcial muestra para ver si hay evidencia de una salida de cero. Esto generalmente se determina mediante la colocación de un intervalo de confianza del 95 en el terreno de autocorrelación parcial de la muestra (la mayoría de los programas de software que generan parcelas de autocorrelación de la muestra también trazar este intervalo de confianza). Si el programa de software no genera la banda de confianza, es aproximadamente (pm 2 / sqrt), con (N) que indica el tamaño de la muestra. Orden de Plataforma en movimiento media ((q)) La función de autocorrelación de un proceso MA ((q)) se hace cero en el retardo (q 1) y mayor, por lo que examinar la función de autocorrelación de la muestra para ver donde se convierte esencialmente cero. Hacemos esto mediante la colocación del intervalo de confianza del 95 para la función de autocorrelación de la muestra en la parcela de muestreo de autocorrelación. La mayoría del software que puede generar la trama de autocorrelación también puede generar este intervalo de confianza. La función de autocorrelación parcial de la muestra por lo general no es útil para identificar el orden del proceso de media móvil. Forma de autocorrelación funciones En la siguiente tabla se resume la forma en que usamos la función de autocorrelación de la muestra para el modelo identification. Documentation ACF muestra y FAP autocorrelación de la muestra y la muestra de autocorrelación parcial son las estadísticas que estiman la autocorrelación teórica y autocorrelación parcial. Como una herramienta de selección modelo cualitativo, se puede comparar el ACF muestra y FAP de sus datos contra conocidas funciones de autocorrelación teóricas 1. Para una serie observada y 1. y 2. y T. denotan la media de la muestra y x00AF. La muestra autocorrelación h lag - está dada por x03C1 x005E h x2211 º 1 T (yt x2212 y x00AF) (yt h x2212 x2212 y x00AF) x2211 T 1 T (yt x2212 y x00AF) 2. El error estándar para evaluar la importancia de h lag - una sola autocorrelación, x03C1 x005E h. es de aproximadamente SE x03C1 (1 x2211 2 i 1 h x2212 1 x03C1 x005E i 2) / N. Cuando se utiliza autocorr para trazar la función de autocorrelación de la muestra (también conocido como el correlogram), los intervalos de confianza aproximados 95 se extraen al x00B1 2 SE x03C1 por defecto. argumentos de entrada opcionales permiten modificar el cálculo de los límites de confianza. La muestra lag - h autocorrelación parcial es el coeficiente estimado lag - h en un modelo AR contiene h se queda, x03D5 x005E h. marido. El error estándar para evaluar la importancia de un solo autocorrelación parcial lag - h es de aproximadamente 1 / N x2212 1. Cuando se utiliza parcorr para trazar la función de autocorrelación parcial de la muestra, los intervalos de confianza aproximados 95 se extraen al x00B1 2 / N x2212 1 por defecto . argumentos de entrada opcionales permiten modificar el cálculo de los límites de confianza. Referencias 1 Box, G. E. P. G. M. Jenkins, y G. C. Reinsel. Análisis de series de tiempo: predicción y control. 3ª ed. Englewood Cliffs, NJ: Prentice Hall, 1994. SELECCIONAR LA Country2.2 Versión para impresión parcial Autocorrelación función (FAP) En general, una correlación parcial es una correlación condicional. Es la correlación entre dos variables bajo el supuesto de que sabemos y tener en cuenta los valores de algún otro conjunto de variables. Por ejemplo, considere un contexto de regresión en el que la variable y de respuesta y x 1. x 2. y X3 son variables predictoras. La correlación parcial entre Y y X 3 es la correlación entre las variables determina teniendo en cuenta la forma en tanto y como x 3 están relacionados con x 1 y x 2. En la regresión, esta correlación parcial se puede encontrar mediante la correlación de los residuos a partir de dos regresiones diferentes: (1) de regresión en el que predecimos y de x 1 y x 2. (2) de regresión en el que predecir x 3 x 1 y de 2 x. Básicamente, se correlacionan las partes de Y y X 3 que no se predicen por x 1 y x 2. Más formalmente, podemos definir la correlación parcial se acaba de describir como se nota que esto es también cómo se interpretan los parámetros de un modelo de regresión. Piense en la diferencia entre la interpretación de los modelos de regresión: (y beta0 beta1x2 texto y beta0beta1xbeta2x2) En el primer modelo, 1 se puede interpretar como la dependencia lineal entre x e y 2. En el segundo modelo, 2 se interpretaría como la dependencia lineal entre X e Y, con 2 la dependencia entre X e Y ya representaba. Para una serie de tiempo, la autocorrelación parcial entre x t y x t-h se define como la correlación condicional entre x t y x t-h. dependiendo de X t-H1. x t-1. el conjunto de observaciones que se interponen entre los puntos de tiempo t y XX. La autocorrelación parcial de 1er orden será definido para igualar el st 1 autocorrelación orden. La autocorrelación parcial 2 nd fin (lag) es Esta es la correlación entre los valores de dos períodos de tiempo separados condicional en el conocimiento del valor en el medio. (Por cierto, las dos variaciones en el denominador serán iguales a uno al otro en una serie estacionaria.) La autocorrelación parcial 3 er orden (lag) es Y, etc., para ningún tipo de retraso. Típicamente, las manipulaciones de matriz que tienen que ver con la matriz de covarianza de una distribución multivariante se utilizan para determinar las estimaciones de las autocorrelaciones parciales. Algunos datos útiles acerca de FAP y ACF patrones de identificación de un modelo AR a menudo se hace mejor con la FAP. Para un modelo AR, el FAP teórica se apaga más allá de la orden del modelo. La frase se apaga significa que, en teoría, las autocorrelaciones parciales son iguales a 0 allá de ese punto. Dicho de otra manera, el número de autocorrelaciones parciales no cero da la orden del modelo AR. Por el orden del modelo se entiende el retardo más extrema de x que se utiliza como un predictor. Ejemplo. En la lección 1.2, hemos identificado un (1) modelo AR para una serie temporal de las cifras anuales de los terremotos en todo el mundo que tiene una magnitud sísmica superior a 7,0. Lo que sigue es el FAP muestra para esta serie. Tenga en cuenta que el primer valor de retardo es estadísticamente significativa, mientras que las autocorrelaciones parciales para todos los otros retardos no son estadísticamente significativas. Esto sugiere una posible AR (1) modelo para estos datos. Identificación de un modelo MA es a menudo mejor con la ACF en lugar de la FAP. Para un modelo MA, el FAP teórico no se apaga, sino que se estrecha hacia 0 de alguna manera. Un modelo más claro de un modelo MA se encuentra en la ACF. El ACF tendrá autocorrelaciones distintos de cero solamente en los retardos que intervienen en el modelo. Lección 2.1 incluye la siguiente ACF muestra para un MA (1) series simuladas. Tenga en cuenta que el primer retardo de autocorrelación es estadísticamente significativa, mientras que todas las autocorrelaciones posteriores no lo son. Esto sugiere una posible MA (1) modelo para los datos. nota Theory. El modelo utilizado para la simulación fue x 10 w t t t 0,7 W-1. En teoría, el primer autocorrelación de retardo 1 / (1 1 2) 0.7 / (1.7 2) 0,4698 y autocorrelaciones para todos los demás retardos 0. El modelo subyacente utilizado para el MA (1) de simulación en la lección 2.1 fue xt 10 en peso de 0,7 w t-1. El siguiente es el FAP teórico (autocorrelación parcial) para ese modelo. Tenga en cuenta que el patrón se estrecha gradualmente a 0. R Nota: El FAP solo muestra fue creada en R con estos dos comandos: ma1pacf ARMAacf (c ma (0.7), lag. max 36, pacfTRUE) parcela (ma1pacf, Type H, principal teórico FAP de MA (1) con 0,7 theta) Navigation2.1 Moving modelos promedio (modelos MA) modelos de series temporales conocidos como modelos ARIMA puede incluir términos autorregresivos y / o términos de medias móviles. En la Semana 1, aprendimos un término autorregresivo en un modelo de series de tiempo para la variable x t es un valor rezagado de x t. Por ejemplo, un retraso de 1 x término autorregresivo es t-1 (multiplicado por un coeficiente). Esta lección define términos de medias móviles. Un término promedio móvil en un modelo de series de tiempo es un error pasado (multiplicado por un coeficiente). Sea (en peso desbordado N (0, sigma2w)), lo que significa que el w t son de forma idéntica, distribuido de forma independiente, cada uno con una distribución normal con media 0 y la misma varianza. El 1º orden moviendo modelo de media, denotado por MA (1) es (xt theta1w mu peso) El orden 2º movimiento modelo de media, denotado por MA (2) es (mu xt peso theta1w theta2w) El q º orden moviendo modelo de media , denotado por MA (q) es (mu xt wt theta1w theta2w puntos thetaqw) Nota. Muchos libros de texto y programas de software definen el modelo con signos negativos antes de los términos. Esto no cambia las propiedades teóricas generales del modelo, aunque no voltear los signos algebraicos de valores de los coeficientes estimados y los términos (unsquared) en las fórmulas para FCA y varianzas. Es necesario comprobar su software para verificar si los signos negativos o positivos se han utilizado con el fin de escribir correctamente el modelo estimado. R utiliza señales positivas en su modelo subyacente, como lo hacemos aquí. Propiedades teóricas de una serie de tiempo con un MA (1) Nota Modelo que el único valor distinto de cero en el ACF teórico es de retardo 1. Todos los demás autocorrelaciones son 0. Así, un ACF muestra con una autocorrelación significativa sólo en el retardo 1 es un indicador de un posible MA (1) modelo. Para los estudiantes interesados, pruebas de estas propiedades son un apéndice de este folleto. Ejemplo 1 Supongamos que un MA (1) modelo es x t 10 w w t 0,7 t-1. donde (en peso desbordado N (0,1)). Por lo tanto el coeficiente 1 0.7. El ACF teórico está dado por una trama de esta sigue ACF. La trama se acaba de mostrar es la ACF teórico para un MA (1) con 1 0.7. En la práctica, una muestra de costumbre suelen proporcionar un patrón tan claro. El uso de R, simulamos n 100 valores de las muestras utilizando el modelo x 10 w t t t 0,7 W-1 donde w t iid N (0,1). Para esta simulación, un gráfico de series temporales de datos de la muestra de la siguiente manera. No podemos decir mucho de esta trama. El ACF de la muestra para la simulación de datos sigue. Vemos un aumento en el retardo 1 seguido por valores generalmente no significativos para retardos pasado 1. Tenga en cuenta que la muestra ACF no coincide con el patrón teórico de la MA subyacente (1), que es que todas las autocorrelaciones para los retrasos del pasado 1 estarán 0 . una muestra tendría un ACF muestra ligeramente diferente se muestra a continuación, pero probablemente tendría las mismas características generales. Theroretical Propiedades de una serie temporal con un modelo MA (2) Para el (2) Modelo MA, propiedades teóricas son las siguientes: Tenga en cuenta que los únicos valores no nulos en la ACF teórica son los GAL 1 y 2. Autocorrelaciones para retardos más altos son 0 . por lo tanto, una muestra con ACF autocorrelaciones significativas en los retardos 1 y 2, pero autocorrelaciones no significativos para retardos más alto indica una posible MA (2) del modelo. iid N (0,1). Los coeficientes son 1 0,5 y 2 0.3. Debido a que este es un MA (2), el ACF teórica tendrá valores distintos de cero solamente en los retardos 1 y 2. Los valores de los dos autocorrelaciones son distintos de cero Una trama de la ACF teórico sigue. Como casi siempre es el caso, datos de la muestra suele comportarse tan perfectamente como teoría. Hemos simulado n 150 valores de la muestra para el modelo x 10 w t t t-0,5 W 0,3 W 1 T-2. donde w t iid N (0,1). El gráfico de series temporales de datos de la siguiente manera. Al igual que con el gráfico de series temporales de los (1) datos de las muestras MA, usted no puede decir mucho de ella. El ACF de la muestra para la simulación de datos sigue. El patrón es típico para situaciones en las que una (2) modelo de MA puede ser útil. Hay dos picos estadísticamente significativas en los retardos 1 y 2, seguido por los valores no significativos para otros retardos. Tenga en cuenta que debido a un error de muestreo, el ACF muestra no coincide con el patrón teórico exactamente. ACF para el general MA (q) Modelos Una característica de los modelos MA (q), en general, es que hay autocorrelaciones distintos de cero para los primeros retardos q autocorrelaciones y 0 para todos los GAL gt q. No unicidad de la conexión entre los valores de 1 y (Rho1) en MA (1) Modelo. En el MA (1) modelo, para cualquier valor de 1. el recíproco 1/1 da el mismo valor para A modo de ejemplo, utilizar 0,5 por 1. y luego usar 1 / (0,5) 2 por 1. Usted conseguirá (Rho1) 0,4 en ambos casos. Para satisfacer una restricción teórica llamada invertibilidad. que restringir MA (1) modelos de tener valores con valor absoluto menor que 1. En el ejemplo dado, 1 0,5 habrá un valor de parámetro permisible, mientras que 1 1 / 0.5 2 no lo hará. Invertibilidad de modelos Un modelo MA MA se dice que es invertible si es algebraicamente equivalente a un modelo AR orden infinito convergentes. Al converger, nos referimos a que los coeficientes AR disminuyen a 0 a medida que avanzamos en el tiempo. Invertibilidad es una restricción de software programado en series de tiempo utilizado para estimar los coeficientes de los modelos con los términos MA. No es algo que comprobamos en el análisis de datos. Información adicional acerca de la restricción invertibilidad de MA (1) modelos se da en el apéndice. Teoría avanzada Nota. Para un modelo MA (q) con un ACF especificado, sólo hay un modelo invertible. La condición necesaria para invertibilidad es que los coeficientes tienen valores tales que la ecuación 1- 1 y-. - Q y q 0 tiene soluciones para y que están fuera del círculo unitario. R Código de los ejemplos en el Ejemplo 1, que representa el ACF teórica del modelo x 10 w t t. 7w t-1. y luego simulado n 150 valores de este modelo y se representó la serie temporal de la muestra y la ACF muestra para los datos simulados. Los comandos R utilizan para trazar el ACF teórico fueron: acfma1ARMAacf (mac (0,7), lag. max10) 10 rezagos de ACF para MA (1) con 0,7 theta1 lags0: 10 crea una variable llamada desfases que va de 0 a 10. parcela (retardos, acfma1, xlimc (1,10), ylabr, Type H, principal ACF para MA (1) con theta1 0,7) abline (H0) agrega un eje horizontal de la gráfica el primer comando determina la ACF y lo almacena en un objeto acfma1 llamado (nuestra elección del nombre). El comando plot (los comandos 3º) parcelas se retrasa en comparación con los valores de ACF para desfases del 1 al 10. Cuando las etiquetas El parámetro ylab el eje Y y el parámetro principal pone un título en la parcela. Para ver los valores numéricos de la ACF sólo tiene que utilizar el comando acfma1. La simulación y las parcelas se realizaron con los siguientes comandos. xcarima. sim (n150, lista (mac (0,7))) Simula n 150 valores de MA (1) xxc10 añade 10 para hacer medias por defecto 10. Simulación en el sentido de 0. plot (x, TypeB, mainSimulated MA (1) datos) ACF (x, xlimc (1,10), mainACF para datos de muestras simuladas) En el Ejemplo 2, se representa gráficamente la ACF teórica del modelo XT 10 en peso de 0,5 w t-1 0,3 w T-2. y luego simulado n 150 valores de este modelo y se representó la serie temporal de la muestra y la ACF muestra para los datos simulados. Los comandos R utilizados fueron acfma2ARMAacf (mac (0.5,0.3), lag. max10) acfma2 lags0: 10 parcela (GAL, acfma2, xlimc (1,10), ylabr, Type H, principal ACF para MA (2) con theta1 0,5, theta20.3) abline (H0) xcarima. sim (n150, lista (mac (0,5, 0,3))) xxc10 plot (x, TypeB, principal simulada MA (2) Serie) ACF (x, xlimc (1,10), mainACF para MA simulada (2) datos) Apéndice: Prueba de propiedades de MA (1) para los estudiantes interesados, aquí están las pruebas de las propiedades teóricas de la (1) modelo MA. Diferencia: (texto (xt) w texto (mu theta1 en peso) 0 texto (en peso) de texto (theta1w) sigma2w theta21sigma2w (1theta21) sigma2w) Cuando h 1, la expresión anterior 1 w 2. Para cualquier h 2, la expresión anterior 0 . la razón es que, por definición de independencia del peso. E (k w w j) 0 para cualquier k j. Además, como la w t tiene media 0, E (w w j j) E (w j 2) w 2. Por una serie de tiempo, aplicar este resultado para obtener el ACF dado anteriormente. Un modelo MA invertible es uno que puede ser escrito como un modelo AR orden infinito que converge de manera que los coeficientes AR convergen a 0 a medida que avanzamos infinitamente en el tiempo. Bien demostrar invertibilidad para el (1) modelo de MA. Tenemos entonces sustituto de la relación (2) A la hora de w t-1 en la ecuación (1) (3) (ZT en peso theta1 (z - theta1w) en peso theta1z - theta2w) t-2. la ecuación (2) se convierte en A continuación, sustituir relación (4) para W t-2 en la ecuación (3) (ZT en peso theta1 z - theta21w peso theta1z - theta21 (z - theta1w) en peso theta1z - theta12z theta31w) Si tuviéramos que continuar ( infinitamente), obtendríamos el modelo AR orden infinito (ZT en peso theta1 z - theta21z theta31z - theta41z puntos) Obsérvese, sin embargo, que si 1 1, los coeficientes multiplicadores de los retardos z aumentará (infinitamente) de tamaño a medida que avanzamos en la espalda hora. Para evitar esto, necesitamos 1 LT1. Esta es la condición para un MA (1) modelo invertible. Modelo de la orden infinito MA En la semana 3, así que ver un AR (1) modelo puede ser convertido en un modelo de orden infinito MA: (xt - mu peso phi1w phi21w puntos phik1 w puntos resumen phij1w) Esta suma de términos de ruido blanco es conocido últimos como la representación causal de un AR (1). En otras palabras, x t es un tipo especial de MA con un número infinito de términos que se remontan en el tiempo. Esto se llama una orden infinito MA o MA (). Una orden MA finito es un AR orden infinito y cualquier orden de AR finito es un MA orden infinito. Recordemos en la semana 1, se observó que la exigencia de un AR estacionario (1) es que 1 LT1. Permite calcular el Var (x t) utilizando la representación causal. Este último paso se utiliza un hecho básico acerca serie geométrica que requiere (phi1lt1) diverge de lo contrario las series. Navegación