Thursday, February 16, 2017

Prévision Moyenne Mobile En R

8.4 Modèles de moyenne mobile Au lieu d'utiliser les valeurs passées de la variable de prévision dans une régression, un modèle de moyenne mobile utilise des erreurs de prévision passées dans un modèle de type régression. Y c et theta e theta e dots theta e, où et est le bruit blanc. Nous appelons cela un modèle MA (q). Bien sûr, nous n'observons pas les valeurs de et, donc ce n'est pas vraiment une régression au sens usuel. Notez que chaque valeur de yt peut être considérée comme une moyenne mobile pondérée des dernières erreurs de prévision. Toutefois, les modèles de moyenne mobile ne doivent pas être confondus avec le lissage moyen mobile décrit au chapitre 6. Un modèle de moyenne mobile est utilisé pour prévoir les valeurs futures, tandis que le lissage moyen mobile est utilisé pour estimer le cycle tendanciel des valeurs passées. Figure 8.6: Deux exemples de données provenant de modèles de moyenne mobile avec des paramètres différents. A gauche: MA (1) avec y t 20e t 0.8e t-1. A droite: MA (2) avec y t e t - e t-1 0.8e t-2. Dans les deux cas, e t est le bruit blanc normalement distribué avec zéro moyen et variance un. La figure 8.6 présente certaines données d'un modèle MA (1) et d'un modèle MA (2). Modification des paramètres theta1, points, thetaq résultats dans différents modèles de séries chronologiques. Comme pour les modèles autorégressifs, la variance du terme d'erreur et ne changera que l'échelle de la série, et non pas les motifs. Il est possible d'écrire un modèle AR (p) stationnaire comme modèle MA (infty). Par exemple, en utilisant une substitution répétée, nous pouvons le démontrer pour un modèle AR (1): begin php phi1y ph php phi1y phi1y phi1y phi1y 1, la valeur de phi1k diminue à mesure que k devient plus grand. Ainsi, nous obtenons finalement un processus de MA (infty) et yt et phi1 e phi12 e phi13 e cdots. Le résultat inverse se vérifie si l'on impose certaines contraintes aux paramètres MA. Ensuite, le modèle MA est appelé inversible. C'est-à-dire que nous pouvons écrire tout processus inverse MA (q) comme un processus AR (infty). Les modèles Invertible ne sont pas simplement pour nous permettre de convertir des modèles MA en modèles AR. Ils ont aussi quelques propriétés mathématiques qui les rendent plus faciles à utiliser dans la pratique. Les contraintes d'inversibilité sont similaires aux contraintes de stationnarité. Pour un modèle MA (1): -1lttheta1lt1. Pour un modèle MA (2): -1lttheta2lt1, theta2theta1 gt-1, theta1-theta2 lt 1. Des conditions plus compliquées tiennent pour qge3. Une fois de plus, R s'occupera de ces contraintes lors de l'estimation des modèles. Prévision biologique La prévision se réfère au processus d'utilisation de procédures statistiques pour prédire les valeurs futures d'une série chronologique basée sur des tendances historiques. Pour les entreprises, être capable d'évaluer les résultats escomptés pour une période donnée est essentielle pour gérer le marketing, la planification et les finances. Par exemple, une agence de publicité peut vouloir utiliser des prévisions de ventes pour identifier les mois à venir qui peuvent nécessiter des dépenses de marketing accrues. Les entreprises peuvent également utiliser les prévisions pour déterminer quels vendeurs ont atteint leurs objectifs prévus pour un trimestre fiscal. Il existe un certain nombre de techniques qui peuvent être utilisées pour générer des prévisions quantitatives. Certaines méthodes sont assez simples alors que d'autres sont plus robustes et incorporent des facteurs exogènes. Indépendamment de ce qui est utilisé, la première étape doit toujours être de visualiser les données à l'aide d'un graphe linéaire. Vous voulez examiner comment la métrique change avec le temps, s'il ya une tendance distincte, ou s'il ya des modèles distincts qui sont remarquables. Il ya plusieurs concepts clés dont nous devrions être conscients lors de la description des données de séries chronologiques. Ces caractéristiques permettront de préciser la façon dont nous prétraiterons les données et de sélectionner la technique et les paramètres de modélisation appropriés. En fin de compte, l'objectif est de simplifier les modèles dans les données historiques en supprimant les sources connues de variatiion et de rendre les modèles plus cohérents dans l'ensemble de données ensemble. Des modèles plus simples conduiront généralement à des prévisions plus précises. Tendance: Une tendance existe quand il y a une augmentation ou une diminution à long terme des données. Saisonnalité: Un schéma saisonnier se produit lorsqu'une série chronologique est affectée par des facteurs saisonniers comme la période de l'année ou le jour de la semaine. Autocorrélation: fait référence aux phénéomènes selon lesquels les valeurs de Y à l'instant t sont affectées par les valeurs précédentes de Y à t-i. Pour trouver la bonne structure de lag et la nature des valeurs corrélées automatiques dans vos données, utilisez le graphique de la fonction d'autocorrélation. Stationnaire: une série temporelle est stationnaire si aucune tendance systématique, aucun changement systématique de variance, et si les variations strictement périodiques ou la saisonnalité n'existent pas. Les techniques de prévision quantitatives sont généralement basées sur l'analyse de reression ou sur des techniques de séries chronologiques. Les approches de régression examinent la relation entre la variable prévue et d'autres variables explicatives en utilisant des données transversales. Les modèles de séries chronologiques utilisent des données hitoriques qui ont été collectées à intervalles réguliers dans le temps pour que la variable cible puisse prévoir ses valeurs futures. Il n'y a pas de temps pour couvrir la théorie derrière chacune de ces approches dans ce post, donc j'ai choisi de couvrir des concepts de haut niveau et fournir un code pour réaliser des prévisions de séries chronologiques dans R. Je suggère fortement de comprendre la théorie statistique derrière une technique avant d'exécuter le code. Tout d'abord, nous pouvons utiliser la fonction ma dans le package de prévision pour effectuer des prévisions en utilisant la méthode de la moyenne mobile. Cette technique estime les valeurs futures au temps t en faisant la moyenne des valeurs des séries temporelles dans les k périodes de t. Lorsque la série temporelle est stationnaire, la moyenne mobile peut être très efficace car les observations sont proches à travers le temps. Le smooting exponentiel simple est également bon quand les données n'ont aucune tendance ou modèles saisonniers. Contrairement à une moyenne mobile, cette technique donne plus de poids aux observations les plus récentes de la série chronologique. Dans le package de prévision, il y a une fonction de prévision automatique qui passera par les modèles possibles et sélectionnera le modèle le plus approprié pour donner les données. Cela pourrait être un modèle auto-régressif du premier oder (AR (1)), un modèle ARIMA avec les bonnes valeurs pour p, d et q, ou quelque chose d'autre qui est plus approprié. Là où vous allez, une introduction non-technique de base à la prévision. Cela devrait vous familiariser avec les concepts clés et comment effectuer certaines prévisions de base en R Ne manquez jamais une mise à jour Abonnez-vous aux blogueurs R pour recevoir des courriels avec les derniers messages R. (Vous ne verrez plus ce message.) Utilisation de R pour l'analyse des séries temporelles Analyse des séries chronologiques Cette brochure vous explique comment utiliser le logiciel de statistiques R pour effectuer des analyses simples qui sont communes à l'analyse des données de séries temporelles. Cette brochure suppose que le lecteur a quelques connaissances de base sur l'analyse des séries temporelles et que le but principal de ce livret n'est pas d'expliquer l'analyse des séries temporelles mais plutôt d'expliquer comment effectuer ces analyses à l'aide de R. Si vous êtes nouveau dans la série chronologique Analyse, et que vous souhaitez en savoir plus sur les concepts présentés ici, je recommande vivement le livre Open University 8220Time series8221 (code produit M24902), disponible auprès de l'Open University Shop. Dans cette brochure, j'utiliserai des ensembles de données de séries temporelles qui ont été gentiment mis à disposition par Rob Hyndman dans sa bibliothèque de données de séries chronologiques à robjhyndmanTSDL. Si vous aimez cette brochure, vous pouvez également consulter ma brochure sur l'utilisation de R pour les statistiques biomédicales, un-little-book-of-r-for-biomedical-statistics. readthedocs. org. Et ma brochure sur l'utilisation de R pour l'analyse multivariée, little-book-of-r-for-multivariate-analysis. readthedocs. org. Lecture des données de séries chronologiques La première chose que vous voudrez faire pour analyser vos données de séries chronologiques sera de la lire dans R et de tracer la série temporelle. Vous pouvez lire les données dans R à l'aide de la fonction scan (), qui suppose que vos données pour des points de temps successifs se trouvent dans un fichier texte simple avec une colonne. Par exemple, le fichier robjhyndmantsdldatamisckings. dat contient des données sur l'âge de la mort des rois successifs d'Angleterre, à commencer par Guillaume le Conquérant (source originale: Hipel et Mcleod, 1994). L'ensemble de données ressemble à ceci: Seules les premières lignes du fichier ont été affichées. Les trois premières lignes contiennent quelques commentaires sur les données, et nous voulons l'ignorer lorsque nous lirons les données dans R. Nous pouvons utiliser ceci en utilisant le paramètre 8220skip8221 de la fonction scan (), qui spécifie combien de lignes en haut de Le fichier à ignorer. Pour lire le fichier dans R, en ignorant les trois premières lignes, nous tapons: Dans ce cas, l'âge de la mort de 42 rois successifs de l'Angleterre a été lue dans la variable 8216kings8217. Une fois que vous avez lu les données de la série temporelle dans R, l'étape suivante consiste à stocker les données dans un objet de série temporelle dans R, de sorte que vous pouvez utiliser les nombreuses fonctions R8217s pour analyser des données de séries temporelles. Pour stocker les données dans un objet de série temporelle, nous utilisons la fonction ts () dans R. Par exemple, pour stocker les données dans la variable 8216kings8217 comme un objet série temporelle en R, nous tapons: Parfois, Ont été recueillis à des intervalles réguliers inférieurs à un an, par exemple mensuels ou trimestriels. Dans ce cas, vous pouvez spécifier le nombre de fois que les données ont été collectées par an en utilisant le paramètre 8216frequency8217 dans la fonction ts (). Pour les données de séries temporelles mensuelles, vous définissez la fréquence12, alors que pour les données de séries chronologiques trimestrielles, vous réglez la fréquence4. Vous pouvez également spécifier la première année où les données ont été collectées et le premier intervalle de cette année en utilisant le paramètre 8216start8217 dans la fonction ts (). Par exemple, si le premier point de données correspond au deuxième trimestre de 1986, vous devez définir startc (1986,2). Un exemple est un ensemble de données sur le nombre de naissances par mois dans la ville de New York, de janvier 1946 à décembre 1959 (initialement recueillies par Newton). Ces données sont disponibles dans le fichier robjhyndmantsdldatadatanybirths. dat Nous pouvons lire les données dans R et les stocker en tant qu'objet de séries chronologiques en tapant: De même, le fichier robjhyndmantsdldatadatafancy. dat contient des ventes mensuelles pour une boutique de souvenirs dans une station balnéaire de Queensland, Australie, de janvier 1987 à décembre 1993 (données originales de Wheelwright et Hyndman, 1998). Nous pouvons lire les données dans R en tapant: Plotting Time Series Une fois que vous avez lu une série chronologique dans R, l'étape suivante consiste généralement à faire un tracé des données de séries chronologiques, que vous pouvez faire avec la fonction plot. ts () Dans R. Par exemple, pour tracer la série chronologique de l'âge de la mort de 42 rois successifs d'Angleterre, nous tapons: On peut voir à partir du tracé temporel que cette série temporelle pourrait probablement être décrite en utilisant un modèle additif, puisque les fluctuations aléatoires Dans les données sont à peu près constante en taille dans le temps. De même, pour tracer la série chronologique du nombre de naissances par mois à New York, nous dactylographions: Nous pouvons voir à partir de cette série chronologique qu'il semble y avoir une variation saisonnière du nombre de naissances par mois: il ya un pic tous les étés , Et un abreuvoir chaque hiver. Une fois de plus, il semble que cette série temporelle pourrait probablement être décrite en utilisant un modèle additif, car les fluctuations saisonnières sont à peu près constantes en taille dans le temps et ne semblent pas dépendre du niveau de la série temporelle et les fluctuations aléatoires semblent également être À peu près constante dans le temps. De même, pour tracer la série chronologique des ventes mensuelles pour le magasin de souvenirs dans une station balnéaire du Queensland, en Australie, nous dactylographions: Dans ce cas, il semble qu'un modèle additif ne convient pas pour décrire cette série chronologique, puisque la taille Des fluctuations saisonnières et des fluctuations aléatoires semblent augmenter avec le niveau de la série chronologique. Ainsi, nous pourrions avoir besoin de transformer les séries chronologiques afin d'obtenir une série temporelle transformée qui peut être décrite en utilisant un modèle additif. Par exemple, nous pouvons transformer la série chronologique en calculant le logarithme naturel des données originales: Ici, nous pouvons voir que la taille des fluctuations saisonnières et des fluctuations aléatoires dans la série temporelle log-transformée semblent être à peu près constantes dans le temps et ne Ne dépendent pas du niveau de la série chronologique. Ainsi, la série temporelle log-transformée peut probablement être décrite en utilisant un modèle additif. Décomposer les séries temporelles La décomposition d'une série chronologique consiste à la séparer en composantes constituantes, qui sont habituellement une composante de tendance et une composante irrégulière, et s'il s'agit d'une série temporelle saisonnière, une composante saisonnière. Décomposition des données non saisonnières Une série chronologique non saisonnière se compose d'une composante de tendance et d'une composante irrégulière. La décomposition de la série chronologique implique d'essayer de séparer les séries chronologiques de ces composantes, c'est-à-dire d'estimer la composante de la tendance et la composante irrégulière. Pour estimer la composante de tendance d'une série temporelle non saisonnière qui peut être décrite à l'aide d'un modèle additif, il est courant d'utiliser une méthode de lissage, comme le calcul de la moyenne mobile simple des séries chronologiques. La fonction SMA () du paquet 8220TTR8221 R peut être utilisée pour lisser les données de séries temporelles en utilisant une moyenne mobile simple. Pour utiliser cette fonction, nous devons d'abord installer le paquet 8220TTR8221 R (pour savoir comment installer un paquet R, voir Comment installer un paquet R). Une fois que vous avez installé le paquet 8220TTR8221 R, vous pouvez charger le paquet 8220TTR8221 R en tapant: Vous pouvez ensuite utiliser la fonction 8220SMA () 8221 pour lisser les données de séries temporelles. Pour utiliser la fonction SMA (), vous devez spécifier l'ordre (span) de la moyenne mobile simple, en utilisant le paramètre 8220n8221. Par exemple, pour calculer une moyenne mobile simple de l'ordre 5, on place n5 dans la fonction SMA (). Par exemple, comme nous l'avons vu ci-dessus, la série chronologique de l'âge de décès de 42 rois successifs d'Angleterre est non saisonnière et peut probablement être décrite à l'aide d'un modèle additif puisque les fluctuations aléatoires des données sont à peu près constantes en taille Temps: Ainsi, nous pouvons essayer d'estimer la composante de tendance de cette série de temps en lissant en utilisant une moyenne mobile simple. Pour lisser la série chronologique à l'aide d'une moyenne mobile simple de l'ordre 3, et tracer les données de la série chronologique lissée, nous tapons: Il semble toujours y avoir beaucoup de fluctuations aléatoires dans la série chronologique lissée en utilisant une moyenne mobile simple d'ordre 3. Ainsi, pour estimer la composante de la tendance avec plus de précision, nous pourrions vouloir essayer de lisser les données avec une moyenne mobile simple d'un ordre supérieur. Cela prend un peu d'essai et d'erreur, pour trouver la bonne quantité de lissage. Par exemple, on peut essayer d'utiliser une moyenne mobile simple d'ordre 8: Les données lissées avec une moyenne mobile simple d'ordre 8 donnent une image plus claire de la composante de tendance et on peut voir que l'âge de mort des rois anglais semble Ont diminué d'environ 55 ans à environ 38 ans pendant le règne des 20 premiers rois, puis augmenté après cela à environ 73 ans à la fin du règne du 40e roi dans la série chronologique. Décomposition des données saisonnières Une série temporelle saisonnière comprend une composante tendancielle, une composante saisonnière et une composante irrégulière. La décomposition de la série chronologique consiste à séparer les séries temporelles en ces trois composantes, c'est-à-dire à estimer ces trois composantes. Pour estimer la composante de tendance et la composante saisonnière d'une série temporelle saisonnière qui peut être décrite à l'aide d'un modèle additif, nous pouvons utiliser la fonction 8220decompose () 8221 dans R. Cette fonction estime les composantes tendances, saisonnières et irrégulières d'une série temporelle qui Peut être décrite en utilisant un modèle additif. La fonction 8220decompose () 8221 renvoie un objet de liste comme résultat, où les estimations de la composante saisonnière, de la composante de tendance et de la composante irrégulière sont stockées dans des éléments nommés de cette liste, appelés respectivement 8220seasonal8221, 8220trend8221 et 8220random8221. Par exemple, comme nous l'avons vu plus haut, la série chronologique du nombre de naissances par mois dans la ville de New York est saisonnière avec un pic chaque été et chaque hiver et peut probablement être décrite en utilisant un modèle additif puisque les fluctuations saisonnières et aléatoires semblent Les valeurs estimées des composantes saisonnières, tendancielles et irrégulières sont maintenant stockées dans des variables de naissances, de séries, de séries de naissances, de tendances de la natalité et des séries de naissances, selon l'âge. Par exemple, nous pouvons imprimer les valeurs estimées de la composante saisonnière en tapant: Les facteurs saisonniers estimés sont donnés pour les mois de janvier à décembre et sont les mêmes pour chaque année. Le plus important facteur saisonnier est celui de juillet (environ 1,46), et le plus bas pour février (environ -2,08), ce qui indique qu'il semble y avoir un pic de naissances en juillet et un creux de naissances en février de chaque année. Nous pouvons tracer la tendance estimée, les composantes saisonnières et les composantes irrégulières de la série chronologique en utilisant la fonction 8220plot () 8221, par exemple: La courbe ci-dessus montre la série chronologique originale (en haut), la composante de tendance estimée La composante saisonnière estimée (troisième du haut) et la composante irrégulière estimée (en bas). On constate que la composante tendancielle estimée montre une légère diminution, passant d'environ 24 en 1947 à environ 22 en 1948, suivie d'une augmentation régulière d'environ 27 en 1959. Ajustement saisonnier Si vous avez une série temporelle saisonnière qui peut être décrite en utilisant Un modèle additif, vous pouvez ajuster les séries chronologiques en fonction de l'estimation de la composante saisonnière et soustraire la composante saisonnière estimée de la série chronologique initiale. Nous pouvons le faire en utilisant l'estimation de la composante saisonnière calculée par la fonction 8220decompose () 8221. Par exemple, pour ajuster les séries temporelles du nombre de naissances par mois à New York, nous pouvons estimer la composante saisonnière en utilisant 8220decompose () 8221, puis soustraire la composante saisonnière de la série chronologique originale: Désaisonnalisées, en utilisant la fonction 8220plot () 8221, en tapant: Vous pouvez constater que la variation saisonnière a été supprimée de la série chronologique corrigée des variations saisonnières. La série chronologique corrigée des variations saisonnières ne contient plus que la composante tendance et une composante irrégulière. Prévisions utilisant le lissage exponentiel Le lissage exponentiel peut être utilisé pour établir des prévisions à court terme pour les données de séries chronologiques. Lissage exponentiel simple Si vous avez une série temporelle qui peut être décrite en utilisant un modèle additif avec un niveau constant et aucune saisonnalité, vous pouvez utiliser le lissage exponentiel simple pour faire des prévisions à court terme. La méthode de lissage exponentiel simple fournit un moyen d'estimer le niveau au point temporel actuel. Le lissage est contrôlé par le paramètre alpha pour l'estimation du niveau à l'instant actuel. La valeur de alpha est comprise entre 0 et 1. Les valeurs d'alpha qui sont proches de 0 signifient que peu de poids est placé sur les observations les plus récentes lors des prévisions de valeurs futures. Par exemple, le fichier robjhyndmantsdldatahurstprecip1.dat contient les précipitations annuelles totales en pouces pour Londres, à partir de 1813-1912 (données originales de Hipel et McLeod, 1994). Nous pouvons lire les données dans R et le tracer en tapant: Vous pouvez voir à partir du graphique qu'il ya un niveau à peu près constant (la moyenne reste constante à environ 25 pouces). Les fluctuations aléatoires des séries temporelles semblent être à peu près constantes dans le temps, il est donc probablement approprié de décrire les données en utilisant un modèle additif. Ainsi, nous pouvons faire des prévisions en utilisant un lissage exponentiel simple. Pour faire des prévisions utilisant le lissage exponentiel simple dans R, nous pouvons adapter un modèle prédictif simple de prédiction de lissage en utilisant la fonction 8220HoltWinters () 8221 dans R. Pour utiliser HoltWinters () pour le lissage exponentiel simple, nous devons définir les paramètres betaFALSE et gammaFALSE dans le HoltWinters () (les paramètres bêta et gamma sont utilisés pour le lissage exponentiel Holt8217s, ou lissage exponentiel Holt-Winters, comme décrit ci-dessous). La fonction HoltWinters () renvoie une variable de liste, qui contient plusieurs éléments nommés. Par exemple, pour utiliser le lissage exponentiel simple pour faire des prévisions pour la série chronologique des précipitations annuelles à Londres, nous tapons: La sortie de HoltWinters () nous indique que la valeur estimée du paramètre alpha est d'environ 0,024. Ceci est très proche de zéro, nous indiquant que les prévisions sont basées à la fois sur des observations récentes et moins récentes (bien qu'un peu plus de poids soit placé sur les observations récentes). Par défaut, HoltWinters () ne fait que des prévisions pour la même période couverte par notre série chronologique originale. Dans ce cas, notre série chronologique originale comprenait des précipitations pour Londres de 1813 à 1912, donc les prévisions sont également pour 1813-1912. Dans l'exemple ci-dessus, nous avons stocké la sortie de la fonction HoltWinters () dans la variable de liste 8220rainseriesforecasts8221. Les prévisions faites par HoltWinters () sont stockées dans un élément nommé de cette variable de liste appelée 8220fitted8221, nous pouvons donc obtenir leurs valeurs en tapant: Nous pouvons tracer la série chronologique d'origine en fonction des prévisions en tapant: Noir, et les prévisions comme une ligne rouge. La série chronologique des prévisions est beaucoup plus fluide que la série temporelle des données originales ici. Pour mesurer l'exactitude des prévisions, nous pouvons calculer la somme des erreurs carrées pour les erreurs de prévision dans l'échantillon, c'est-à-dire les erreurs de prévision pour la période couverte par notre série chronologique initiale. La somme de carré-erreurs est stockée dans un élément nommé de la variable de liste 8220rainseriesforecasts8221 appelée 8220SSE8221, de sorte que nous pouvons obtenir sa valeur en tapant: C'est-à-dire ici la somme de carré-erreurs est 1828.855. Il est courant dans le lissage exponentiel simple d'utiliser la première valeur de la série chronologique comme valeur initiale du niveau. Par exemple, dans la série chronologique des précipitations à Londres, la première valeur est de 23,56 (pouces) pour les précipitations en 1813. Vous pouvez spécifier la valeur initiale du niveau dans la fonction HoltWinters () à l'aide du paramètre 8220l. start8221. Par exemple, pour faire des prévisions avec la valeur initiale du niveau fixé à 23.56, nous tapons: Comme expliqué ci-dessus, par défaut HoltWinters () ne fait que des prévisions pour la période couverte par les données originales, soit 1813-1912 pour la précipitation des séries chronologiques. Nous pouvons faire des prévisions pour d'autres points de temps en utilisant la fonction 8220forecast. HoltWinters () 8221 dans le package R 8220forecast8221. Pour utiliser la fonction forecast. HoltWinters (), nous devons d'abord installer le package 8220forecast8221 R (pour savoir comment installer un package R, voir Comment installer un package R). Une fois que vous avez installé le paquet 8220forecast8221 R, vous pouvez charger le paquet 8220forecast8221 R en tapant: Lorsque vous utilisez la fonction forecast. HoltWinters (), comme premier argument (entrée), vous passez le modèle prédictif que vous avez déjà installé à l'aide du Fonction HoltWinters (). Par exemple, dans le cas de la série chronologique des précipitations, nous avons stocké le modèle prédictif fait en utilisant HoltWinters () dans la variable 8220rainseriesforecasts8221. Vous spécifiez combien d'autres points de temps vous souhaitez faire des prévisions en utilisant le paramètre 8220h8221 de forecast. HoltWinters (). Par exemple, pour faire une prévision des précipitations pour les années 1814-1820 (8 ans de plus) en utilisant forecast. HoltWinters (), nous tapons: La fonction forecast. HoltWinters () vous donne la prévision pour un an, un intervalle de prédiction de 80 pour La prévision et un intervalle de prévision de 95 pour la prévision. Par exemple, la prévision des précipitations pour 1920 est d'environ 24,68 pouces, avec un intervalle de prédiction de 95 (16,24, 33,11). Pour tracer les prévisions faites par forecast. HoltWinters (), nous pouvons utiliser la fonction 8220plot. forecast () 8221: Ici, les prévisions pour 1913-1920 sont tracées sous la forme d'une ligne bleue, l'intervalle de prédiction de 80 comme zone orange ombragée et 95 comme zone jaune ombragée. Les erreurs 8216forecast8217 sont calculées comme les valeurs observées moins les valeurs prédites, pour chaque point temporel. Nous ne pouvons que calculer les erreurs de prévision pour la période couverte par notre série chronologique initiale, qui est 1813-1912 pour les données de précipitations. Comme nous l'avons mentionné plus haut, une mesure de la précision du modèle prédictif est la somme des erreurs carrées (SSE) pour les erreurs de prévision dans l'échantillon. Les erreurs de prévision dans l'échantillon sont stockées dans l'élément nommé 8220residuals8221 de la variable list renvoyée par forecast. HoltWinters (). Si le modèle prédictif ne peut être amélioré, il ne devrait y avoir aucune corrélation entre les erreurs de prévision pour les prédictions successives. En d'autres termes, s'il existe des corrélations entre les erreurs de prévision pour les prévisions successives, il est probable que les prévisions de lissage exponentielles simples pourraient être améliorées par une autre technique de prévision. Pour déterminer si tel est le cas, on peut obtenir un corrélogramme des erreurs de prévision dans l'échantillon pour les lags 1-20. Nous pouvons calculer un corrélogramme des erreurs de prévision en utilisant la fonction 8220acf () 8221 dans R. Pour spécifier le décalage maximal que nous voulons examiner, nous utilisons le paramètre 8220lag. max8221 dans acf (). Par exemple, pour calculer un corrélogramme des erreurs de prévision dans l'échantillon pour les données de précipitations de Londres pour les lags 1-20, nous tapons: Vous pouvez voir à partir du corrélogramme échantillon que l'autocorrélation au retard 3 touche juste les limites de signification. Pour vérifier s'il existe des indices significatifs de corrélations non nulles aux intervalles de 1 à 20, nous pouvons effectuer un test de Ljung-Box. Cela peut être fait en R en utilisant la fonction 8220Box. test () 8221. Le délai maximal que nous voulons examiner est spécifié à l'aide du paramètre 8220lag8221 dans la fonction Box. test (). Par exemple, pour tester s'il ya des autocorrélations non nulles aux intervalles de 1 à 20, pour les erreurs de prévision dans les échantillons pour les données de précipitations de Londres, nous tapons: Ici, la statistique du test de Ljung-Box est de 17,4 et la valeur de p est de 0,6 , De sorte qu'il existe peu de signes d'auto-corrélations non nulles dans les erreurs de prévision dans les échantillons aux intervalles 1-20. Pour être sûr que le modèle prédictif ne peut pas être amélioré, il est également une bonne idée de vérifier si les erreurs de prévision sont normalement distribuées avec moyenne zéro et constante variance. Pour vérifier si les erreurs de prévision ont une variance constante, nous pouvons faire un graphique temporel des erreurs de prévision dans l'échantillon: Le graphique montre que les erreurs de prévision dans l'échantillon semblent avoir une variance à peu près constante dans le temps, bien que la taille des fluctuations Le début de la série chronologique (1820-1830) peut être légèrement inférieur à celui des dates ultérieures (par exemple 1840-1850). Pour vérifier si les erreurs de prévision sont normalement distribuées avec un zéro moyen, nous pouvons tracer un histogramme des erreurs de prévision, avec une courbe normale superposée qui a la moyenne de zéro et le même écart type que la distribution des erreurs de prévision. Pour ce faire, nous pouvons définir une fonction R 8220plotForecastErrors () 8221, ci-dessous: Vous devrez copier la fonction ci-dessus dans R pour l'utiliser. Vous pouvez ensuite utiliser plotForecastErrors () pour tracer un histogramme (avec une courbe normale superposée) des erreurs de prévision pour les prévisions de précipitations: Le graphique montre que la distribution des erreurs de prévision est approximativement centrée sur zéro et est plus ou moins normalement distribuée Il semble être légèrement biaisé à droite par rapport à une courbe normale. Cependant, l'asymétrie droite est relativement faible et il est donc plausible que les erreurs de prévision soient normalement distribuées avec un zéro moyen. Le test de Ljung-Box a montré qu'il y a peu d'évidence d'autocorrélations non nulles dans les erreurs de prévision dans l'échantillon, et la distribution des erreurs de prévision semble être normalement distribuée avec un zéro moyen. Cela suggère que la méthode de lissage exponentiel simple fournit un modèle prédictif adéquat pour les précipitations de Londres, qui ne peut probablement pas être améliorée. En outre, les hypothèses selon lesquelles les intervalles de prédiction des 80 et 95 étaient fondés sur (qu'il n'y a pas d'autocorrélation dans les erreurs de prévision et les erreurs de prévision sont normalement distribuées avec une moyenne nulle et une variance constante) sont probablement valides. Holt8217s Lissage exponentiel Si vous avez une série chronologique qui peut être décrite en utilisant un modèle additif avec une tendance croissante ou décroissante et aucune saisonnalité, vous pouvez utiliser le lissage exponentiel Holt8217s pour faire des prévisions à court terme. Le lissage exponentiel Holt8217s estime le niveau et la pente au point temporel actuel. Le lissage est contrôlé par deux paramètres, alpha, pour l'estimation du niveau au point de temps courant, et bêta pour l'estimation de la pente b de la composante de tendance au point de temps courant. Comme pour le lissage exponentiel simple, les paramètres alpha et bêta ont des valeurs comprises entre 0 et 1, et des valeurs proches de 0 signifient que peu de poids est placé sur les observations les plus récentes lors de la prévision de valeurs futures. Un exemple d'une série temporelle qui peut probablement être décrite à l'aide d'un modèle additif avec une tendance et pas de saisonnalité est la série chronologique du diamètre annuel des jupes de femmes à l'ourlet, de 1866 à 1911. Les données sont disponibles dans le fichier robjhyndmantsdldatarobertsskirts. Dat (données originales d'Hipel et McLeod, 1994). Nous pouvons lire et tracer les données en R en tapant: Nous pouvons voir à partir de l'intrigue qu'il y avait une augmentation du diamètre de l'ourlet d'environ 600 en 1866 à environ 1050 en 1880, et qu'ensuite le diamètre de l'ourlet a diminué à environ 520 en 1911 Pour utiliser HoltWinters () pour le lissage exponentiel de Holt8217s, nous avons besoin de définir le paramètre gammaFALSE (le paramètre gamma est utilisé pour le lissage exponentiel de Holt-Winters, comme décrit ci). Par exemple, pour utiliser le lissage exponentiel Holt8217s pour ajuster un modèle prédictif pour le diamètre du bord de jupe, on tape: La valeur estimée de alpha est de 0,84 et de beta de 1,00. Elles sont toutes deux élevées, ce qui nous indique que l'estimation de la valeur actuelle du niveau et de la pente b de la composante de la tendance repose essentiellement sur des observations très récentes dans la série chronologique. Cela fait un bon sens intuitif, puisque le niveau et la pente de la série chronologique changent beaucoup au fil du temps. La valeur de la somme des carré-erreurs pour les erreurs de prévision dans l'échantillon est 16954. Nous pouvons tracer la série chronologique originale comme une ligne noire, avec les valeurs prévues comme une ligne rouge en plus de cela, en tapant: Nous Peuvent voir à partir de l'image que les prévisions dans l'échantillon concordent assez bien avec les valeurs observées, bien qu'elles aient tendance à se situer un peu en retrait par rapport aux valeurs observées. Si vous le souhaitez, vous pouvez spécifier les valeurs initiales du niveau et la pente b du composant de tendance en utilisant les arguments 8220l. start8221 et 8220b. start8221 pour la fonction HoltWinters (). Il est courant de régler la valeur initiale du niveau sur la première valeur de la série chronologique (608 pour les données sur les jupes) et la valeur initiale de la pente sur la deuxième valeur moins la première valeur (9 pour les données sur les jupes). Par exemple, pour adapter un modèle prédictif aux données d'ourlet de jupe à l'aide du lissage exponentiel Holt8217s, avec des valeurs initiales de 608 pour le niveau et de 9 pour la pente b de la composante de tendance, nous tapons: Comme pour le lissage exponentiel simple, Pour les temps futurs non couverts par la série chronologique initiale en utilisant la fonction forecast. HoltWinters () dans le package 8220forecast8221. Par exemple, nos données chronologiques pour les ourlets de jupe étaient de 1866 à 1911, donc nous pouvons faire des prédictions pour 1912 à 1930 (19 points de données supplémentaires) et les tracer en tapant: Les prévisions sont représentées par une ligne bleue 80 intervalles de prédiction comme une zone grisée orange, et les 95 intervalles de prédiction comme une zone jaune ombragée. Comme pour le lissage exponentiel simple, nous pouvons vérifier si le modèle prédictif pourrait être amélioré en vérifiant si les erreurs de prévision dans l'échantillon montrent des autocorrélations non nulles aux décalages 1-20. Par exemple, pour les données d'ourlet de jupe, on peut établir un corrélogramme et effectuer le test de Ljung-Box en tapant: Ici, le corrélogramme montre que l'autocorrélation de l'échantillon pour les erreurs de prévision dans l'échantillon au retard 5 dépasse les limites de signification. Cependant, on peut s'attendre à ce qu'une sur 20 des autocorrélations pour les vingt premiers décalages dépasse les 95 limites de signification par hasard seul. En effet, lorsque nous effectuons le test de Ljung-Box, la valeur de p est de 0,47, ce qui indique qu'il existe peu de signes d'autocorrélations non nulles dans les erreurs de prévision dans les échantillons aux intervalles de 1 à 20. Comme pour le lissage exponentiel simple, nous devons également vérifier que les erreurs de prévision ont une variance constante dans le temps, et sont normalement distribuées avec un zéro moyen. Nous pouvons le faire en faisant un graphique temporel des erreurs de prévision et un histogramme de la distribution des erreurs de prévision avec une courbe normale superposée: Le graphique temporel des erreurs de prévision montre que les erreurs de prévision ont une variance à peu près constante dans le temps. L'histogramme des erreurs de prévision montre qu'il est plausible que les erreurs de prévision soient normalement distribuées avec une moyenne de zéro et une variance constante. Ainsi, le test de Ljung-Box montre qu'il existe peu d'indications d'autocorrélations dans les erreurs de prévision, tandis que le tracé temporel et l'histogramme des erreurs de prévision montrent qu'il est plausible que les erreurs de prévision soient normalement distribuées avec moyenne nulle et constante. Par conséquent, nous pouvons conclure que le lissage exponentiel Holt8217s fournit un modèle prédictif adéquat pour les diamètres de jupe ourlet, qui ne peut probablement pas être améliorée sur. De plus, cela signifie que les hypothèses selon lesquelles les intervalles de prédiction des 80 et 95 étaient basés sont probablement valides. Holt-Winters Exponential Smoothing If you have a time series that can be described using an additive model with increasing or decreasing trend and seasonality, you can use Holt-Winters exponential smoothing to make short-term forecasts. Holt-Winters exponential smoothing estimates the level, slope and seasonal component at the current time point. Smoothing is controlled by three parameters: alpha, beta, and gamma, for the estimates of the level, slope b of the trend component, and the seasonal component, respectively, at the current time point. The parameters alpha, beta and gamma all have values between 0 and 1, and values that are close to 0 mean that relatively little weight is placed on the most recent observations when making forecasts of future values. An example of a time series that can probably be described using an additive model with a trend and seasonality is the time series of the log of monthly sales for the souvenir shop at a beach resort town in Queensland, Australia (discussed above): To make forecasts, we can fit a predictive model using the HoltWinters() function. For example, to fit a predictive model for the log of the monthly sales in the souvenir shop, we type: The estimated values of alpha, beta and gamma are 0.41, 0.00, and 0.96, respectively. The value of alpha (0.41) is relatively low, indicating that the estimate of the level at the current time point is based upon both recent observations and some observations in the more distant past. The value of beta is 0.00, indicating that the estimate of the slope b of the trend component is not updated over the time series, and instead is set equal to its initial value. This makes good intuitive sense, as the level changes quite a bit over the time series, but the slope b of the trend component remains roughly the same. In contrast, the value of gamma (0.96) is high, indicating that the estimate of the seasonal component at the current time point is just based upon very recent observations. As for simple exponential smoothing and Holt8217s exponential smoothing, we can plot the original time series as a black line, with the forecasted values as a red line on top of that: We see from the plot that the Holt-Winters exponential method is very successful in predicting the seasonal peaks, which occur roughly in November every year. To make forecasts for future times not included in the original time series, we use the 8220forecast. HoltWinters()8221 function in the 8220forecast8221 package. For example, the original data for the souvenir sales is from January 1987 to December 1993. If we wanted to make forecasts for January 1994 to December 1998 (48 more months), and plot the forecasts, we would type: The forecasts are shown as a blue line, and the orange and yellow shaded areas show 80 and 95 prediction intervals, respectively. We can investigate whether the predictive model can be improved upon by checking whether the in-sample forecast errors show non-zero autocorrelations at lags 1-20, by making a correlogram and carrying out the Ljung-Box test: The correlogram shows that the autocorrelations for the in-sample forecast errors do not exceed the significance bounds for lags 1-20. Furthermore, the p-value for Ljung-Box test is 0.6, indicating that there is little evidence of non-zero autocorrelations at lags 1-20. We can check whether the forecast errors have constant variance over time, and are normally distributed with mean zero, by making a time plot of the forecast errors and a histogram (with overlaid normal curve): From the time plot, it appears plausible that the forecast errors have constant variance over time. From the histogram of forecast errors, it seems plausible that the forecast errors are normally distributed with mean zero. Thus, there is little evidence of autocorrelation at lags 1-20 for the forecast errors, and the forecast errors appear to be normally distributed with mean zero and constant variance over time. This suggests that Holt-Winters exponential smoothing provides an adequate predictive model of the log of sales at the souvenir shop, which probably cannot be improved upon. Furthermore, the assumptions upon which the prediction intervals were based are probably valid. ARIMA Models Exponential smoothing methods are useful for making forecasts, and make no assumptions about the correlations between successive values of the time series. However, if you want to make prediction intervals for forecasts made using exponential smoothing methods, the prediction intervals require that the forecast errors are uncorrelated and are normally distributed with mean zero and constant variance. While exponential smoothing methods do not make any assumptions about correlations between successive values of the time series, in some cases you can make a better predictive model by taking correlations in the data into account. Autoregressive Integrated Moving Average (ARIMA) models include an explicit statistical model for the irregular component of a time series, that allows for non-zero autocorrelations in the irregular component. Differencing a Time Series ARIMA models are defined for stationary time series. Therefore, if you start off with a non-stationary time series, you will first need to 8216difference8217 the time series until you obtain a stationary time series. If you have to difference the time series d times to obtain a stationary series, then you have an ARIMA(p, d,q) model, where d is the order of differencing used. You can difference a time series using the 8220diff()8221 function in R. For example, the time series of the annual diameter of women8217s skirts at the hem, from 1866 to 1911 is not stationary in mean, as the level changes a lot over time: We can difference the time series (which we stored in 8220skirtsseries8221, see above) once, and plot the differenced series, by typing: The resulting time series of first differences (above) does not appear to be stationary in mean. Therefore, we can difference the time series twice, to see if that gives us a stationary time series: Formal tests for stationarity Formal tests for stationarity called 8220unit root tests8221 are available in the fUnitRoots package, available on CRAN, but will not be discussed here. The time series of second differences (above) does appear to be stationary in mean and variance, as the level of the series stays roughly constant over time, and the variance of the series appears roughly constant over time. Thus, it appears that we need to difference the time series of the diameter of skirts twice in order to achieve a stationary series. If you need to difference your original time series data d times in order to obtain a stationary time series, this means that you can use an ARIMA(p, d,q) model for your time series, where d is the order of differencing used. For example, for the time series of the diameter of women8217s skirts, we had to difference the time series twice, and so the order of differencing (d) is 2. This means that you can use an ARIMA(p,2,q) model for your time series. The next step is to figure out the values of p and q for the ARIMA model. Another example is the time series of the age of death of the successive kings of England (see above): From the time plot (above), we can see that the time series is not stationary in mean. To calculate the time series of first differences, and plot it, we type: The time series of first differences appears to be stationary in mean and variance, and so an ARIMA(p,1,q) model is probably appropriate for the time series of the age of death of the kings of England. By taking the time series of first differences, we have removed the trend component of the time series of the ages at death of the kings, and are left with an irregular component. We can now examine whether there are correlations between successive terms of this irregular component if so, this could help us to make a predictive model for the ages at death of the kings. Selecting a Candidate ARIMA Model If your time series is stationary, or if you have transformed it to a stationary time series by differencing d times, the next step is to select the appropriate ARIMA model, which means finding the values of most appropriate values of p and q for an ARIMA(p, d,q) model. To do this, you usually need to examine the correlogram and partial correlogram of the stationary time series. To plot a correlogram and partial correlogram, we can use the 8220acf()8221 and 8220pacf()8221 functions in R, respectively. To get the actual values of the autocorrelations and partial autocorrelations, we set 8220plotFALSE8221 in the 8220acf()8221 and 8220pacf()8221 functions. Example of the Ages at Death of the Kings of England For example, to plot the correlogram for lags 1-20 of the once differenced time series of the ages at death of the kings of England, and to get the values of the autocorrelations, we type: We see from the correlogram that the autocorrelation at lag 1 (-0.360) exceeds the significance bounds, but all other autocorrelations between lags 1-20 do not exceed the significance bounds. To plot the partial correlogram for lags 1-20 for the once differenced time series of the ages at death of the English kings, and get the values of the partial autocorrelations, we use the 8220pacf()8221 function, by typing: The partial correlogram shows that the partial autocorrelations at lags 1, 2 and 3 exceed the significance bounds, are negative, and are slowly decreasing in magnitude with increasing lag (lag 1: -0.360, lag 2: -0.335, lag 3:-0.321). The partial autocorrelations tail off to zero after lag 3. Since the correlogram is zero after lag 1, and the partial correlogram tails off to zero after lag 3, this means that the following ARMA (autoregressive moving average) models are possible for the time series of first differences: an ARMA(3,0) model, that is, an autoregressive model of order p3, since the partial autocorrelogram is zero after lag 3, and the autocorrelogram tails off to zero (although perhaps too abruptly for this model to be appropriate) an ARMA(0,1) model, that is, a moving average model of order q1, since the autocorrelogram is zero after lag 1 and the partial autocorrelogram tails off to zero an ARMA(p, q) model, that is, a mixed model with p and q greater than 0, since the autocorrelogram and partial correlogram tail off to zero (although the correlogram probably tails off to zero too abruptly for this model to be appropriate) We use the principle of parsimony to decide which model is best: that is, we assume that the model with the fewest parameters is best. The ARMA(3,0) model has 3 parameters, the ARMA(0,1) model has 1 parameter, and the ARMA(p, q) model has at least 2 parameters. Therefore, the ARMA(0,1) model is taken as the best model. An ARMA(0,1) model is a moving average model of order 1, or MA(1) model. This model can be written as: Xt - mu Zt - (theta Zt-1), where Xt is the stationary time series we are studying (the first differenced series of ages at death of English kings), mu is the mean of time series Xt, Zt is white noise with mean zero and constant variance, and theta is a parameter that can be estimated. A MA (moving average) model is usually used to model a time series that shows short-term dependencies between successive observations. Intuitively, it makes good sense that a MA model can be used to describe the irregular component in the time series of ages at death of English kings, as we might expect the age at death of a particular English king to have some effect on the ages at death of the next king or two, but not much effect on the ages at death of kings that reign much longer after that. Shortcut: the auto. arima() function The auto. arima() function can be used to find the appropriate ARIMA model, eg. type 8220library(forecast)8221, then 8220auto. arima(kings)8221. The output says an appropriate model is ARIMA(0,1,1). Since an ARMA(0,1) model (with p0, q1) is taken to be the best candidate model for the time series of first differences of the ages at death of English kings, then the original time series of the ages of death can be modelled using an ARIMA(0,1,1) model (with p0, d1, q1, where d is the order of differencing required). Example of the Volcanic Dust Veil in the Northern Hemisphere Let8217s take another example of selecting an appropriate ARIMA model. The file file robjhyndmantsdldataannualdvi. dat contains data on the volcanic dust veil index in the northern hemisphere, from 1500-1969 (original data from Hipel and Mcleod, 1994). This is a measure of the impact of volcanic eruptions8217 release of dust and aerosols into the environment. We can read it into R and make a time plot by typing: From the time plot, it appears that the random fluctuations in the time series are roughly constant in size over time, so an additive model is probably appropriate for describing this time series. Furthermore, the time series appears to be stationary in mean and variance, as its level and variance appear to be roughly constant over time. Therefore, we do not need to difference this series in order to fit an ARIMA model, but can fit an ARIMA model to the original series (the order of differencing required, d, is zero here). We can now plot a correlogram and partial correlogram for lags 1-20 to investigate what ARIMA model to use: We see from the correlogram that the autocorrelations for lags 1, 2 and 3 exceed the significance bounds, and that the autocorrelations tail off to zero after lag 3. The autocorrelations for lags 1, 2, 3 are positive, and decrease in magnitude with increasing lag (lag 1: 0.666, lag 2: 0.374, lag 3: 0.162). The autocorrelation for lags 19 and 20 exceed the significance bounds too, but it is likely that this is due to chance, since they just exceed the significance bounds (especially for lag 19), the autocorrelations for lags 4-18 do not exceed the signifiance bounds, and we would expect 1 in 20 lags to exceed the 95 significance bounds by chance alone. From the partial autocorrelogram, we see that the partial autocorrelation at lag 1 is positive and exceeds the significance bounds (0.666), while the partial autocorrelation at lag 2 is negative and also exceeds the significance bounds (-0.126). The partial autocorrelations tail off to zero after lag 2. Since the correlogram tails off to zero after lag 3, and the partial correlogram is zero after lag 2, the following ARMA models are possible for the time series: an ARMA(2,0) model, since the partial autocorrelogram is zero after lag 2, and the correlogram tails off to zero after lag 3, and the partial correlogram is zero after lag 2 an ARMA(0,3) model, since the autocorrelogram is zero after lag 3, and the partial correlogram tails off to zero (although perhaps too abruptly for this model to be appropriate) an ARMA(p, q) mixed model, since the correlogram and partial correlogram tail off to zero (although the partial correlogram perhaps tails off too abruptly for this model to be appropriate) Shortcut: the auto. arima() function Again, we can use auto. arima() to find an appropriate model, by typing 8220auto. arima(volcanodust)8221, which gives us ARIMA(1,0,2), which has 3 parameters. However, different criteria can be used to select a model (see auto. arima() help page). If we use the 8220bic8221 criterion, which penalises the number of parameters, we get ARIMA(2,0,0), which is ARMA(2,0): 8220auto. arima(volcanodust, ic8221bic8221)8221. The ARMA(2,0) model has 2 parameters, the ARMA(0,3) model has 3 parameters, and the ARMA(p, q) model has at least 2 parameters. Therefore, using the principle of parsimony, the ARMA(2,0) model and ARMA(p, q) model are equally good candidate models. An ARMA(2,0) model is an autoregressive model of order 2, or AR(2) model. This model can be written as: Xt - mu (Beta1 (Xt-1 - mu)) (Beta2 (Xt-2 - mu)) Zt, where Xt is the stationary time series we are studying (the time series of volcanic dust veil index), mu is the mean of time series Xt, Beta1 and Beta2 are parameters to be estimated, and Zt is white noise with mean zero and constant variance. An AR (autoregressive) model is usually used to model a time series which shows longer term dependencies between successive observations. Intuitively, it makes sense that an AR model could be used to describe the time series of volcanic dust veil index, as we would expect volcanic dust and aerosol levels in one year to affect those in much later years, since the dust and aerosols are unlikely to disappear quickly. If an ARMA(2,0) model (with p2, q0) is used to model the time series of volcanic dust veil index, it would mean that an ARIMA(2,0,0) model can be used (with p2, d0, q0, where d is the order of differencing required). Similarly, if an ARMA(p, q) mixed model is used, where p and q are both greater than zero, than an ARIMA(p,0,q) model can be used. Forecasting Using an ARIMA Model Once you have selected the best candidate ARIMA(p, d,q) model for your time series data, you can estimate the parameters of that ARIMA model, and use that as a predictive model for making forecasts for future values of your time series. You can estimate the parameters of an ARIMA(p, d,q) model using the 8220arima()8221 function in R. Example of the Ages at Death of the Kings of England For example, we discussed above that an ARIMA(0,1,1) model seems a plausible model for the ages at deaths of the kings of England. You can specify the values of p, d and q in the ARIMA model by using the 8220order8221 argument of the 8220arima()8221 function in R. To fit an ARIMA(p, d,q) model to this time series (which we stored in the variable 8220kingstimeseries8221, see above), we type: As mentioned above, if we are fitting an ARIMA(0,1,1) model to our time series, it means we are fitting an an ARMA(0,1) model to the time series of first differences. An ARMA(0,1) model can be written Xt - mu Zt - (theta Zt-1), where theta is a parameter to be estimated. From the output of the 8220arima()8221 R function (above), the estimated value of theta (given as 8216ma18217 in the R output) is -0.7218 in the case of the ARIMA(0,1,1) model fitted to the time series of ages at death of kings. Specifying the confidence level for prediction intervals You can specify the confidence level for prediction intervals in forecast. Arima() by using the 8220level8221 argument. For example, to get a 99.5 prediction interval, we would type 8220forecast. Arima(kingstimeseriesarima, h5, levelc(99.5))8221. We can then use the ARIMA model to make forecasts for future values of the time series, using the 8220forecast. Arima()8221 function in the 8220forecast8221 R package. For example, to forecast the ages at death of the next five English kings, we type: The original time series for the English kings includes the ages at death of 42 English kings. The forecast. Arima() function gives us a forecast of the age of death of the next five English kings (kings 43-47), as well as 80 and 95 prediction intervals for those predictions. The age of death of the 42nd English king was 56 years (the last observed value in our time series), and the ARIMA model gives the forecasted age at death of the next five kings as 67.8 years. We can plot the observed ages of death for the first 42 kings, as well as the ages that would be predicted for these 42 kings and for the next 5 kings using our ARIMA(0,1,1) model, by typing: As in the case of exponential smoothing models, it is a good idea to investigate whether the forecast errors of an ARIMA model are normally distributed with mean zero and constant variance, and whether the are correlations between successive forecast errors. For example, we can make a correlogram of the forecast errors for our ARIMA(0,1,1) model for the ages at death of kings, and perform the Ljung-Box test for lags 1-20, by typing: Since the correlogram shows that none of the sample autocorrelations for lags 1-20 exceed the significance bounds, and the p-value for the Ljung-Box test is 0.9, we can conclude that there is very little evidence for non-zero autocorrelations in the forecast errors at lags 1-20. To investigate whether the forecast errors are normally distributed with mean zero and constant variance, we can make a time plot and histogram (with overlaid normal curve) of the forecast errors: The time plot of the in-sample forecast errors shows that the variance of the forecast errors seems to be roughly constant over time (though perhaps there is slightly higher variance for the second half of the time series). The histogram of the time series shows that the forecast errors are roughly normally distributed and the mean seems to be close to zero. Therefore, it is plausible that the forecast errors are normally distributed with mean zero and constant variance. Since successive forecast errors do not seem to be correlated, and the forecast errors seem to be normally distributed with mean zero and constant variance, the ARIMA(0,1,1) does seem to provide an adequate predictive model for the ages at death of English kings. Example of the Volcanic Dust Veil in the Northern Hemisphere We discussed above that an appropriate ARIMA model for the time series of volcanic dust veil index may be an ARIMA(2,0,0) model. To fit an ARIMA(2,0,0) model to this time series, we can type: As mentioned above, an ARIMA(2,0,0) model can be written as: written as: Xt - mu (Beta1 (Xt-1 - mu)) (Beta2 (Xt-2 - mu)) Zt, where Beta1 and Beta2 are parameters to be estimated. The output of the arima() function tells us that Beta1 and Beta2 are estimated as 0.7533 and -0.1268 here (given as ar1 and ar2 in the output of arima()). Now we have fitted the ARIMA(2,0,0) model, we can use the 8220forecast. ARIMA()8221 model to predict future values of the volcanic dust veil index. The original data includes the years 1500-1969. To make predictions for the years 1970-2000 (31 more years), we type: We can plot the original time series, and the forecasted values, by typing: One worrying thing is that the model has predicted negative values for the volcanic dust veil index, but this variable can only have positive values The reason is that the arima() and forecast. Arima() functions don8217t know that the variable can only take positive values. Clearly, this is not a very desirable feature of our current predictive model. Again, we should investigate whether the forecast errors seem to be correlated, and whether they are normally distributed with mean zero and constant variance. To check for correlations between successive forecast errors, we can make a correlogram and use the Ljung-Box test: The correlogram shows that the sample autocorrelation at lag 20 exceeds the significance bounds. However, this is probably due to chance, since we would expect one out of 20 sample autocorrelations to exceed the 95 significance bounds. Furthermore, the p-value for the Ljung-Box test is 0.2, indicating that there is little evidence for non-zero autocorrelations in the forecast errors for lags 1-20. To check whether the forecast errors are normally distributed with mean zero and constant variance, we make a time plot of the forecast errors, and a histogram: The time plot of forecast errors shows that the forecast errors seem to have roughly constant variance over time. However, the time series of forecast errors seems to have a negative mean, rather than a zero mean. We can confirm this by calculating the mean forecast error, which turns out to be about -0.22: The histogram of forecast errors (above) shows that although the mean value of the forecast errors is negative, the distribution of forecast errors is skewed to the right compared to a normal curve. Therefore, it seems that we cannot comfortably conclude that the forecast errors are normally distributed with mean zero and constant variance Thus, it is likely that our ARIMA(2,0,0) model for the time series of volcanic dust veil index is not the best model that we could make, and could almost definitely be improved upon Links and Further Reading Here are some links for further reading. For a more in-depth introduction to R, a good online tutorial is available on the 8220Kickstarting R8221 website, cran. r-project. orgdoccontribLemon-kickstart . There is another nice (slightly more in-depth) tutorial to R available on the 8220Introduction to R8221 website, cran. r-project. orgdocmanualsR-intro. html . You can find a list of R packages for analysing time series data on the CRAN Time Series Task View webpage . To learn about time series analysis, I would highly recommend the book 8220Time series8221 (product code M24902) by the Open University, available from the Open University Shop . There are two books available in the 8220Use R8221 series on using R for time series analyses, the first is Introductory Time Series with R by Cowpertwait and Metcalfe, and the second is Analysis of Integrated and Cointegrated Time Series with R by Pfaff. Acknowledgements I am grateful to Professor Rob Hyndman. for kindly allowing me to use the time series data sets from his Time Series Data Library (TSDL) in the examples in this booklet. Many of the examples in this booklet are inspired by examples in the excellent Open University book, 8220Time series8221 (product code M24902), available from the Open University Shop . Thank you to Ravi Aranke for bringing auto. arima() to my attention, and Maurice Omane-Adjepong for bringing unit root tests to my attention, and Christian Seubert for noticing a small bug in plotForecastErrors(). Thank you for other comments to Antoine Binard and Bill Johnston. I will be grateful if you will send me (Avril Coghlan) corrections or suggestions for improvements to my email address alc 64 sanger 46 ac 46 uk


No comments:

Post a Comment