Saturday 11 February 2017

Autoregressive Integrated Moving Average Ppt

Modèles de moyenne mobile intégrée Autoregressive (ARIMA) 1. Présentation sur le thème: Modèles de moyenne mobile intégrée Autoregressive (ARIMA) 1. Transcription de la présentation: 2 2 - Techniques de prévision basées sur le lissage exponentiel - Aspects généraux pour les modèles ci-dessus: La somme de deux composantes distinctes (déterministe aléatoire) - Le bruit aléatoire: généré par des chocs indépendants du processus - En pratique: les observations successives montrent la dépendance série 3 - Les modèles ARIMA sont également connus sous le nom de méthode Box-Jenkins - très populaires. Adapté à presque toutes les séries chronologiques à plusieurs reprises générer des prévisions plus précises que d'autres méthodes. - limitations: S'il n'y a pas assez de données, ils peuvent ne pas être mieux à la prévision que les techniques de décomposition ou de lissage exponentiel. Nombre recommandé d'observations au moins Faible stationnarité est requise - Égalité entre les intervalles 3 Modèles ARIMA 7 7 Filtre linéaire - C'est un processus qui convertit l'entrée xt en sortie yt - La conversion implique des valeurs passées, actuelles et futures de l'entrée en La forme d'une sommation avec des poids différents - Time invariant ne dépendent pas du temps - Physically réalisable: la sortie est une fonction linéaire des valeurs actuelles et passées de l'entrée - Stable si dans les filtres linéaires: la stationnarité de la série temporelle d'entrée est également Reflétée dans la sortie 9 Une série temporelle qui remplit ces conditions tend à revenir à sa moyenne et à fluctuer autour de cette moyenne avec une variance constante. Note: La stationnarité stricte requiert, en plus des conditions de faible stationnarité, que la série temporelle doive remplir d'autres conditions concernant sa distribution, y compris l'asymétrie, la kurtosis, etc. 9 - Prendre des instantanés du processus à différents moments observer son comportement: Le temps linéaire et stationnaire - Une force de décélération lentement croissante ACF suggère des déviations par rapport à la stationnarité Déterminer la stationnarité 12 Moyenne mobile de l'infini Entrée xt stationnaire THEN, le processus linéaire avec la série de temps de bruit blanc t est stationnaire 12 Sortie yt stationnaire, avec t chocs aléatoires indépendants, E (t) 0 14 14 La moyenne mobile infini sert de classe générale de modèles pour toute série temporelle stationnaire THEOREM (Monde 1938): N'importe quelle série temporelle faiblement stationnaire déterministe yt peut être représentée comme où l'on peut voir une série chronologique stationnaire d'INTERPRETATION A Comme la somme pondérée des perturbations actuelles et passées 15 15 Moyenne mobile infini: - Impratique pour estimer les poids infinis - Useless en pratique, sauf cas particuliers: i. Modèles de moyenne mobile à ordres finis (MA). Poids pondérés à 0, à l'exception d'un nombre fini de poids ii. Modèles autorégressifs d'ordre fini (AR): les poids sont générés en utilisant seulement un nombre fini de paramètres iii. Méthode moyenne mobile (MA) de processus finis Processus moyen mobile d'ordre q (MA (q)) MA (q). (Q) Autocorrélation de MA (q) Variation de MA (q) Autocorelation de MA (q) 17 t bruit blanc 18 18 Fonction ACF: Aide à identifier le modèle MA (K) pas toujours zéro après le décalage q devient très faible en valeur absolue après le décalage q 19 Premier Ordre Moyenne mobile MA (1) Autocovariance de MA (q) Autocorelation de MA (q) 19 q1 20 20 - Variance moyenne. Stable - Courtes distances où les observations successives tendent à se suivre - Autocorrélation positive - Observations oscillent successivement - Autocorrélation négative 21 Ordre Second Ordre Moyenne MA (2) Autocovariance de MA (q) Autocorelation de MA (q) 21 23 Processus Autoregressif Ordre Fini 23 - Théorème des mondes: nombre infini de poids, non utile dans la prévision de modélisation - Processus MA de l'ordre fini: estimer un nombre fini de poids, placer l'autre égal à zéro Plus ancienne perturbation obsolète pour la prochaine observation seulement nombre fini de perturbations contribuent au courant Valeur des séries temporelles - Tenir compte de toutes les perturbations du passé. Utiliser des modèles autorégressifs estiment infiniment beaucoup de poids qui suivent un modèle distinct avec un petit nombre de paramètres 24 Premier processus Autoregressive Ordre, AR (1) Supposons. Les contributions des perturbations qui sont dans le passé sont petites par rapport aux perturbations plus récentes que le processus a expérimentées. Réfléchir les magnitudes décroissantes des contributions des perturbations du passé, à travers un ensemble de poids infiniment nombreux dans des grandeurs descendantes, telles que The Poids dans les perturbations à partir de la perturbation actuelle et revenir dans le passé: 24 Modèle de décomposition exponentielle 25 Processus autorégressif d'ordre 1 AR (1) AR (1) stationnaire si 25 où POURQUOI AUTOREGRESSIVE. 26 AR moyenne (1) Fonction d'autocovariance AR (1) Fonction d'autocorrélation AR (1) 26 L'ACF pour un processus AR (1) stationnaire a une forme de décroissance exponentielle 28 Processus Autoregressif de Deuxième Ordre, AR (2) 28 Ce modèle peut être représenté Dans la forme infinie MA fournissent les conditions de stationnarité pour yt en termes de 1 2 WHY 1. Infinite MA Apply 31 31 Solutions Les satisfaire l'équation de différence linéaire de deuxième ordre La solution. En fonction des 2 racines m1 et m2 de AR (2) stationnaire: Condition de stationnarité pour les conjugués complexes aib: AR (2) représentation MA infini: 32 32 Fonction moyenne d'autocovariance Pour k0: Pour k0: équations de Yule-Walker 0: Yule Equations de Walker 0: Equations de Yule-Walker 0: Equations de Yule-Walker title32 Fonction d'autocovariance moyenne Pour k0: Pour k0: équations de Yule-Walker 33 33 Fonction d'autocorrélation Solutions A. Résoudre récursivement les équations de Yule-Walker B. Solution générale Les racines m 1 m 2 associées au polynôme 34 34 Cas I: m 1, m 2 racines réelles distinctes c 1, c 2 constantes: peut être obtenu à partir de (0), (1) stationnarité: forme ACF: mélange de 2 exponentiellement Termes de désintégration par exemple Modèle AR (2) Il peut être vu comme un modèle RA ajusté (1) pour lequel une seule expression de décroissance exponentielle comme dans AR (1) ne suffit pas pour décrire le modèle dans l'ACF et ainsi, une expression de décroissance additionnelle est ajoutée En introduisant le second terme de délai y t-2 35 35 Cas II: m 1, m 2 conjugués complexes sous la forme c 1, c 2 constantes particulières forme ACF: facteur d'amortissement sinusoïdal humide R période de fréquence 37 37 processus AR (2) : Yt 40.4yty t-2 et Racines du polynôme: forme ACF réelle: mélange de 2 termes de décroissance exponentielle 38 38 Processus AR (2): yt 40.8yty t-2 et Racines du polynôme: conjugués complexes Forme ACF: sinusoïde amortie (P) stationnaire Si les racines du polynôme sont inférieures à 1 en valeur absolue AR (P) absolue absolue infinie MA représentation Sous la condition précédente 43 43 ACF p th ordre équations de différence linéaire AR (p). - satisfait les équations de Yule-Walker - ACF peut être trouvée à partir des p racines du polynôme associé, par ex. Racines réelles distinctes. - En général, les racines ne seront pas ACF réel. Mélange de décomposition exponentielle et sinusoïde amortie 44 44 ACF - MA (q) processus: outil utile pour identifier l'ordre de processus décroche après lag k - AR (p) processus: mélange de décomposition exponentielle sinusoïdales amorties Manque de fournir des informations sur la commande De AR 45 45 Fonction d'autocorrélation partielle Considérer. - trois variables aléatoires X, Y, Z - Simulation de régression de X sur ZY sur Z Les erreurs sont obtenues à partir de 46 46 Corrélation partielle entre XY après ajustement pour Z: Corrélation entre XY La corrélation partielle peut être considérée comme la corrélation entre deux variables après En fonction du facteur commun qui les affecte 47 47 Fonction d'autocorrélation partielle (PACF) entre yty tk L'autocorrélation entre yty tk après ajustement pour y t-1, y t-2, y tk Processus AR (p): PACF entre yty tk Pour kp doit être égal à zéro Considérons - une série temporelle stationnaire yt pas nécessairement un processus AR - Pour toute valeur fixe k, les équations de Yule-Walker pour l'ACF d'un processus AR (p) p doivent être égales à zéro Considérons - une série temporelle fixe yt Pas nécessairement un processus AR - Pour toute valeur fixe k, les équations de Yule-Walker pour l'ACF d'un processus AR (p) 48 48 Notation matricielle Solutions Pour tout k donné, k 1,2, le dernier coefficient est appelé autocorrélation partielle Coefficient de décroissance AR (2) MA (1) MA (2) Dégradation du motif AR (p) Processus: Identifier l'ordre d'un processus AR en utilisant le PACF 1) AR (2) Découpe après le 2 e décalage 50 50 Invertibilité des modèles MA Processus de moyenne mobile inverse: Le processus MA (q) est inversible s'il a une représentation infinie absolue en AR infini. On peut montrer: La représentation AR infini pour (Q) 51 51 Obtenir Nous avons besoin Condition de l'inversibilité Les racines du polynôme associé sont inférieures à 1 en valeur absolue Un processus MA (q) inversible peut alors être écrit comme un processus AR infini 52 52 PACF d'une MA (q) (ARMA) Process ARMA (p, q) Modèle ARMA (p, q) Ajustez le modèle de décroissance exponentielle en ajoutant un modèle de décomposition exponentielle Quelques termes 54 54 Stationarité du processus ARMA (p, q) Relatif à la composante AR ARMA (p, q) stationnaire si les racines du polynôme inférieur à un en valeur absolue ARMA (p, q) a une représentation MA infini 55 55 Invertibilité du processus ARMA (p, q) Invertibilité du processus ARMA lié au composant MA Vérification à travers les racines du polynôme Si les racines inférieures à 1 en valeur absolue alors ARMA (p, q) est inversible a une représentation infinie Coefficients: 60 60 Processus non stationnaire Pas de niveau constant, présentent un comportement homogène dans le temps yt est homogène, non stationnaire si - Il n'est pas stationnaire - Son première différence, wtyt - y t-1 (1-B) yt ou des différences d'ordre supérieur wt (1- (P, d, q) Si la différence d, wt (1-B) dyt produit un ARMA stationnaire (p, q) Le processus ARIMA (p, d, q) 61 61 Le processus de marche aléatoire ARIMA (0,1,0) Le modèle non stationnaire le plus simple La première différence élimine la dépendance sérielle donne un processus de bruit blanc 62 62 yt 20y t-1 et Evidence of non - Processus stationnaire - échantillon ACF. Mort lentement - échantillon PACF: significatif au premier lag - échantillon Valeur PACF au décalage 1 proche de 1 première différence - schéma temporel de w t. Stationnaire-échantillon ACF PACF: ne montrent aucune valeur significative - Utiliser ARIMA (0,1,0) 63 63 Le processus de marche aléatoire ARIMA (0,1,1) La représentation AR infini, dérivée de: ARIMA (0,1,1 (IMA (1,1)): exprimée en moyenne mobile pondérée exponentielle (EWMA) de toutes les valeurs passées 64 64 ARIMA (0,1,1) - La moyenne du processus se déplace vers le haut dans le temps - échantillon ACF: matrices Relativement lent - Exemple de PACF: 2 valeurs significatives aux décalages 1 2 - La première différence semble stationnaire - Exemple ACF PACF: un modèle MA (1) serait approprié pour la première différence, son ACF coupe après le premier décalage : AR (2) Vérifiez les racinesAutoregressive Integrated Moving Average (ARIMA) Connue sous le nom de méthode Box-Jenkins. Présentation sur le thème: Moyenne mobile autorégressive intégrée (ARIMA) Connue sous le nom de méthode Box-Jenkins. La méthodologie d'ARIMA met l'accent non seulement sur la construction d'équations simples ou sur des modèles d'équations simultanées, mais aussi sur l'analyse des propriétés probabilistes ou stochastiques des séries temporelles économiques sur leur Propre ensemble de données. Contrairement aux modèles de régression dans lesquels Yi est expliqué par k régresseur X 1, X 2, X 3. X k les modèles de séries temporelles de type BJ permettent à Y i d'être expliqué par des valeurs passées ou retardées de Y lui-même et une erreur stochastique termes. Pour cette raison, les modèles ARIMA sont parfois appelés un modèle théorique parce qu'ils ne sont pas dérivés de toute théorie économique et les théories économiques sont souvent la base des modèles d'équations simultanées. Notez que l'accent mis sur ce sujet est sur les modèles ARIMA univariés, car il s'agit d'une seule série temporelle. Mais peut être étendu aux modèles ARIMA multivariés. 3 Travaillons avec les données de séries chronologiques du PIB pour les États-Unis données dans le tableau. Un graphique de cette série temporelle est donné dans les figures 1 (PIB non différencié) et 2 (premier PIB différencié). Le PIB en forme de niveau est non stationnaire, mais dans (la première) forme différente, il est stationnaire. Si une série temporelle est immobile, elle peut s'adapter au modèle ARIMA de diverses manières. Un processus autorégressif (AR) Soit Y t le PIB au temps t. Si nous modélisons Y t comme (Y t -) 1 (Y t-1) ut où est la moyenne de Y et où ut est un terme d'erreur aléatoire non corrélé avec une moyenne nulle et une variance constante 2 (c'est-à-dire un bruit blanc) On dit que Y t suit un processus stochastique autorégressif de premier ordre ou AR (l) 4 Ici, la valeur de Y au temps t dépend de sa valeur dans la période de temps précédente et d'un terme aléatoire les valeurs Y sont exprimées comme étant des écarts par rapport à Leur valeur moyenne. En d'autres termes, ce modèle indique que la valeur de prévision de Y à l'instant t est simplement une certaine proportion (l) de sa valeur au temps (t-1) plus un choc aléatoire ou une perturbation au temps t encore que les valeurs Y soient exprimées autour de leur valeurs moyennes. Mais dans le modèle, (Y t -) 1 (Y t-1) 2 (Y t-2) u t Y t suit un processus autorégressif de second ordre ou AR (2). La valeur de Y à l'instant t dépend de sa valeur dans les deux périodes de temps précédentes, les valeurs Y étant exprimées autour de leur valeur moyenne. En général, (Y t -) 1 (Y t-1) 2 (Y t-2). P (Y t-p) u t Ici, Y t est un ordre p autorégressif ou AR (p), processus. Supposons que nous modélisons Y comme suit: Y t 0 u t 1 u t-1 où est une constante et u t comme précédemment, est le terme d'erreur stochastique de bruit blanc. Ici, Y au temps t est égal à une constante plus une moyenne mobile des termes d'erreur courants et passés. Ainsi, dans le cas présent, Y suit une moyenne mobile du premier ordre ou un processus MA (1). Mais si Y reprend l'expression Y t 0 u t 1 u t-1 2 u t-2 alors c'est un processus MA (2). En général, Yt 0 u t 1 u t-1 2 u t-2. Q u t-q est un processus MA (q). En bref, un processus de moyenne mobile est simplement une combinaison linéaire de termes d'erreur de bruit blanc. 6 Un processus ARRE (Autoregressive and Moving Average) Il est fort probable que Y ait des caractéristiques de AR et de MA et qu'il soit donc ARMA. Ainsi, Y t suit un processus ARMA (1, 1) s'il peut être écrit comme Y t 1 Y t-1 0 u t 1 u t-1 car il ya un terme autorégressif et un terme moyen mobile et représente un terme constant. En général, dans un processus ARMA (p, q), il y aura p termes autorégressifs et q moyenne mobile. Processus de moyenne mobile intégrée autorégressive (ARIMA) De nombreuses séries chronologiques économiques sont non stationnaires, c'est-à-dire intégrées. 7 Si une série temporelle est intégrée de l'ordre 1, c'est-à-dire qu'elle est I (1), ses premières différences sont I (0), c'est-à-dire stationnaires. De même, si une série temporelle est I (2), sa seconde différence est I (0). En général, si une série temporelle est I (d), après avoir différencié d fois, on obtient une série I (0). Par conséquent, si dans une série de temps d fois différence le rendre stationnaire, alors il est ARIMA (p, d, q) modèle est appelé un modèle de la série temporelle moyenne mobile intégrée autorégressive. Où p désigne le nombre de termes autorégressifs, d le nombre de fois où la série doit être différenciée avant qu'elle ne devienne stationnaire, et q le nombre de termes de moyenne mobile. Une série temporelle ARIMA (2,1,2) doit être différenciée une fois (d 1) devient stationnaire et elle a deux AR et deux termes MA. Le point important à noter est que pour utiliser la méthode de Box-Jenkins, nous devons avoir soit une série chronologique stationnaire, soit une série temporelle qui est stationnaire après une ou plusieurs différenciations. La raison de l'hypothèse de stationnarité peut être expliquée comme suit: L'objectif de B-J Box-Jenkins est d'identifier et d'estimer un modèle statistique qui peut être interprété comme ayant généré les données de l'échantillon. Si ce modèle estimé doit ensuite être utilisé pour la prévision, il faut supposer que les caractéristiques de ce modèle sont constantes dans le temps, et particulièrement sur les périodes de temps futures. Ainsi, la raison pour laquelle on exige des données stationnaires est que tout modèle qui est déduit de ces données peut être interprété comme stationnaire ou stable, fournissant ainsi une base valide pour la prévision. 9 LA MÉTHODOLOGIE BOX-JENKINS (BJ) En examinant une série chronologique, comme la série du PIB des États-Unis, Comment savoir si elle suit un processus purement AR (et si oui, quelle est la valeur de p) ou un processus purement MA (et si oui, quelle est la valeur de q) ou un processus ARMA (et si oui, Sont les valeurs de p et q) ou un processus ARIMA. Dans ce cas, nous devons connaître les valeurs de p, d et q. La méthodologie BJ répondant à ces questions. La méthode consiste en quatre étapes: Étape 1. Identification: C'est-à-dire, trouver les valeurs appropriées de p, d et q en utilisant le corrélogramme et le corrélogramme partiel et Augmenté Dickey Fuller Test. Etape 2. Estimation: Après avoir identifié les valeurs p et q appropriées, l'étape suivante consiste à estimer les paramètres des termes autorégressifs et des moyennes mobiles inclus dans le modèle. Parfois, ce calcul peut être fait par des moindres carrés simples, mais nous devrons parfois recourir à des méthodes d'estimation non linéaires (en paramètre). Puisque cette tâche est maintenant couramment gérée par plusieurs paquets statistiques, nous n'avons pas à nous soucier des mathématiques réelles de l'estimation. Étape 3. Vérification de diagnostic: Après avoir choisi un modèle ARIMA particulier et avoir estimé ses paramètres, nous verrons ensuite si le modèle choisi correspond assez bien aux données, car il est possible qu'un autre modèle ARIMA fasse le travail aussi bien. 12 C'est pourquoi la modélisation ARIMA de Box-Jenkins est plus un art qu'une science, une grande habileté est nécessaire pour choisir le modèle ARIMA approprié. Un test simple du modèle choisi est de voir si les résidus estimés à partir de ce modèle sont le bruit blanc si elles sont, nous pouvons accepter l'ajustement particulier si non, nous devons recommencer. Ainsi, la méthodologie de BJ est un processus itératif. Étape 4. Prévision: Une des raisons de la popularité de la modélisation ARIMA est son succès dans la prévision. Dans de nombreux cas, les prévisions obtenues par cette méthode sont plus fiables que celles obtenues à partir de la modélisation économétrique traditionnelle, en particulier pour les prévisions à court terme. Examinons ces quatre étapes en détail. Tout au long, nous utiliserons les données du PIB données dans le tableau. 13 IDENTIFICATION Les principaux outils d'identification sont la fonction d'autocorrélation (ACF), la fonction d'autocorrélation partielle (PACF) et le corrélogramme résultant, qui sont simplement les tracés des ACFs et des PACFs contre la longueur de latence. Le concept d'autocorrélation partielle est analogue au concept de coefficient de régression partielle. Dans le modèle de régression multiple à k variables, le kème coefficient de régression k mesure le taux de variation de la valeur moyenne de la régression et d'un changement d'unité dans le kème régresseur X k, en maintenant l'influence de tous les autres régresseurs constante. 14 De façon similaire, l'autocorrélation partielle kk mesure la corrélation entre les observations de (séries chronologiques) qui sont k périodes de temps séparées après avoir contrôlé pour des corrélations à des décalages intermédiaires (c'est-à-dire un retard inférieur à k). En d'autres termes, l'autocorrélation partielle est la corrélation entre Y t et Y t-k après élimination de l'effet des Y intermédiaires. Dans la figure, nous montrons le corrélogramme et le corrélogramme partiel de la série du PIB. De ce chiffre, deux faits se démarquent: Premièrement, l'ACF diminue très lentement et ACF jusqu'à 23 retards sont individuellement statistiquement significativement différents de zéro, car ils sont tous en dehors des 95 limites de confiance. Deuxièmement, après le premier décalage, le PACF chute de façon spectaculaire, et tous les PACF après le décalage 1 sont statistiquement insignifiants. Étant donné que la série chronologique du PIB des États-Unis n'est pas stationnaire, nous devons la rendre stationnaire avant de pouvoir appliquer la méthode de Box-Jenkins. Dans la figure suivante, nous avons représenté les premières différences du PIB. Contrairement à la figure précédente, nous n'observons aucune tendance dans cette série, suggérant peut-être que la série temporelle du PIB différenciée est stationnaire. Une application formelle du test racine unitaire de Dickey-Fuller montre que c'est bien le cas. Maintenant, nous avons un modèle différent de ACF et PACE Les ACFs aux lags 1, 8 et 12 semblent statistiquement différents de zéro. Environ 95 limites de confiance pour k sont et Mais pour tous les autres décalages ne sont pas statistiquement différents de zéro. Cela est également vrai pour les autocorrélations partielles. 18 Maintenant, comment le corrélogramme donné dans la figure nous permettent de trouver le modèle ARMA de la série chronologique du PIB Nous considérerons seulement la première série différenciée du PIB parce qu'elle est stationnaire. Une façon d'accomplir cela est d'examiner l'ACF et le PACF et le corrélogramme associé d'un certain nombre de processus ARMA, tels que AR (l), AR (2), MA (1), MA (2), ARMA (1, 1), ARIMA (2, 2), et ainsi de suite. Puisque chacun de ces processus stochastiques présente des schémas typiques d'ACF et de PACF, si la série chronologique étudiée correspond à l'un de ces modèles, nous pouvons identifier la série temporelle avec ce processus. Bien sûr, nous devrons appliquer des tests de diagnostic pour savoir si le modèle ARMA choisi est raisonnablement exact. 19 Ce que nous prévoyons de faire est de donner des directives générales (voir le tableau), les références peuvent donner les détails des différents processus stochastiques. Les ACF et les PACF des processus AR (p) et MA (q) ont des motifs opposés dans AR (p) cas où le CA décline géométriquement ou exponentiellement mais le PACF coupe après un certain nombre de décalages alors que le contraire se produit à un MA Q) processus. Tableau: Modèles théoriques de l'ACF et du PACF Type de modèle Modèle typique du modèle ACFTypical de PACF AR (p) Décompose de façon exponentielle ou avec un schéma d'onde sinusoïdale amortie ou les deux Signaux significatifs à travers les décalages p MA (q) Q) Décomposition exponentielle 20 ARIMA Identification du PIB des États-Unis: Le corrélogramme et le corrélogramme partiel du PIB américain stationnaire (après la première différence) pour 1991-IV donné dans la figure montrée Les autocorrélations diminuent jusqu'au décalage 4, sauf aux décalages 8 et 12, les autres ne sont statistiquement pas différents de zéro (les lignes continues représentées sur cette figure donnent les limites de confiance approximatives de 95). Les autocorrélations partielles avec les pointes au décalage 1, 8 et 12 semblent statistiquement significatives, mais les autres ne le sont pas si le coefficient de corrélation partielle était significatif seulement au décalage 1, on aurait pu l'identifier comme un modèle AR (l). Supposons donc que le processus qui a généré le PIB (premier différencié) est au plus un processus AR (12). Nous n'avons pas à inclure tous les termes AR à 12, seulement les termes AR aux décalages 1, 8 et 12 sont significatifs. 21 ESTIMATION DU MODÈLE ARIMA Soit les premières différences du PIB américain. Ensuite, notre modèle provisoirement identifié est l'utilisation d'Eviews, nous avons obtenu les estimations suivantes: t (7.7547) (3.4695) () () R 2 d 22 CONTRÔLE DIAGNOSTIQUE Comment savons-nous que le modèle ci-dessus est un ajustement raisonnable aux données Un simple Diagnostic est d'obtenir des résidus à partir du modèle ci-dessus et d'obtenir ACF et PACF de ces résidus, disons, jusqu'à lag 25. L'estimé AC et PACF sont montrés à la figure. Comme le montre cette figure, aucune des autocorrélations et autocorrélations partielles n'est individuellement statistiquement significative. La somme des autocorrélations au 25 carré, comme le montrent les statistiques de Box-Pierce Q et Ljung-Box LB, n'est pas statistiquement significative. Le corrélogramme de l'autocorrélation et de l'autocorrélation partielle donne que les résidus estimés sont purement aléatoires. Par conséquent, il n'est peut-être pas nécessaire de rechercher un autre modèle ARIMA. 24 PRÉVISIONS Supposons que, sur la base du modèle ci-dessus, nous souhaitons prévoir le PIB pour les quatre premiers trimestres de 2000. Mais dans le modèle ci-dessus, la variable dépendante est la variation du PIB par rapport au trimestre précédent. Par conséquent, si nous utilisons le modèle ci-dessus, nous pouvons obtenir les prévisions de variation du PIB entre le premier trimestre de 1992 et le quatrième trimestre de 1991, le deuxième trimestre de 1992 par rapport au premier trimestre de 1992, etc. PIB plutôt que ses changements, nous pouvons annuler la transformation de première différence que nous avions utilisée pour obtenir les changements. (Plus techniquement, nous intégrons les séries de premier ordre.) 25 Pour obtenir la valeur de prévision du PIB (non du PIB) pour. Nous réécrivons le modèle comme Y 1992, I - Y 1991, IV l Y 1991, IV Y 1991, III 8 Y 1989, IV Y 1989, III 12 Y 1988, IV Y 1988, III u 1992-I C'est-à-dire Y 1992, Les valeurs de l, 8 et 12 sont déjà indiquées dans le tableau ci-dessous. Connus à partir de la régression estimée. La valeur de u-1992-I est supposée nulle. Par conséquent, nous pouvons facilement obtenir la valeur de prévision de Y 1992-I. 26 L'estimation numérique de cette valeur de prévision est Y 1992, I () Y 1991, IV Y 1991, III () Y 1989, IV - () Y 1989, III () Y 1988, IV () Y 1988, III u 1992 Ainsi, la valeur prévisionnelle du PIB pour 1992-I est d'environ 4877 milliards de dollars (en dollars de 1987). La valeur réelle du PIB réel pour 1992-I était le milliard de l'erreur de prévision était une surestimation de 3 milliards. (Obsolète) Prévision - Moyenne mobile intégrée autorégressive (ARIMA) Le Microsoft DataMarket est en cours de retrait et cette API a été obsolète. Ce service implémente la Moyenne Mouvante Intégrée Autoregressive (ARIMA) pour produire des prévisions basées sur les données historiques fournies par l'utilisateur. Est-ce que la demande pour un produit spécifique peut augmenter cette année? Puis-je prédire mes ventes de produits pour la période de Noël afin que je puisse planifier efficacement mon inventaire? Les modèles de prévision sont aptes à répondre à ces questions. Compte tenu des données passées, ces modèles examinent les tendances cachées et la saisonnalité pour prédire les tendances futures. Essayez Azure Machine Learning gratuitement Aucune carte de crédit ou abonnement Azure nécessaire. Commencez maintenant gt Ce service Web pourrait être consommé par les utilisateurs potentiellement via une application mobile, via un site Web, ou même sur un ordinateur local, par exemple. Mais le but du service Web est également de servir d'exemple de la façon dont Azure Machine Learning peut être utilisé pour créer des services Web en plus du code R. Avec quelques lignes de code R et des clics d'un bouton dans Azure Machine Learning Studio, une expérience peut être créée avec le code R et publiée en tant que service Web. Le service Web peut ensuite être publié sur le Azure Marketplace et consommé par des utilisateurs et des périphériques à travers le monde sans installation d'infrastructure par l'auteur du service Web. Consommation de service web Ce service accepte 4 arguments et calcule les prévisions ARIMA. Les arguments d'entrée sont: Fréquence - Indique la fréquence des données brutes (tous les jours tous les mois tous les trimestres). Horizon - Calendrier futur des prévisions. Date - Ajouter les nouvelles données de la série temporelle pour le temps. Valeur - Ajouter les nouvelles valeurs de données de séries temporelles. La sortie du service est les valeurs de prévision calculées. entrée de l'échantillon pourrait être: Fréquence - 12 Horizon - 12 Date - 115201221520123152012415201251520126152012715201281520129152012101520121115201212152012 115201321520133152013415201351520136152013715201381520139152013101520131115201312152013 115201421520143152014415201451520146152014715201481520149152014 Value - 3.4793.683.8323.9413.7973.5863.5083.7313.9153.8443.6343.5493.5573.7853.7823.6013.5443.5563.653.7093.6823.511 3.4293.513.5233.5253.6263.6953.7113.7113.6933 .5713.509 Ce service, hébergé sur le Azure Marketplace, est un service OData que l'on peut appeler via les méthodes POST ou GET. Il existe plusieurs façons de consommer le service de manière automatisée (un exemple d'application est ici). Démarrage du code C pour la consommation des services Web: Création d'un service Web Ce service Web a été créé à l'aide d'Azure Machine Learning. Pour un essai gratuit, ainsi que des vidéos d'introduction sur la création d'expériences et la publication de services Web. S'il vous plaît voir azureml. Vous trouverez ci-dessous une capture d'écran de l'expérience qui a créé le service Web et le code d'exemple pour chacun des modules de l'expérience. A partir d'Azure Machine Learning, une nouvelle expérience vide a été créée. Les données d'entrée d'échantillon ont été chargées avec un schéma de données prédéfini. Lié au schéma de données est un module Execute R Script, qui génère le modèle de prévision ARIMA en utilisant auto. arima et les fonctions de prévision de R. Flux d'expérience: Limitations C'est un exemple très simple pour la prévision ARIMA. Comme on peut le voir à partir du code d'exemple ci-dessus, aucune capture d'erreur n'est mise en oeuvre et le service suppose que toutes les variables sont des valeurs positives continues et la fréquence doit être un entier supérieur à 1. La longueur des vecteurs de date et de valeur doit être la même . La variable date doit respecter le format mmddyyyy. Pour des questions fréquemment posées sur la consommation du service Web ou l'édition sur le marché, voir ici.


No comments:

Post a Comment