Autoregressione - Che cos'è, definizione e concetto

Sommario:

Autoregressione - Che cos'è, definizione e concetto
Autoregressione - Che cos'è, definizione e concetto
Anonim

I modelli di autoregressione vengono utilizzati per fare previsioni su variabili ex-post (osservazioni di cui conosciamo bene il valore) in determinati momenti nel tempo, normalmente ordinate cronologicamente.

I modelli autoregressivi, come suggerisce il nome, sono modelli che tornano su se stessi. Cioè, la variabile dipendente e la variabile esplicativa sono le stesse con la differenza che la variabile dipendente sarà in un momento successivo (t) rispetto alla variabile indipendente (t-1).

Diciamo in ordine cronologico perché siamo attualmente al momento (t) del tempo. Se avanziamo di un periodo passiamo a (t + 1) e se torniamo indietro di un periodo andiamo a (t-1).

Poiché vogliamo fare una proiezione, la variabile dipendente deve sempre trovarsi almeno in un periodo di tempo più avanzato rispetto alla variabile indipendente. Quando vogliamo fare proiezioni usando l'autoregressione, la nostra attenzione deve concentrarsi sul tipo di variabile, sulla frequenza delle sue osservazioni e sull'orizzonte temporale della proiezione.

AR (p)

Sono popolarmente conosciuti come AR (p), dove p riceve l'etichetta 'ordine' ed è equivalente al numero di periodi che andremo a ritroso per eseguire la previsione della nostra variabile. Dobbiamo tenere in considerazione che più periodi torniamo indietro o più ordini assegniamo al modello, più potenziali informazioni appariranno nella nostra previsione.

Nella vita reale troviamo previsioni attraverso l'autoregressione nella proiezione delle vendite di un'azienda, previsioni sulla crescita del PIL di un paese, previsioni su budget e tesoreria, ecc.

Stima e previsione: risultato ed errore

La maggior parte della popolazione associa le previsioni al metodo dei minimi quadrati ordinari (OLS) e l'errore di previsione ai residui OLS. Questa confusione può causare seri problemi quando sintetizziamo le informazioni fornite dalle linee di regressione.

Differenza di risultato:

  • Stima: I risultati ottenuti con il metodo OLS sono calcolati dalle osservazioni presenti nel campione e sono stati utilizzati nella retta di regressione.
  • Previsione: le previsioni si basano su un periodo di tempo (t + 1) precedente al periodo di tempo delle osservazioni di regressione (t). I dati di previsione effettivi per la variabile dipendente non sono nel campione.

Differenza di errore:

  • Stima: i residui (u) ottenuti con il metodo OLS sono la differenza tra il valore reale della variabile dipendente (Y) e il valore stimato di (Y) dato dalle osservazioni del campione.

Ricordiamo che il pedice Articolo rappresenta l'i-esima osservazione nel periodo t. La Y con il cappello è il valore stimato date le osservazioni del campione.

  • Previsione: l'errore di previsione è la differenza tra il valore futuro (t + 1) di (Y), e la previsione per (Y) nel futuro (t + 1),. Il valore reale di (Y) per (t + 1) non appartiene al campione.

Curriculum vitae:

  • Le stime ei residui appartengono alle osservazioni che sono all'interno del campione.
  • Le previsioni ei loro errori appartengono ad osservazioni fuori campione.

Esempio teorico di autoregressione

Se vogliamo fare una previsione sul prezzo di skipass per la fine di questa stagione (t) in base ai prezzi della scorsa stagione (t-1), possiamo utilizzare il modello autoregressivo.

La nostra regressione autoregressiva sarebbe:

Questa regressione autoregressiva appartiene ai modelli di autoregressione del primo ordine o più comunemente chiamati AR (1). Il significato di autoregressione è che la regressione viene eseguita sulla stessa variabile skipass ma in un diverso periodo di tempo (t-1 et). Allo stesso modo, non è nel campione.