Dimostrazione della formula di scomposizione della devianza
Si verifichi esplicitando e giustificando i diversi passaggi che:
\[\sum_{i=1}^N(y_i-\overline{y})^2=\sum_{i=1}^N(\hat{y_i}-\overline{y})^2+\sum_{i=1}^N(y_i-\hat{y_i})^2\]
Soluzione
Per semplicità dimostriamo la formula nel caso di un modello di regressione lineare semplice, ossia il modello stimato è nella forma
\[\hat{y}_i)=b_0+b_1x_i\].
Si ha:
\[\begin{eqnarray*}
\overline{y} &=& b_0+b_1\overline{x}\\
\hat{y}_i-\overline{y} &=& b_1(x_i-\overline{x})\\
y_i-\overline{y} &=& (y_i-\hat{y}_i)+(\hat{y}_i-\overline{y})\\
(y_i-\overline{y})^2 &=& (y_i-\hat{y}_i)^2+(\hat{y}_i-\overline{y})^2+2(y_i-\hat{y}_i)(\hat{y}_i-\overline{y})\end{eqnarray*}\]
Dall’ultima equazione trovata, otteniamo
\[\sum_{i=1}^n(y_i-\overline{y})^2= \sum_{i=1}^n(y_i-\hat{y}_i)^2+\sum_{i=1}^n(\hat{y}_i-\overline{y})^2+2\sum_{i=1}^n(y_i-\hat{y}_i)(\hat{y}_i-\overline{y})\]
Indicando con \(e_i\) i residui \(y_i-\hat{y}_i\) , riscriviamo l’ultima sommatoria come segue
\[\begin{align*}
& 2\sum_{i=1}^n(y_i-\hat{y}_i)(\hat{y}_i-\overline{y})=\\
&= 2\sum_{i=1}^n e_i(b_1(x_i-\overline{x}))=\\
&= 2b_1\sum_{i=1}^n e_i\cdot x_i-2b_1\overline{x}\sum_{i=1}^n e_i \end{align*}\]
Essendo le sommatorie \(\sum_{i=1}^n e_i\cdot x_i\) e \(\sum_{i=1}^n e_i\) entrambe nulle per le condizioni imposte mediante il metodo dei minimi quadrati, otteniamo il risultato richiesto.
A cura di Samuel Leanza