EB

Estatı́stica Básica

\(\newcommand{\footnotename}{footnote}\) \(\def \LWRfootnote {1}\) \(\newcommand {\footnote }[2][\LWRfootnote ]{{}^{\mathrm {#1}}}\) \(\newcommand {\footnotemark }[1][\LWRfootnote ]{{}^{\mathrm {#1}}}\) \(\let \LWRorighspace \hspace \) \(\renewcommand {\hspace }{\ifstar \LWRorighspace \LWRorighspace }\) \(\newcommand {\mathnormal }[1]{{#1}}\) \(\newcommand \ensuremath [1]{#1}\) \(\newcommand {\LWRframebox }[2][]{\fbox {#2}} \newcommand {\framebox }[1][]{\LWRframebox } \) \(\newcommand {\setlength }[2]{}\) \(\newcommand {\addtolength }[2]{}\) \(\newcommand {\setcounter }[2]{}\) \(\newcommand {\addtocounter }[2]{}\) \(\newcommand {\arabic }[1]{}\) \(\newcommand {\number }[1]{}\) \(\newcommand {\noalign }[1]{\text {#1}\notag \\}\) \(\newcommand {\cline }[1]{}\) \(\newcommand {\directlua }[1]{\text {(directlua)}}\) \(\newcommand {\luatexdirectlua }[1]{\text {(directlua)}}\) \(\newcommand {\protect }{}\) \(\def \LWRabsorbnumber #1 {}\) \(\def \LWRabsorbquotenumber "#1 {}\) \(\newcommand {\LWRabsorboption }[1][]{}\) \(\newcommand {\LWRabsorbtwooptions }[1][]{\LWRabsorboption }\) \(\def \mathchar {\ifnextchar "\LWRabsorbquotenumber \LWRabsorbnumber }\) \(\def \mathcode #1={\mathchar }\) \(\let \delcode \mathcode \) \(\let \delimiter \mathchar \) \(\def \oe {\unicode {x0153}}\) \(\def \OE {\unicode {x0152}}\) \(\def \ae {\unicode {x00E6}}\) \(\def \AE {\unicode {x00C6}}\) \(\def \aa {\unicode {x00E5}}\) \(\def \AA {\unicode {x00C5}}\) \(\def \o {\unicode {x00F8}}\) \(\def \O {\unicode {x00D8}}\) \(\def \l {\unicode {x0142}}\) \(\def \L {\unicode {x0141}}\) \(\def \ss {\unicode {x00DF}}\) \(\def \SS {\unicode {x1E9E}}\) \(\def \dag {\unicode {x2020}}\) \(\def \ddag {\unicode {x2021}}\) \(\def \P {\unicode {x00B6}}\) \(\def \copyright {\unicode {x00A9}}\) \(\def \pounds {\unicode {x00A3}}\) \(\let \LWRref \ref \) \(\renewcommand {\ref }{\ifstar \LWRref \LWRref }\) \( \newcommand {\multicolumn }[3]{#3}\) \(\require {textcomp}\) \(\newcommand {\intertext }[1]{\text {#1}\notag \\}\) \(\let \Hat \hat \) \(\let \Check \check \) \(\let \Tilde \tilde \) \(\let \Acute \acute \) \(\let \Grave \grave \) \(\let \Dot \dot \) \(\let \Ddot \ddot \) \(\let \Breve \breve \) \(\let \Bar \bar \) \(\let \Vec \vec \) \(\require {mathtools}\) \(\newenvironment {crampedsubarray}[1]{}{}\) \(\newcommand {\smashoperator }[2][]{#2\limits }\) \(\newcommand {\SwapAboveDisplaySkip }{}\) \(\newcommand {\LaTeXunderbrace }[1]{\underbrace {#1}}\) \(\newcommand {\LaTeXoverbrace }[1]{\overbrace {#1}}\) \(\newcommand {\LWRmultlined }[1][]{\begin {multline*}}\) \(\newenvironment {multlined}[1][]{\LWRmultlined }{\end {multline*}}\) \(\let \LWRorigshoveleft \shoveleft \) \(\renewcommand {\shoveleft }[1][]{\LWRorigshoveleft }\) \(\let \LWRorigshoveright \shoveright \) \(\renewcommand {\shoveright }[1][]{\LWRorigshoveright }\) \(\newcommand {\shortintertext }[1]{\text {#1}\notag \\}\) \(\newcommand {\vcentcolon }{\mathrel {\unicode {x2236}}}\) \(\newcommand {\bm }[1]{\boldsymbol {#1}}\) \(\require {cancel}\) \(\newcommand {\firsthdashline }[1][]{\hdashline }\) \(\let \lasthdashline \firsthdashline \) \(\let \cdashline \cline \) \(\require {colortbl}\) \(\let \LWRorigcolumncolor \columncolor \) \(\renewcommand {\columncolor }[2][named]{\LWRorigcolumncolor [#1]{#2}\LWRabsorbtwooptions }\) \(\let \LWRorigrowcolor \rowcolor \) \(\renewcommand {\rowcolor }[2][named]{\LWRorigrowcolor [#1]{#2}\LWRabsorbtwooptions }\) \(\let \LWRorigcellcolor \cellcolor \) \(\renewcommand {\cellcolor }[2][named]{\LWRorigcellcolor [#1]{#2}\LWRabsorbtwooptions }\) \(\newcommand {\tcbset }[1]{}\) \(\newcommand {\tcbsetforeverylayer }[1]{}\) \(\newcommand {\tcbox }[2][]{\boxed {\text {#2}}}\) \(\newcommand {\tcboxfit }[2][]{\boxed {#2}}\) \(\newcommand {\tcblower }{}\) \(\newcommand {\tcbline }{}\) \(\newcommand {\tcbtitle }{}\) \(\newcommand {\tcbsubtitle [2][]{\mathrm {#2}}}\) \(\newcommand {\tcboxmath }[2][]{\boxed {#2}}\) \(\newcommand {\tcbhighmath }[2][]{\boxed {#2}}\)

8.2 Resolução

  • 8.2.1 A média, a variância e o desvio padrão desta população são \(\mu \) \(=\) 2,3333, \(\sigma ^2\) \(=\) 1,5556 e \(\sigma \) \(=\) 1,2472. Vamos considerar inicialmente as amostragens com reposição. Para \(n=2\), temos

    .
    Amostras \(\bar {X}\) \(S^2\) \(S\)
    1, 1 1,0 0,0000 0,0000
    1, 2 1,5 0,5000 0,7071
    1, 4 2,5 4,5000 2,1213
    2, 1 1,5 0,5000 0,7071
    2, 2 2,0 0,0000 0,0000
    2, 4 3,0 2,0000 1,4142
    4, 1 2,5 4,5000 2,1213
    4, 2 3,0 2,0000 1,4142
    4, 4 4,0 0,0000 0,0000
    Média 2,3333 1,5556 0,9428

    Neste caso, com \(n=2\) e amostragem com reposição, temos que \(\sigma ^2_{\bar {X}}\) \(=\) 0,7778.

    Para \(n=3\), com reposição, temos:

    .
    Amostras \(\bar {X}\) \(S^2\) \(S\)
    1, 1, 1 1,0000 0,0000 0,0000
    1, 1, 2 1,3333 0,3333 0,5774
    1, 1, 4 2,0000 3,0000 1,7321
    1, 2, 1 1,3333 0,3333 0,5774
    1, 2, 2 1,6667 0,3333 0,5774
    1, 2, 4 2,3333 2,3333 1,5275
    1, 4, 1 2,0000 3,0000 1,7321
    1, 4, 2 2,3333 2,3333 1,5275
    1, 4, 4 3,0000 3,0000 1,7321
    2, 1, 1 1,3333 0,3333 0,5774
    2, 1, 2 1,6667 0,3333 0,5774
    2, 1, 4 2,3333 2,3333 1,5275
    2, 2, 1 1,6667 0,3333 0,5774
    2, 2, 2 2,0000 0,0000 0,0000
    2, 2, 4 2,6667 1,3333 1,1547
    2, 4, 1 2,3333 2,3333 1,5275
    2, 4, 2 2,6667 1,3333 1,1547
    2, 4, 4 3,3333 1,3333 1,1547
    4, 1, 1 2,0000 3,0000 1,7321
    4, 1, 2 2,3333 2,3333 1,5275
    4, 1, 4 3,0000 3,0000 1,7321
    4, 2, 1 2,3333 2,3333 1,5275
    4, 2, 2 2,6667 1,3333 1,1547
    4, 2, 4 3,3333 1,3333 1,1547
    4, 4, 1 3,0000 3,0000 1,7321
    4, 4, 2 3,3333 1,3333 1,1547
    4, 4, 4 4,0000 0,0000 0,0000
    Média 2,3333 1,5556 1,1093

    Neste caso, com \(n=3\) e amostragem com reposição, temos que \(\sigma ^2_{\bar {X}}\) \(=\) 0,5185161.

    Vamos considerar agora as amostragens sem reposição. Para \(n=2\), temos

    .
    Amostras \(\bar {X}\) \(S^2\) \(S\)
    1, 2 1,5 0,5000 0,7071
    1, 4 2,5 4,5000 2,1213
    2, 4 3,0 2,0000 1,4142
    Média 2,3333 2,3333 1,4142

    Neste caso, com \(n=2\) e amostragem sem reposição, temos que \(\sigma ^2_{\bar {X}}\) \(=\) 0,3889. Para \(n=3\), não faz sentido neste caso, pois só temos uma amostra possível, \(\binom {N}{n}\) \(=\) \(\binom {3}{3}\) \(=\) \(1\).

    • a) A distribuição de amostragem para \(\bar {X}\), \(S^2\) e \(S\) foram apresentadas anteriormente. Para o caso de \(\bar {X}\), s figuras a seguir referem aos casos com reposição da distribuição de \(\bar {X}\) para \(n=2\) e \(n=3\). Podemos observar que a medida que \(n\) aumenta, o histograma se assemelha mais com o gráfico de uma distribuição normal. É claro que isso é pouco evidente, pois nosso exemplo é apenas didático para podermos realizar a amostragem de todas as amostras possíveis. Em populações reais, que são muito grande, e com tamanhos de amostras geralmente aplicados na prática, esse processo manual que fizemos é inexequível e usamos a teoria para demonstrar isso. O teorema por trás desta teoria é o teorema do limite central.

      (image) (image)

      A média ao final de cada tabela equivale a esperança do estimador correspondente em cada coluna. Assim, para \(n=2\), amostragem com reposição, temos \(E(\bar {X})\) \(=\) 2,3333, \(E(S^2)\) \(=\) 1,5556 e \(E(S)\) \(=\) 0,9428. Ainda com amostragem com reposição, para \(n=3\) temos: \(E(\bar {X})\) \(=\) 2,3333, \(E(S^2)\) \(=\) 1,5556 e \(E(S)\) \(=\) 1,1093. Observa-se, pela comparação das esperanças com os respectivos parâmetros, que \(E(\bar {X})=\mu \) e \(S(S^2)=\sigma ^2\), mas \(E(S)\ne \sigma \). A média dos desvios padrões nas respectivas distribuições de amostragens mencionadas são menores que o valor do parâmetro \(\sigma \). Quanto menor a amostra mais distante ficou a esperança do desvio padrão amostral do valor paramétrico, no sentido de subestimá-lo. Assim, concluímos que \(\bar {X}\) e \(S^2\) são estimadores não viesados de \(\mu \) e \(\sigma ^2\), respectivamente. Por outro lado, o desvio padrão é um estimador viesado que subestima o parâmetro subjacente \(\sigma \).

      Em amostras sem reposição de populações finitas, como o caso do exemplo para \(n=2\), temos que o único estimador não viesado é o da média amostral \(\bar {X}\), pois \(E(S^2)\ne \sigma ^2\) e \(E(S)\ne \sigma \). Sabemos da distribuição de amostragem que quando a amostragem é sem reposição de populações finitas de tamanho \(N\), então as observações são correlacionadas negativamente umas com as outras, por este motivo a variância amostral \(S^2\) é um estimador viesado de \(\sigma ^2\). Sabemos que \(E(S^2)\) \(=\) \(N/(N-1)\sigma ^2\), que no caso é \(E(S^2)\) \(=\) \(3/2\times \) 1,5556 \(=\) 2,3333, que é exatamente o resultado encontrado no exemplo. Quanto maior \(N\) mais próximo de \(1\) fica o fator multiplicativo \(N/(N-1)\) e, consequentemente, menor é o viés.

    • b) As variâncias da média amostral em cada caso são:

      • i) amostras com reposição e \(n=2\): \(\sigma ^2_{\bar {X}}\) \(=\) 0,7778;

      • ii) amostras com reposição e \(n=3\): \(\sigma ^2_{\bar {X}}\) \(=\) 0,5185;

      • iii) amostras sem reposição e \(n=2\): \(\sigma ^2_{\bar {X}}\) \(=\) 0,3889.

      Sabemos da teoria que as relações da variância de \(\bar {X}\) na distribuição de amostragem com a variância populacional nas distribuições de amostragem com e sem reposição são

      \begin{align*} \sigma ^2_{\bar {X}} =& \dfrac {\sigma ^2}{n} &\textrm { e }&& \sigma ^2_{\bar {X}} =& \dfrac {\sigma ^2}{n}\dfrac {N-n}{N-1}, \end{align*} respectivamente. Em amostras com reposição o seu valor para \(n=2\) é \(\sigma ^2_{\bar {X}}\) \(=\) 1,5556/2 \(=\) 0,7778 e para \(n=3\) é \(\sigma ^2_{\bar {X}}\) \(=\) 0,5185, que são os valores encontrados diretamente na distribuição de amostragem. No caso de amostragem sem reposição, para \(n=2\), temos \(\sigma ^2_{\bar {X}}\) \(=\) 1,5556/2\(\times \) (3-2)/(3-1) \(=\) 0,3889, que também foi o resultado obtido.

      Para responder a pergunta de qual sistema de amostragem conduz a uma maior precisão, podemos considerar o caso de \(n=2\) e verificar que a variância das médias amostrais é menor na amostragem sem reposição, portanto, este é o sistema de maior precisão. Intuitivamente é fácil de ver isso, pois ao amostrarmos com reposição podemos sortear um mesmo elemento populacional mais de uma vez. Claramente, este elemento repetido ou mesmo todos que forem repetidamente sorteados na amostra não trarão informações adicionais que apenas um cópia deles já não tenha acrescentado. Na amostragem sem reposição um elemento sorteado não pode ser sorteado novamente e isso não acontece. Se, no entanto, a população for muito grande em relação ao tamanho amostral, a chance de se repetir os sorteios nas amostragens com reposição diminui com o aumento de \(N\) relativamente a \(n\). Assim, os dois sistemas (sem e com reposição) vão se tornando equivalentes. Isso é claramente visto, pois fixado \(n\), \(\lim _{N\rightarrow \infty } (N-n)/(N-1)\) \(=\) \(1\), o que faz com que as variâncias das médias amostrais dos dois sistemas sejam iguais.

  • 8.2.2 Um critério interessante para determinar esses estimadores seria minimizar as soma de quadrados desses erros ao longo de todos os \(n\) pares (\(x_i\), \(Y_i\)). Essa soma de quadrados é dada por

    \begin{align*} \sum _{i=1}^{n}\epsilon _i^2 =& \sum _{i=1}^{n}\left (Y_i - \alpha - \beta x_i \right )^2. \end{align*} Esse método é denominado de quadrados mínimos e é facilmente obtido derivando essa última expressão em relação aos parâmetros \(\alpha \) e \(\beta \) e igualando essas derivadas a zero. Vamos considerar que não observarmos \(X\) ainda, ou seja, em vez de \(x_i\) vamos usar a variável aleatória \(X_i\) daqui por diante. Devemos minimizar a soma de seus quadrados \(\sum _{i=1}^{n}\epsilon _i^2\). Denominando essa soma por \(Q\) tem-se

    \begin{align} \label {eb14:eq:143} Q=& \sum _{i=1}^{n}\epsilon _i^2 = \sum _{i=1}^{n} \left (Y_i-\alpha -\beta X_i\right )^2. \end{align}

    Assim, o mínimo pode ser obtido por cálculo, derivando-se \(Q\) em relação aos parâmetros \(\alpha \) e \(\beta \). As funções resultantes são igualadas a zero e resolvidas para \(\alpha \) e \(\beta \), obtendo-se, assim, os estimadores de quadrados mínimos. Essas derivadas são

    \begin{align*} \dfrac {\partial Q}{\partial \alpha } =& -2 \sum _{i=1}^{n} \left (Y_i-\alpha -\beta X_i\right )\\ \dfrac {\partial Q}{\partial \beta } =& -2 \sum _{i=1}^{n} \left (Y_i-\alpha -\beta X_i\right )X_i. \end{align*}

    Igualando essas derivadas a zero e substituindo \(\alpha \) e \(\beta \) pelos respectivos estimadores \(\hat {\alpha }\) e \(\hat {\beta }\) têm-se, após algumas simplificações, as denominadas equações normais

    \begin{align} \label {eb14:eq:144} \left \{ \begin{array}{l} \displaystyle n\hat {\alpha } +\hat {\beta }\sum _{i=1}^{n} X_i = \displaystyle \sum _{i=1}^{n}Y_i \\ \\ \displaystyle \hat {\alpha } \sum _{i=1}^{n} X_i +\hat {\beta }\sum _{i=1}^{n} X_i^2 = \displaystyle \sum _{i=1}^{n}X_iY_i. \end {array} \right . \end{align}

    Isolando \(\hat {\alpha }\) na primeira expressão de (8.2), tem-se

    \begin{align} \label {eb14:eq:145} \hat {\alpha } =& \dfrac {\displaystyle \sum _{i=1}^{n}Y_i}{n}- \hat {\beta }\dfrac {\displaystyle \sum _{i=1}^{n} X_i}{n} = \bar {Y}_.-\hat {\beta }\bar {X}_{.}. \end{align}

    Substituindo esse resultado na segunda expressão de (8.2) e realizando alguma simplificação obtém-se

    \begin{align*} \left [\sum _{i=1}^{n}X_i^2 - \dfrac {\displaystyle \left (\sum _{i=1}^{n} X_i \right )^2}{n}\right ] \hat {\beta }=& \sum _{i=1}^{n}X_iY_i - \dfrac {\displaystyle \sum _{i=1}^{n}X_i \sum _{i=1}^{n}Y_i}{n} \end{align*} que resulta em

    \begin{align} \label {eb14:eq:146} \hat {\beta }=& \dfrac {SPXY}{SQX}, \end{align} sendo que \(SPXY\) representa a soma de produtos entre \(X\) e \(Y\) e \(SQX\), a soma de quadrados de \(X\), dadas, respectivamente, por

    \begin{align} \label {eb14:eq:147} \left \{ \begin{array}{lc} SPXY= \displaystyle \sum _{i=1}^{n}X_iY_i - \dfrac {\displaystyle \sum _{i=1}^{n}X_i \sum _{i=1}^{n}Y_i}{n}, & \textrm { (a)} \\ SQX=\displaystyle \sum _{i=1}^{n}X_i^2 - \dfrac {\displaystyle \left (\sum _{i=1}^{n} X_i \right )^2}{n}, & \,\,\textrm { (b).} \end {array} \right . \end{align}

    Assim, a função \(Q\) representa a soma de quadrados de erros. Logo, admitindo que o resíduo \(e_i\) é o preditor do erro \(\epsilon _i\), então a soma de seus quadrados é chamada de soma de quadrados de resíduos e é dada por

    \begin{align*} \sum _{i=1}^{n} e_i^2 =& SQRes =\sum _{i=1}^{n} \left (Y_i-\hat {\alpha }-\hat {\beta }X_i\right )^2. \end{align*} Esta é a soma de quadrados dos resíduos, em que os resíduos são os preditores dos erros aleatórios. A palavra preditor foi utilizada pois os erros são variáveis aleatórias, e não parâmetros. Assim, obtêm-se preditores e não estimadores de variáveis aleatórias. Para parâmetros, são obtidos estimadores. Esta soma de quadrados está associada a \(n-2\) graus de liberdade (dois parâmetros). Logo, a variância dos resíduos, chamada de quadrado médio do resíduo é dada por

    \begin{align*} S^2 =& QMRes=\dfrac {1}{n-2}\sum _{i=1}^{n} e^2_i=\dfrac {SQRes}{n-2}. \end{align*}

    O estimador de momentos de \(\sigma ^2\) é, portanto

    \begin{align*} \hat {\sigma }^2 =& QMRes. \end{align*}

  • 8.2.3 A média e variância amostrais são dadas, respectivamente, por \(\bar {X}\) \(=\) 10,158 e \(S^2\) \(=\) 4,480996. De acordo com a teoria normal, a média amostral quando a variância é conhecida, como é o caso, tem distribuição normal com média \(\mu _{\bar {X}}\) \(=\) \(\mu \) e variância \(\sigma ^2_{\bar {X}}\) \(=\) \(\sigma ^2/n\). Usando este resultado, podemos obter o intervalo de confiança para \(\mu \) por meio da seguinte expressão:

    \begin{align*} IC_{1-\alpha }(\mu ):\, \bar {X} \pm Z_{\alpha /2}\frac {\sigma }{\sqrt {n}}, \end{align*} em que \(Z_{\alpha /2}\) é o quantil superior \(100\alpha /2\%\) da distribuição normal padrão. Com \(\alpha =0,05\), temos que \(Z_{0,025}=\)1,96. Assim, com \(\bar {X}\) \(=\) 10,158, \(n=10\) e \(\sigma ^2=3\), temos

    \begin{align*} IC_{1-\alpha }(\mu ): & 10,158 \pm 1,96\times \frac {\sqrt {3}}{\sqrt {10}}\\ & 10,158 \pm 1,0735, \end{align*} que resulta em

    \begin{align*} IC_{1-\alpha }(\mu ): & [9,0844,\,\, 11,2315]. \end{align*}

    Assim, temos uma confiança de \(95\%\) de que a verdadeira média \(\mu \) da população seja um valor no intervalo entre 9,0844 e 11,2315. Devemos nos atentar que parâmetro é uma constante e uma vez realizado o intervalo, houve um acerto (o intervalo cobriu o verdadeiro valor) ou erro (o intervalo não cobriu o verdadeiro valor). Logo, a probabilidade é \(0\) ou \(1\). O que afirmamos é que estamos \(95\%\) confiantes de que fizemos a inferência certa, ou seja, que \(\mu \) seja um valor dos possíveis candidatos determinados pelo intervalo. Assim, \(95\%\) refere-se a uma probabilidade relativa à nossa incerteza em vista de o fenômeno estar sob amostragem e possuir aleatoriedade envolvida. No processo de estimação quando repetimos um grande número de vezes, tendendo ao infinito, em média \(100(1-\alpha )\%\) de nossos intervalos obtidos cobrem o verdadeiro parâmetro sob estimação, no caso, \(\mu \). Como temos apenas um destes resultados temos “confiança” de \(95\%\) de que estamos em um destes casos de acertos.

  • 8.2.4 A hipótese de interesse é dada por:

    \begin{align*} H_0:\, \mu =& 10 &\textrm { vs }&& H_1:\, \mu \ne & 10. \end{align*}

    A média e a variância amostrais são:

    \begin{align*} \bar {X}=& 10,158 &\textrm { e }&& S^2=& 4,480996. \end{align*}

    A estatística do teste:

    \begin{align*} Z_c=& \dfrac {\bar {X}- \mu _0}{\dfrac {\sigma }{\sqrt {n}}}=\dfrac {10,158-10}{\sqrt {\dfrac {3}{10}}}=0,29. \end{align*}

    A região crítica (região de rejeição da hipótese nula), sabendo que \(Z_{0,025}=\)1,96, é dada por:

    (-tikz- diagram)

    Como o valor de \(Z_c\) pertence a região de não rejeição da hipótese, pelo teste normal, com \(95\%\) de confiança, a hipótese nula não deve ser rejeitada, ou seja, concluímos que não há razão para afirmar que a média da população difira de \(10\).

    Alternativamente, podemos utilizar o intervalo de confiança para realizar o mesmo teste de hipótese. A lógica geral é verificar se o valor hipotético pertence ou não ao intervalo de confiança construído. Caso ele seja um valor do intervalo, como no presente caso, a hipótese nula não deve ser rejeitada no nível de confiança adotado. Caso contrário, rejeita-se a hipótese nula.

    Preferimos na prática científica seguir uma estratégia simples. Aplicamos o teste e verificamos se há significância estatística, ou seja, verificamos se a hipótese deve ser rejeitada. Caso seja rejeitada, obtemos o intervalo de confiança para estimar o tamanho do efeito.