Exemplo de análise de regressão. Análise de regressão

A principal característica da análise de regressão é que ela pode ser usada para obter informações específicas sobre a forma e a natureza da relação entre as variáveis ​​em estudo.

A sequência de etapas da análise de regressão

Consideremos brevemente os estágios da análise de regressão.

    Formulação de tarefas. Nesta fase, são formadas hipóteses preliminares sobre a dependência dos fenômenos estudados.

    Definição de variáveis ​​dependentes e independentes (explicativas).

    Recolha de dados estatísticos. Os dados devem ser coletados para cada uma das variáveis ​​incluídas no modelo de regressão.

    Formulação de uma hipótese sobre a forma de ligação (simples ou múltipla, linear ou não linear).

    Definição funções de regressão (consiste no cálculo dos valores numéricos dos parâmetros da equação de regressão)

    Avaliação da acurácia da análise de regressão.

    Interpretação dos resultados obtidos. Os resultados da análise de regressão são comparados com hipóteses preliminares. A correção e plausibilidade dos resultados obtidos são avaliadas.

    Previsão de valores desconhecidos da variável dependente.

Com a ajuda da análise de regressão, é possível resolver o problema de previsão e classificação. Os valores preditivos são calculados substituindo os valores das variáveis ​​explicativas na equação de regressão. O problema de classificação é resolvido da seguinte forma: a linha de regressão divide todo o conjunto de objetos em duas classes, e a parte do conjunto em que o valor da função é maior que zero pertence a uma classe, e a parte em que é menor que zero pertence a outra classe.

Tarefas de análise de regressão

Considere as principais tarefas da análise de regressão: estabelecer a forma de dependência, determinar funções de regressão, uma estimativa dos valores desconhecidos da variável dependente.

Estabelecendo a forma de dependência.

A natureza e a forma da relação entre as variáveis ​​podem formar os seguintes tipos de regressão:

    regressão linear positiva (expressa como um crescimento uniforme da função);

    regressão positiva uniformemente acelerada;

    regressão positiva uniformemente crescente;

    regressão linear negativa (expressa como uma queda uniforme na função);

    regressão decrescente uniformemente acelerada negativa;

    regressão negativa uniformemente decrescente.

No entanto, as variedades descritas geralmente não são encontradas na forma pura, mas em combinação entre si. Neste caso, fala-se de formas combinadas de regressão.

Definição da função de regressão.

A segunda tarefa é determinar o efeito sobre a variável dependente dos principais fatores ou causas, sendo todas as outras coisas iguais, e sujeito à exclusão do impacto sobre a variável dependente de elementos aleatórios. função de regressão definida como uma equação matemática de um tipo ou de outro.

Estimativa de valores desconhecidos da variável dependente.

A solução deste problema é reduzida a resolver um problema de um dos seguintes tipos:

    Estimativa dos valores da variável dependente dentro do intervalo considerado dos dados iniciais, ou seja, valores ausentes; isso resolve o problema de interpolação.

    Estimando os valores futuros da variável dependente, ou seja, encontrar valores fora do intervalo dado dos dados iniciais; isso resolve o problema da extrapolação.

Ambos os problemas são resolvidos substituindo as estimativas encontradas dos parâmetros dos valores das variáveis ​​independentes na equação de regressão. O resultado da resolução da equação é uma estimativa do valor da variável alvo (dependente).

Vejamos algumas das suposições nas quais a análise de regressão se baseia.

Suposição de linearidade, ou seja, assume-se que a relação entre as variáveis ​​consideradas é linear. Portanto, neste exemplo, construímos um gráfico de dispersão e conseguimos ver uma relação linear clara. Se, no gráfico de dispersão das variáveis, vemos uma clara ausência de uma relação linear, ou seja, existe uma relação não linear, métodos não lineares de análise devem ser usados.

Suposição de normalidade sobras. Assume-se que a distribuição da diferença entre os valores previstos e observados é normal. Para determinar visualmente a natureza da distribuição, você pode usar histogramas sobras.

Ao utilizar a análise de regressão, deve-se levar em conta sua principal limitação. Consiste no fato de que a análise de regressão permite detectar apenas dependências, e não os relacionamentos subjacentes a essas dependências.

A análise de regressão permite avaliar o grau de associação entre as variáveis ​​calculando o valor esperado de uma variável com base em vários valores conhecidos.

Equação de regressão.

A equação de regressão fica assim: Y=a+b*X

Usando esta equação, a variável Y é expressa em termos da constante a e a inclinação da linha (ou inclinação) b multiplicada pelo valor da variável X. A constante a também é chamada de interceptação e a inclinação é a regressão coeficiente ou fator B.

Na maioria dos casos (se não sempre) há uma certa dispersão de observações sobre a linha de regressão.

Restante é o desvio de um ponto individual (observação) da linha de regressão (valor previsto).

Para resolver o problema da análise de regressão no MS Excel, selecione no menu Serviço"Pacote de Análise" e a ferramenta de análise de regressão. Especifique os intervalos de entrada X e Y. O intervalo de entrada Y é o intervalo de dados dependentes que estão sendo analisados ​​e deve incluir uma coluna. O intervalo de entrada X é o intervalo de dados independentes a serem analisados. O número de intervalos de entrada não deve exceder 16.

Na saída do procedimento no intervalo de saída, obtemos o relatório fornecido em tabela 8.3a-8,3v.

RESULTADOS

Tabela 8.3a. Estatísticas de regressão

Estatísticas de regressão

R múltiplo

R-quadrado

Quadrado R normalizado

erro padrão

Observações

Primeiro, considere a parte superior dos cálculos apresentados em tabela 8.3a, - estatísticas de regressão.

Valor R-quadrado, também chamada de medida de certeza, caracteriza a qualidade da linha de regressão resultante. Essa qualidade é expressa pelo grau de correspondência entre os dados originais e o modelo de regressão (dados calculados). A medida de certeza está sempre dentro do intervalo.

Na maioria dos casos, o valor R-quadrado está entre esses valores, chamados extremos, ou seja, entre zero e um.

Se o valor R ao quadrado próximo da unidade, isso significa que o modelo construído explica quase toda a variabilidade das variáveis ​​correspondentes. Ao contrário, o valor R ao quadrado, próximo de zero, significa má qualidade do modelo construído.

Em nosso exemplo, a medida de certeza é 0,99673, o que indica um ajuste muito bom da linha de regressão aos dados originais.

plural R - coeficiente de correlação múltipla R - expressa o grau de dependência das variáveis ​​independentes (X) e dependentes (Y).

R múltiplo igual à raiz quadrada do coeficiente de determinação, esse valor assume valores na faixa de zero a um.

Na análise de regressão linear simples plural R igual ao coeficiente de correlação de Pearson. Sério, plural R no nosso caso, é igual ao coeficiente de correlação de Pearson do exemplo anterior (0,998364).

Tabela 8.3b. Coeficientes de regressão

Chances

erro padrão

estatística t

Intersecção em Y

Variável X 1

* Uma versão truncada dos cálculos é fornecida

Agora considere a parte do meio dos cálculos apresentados em tabela 8.3b. Aqui, o coeficiente de regressão b (2,305454545) e o deslocamento ao longo do eixo y são fornecidos, ou seja, constante a (2,694545455).

Com base nos cálculos, podemos escrever a equação de regressão da seguinte forma:

Y= x*2,305454545+2,694545455

A direção da relação entre as variáveis ​​é determinada com base nos sinais (negativos ou positivos) dos coeficientes de regressão (coeficiente b).

Se o sinal do coeficiente de regressão for positivo, a relação entre a variável dependente e a variável independente será positiva. No nosso caso, o sinal do coeficiente de regressão é positivo, portanto, a relação também é positiva.

Se o sinal do coeficiente de regressão for negativo, a relação entre a variável dependente e a variável independente é negativa (inversa).

NO tabela 8.3c. resultados de saída são apresentados sobras. Para que esses resultados apareçam no relatório, é necessário ativar a caixa de seleção "Resíduos" ao iniciar a ferramenta "Regressão".

RETIRADA RESTANTE

Tabela 8.3c. Restos

Observação

Y previsto

Restos

Saldos padrão

Usando esta parte do relatório, podemos ver os desvios de cada ponto da linha de regressão construída. Maior valor absoluto restante no nosso caso - 0,778, o menor - 0,043. Para uma melhor interpretação desses dados, usaremos o gráfico dos dados originais e a linha de regressão construída apresentada na Fig. arroz. 8.3. Como você pode ver, a linha de regressão é "ajustada" com bastante precisão aos valores dos dados originais.

Deve-se levar em conta que o exemplo em consideração é bastante simples e nem sempre é possível construir qualitativamente uma linha de regressão linear.

Arroz. 8.3. Dados iniciais e linha de regressão

O problema de estimar valores futuros desconhecidos da variável dependente com base nos valores conhecidos da variável independente permaneceu desconsiderado, ou seja, tarefa de previsão.

Tendo uma equação de regressão, o problema de previsão se reduz a resolver a equação Y= x*2,305454545+2,694545455 com valores conhecidos de x. Os resultados da previsão da variável dependente Y seis passos à frente são apresentados na tabela 8.4.

Tabela 8.4. Resultados de previsão da variável Y

Y(previsto)

Assim, como resultado do uso da análise de regressão no pacote Microsoft Excel, temos:

    construiu uma equação de regressão;

    estabeleceu a forma de dependência e a direção da relação entre as variáveis ​​- uma regressão linear positiva, que se expressa em um crescimento uniforme da função;

    estabeleceu a direção da relação entre as variáveis;

    avaliou a qualidade da linha de regressão resultante;

    foram capazes de ver os desvios dos dados calculados dos dados do conjunto original;

    previu os valores futuros da variável dependente.

Se um função de regressãoé definido, interpretado e justificado, e a avaliação da precisão da análise de regressão atende aos requisitos, podemos supor que o modelo construído e os valores preditivos são suficientemente confiáveis.

Os valores previstos obtidos desta forma são os valores médios que podem ser esperados.

Neste artigo, revisamos as principais características estatísticas descritivas e entre eles conceitos como significa,mediana,máximo,mínimo e outras características de variação de dados.

Houve também uma breve discussão sobre o conceito emissões. As características consideradas referem-se à chamada análise exploratória de dados, suas conclusões podem não se aplicar à população geral, mas apenas a uma amostra de dados. A análise exploratória de dados é usada para tirar conclusões primárias e formar hipóteses sobre a população.

Também foram considerados os fundamentos da análise de correlação e regressão, suas tarefas e possibilidades de uso prático.

A análise de regressão é um método para estabelecer uma expressão analítica de uma relação estocástica entre as características estudadas. A equação de regressão mostra como, em média, as mudanças no ao mudar qualquer um x eu , e se parece com:

Onde s- variável dependente (é sempre uma);

X eu - variáveis ​​independentes (fatores) (pode haver várias delas).

Se houver apenas uma variável independente, esta é uma análise de regressão simples. Se houver vários P 2), então tal análise é chamada multivariada.

No curso da análise de regressão, duas tarefas principais são resolvidas:

    construção da equação de regressão, ou seja, encontrar o tipo de relação entre o indicador de resultado e fatores independentes x 1 , x 2 , …, x n .

    avaliação da significância da equação resultante, ou seja, determinação de quanto as características do fator selecionado explicam a variação da característica sim

A análise de regressão é usada principalmente para planejamento, bem como para o desenvolvimento de um marco regulatório.

Ao contrário da análise de correlação, que apenas responde à questão de saber se existe uma relação entre as características analisadas, a análise de regressão também dá a sua expressão formalizada. Além disso, se a análise de correlação estuda qualquer relação de fatores, então a análise de regressão estuda a dependência unilateral, ou seja, uma conexão mostrando como uma mudança nos sinais dos fatores afeta o sinal resultante.

A análise de regressão é um dos métodos mais desenvolvidos da estatística matemática. A rigor, a implementação da análise de regressão requer o cumprimento de uma série de requisitos especiais (em particular, x eu ,x 2 ,...,x n ;y devem ser variáveis ​​aleatórias independentes, normalmente distribuídas com variâncias constantes). Na vida real, o cumprimento estrito dos requisitos de regressão e análise de correlação é muito raro, mas ambos os métodos são muito comuns na pesquisa econômica. As dependências na economia podem ser não apenas diretas, mas também inversas e não lineares. Um modelo de regressão pode ser construído na presença de qualquer dependência, porém, na análise multivariada, são utilizados apenas modelos lineares da forma:

A construção da equação de regressão é realizada, via de regra, pelo método dos mínimos quadrados, cuja essência é minimizar a soma dos desvios quadrados dos valores reais do atributo resultante de seus valores calculados, ou seja:

Onde t- número de observações;

j =a+b 1 x 1 j +b 2 x 2 j + ... + b n X n j - valor calculado do fator de resultado.

Recomenda-se que os coeficientes de regressão sejam determinados usando pacotes analíticos para um computador pessoal ou uma calculadora financeira especial. No caso mais simples, os coeficientes de regressão de uma equação de regressão linear de um fator da forma y = a + bx pode ser encontrado usando as fórmulas:

análise de cluster

A análise de cluster é um dos métodos de análise multivariada, projetado para agrupar (clustering) uma população, cujos elementos são caracterizados por muitas características. Os valores de cada uma das feições servem como as coordenadas de cada unidade da população estudada no espaço multidimensional das feições. Cada observação, caracterizada pelos valores de vários indicadores, pode ser representada como um ponto no espaço desses indicadores, cujos valores são considerados como coordenadas em um espaço multidimensional. Distância entre pontos R e q Com k coordenadas é definido como:

O principal critério para agrupamento é que as diferenças entre os agrupamentos sejam mais significativas do que entre as observações atribuídas ao mesmo agrupamento, ou seja, em um espaço multidimensional, a desigualdade deve ser observada:

Onde r 1, 2 - distância entre os clusters 1 e 2.

Assim como os procedimentos de análise de regressão, o procedimento de agrupamento é bastante trabalhoso, sendo aconselhável realizá-lo em um computador.

Durante seus estudos, os alunos muitas vezes encontram uma variedade de equações. Um deles - a equação de regressão - é considerado neste artigo. Este tipo de equação é usado especificamente para descrever as características da relação entre os parâmetros matemáticos. Este tipo de igualdade é usado em estatística e econometria.

Definição de regressão

Em matemática, a regressão é entendida como uma certa quantidade que descreve a dependência do valor médio de um conjunto de dados em relação aos valores de outra quantidade. A equação de regressão mostra, em função de uma característica particular, o valor médio de outra característica. A função de regressão tem a forma de uma equação simples y \u003d x, na qual y atua como uma variável dependente e x é uma variável independente (fator de recurso). De fato, a regressão é expressa como y = f (x).

Quais são os tipos de relacionamentos entre variáveis

Em geral, distinguem-se dois tipos opostos de relacionamento: correlação e regressão.

A primeira é caracterizada pela igualdade de variáveis ​​condicionais. Nesse caso, não se sabe ao certo qual variável depende da outra.

Se não houver igualdade entre as variáveis ​​e as condições dizem qual variável é explicativa e qual é dependente, então podemos falar sobre a presença de uma conexão do segundo tipo. Para construir uma equação de regressão linear, será necessário descobrir que tipo de relação é observada.

Tipos de regressões

Até o momento, existem 7 tipos diferentes de regressão: hiperbólica, linear, múltipla, não linear, aos pares, inversa, logaritmicamente linear.

Hiperbólica, linear e logarítmica

A equação de regressão linear é usada em estatística para explicar claramente os parâmetros da equação. Parece que y = c + m * x + E. A equação hiperbólica tem a forma de uma hipérbole regular y \u003d c + m / x + E. A equação logaritmicamente linear expressa a relação usando a função logarítmica: In y \u003d In c + m * In x + In E.

Múltiplos e não lineares

Dois tipos mais complexos de regressão são múltiplos e não lineares. A equação de regressão múltipla é expressa pela função y \u003d f (x 1, x 2 ... x c) + E. Nesta situação, y é a variável dependente e x é a variável explicativa. A variável E é estocástica e inclui a influência de outros fatores na equação. A equação de regressão não linear é um pouco inconsistente. Por um lado, no que diz respeito aos indicadores considerados, não é linear e, por outro, na função de avaliação dos indicadores, é linear.

Regressões inversas e pares

Uma inversa é um tipo de função que precisa ser convertida para uma forma linear. Nos programas de aplicativos mais tradicionais, tem a forma de uma função y \u003d 1 / c + m * x + E. A equação de regressão pareada mostra a relação entre os dados em função de y = f(x) + E. Assim como as outras equações, y depende de x e E é um parâmetro estocástico.

O conceito de correlação

Este é um indicador que demonstra a existência de uma relação entre dois fenômenos ou processos. A força da relação é expressa como um coeficiente de correlação. Seu valor flutua dentro do intervalo [-1;+1]. Um indicador negativo indica a presença de feedback, um indicador positivo indica um direto. Se o coeficiente assumir um valor igual a 0, então não há relação. Quanto mais próximo o valor estiver de 1 - quanto mais forte a relação entre os parâmetros, quanto mais próximo de 0 - mais fraco.

Métodos

Os métodos paramétricos de correlação podem estimar a rigidez da relação. Eles são usados ​​com base em estimativas de distribuição para estudar parâmetros que obedecem à lei de distribuição normal.

Os parâmetros da equação de regressão linear são necessários para identificar o tipo de dependência, a função da equação de regressão e avaliar os indicadores da fórmula de relação escolhida. O campo de correlação é usado como um método para identificar um relacionamento. Para isso, todos os dados existentes devem ser representados graficamente. Em um sistema de coordenadas bidimensional retangular, todos os dados conhecidos devem ser plotados. É assim que o campo de correlação é formado. O valor do fator descritivo é marcado ao longo da abcissa, enquanto os valores do fator dependente são marcados ao longo da ordenada. Se houver uma relação funcional entre os parâmetros, eles se alinham na forma de uma linha.

Se o coeficiente de correlação de tais dados for inferior a 30%, podemos falar sobre a ausência quase completa de uma conexão. Se estiver entre 30% e 70%, isso indica a presença de links de média proximidade. Um indicador de 100% é evidência de uma conexão funcional.

Uma equação de regressão não linear, assim como uma linear, deve ser complementada com um índice de correlação (R).

Correlação para regressão múltipla

O coeficiente de determinação é um indicador do quadrado da correlação múltipla. Ele fala sobre o estreitamento da relação do conjunto de indicadores apresentado com o traço em estudo. Também pode falar sobre a natureza da influência dos parâmetros no resultado. A equação de regressão múltipla é avaliada usando este indicador.

Para calcular o índice de correlação múltipla, é necessário calcular o seu índice.

Método dos mínimos quadrados

Este método é uma forma de estimar fatores de regressão. Sua essência está em minimizar a soma dos quadrados dos desvios obtidos devido à dependência do fator com a função.

Uma equação de regressão linear pareada pode ser estimada usando esse método. Este tipo de equações é usado no caso de detecção entre os indicadores de uma relação linear pareada.

Opções de equação

Cada parâmetro da função de regressão linear tem um significado específico. A equação de regressão linear pareada contém dois parâmetros: c e m. O parâmetro t mostra a variação média no indicador final da função y, sujeito a uma diminuição (aumento) na variável x de uma unidade convencional. Se a variável x é zero, então a função é igual ao parâmetro c. Se a variável x não for zero, então o fator c não faz sentido econômico. A única influência na função é o sinal na frente do fator c. Se houver um sinal de menos, podemos dizer sobre uma mudança lenta no resultado em comparação com o fator. Se houver um mais, isso indica uma mudança acelerada no resultado.

Cada parâmetro que altera o valor da equação de regressão pode ser expresso em termos de uma equação. Por exemplo, o fator c tem a forma c = y - mx.

Dados agrupados

Existem tais condições da tarefa em que todas as informações são agrupadas de acordo com o atributo x, mas ao mesmo tempo, para um determinado grupo, são indicados os valores médios correspondentes do indicador dependente. Nesse caso, os valores médios caracterizam como o indicador depende de x. Assim, as informações agrupadas ajudam a encontrar a equação de regressão. É usado como uma análise de relacionamento. No entanto, este método tem suas desvantagens. Infelizmente, as médias estão frequentemente sujeitas a flutuações externas. Essas flutuações não são um reflexo dos padrões do relacionamento, apenas mascaram seu "ruído". As médias mostram padrões de relacionamento muito piores do que uma equação de regressão linear. No entanto, eles podem ser usados ​​como base para encontrar uma equação. Ao multiplicar o tamanho de uma determinada população pela média correspondente, você pode obter a soma de y dentro do grupo. Em seguida, você precisa eliminar todos os valores recebidos e encontrar o indicador final y. É um pouco mais difícil fazer cálculos com o indicador de soma xy. Caso os intervalos sejam pequenos, podemos condicionalmente tomar o indicador x para todas as unidades (dentro do grupo) iguais. Multiplique-o pela soma de y para encontrar a soma dos produtos de x e y. Além disso, todas as somas são combinadas e a soma total xy é obtida.

Regressão de Equação de Múltiplos Pares: Avaliando a Importância de um Relacionamento

Conforme discutido anteriormente, a regressão múltipla tem uma função da forma y \u003d f (x 1, x 2, ..., x m) + E. Na maioria das vezes, essa equação é usada para resolver o problema de oferta e demanda de bens, receita de juros sobre ações recompradas, estudando as causas e o tipo de função de custo de produção. Também é usado ativamente em uma ampla variedade de estudos e cálculos macroeconômicos, mas no nível da microeconomia, essa equação é usada com um pouco menos de frequência.

A principal tarefa da regressão múltipla é construir um modelo de dados contendo uma enorme quantidade de informações para determinar melhor qual o efeito de cada um dos fatores individualmente e em sua totalidade sobre o indicador a ser modelado e seus coeficientes. A equação de regressão pode assumir uma variedade de valores. Nesse caso, geralmente são usados ​​dois tipos de funções para avaliar a relação: linear e não linear.

Uma função linear é representada na forma de tal relação: y \u003d a 0 + a 1 x 1 + a 2 x 2, + ... + a m x m. Neste caso, a2, a m , são considerados os coeficientes da regressão "pura". Eles são necessários para caracterizar a mudança média no parâmetro y com uma mudança (diminuição ou aumento) em cada parâmetro x correspondente em uma unidade, com a condição de um valor estável de outros indicadores.

As equações não lineares têm, por exemplo, a forma de uma função potência y=ax 1 b1 x 2 b2 ...x m bm . Nesse caso, os indicadores b 1, b 2 ..... b m - são chamados de coeficientes de elasticidade, eles demonstram como o resultado mudará (em quanto%) com um aumento (diminuição) no indicador correspondente x em 1% e com um indicador estável de outros fatores.

Quais fatores devem ser considerados ao construir uma regressão múltipla

Para construir corretamente uma regressão múltipla, é necessário descobrir quais fatores devem receber atenção especial.

É necessário ter alguma compreensão da natureza da relação entre os fatores econômicos e o modelado. Os fatores a serem incluídos devem atender aos seguintes critérios:

  • Deve ser mensurável. Para usar um fator que descreva a qualidade de um objeto, em qualquer caso, deve ser dada uma forma quantitativa.
  • Não deve haver intercorrelação de fatores ou relação funcional. Tais ações geralmente levam a consequências irreversíveis - o sistema de equações ordinárias torna-se incondicionado, e isso acarreta sua falta de confiabilidade e estimativas difusas.
  • No caso de um indicador de correlação enorme, não há como descobrir a influência isolada dos fatores no resultado final do indicador, portanto, os coeficientes tornam-se ininterpretáveis.

Métodos de construção

Há um grande número de métodos e maneiras de explicar como você pode escolher os fatores para a equação. No entanto, todos esses métodos são baseados na seleção de coeficientes usando o índice de correlação. Entre eles estão:

  • Método de exclusão.
  • Ative o método.
  • Análise de regressão passo a passo.

O primeiro método envolve peneirar todos os coeficientes do conjunto agregado. O segundo método envolve a introdução de muitos fatores adicionais. Bem, a terceira é a eliminação de fatores que foram aplicados anteriormente à equação. Cada um desses métodos tem o direito de existir. Eles têm seus prós e contras, mas podem resolver a questão da triagem de indicadores desnecessários à sua maneira. Como regra, os resultados obtidos por cada método individual são bastante próximos.

Métodos de análise multivariada

Tais métodos para determinar fatores são baseados na consideração de combinações individuais de características inter-relacionadas. Estes incluem análise discriminante, reconhecimento de padrões, análise de componentes principais e análise de cluster. Além disso, há também a análise fatorial, porém, surgiu como resultado do desenvolvimento do método de componentes. Todos eles são aplicados em determinadas circunstâncias, sob certas condições e fatores.

O objetivo principal da análise de regressão consiste em determinar a forma analítica da relação, em que a mudança no atributo resultante é devido à influência de um ou mais sinais de fator, e o conjunto de todos os outros fatores que também afetam o atributo resultante é tomado como valores constantes e médios. .
Tarefas de análise de regressão:
a) Estabelecer a forma de dependência. Quanto à natureza e forma da relação entre os fenômenos, existem regressões lineares e não lineares positivas e lineares e não lineares negativas.
b) Definição da função de regressão na forma de uma equação matemática de um tipo ou outro e estabelecendo a influência das variáveis ​​explicativas na variável dependente.
c) Estimativa de valores desconhecidos da variável dependente. Usando a função de regressão, você pode reproduzir os valores da variável dependente dentro do intervalo de determinados valores das variáveis ​​explicativas (ou seja, resolver o problema de interpolação) ou avaliar o curso do processo fora do intervalo especificado (ou seja, resolver o problema de extrapolação). O resultado é uma estimativa do valor da variável dependente.

Regressão de pares - a equação da relação de duas variáveis ​​y e x: y=f(x), onde y é a variável dependente (sinal resultante); x - variável explicativa independente (fator-característica).

Existem regressões lineares e não lineares.
Regressão linear: y = a + bx + ε
As regressões não lineares são divididas em duas classes: regressões não lineares em relação às variáveis ​​explicativas incluídas na análise, mas lineares em relação aos parâmetros estimados, e regressões não lineares em relação aos parâmetros estimados.
Regressões não lineares em variáveis ​​explicativas:

Regressões não lineares nos parâmetros estimados:

  • potência y = a x b ε
  • exponencial y = a b x ε
  • exponencial y=e a+b x ε
A construção da equação de regressão se reduz a estimar seus parâmetros. Para estimar os parâmetros de regressões que são lineares em parâmetros, utiliza-se o método dos mínimos quadrados (LSM). O LSM permite obter tais estimativas de parâmetros para as quais a soma dos desvios quadrados dos valores reais do recurso efetivo y dos valores teóricos y x é mínima, ou seja,
.
Para equações lineares e não lineares redutíveis a lineares, o seguinte sistema é resolvido para a e b:

Você pode usar fórmulas prontas que seguem deste sistema:

A proximidade da conexão entre os fenômenos estudados é estimada pelo coeficiente de correlação de pares lineares r xy para regressão linear (-1≤r xy ≤1):

e índice de correlação p xy - para regressão não linear (0≤p xy ≤1):

Uma avaliação da qualidade do modelo construído será dada pelo coeficiente (índice) de determinação, bem como pelo erro médio de aproximação.
O erro médio de aproximação é o desvio médio dos valores calculados dos reais:
.
Limite permitido de valores A - não mais que 8-10%.
O coeficiente de elasticidade médio E mostra quantos por cento em média o resultado y mudará de seu valor médio quando o fator x mudar em 1% de seu valor médio:
.

A tarefa da análise de variância é analisar a variância da variável dependente:
∑(y-y)²=∑(y x -y)²+∑(y-y x)²
onde ∑(y-y)² é a soma total dos desvios quadrados;
∑(y x -y)² - soma dos quadrados dos desvios devido à regressão ("explicada" ou "fatorial");
∑(y-y x)² - soma residual dos desvios quadrados.
A parcela da variância explicada pela regressão na variância total do traço efetivo y é caracterizada pelo coeficiente (índice) de determinação R2:

O coeficiente de determinação é o quadrado do coeficiente ou índice de correlação.

O teste F - avaliação da qualidade da equação de regressão - consiste em testar a hipótese Mas sobre a insignificância estatística da equação de regressão e o indicador de proximidade da conexão. Para isso, é realizada uma comparação do fato F real e da tabela F crítica (tabular) dos valores do critério F de Fisher. O fato F é determinado a partir da razão dos valores das variâncias fatoriais e residuais calculadas para um grau de liberdade:
,
onde n é o número de unidades populacionais; m é o número de parâmetros para as variáveis ​​x.
A tabela F é o valor máximo possível do critério sob a influência de fatores aleatórios para determinados graus de liberdade e nível de significância a. Nível de significância a - a probabilidade de rejeitar a hipótese correta, desde que seja verdadeira. Geralmente a é tomado igual a 0,05 ou 0,01.
Se a tabela F< F факт, то Н о - гипотеза о случайной природе оцениваемых характеристик отклоняется и признается их статистическая значимость и надежность. Если F табл >F é um fato, então a hipótese H sobre não é rejeitada e a insignificância estatística, a falta de confiabilidade da equação de regressão é reconhecida.
Para avaliar a significância estatística dos coeficientes de regressão e correlação, são calculados o teste t de Student e os intervalos de confiança para cada um dos indicadores. Uma hipótese H sobre a natureza aleatória dos indicadores é apresentada, ou seja, sobre sua insignificante diferença de zero. A avaliação da significância dos coeficientes de regressão e correlação usando o teste t de Student é realizada comparando seus valores com a magnitude do erro aleatório:
; ; .
Erros aleatórios de parâmetros de regressão linear e coeficiente de correlação são determinados pelas fórmulas:



Comparando os valores reais e críticos (tabulares) das estatísticas t - t tabl e t fact - aceitamos ou rejeitamos a hipótese H o.
A relação entre o teste F de Fisher e a estatística t de Student é expressa pela igualdade

Se t tabela< t факт то H o отклоняется, т.е. a , b и r xy не случайно отличаются от нуля и сформировались под влиянием систематически действующего фактора х. Если t табл >t o fato de a hipótese H sobre não ser rejeitada e a natureza aleatória da formação de a, b ou r xy ser reconhecida.
Para calcular o intervalo de confiança, determinamos o erro marginal D para cada indicador:
Δ a =t tabela m a , Δb =t tabela m b .
As fórmulas para calcular os intervalos de confiança são as seguintes:
γ a \u003d aΔ a; γ a \u003d a-Δ a; γa =a+Δa
γb = bΔb; γb = b-Δb; γb = b+Δb
Se zero estiver dentro dos limites do intervalo de confiança, ou seja, Se o limite inferior for negativo e o limite superior for positivo, assume-se que o parâmetro estimado é zero, uma vez que não pode assumir simultaneamente valores positivos e negativos.
O valor de previsão y p é determinado substituindo o valor (previsão) correspondente x p na equação de regressão y x =a+b·x . O erro padrão médio da previsão m y x é calculado:
,
Onde
e o intervalo de confiança da previsão é construído:
γ y x = y p Δ y p ; γ y x min=y p -Δ y p ; γ y x max = y p +Δ y p
onde Δ y x = t tabela ·m y x .

Exemplo de solução

Tarefa número 1. Para sete territórios da região dos Urais Para 199X, os valores de dois sinais são conhecidos.
Tabela 1.

Requeridos: 1. Para caracterizar a dependência de y em x, calcule os parâmetros das seguintes funções:
a) linear;
b) lei de potência (anteriormente é necessário realizar o procedimento de linearização das variáveis ​​tomando o logaritmo de ambas as partes);
c) demonstrativo;
d) hipérbole equilátero (você também precisa descobrir como pré-linearizar este modelo).
2. Avalie cada modelo através do erro médio de aproximação A e teste F de Fisher.

Solução (Opção nº 1)

Para calcular os parâmetros aeb da regressão linear y=a+b·x (o cálculo pode ser feito usando uma calculadora).
resolva o sistema de equações normais em relação a uma e b:
Com base nos dados iniciais, calculamos ∑y, ∑x, ∑y x, ∑x², ∑y²:
y x yx x2 ano 2 x xy-y xAi
eu68,8 45,1 3102,88 2034,01 4733,44 61,3 7,5 10,9
2 61,2 59,0 3610,80 3481,00 3745,44 56,5 4,7 7,7
3 59,9 57,2 3426,28 3271,84 3588,01 57,1 2,8 4,7
4 56,7 61,8 3504,06 3819,24 3214,89 55,5 1,2 2,1
5 55,0 58,8 3234,00 3457,44 3025,00 56,5 -1,5 2,7
6 54,3 47,2 2562,96 2227,84 2948,49 60,5 -6,2 11,4
7 49,3 55,2 2721,36 3047,04 2430,49 57,8 -8,5 17,2
Total405,2 384,3 22162,34 21338,41 23685,76 405,2 0,0 56,7
qua valor (Total/n)57,89
y
54,90
x
3166,05
xy
3048,34
3383,68
XX8,1
s 5,74 5,86 XXXXXX
s232,92 34,34 XXXXXX


a=y -b x = 57,89+0,35 54,9 ≈ 76,88

Equação de regressão: y= 76,88 - 0,35X. Com um aumento no salário médio diário em 1 rub. a participação dos gastos com a compra de produtos alimentícios é reduzida em média 0,35% pontos.
Calcule o coeficiente linear de correlação de pares:

A comunicação é moderada, reversa.
Vamos determinar o coeficiente de determinação: r² xy =(-0,35)=0,127
A variação de 12,7% no resultado é explicada pela variação do fator x. Substituindo os valores reais na equação de regressão X, determinamos os valores teóricos (calculados) de y x . Vamos encontrar o valor do erro médio de aproximação A :

Em média, os valores calculados desviam dos reais em 8,1%.
Vamos calcular o critério F:

O valor obtido indica a necessidade de aceitar a hipótese H 0 sobre a natureza aleatória da dependência revelada e a insignificância estatística dos parâmetros da equação e do indicador de proximidade de conexão.
1b. A construção do modelo de potência y=a x b é precedida pelo procedimento de linearização das variáveis. No exemplo, a linearização é feita tomando o logaritmo de ambos os lados da equação:
lg y = lg a + b lg x
Y=C+bY
onde Y=lg(y), X=lg(x), C=lg(a).

Para os cálculos, usamos os dados da Tabela. 1.3.
Tabela 1.3

SX YX Y2 x2 x xy-y x(y-yx)²Ai
1 1,8376 1,6542 3,0398 3,3768 2,7364 61,0 7,8 60,8 11,3
2 1,7868 1,7709 3,1642 3,1927 3,1361 56,3 4,9 24,0 8,0
3 1,7774 1,7574 3,1236 3,1592 3,0885 56,8 3,1 9,6 5,2
4 1,7536 1,7910 3,1407 3,0751 3,2077 55,5 1,2 1,4 2,1
5 1,7404 1,7694 3,0795 3,0290 3,1308 56,3 -1,3 1,7 2,4
6 1,7348 1,6739 2,9039 3,0095 2,8019 60,2 -5,9 34,8 10,9
7 1,6928 1,7419 2,9487 2,8656 3,0342 57,4 -8,1 65,6 16,4
Total12,3234 12,1587 21,4003 21,7078 21,1355 403,5 1,7 197,9 56,3
Significa1,7605 1,7370 3,0572 3,1011 3,0194 XX28,27 8,0
σ 0,0425 0,0484 XXXXXXX
σ20,0018 0,0023 XXXXXXX

Calcule C e b:

C=Y-b X = 1,7605+0,298 1,7370 = 2,278126
Obtemos uma equação linear: Y = 2,278-0,298 X
Após potencializá-lo, obtemos: y=10 2,278 x -0,298
Substituindo nesta equação os valores reais X, obtemos os valores teóricos do resultado. Com base neles, calculamos os indicadores: a estanqueidade da conexão - o índice de correlação p xy e o erro médio de aproximação A .

As características do modelo de potência indicam que ele descreve a relação um pouco melhor do que a função linear.

1v. A construção da equação da curva exponencial y \u003d a b x é precedida pelo procedimento de linearização das variáveis ​​ao obter o logaritmo de ambas as partes da equação:
lg y = lg a + x lg b
Y=C+Bx
Para cálculos, usamos os dados da tabela.

Sx Yx Y2 x2x xy-y x(y-yx)²Ai
1 1,8376 45,1 82,8758 3,3768 2034,01 60,7 8,1 65,61 11,8
2 1,7868 59,0 105,4212 3,1927 3481,00 56,4 4,8 23,04 7,8
3 1,7774 57,2 101,6673 3,1592 3271,84 56,9 3,0 9,00 5,0
4 1,7536 61,8 108,3725 3,0751 3819,24 55,5 1,2 1,44 2,1
5 1,7404 58,8 102,3355 3,0290 3457,44 56,4 -1,4 1,96 2,5
6 1,7348 47,2 81,8826 3,0095 2227,84 60,0 -5,7 32,49 10,5
7 1,6928 55,2 93,4426 2,8656 3047,04 57,5 -8,2 67,24 16,6
Total12,3234 384,3 675,9974 21,7078 21338,41 403,4 -1,8 200,78 56,3
qua zn.1,7605 54,9 96,5711 3,1011 3048,34 XX28,68 8,0
σ 0,0425 5,86 XXXXXXX
σ20,0018 34,339 XXXXXXX

Os valores dos parâmetros de regressão A e NO totalizando:

A=Y -B x = 1,7605+0,0023 54,9 = 1,887
Obtém-se uma equação linear: Y=1,887-0,0023x. Potenciamos a equação resultante e a escrevemos na forma usual:
y x = 10 1,887 10 -0,0023x = 77,1 0,9947 x
Estimamos o aperto do relacionamento através do índice de correlação p xy:

3588,01 56,9 3,0 9,00 5,0 4 56,7 0,0162 0,9175 0,000262 3214,89 55,5 1,2 1,44 2,1 5 55 0,0170 0,9354 0,000289 3025,00 56,4 -1,4 1,96 2,5 6 54,3 0,0212 1,1504 0,000449 2948,49 60,8 -6,5 42,25 12,0 7 49,3 0,0181 0,8931 0,000328 2430,49 57,5 -8,2 67,24 16,6 Total405,2 0,1291 7,5064 0,002413 23685,76 405,2 0,0 194,90 56,5 Significa57,9 0,0184 1,0723 0,000345 3383,68 XX27,84 8,1 σ 5,74 0,002145 XXXXXXX σ232,9476 0,000005 XX

A análise de regressão é um método de pesquisa estatística que permite mostrar a dependência de um parâmetro em uma ou mais variáveis ​​independentes. Na era pré-computador, seu uso era bastante difícil, principalmente quando se tratava de grandes quantidades de dados. Hoje, tendo aprendido a construir uma regressão no Excel, você pode resolver problemas estatísticos complexos em apenas alguns minutos. Abaixo estão exemplos específicos do campo da economia.

Tipos de regressão

O conceito em si foi introduzido na matemática em 1886. A regressão acontece:

  • linear;
  • parabólico;
  • potência;
  • exponencial;
  • hiperbólico;
  • demonstrativo;
  • logarítmico.

Exemplo 1

Considere o problema de determinar a dependência do número de membros da equipe aposentados do salário médio em 6 empresas industriais.

Uma tarefa. Em seis empresas, analisamos o salário médio mensal e o número de funcionários que saíram por vontade própria. Em forma de tabela temos:

O número de pessoas que saíram

Salário

30.000 rublos

35.000 rublos

40.000 rublos

45.000 rublos

50.000 rublos

55.000 rublos

60.000 rublos

Para o problema de determinar a dependência do número de aposentados do salário médio em 6 empresas, o modelo de regressão tem a forma da equação Y = a 0 + a 1 x 1 +…+a k x k , onde x i são as variáveis ​​de influência , a i são os coeficientes de regressão, a k é o número de fatores.

Para esta tarefa, Y é o indicador de funcionários que saíram, e o fator de influência é o salário, que denotamos por X.

Usando os recursos da planilha "Excel"

A análise de regressão no Excel deve ser precedida pela aplicação de funções incorporadas aos dados tabulares disponíveis. No entanto, para esses fins, é melhor usar o complemento muito útil "Kit de ferramentas de análise". Para ativá-lo você precisa:

  • na guia "Arquivo", vá para a seção "Opções";
  • na janela que se abre, selecione a linha "Add-ons";
  • clique no botão "Ir" localizado na parte inferior, à direita da linha "Gerenciamento";
  • marque a caixa ao lado do nome "Pacote de análise" e confirme suas ações clicando em "OK".

Se tudo for feito corretamente, o botão desejado aparecerá no lado direito da aba Dados, localizado acima da planilha do Excel.

em Excel

Agora que temos em mãos todas as ferramentas virtuais necessárias para realizar cálculos econométricos, podemos começar a resolver nosso problema. Por esta:

  • clique no botão "Análise de Dados";
  • na janela que se abre, clique no botão "Regressão";
  • na aba que aparece, insira a faixa de valores para Y (o número de funcionários que se demitiram) e para X (seus salários);
  • Confirmamos nossas ações pressionando o botão "Ok".

Como resultado, o programa preencherá automaticamente uma nova planilha da planilha com dados de análise de regressão. Observação! O Excel tem a capacidade de definir manualmente o local de sua preferência para essa finalidade. Por exemplo, pode ser a mesma planilha onde estão os valores Y e X, ou até mesmo uma nova pasta de trabalho projetada especificamente para armazenar esses dados.

Análise de resultados de regressão para R-quadrado

No Excel, os dados obtidos durante o processamento dos dados do exemplo considerado são assim:

Antes de tudo, você deve prestar atenção ao valor do R-quadrado. É o coeficiente de determinação. Neste exemplo, R-quadrado = 0,755 (75,5%), ou seja, os parâmetros calculados do modelo explicam em 75,5% a relação entre os parâmetros considerados. Quanto maior o valor do coeficiente de determinação, mais aplicável o modelo escolhido para uma determinada tarefa. Acredita-se que descreva corretamente a situação real com um valor R-quadrado acima de 0,8. Se R ao quadrado<0,5, то такой анализа регрессии в Excel нельзя считать резонным.

Análise de proporção

O número 64,1428 mostra qual será o valor de Y se todas as variáveis ​​xi no modelo que estamos considerando forem zeradas. Em outras palavras, pode-se argumentar que o valor do parâmetro analisado também é influenciado por outros fatores que não estão descritos em um modelo específico.

O próximo coeficiente -0,16285, localizado na célula B18, mostra o peso da influência da variável X sobre Y. Isso significa que o salário médio mensal dos funcionários dentro do modelo considerado afeta o número de desistentes com um peso de -0,16285, ou seja, o grau de sua influência em tudo pequeno. O sinal "-" indica que o coeficiente tem um valor negativo. Isso é óbvio, pois todos sabem que quanto maior o salário na empresa, menos as pessoas expressam o desejo de rescindir o contrato de trabalho ou pedir demissão.

Regressão múltipla

Este termo refere-se a uma equação de conexão com várias variáveis ​​independentes da forma:

y \u003d f (x 1 + x 2 + ... x m) + ε, onde y é o recurso efetivo (variável dependente) e x 1 , x 2 , ... x m são os fatores fatoriais (variáveis ​​independentes).

Estimativa de parâmetros

Para regressão múltipla (MR) é realizada usando o método dos mínimos quadrados (OLS). Para equações lineares da forma Y = a + b 1 x 1 +…+b m x m + ε, construímos um sistema de equações normais (veja abaixo)

Para entender o princípio do método, considere o caso de dois fatores. Então temos uma situação descrita pela fórmula

A partir daqui obtemos:

onde σ é a variância da característica correspondente refletida no índice.

O LSM é aplicável à equação MP em uma escala padronizável. Neste caso, obtemos a equação:

onde t y , t x 1, … t xm são variáveis ​​padronizadas para as quais os valores médios são 0; β i são os coeficientes de regressão padronizados e o desvio padrão é 1.

Observe que todos os β i neste caso são definidos como normalizados e centralizados, portanto, sua comparação entre si é considerada correta e admissível. Além disso, é costume filtrar os fatores, descartando aqueles com os menores valores de βi.

Problema usando equação de regressão linear

Suponha que haja uma tabela da dinâmica dos preços de um determinado produto N durante os últimos 8 meses. É necessário tomar uma decisão sobre a conveniência de comprar seu lote ao preço de 1850 rublos/t.

número do mês

nome do mês

preço do item N

1750 rublos por tonelada

1755 rublos por tonelada

1767 rublos por tonelada

1760 rublos por tonelada

1770 rublos por tonelada

1790 rublos por tonelada

1810 rublos por tonelada

1840 rublos por tonelada

Para resolver esse problema na planilha do Excel, você precisa utilizar a ferramenta de Análise de Dados já conhecida do exemplo acima. Em seguida, selecione a seção "Regressão" e defina os parâmetros. Vale lembrar que no campo "Input interval Y" deve ser inserido um intervalo de valores para a variável dependente (neste caso, o preço de um produto em meses específicos do ano) e no campo "Input intervalo X" - para a variável independente (número do mês). Confirme a ação clicando em "Ok". Em uma nova planilha (se assim foi indicado), obtemos dados para regressão.

Com base neles, construímos uma equação linear da forma y=ax+b, onde os parâmetros a e b são os coeficientes da linha com o nome do número do mês e os coeficientes e a linha “Y-intersection” do planilha com os resultados da análise de regressão. Assim, a equação de regressão linear (LE) para o problema 3 é escrita como:

Preço do produto N = 11,714* número do mês + 1727,54.

ou em notação algébrica

y = 11,714 x + 1727,54

Análise de resultados

Para decidir se a equação de regressão linear resultante é adequada, são utilizados coeficientes de correlação múltipla (MCC) e coeficientes de determinação, bem como o teste de Fisher e o teste de Student. Na tabela do Excel com resultados de regressão, eles aparecem sob os nomes de múltiplos R, R-quadrado, estatística F e estatística t, respectivamente.

O KMC R permite avaliar a rigidez da relação probabilística entre as variáveis ​​independentes e dependentes. Seu alto valor indica uma relação bastante forte entre as variáveis ​​"Número do mês" e "Preço das mercadorias N em rublos por 1 tonelada". No entanto, a natureza dessa relação permanece desconhecida.

O quadrado do coeficiente de determinação R 2 (RI) é uma característica numérica da parcela da dispersão total e mostra a dispersão de qual parte dos dados experimentais, ou seja, valores da variável dependente corresponde à equação de regressão linear. No problema considerado, esse valor é igual a 84,8%, ou seja, os dados estatísticos são descritos com alto grau de precisão pelo SD obtido.

A estatística F, também chamada de teste de Fisher, é utilizada para avaliar a significância de uma relação linear, refutando ou confirmando a hipótese de sua existência.

(Critério do aluno) ajuda a avaliar a significância do coeficiente com um termo desconhecido ou livre de uma relação linear. Se o valor do critério t > t cr, então a hipótese da insignificância do termo livre da equação linear é rejeitada.

No problema considerado para o membro livre, utilizando as ferramentas do Excel, obteve-se que t = 169,20903, ep = 2,89E-12, ou seja, temos uma probabilidade zero de que a hipótese correta sobre a insignificância do membro livre será ser rejeitado. Para o coeficiente em desconhecido t=5,79405, ep=0,001158. Em outras palavras, a probabilidade de que a hipótese correta sobre a insignificância do coeficiente para a incógnita seja rejeitada é de 0,12%.

Assim, pode-se argumentar que a equação de regressão linear resultante é adequada.

O problema da conveniência de comprar um bloco de ações

A regressão múltipla no Excel é realizada usando a mesma ferramenta de Análise de Dados. Considere um problema aplicado específico.

A administração da NNN deve tomar uma decisão sobre a conveniência de adquirir uma participação de 20% na MMM SA. O custo do pacote (JV) é de 70 milhões de dólares americanos. Os especialistas da NNN coletaram dados sobre transações semelhantes. Optou-se por avaliar o valor do bloco de ações segundo tais parâmetros, expressos em milhões de dólares norte-americanos, como:

  • contas a pagar (VK);
  • faturamento anual (VO);
  • contas a receber (VD);
  • custo do ativo imobilizado (SOF).

Além disso, é utilizado o parâmetro folha de pagamento em atraso da empresa (V3 P) em milhares de dólares norte-americanos.

Solução usando planilha do Excel

Antes de tudo, você precisa criar uma tabela de dados iniciais. Se parece com isso:

  • chamar a janela "Análise de Dados";
  • selecione a seção "Regressão";
  • na caixa "Intervalo de entrada Y" insira o intervalo de valores das variáveis ​​dependentes da coluna G;
  • clique no ícone com uma seta vermelha à direita da janela "Input interval X" e selecione o intervalo de todos os valores das colunas B, C, D, F na planilha.

Selecione "Nova planilha" e clique em "Ok".

Obtenha a análise de regressão para o problema dado.

Exame dos resultados e conclusões

“Coletamos” dos dados arredondados apresentados acima na planilha do Excel, a equação de regressão:

SP \u003d 0,103 * SOF + 0,541 * VO - 0,031 * VK + 0,405 * VD + 0,691 * VZP - 265,844.

Em uma forma matemática mais familiar, pode ser escrito como:

y = 0,103*x1 + 0,541*x2 - 0,031*x3 +0,405*x4 +0,691*x5 - 265,844

Os dados para JSC "MMM" são apresentados na tabela:

Substituindo-os na equação de regressão, eles obtêm um valor de 64,72 milhões de dólares americanos. Isso significa que as ações da JSC MMM não devem ser compradas, pois seu valor de 70 milhões de dólares americanos é bastante exagerado.

Como você pode ver, o uso da planilha Excel e da equação de regressão tornou possível tomar uma decisão informada sobre a viabilidade de uma transação muito específica.

Agora você sabe o que é regressão. Os exemplos em Excel discutidos acima o ajudarão a resolver problemas práticos do campo da econometria.