Posts

Organização das informações para previsão de vendas na indústria de bens de consumo

A organização da informação é um fator crítico para uma boa previsão de vendas na indústria de bens de consumo de alto giro, que produz e comercializa os chamados Fast-Moving Consumer Goods. Em geral, existem três dimensões para organização da informação que precisam ser consideradas na estruturação do processo de forecasting: tempo, produto e local. Aqui, farei algumas considerações sobre a dimensão “produto”.

As áreas organizacionais de uma empresa, como marketing, comercial, produção e logística, necessitam da previsão de vendas dos produtos em níveis de agrupamento distintos. Por exemplo, o gerente de produtos analisa as informações em um nível de agregação que permita avaliar o desempenho da família pela qual é responsável. Já o gerente de produção precisa da previsão no nível de SKU, para tentar otimizar o sequenciamento de suas linhas. Fica evidente, pois, a necessidade de gerar estimativas de demanda futura em níveis de agrupamentos diferentes.

Não é razoável que a previsão de vendas seja realizada para todas as possíveis combinações de dados, primeiro porque o esforço necessário seria enorme e, sobretudo, porque cada área organizacional teria um número diferente, uma vez que não seria possível garantir que o somatório das previsões feitas no nível de SKU daria o mesmo resultado que a previsão obtida através da série de vendas consolidada.  Assim, é necessário decidir em que nível de organização a informação será tratada na previsão e como esta será fragmentada (top-down) ou consolidada (bottom-up) posteriormente.

A indústria de bens de consumo costuma organizar a informação para seu processo de previsão de vendas orientada por uma visão interna de marketing, fazendo a previsão de vendas para a família de produtos dentro de uma determinada marca. Apesar de historicamente esta abordagem não ser incorreta, a diversificação recente das linhas de produtos possibilita novas abordagens que resultam em erros menores. Para isso, a empresa precisa deixar de olhar para dentro e alinhar o seu processo de previsão de vendas com o padrão, ou “momento”, de consumo de seus clientes.

Por exemplo, vamos imaginar uma empresa com cinco diferentes linhas de snacks, vendidos em embalagens de 30, 80 e 200 gramas. O consumidor pretende comprar um snack para consumir no cinema, mas não encontrou o pacote de 30 gramas de sua marca preferida. O que é mais fácil de ocorrer: o consumidor comprar outra marca no pacote individual de 30 gramas ou passar no supermercado e comprar seu snack preferido na embalagem de 200 gramas? Em geral, o “momento de consumo” predomina em relação a “preferência de marca” e o consumidor irá escolher outro salgadinho de 30 gramas. Logo, fazer a previsão por marca (“preferência”) costuma levar a um erro maior do que que por embalagem (“momento de consumo”).

Obviamente, esta regra vale apenas se o posicionamento das marcas, ou seja, o perfil do cliente, for o mesmo. Empresas de bens de consumo que possuem diversas marcas de um determinado produto, sabão em pó ou sucos, por exemplo, mas cada marca é direcionada para um público diferente, não se beneficiariam com esta prática. Empresas com marcas (ou linhas) que sejam substitutivas do ponto de vista do consumidor (correlação negativa de vendas), sim, se beneficiam e muito desta prática. Vale a pena fazer o teste!

 

Referências

<https://www.ilos.com.br/web/quais-sao-as-caracteristicas-de-um-planejamento-da-demanda-eficiente-analise-das-definicoes-fundamentais-e-estruturais-do-processo/>

<https://www.ilos.com.br/web/comparacao-entre-as-abordagens-top-down-e-bottom-up-para-previsao-de-vendas/>

Impacto da crise econômica na demanda: como melhorar a previsão de vendas?

O aprofundamento da crise econômica, evidenciado pelos dados de contração de 1,7% do PIB no terceiro trimestre de 2015, está atingindo diretamente o consumo das famílias e, consequentemente, o volume de vendas do varejo. Se até o início deste ano, a crise era mais evidente na indústria, agora já é possível identificá-la com clareza nas séries de vendas de bens de consumo no varejo.

Além dos desafios inerentes a própria queda de demanda, as empresas precisam lidar com o aumento do erro na previsão de vendas. Apesar de não ser possível mitigar completamente este efeito, uma vez que os dados históricos não permitem antever o movimento de queda, pode-se amenizá-lo com o uso de métodos de previsão de vendas que sejam capazes de “reagir” mais rapidamente ou que considerem o impacto do ciclo econômico na série.

Apresentamos, nos exemplos abaixo, os resultados da previsão para as séries de vendas de veículos automotores da Anfavea (dezembro/2011 a novembro/2015) e do índice de vendas no varejo do IBGE (dezembro/2011 a setembro/2015), utilizando os métodos da Decomposição Clássica (com cálculo do ciclo econômico), de Holt-Winters e um terceiro mais simples, onde a previsão é dada pelas vendas do mesmo mês no ano anterior mais a correção realizada pelo crescimento/decrescimento (tendência) médio do último ano, muito utilizado no dia a dia das empresas, conforme pesquisa do ILOS.

Venda de Veículos Novos

Figura 1 – Análise dos Métodos de Previsão de Vendas para Veículos Novos. ILOS.

Figura 1 – Análise dos Métodos de Previsão de Vendas para Veículos Novos

Fonte: ANFAVEA e Análise ILOS

Quando se analisa a série de vendas de veículos novos da Anfavea, observa-se que a queda de demanda tem se acentuado a cada ano. A drástica redução observada nas vendas entre 2014 e 2015, de 22,55% até novembro, é reflexo da retirada dos incentivos fiscais, na figura da redução do IPI, a partir de janeiro deste ano.

Esta queda mais forte na demanda provocou um aumento considerável no erro da previsão de vendas, apontado pelo MAPE, pelos métodos da Decomposição Clássica e do Ajustamento com Tendência. No entanto, observamos uma melhora no resultado do erro pelo método de Holt-Winters, que é capaz de responder mais rapidamente a mudanças bruscas de comportamento no padrão histórico das vendas. Ainda assim, a Decomposição Clássica com o cálculo do ciclo econômico foi o método com menor erro.

Índice de Vendas nos Supermercados

Figura 2 – Análise dos Métodos de Previsão de Vendas para o Índice de Vendas do Varejo. ILOS

Figura 2 – Análise dos Métodos de Previsão de Vendas para o Índice de Vendas do Varejo

Fonte: IBGE e Análise ILOS

Quando analisamos a série histórica do índice de vendas em supermercados do IBGE, vemos que a queda da demanda começa a ser observada apenas em 2014 e se acentua bastante em 2015. Aqui, a inversão do sinal, de crescimento nas vendas em 2013 para decrescimento em 2014, provocou um efeito prejudicial para a previsão de vendas mais intenso do que a acentuação da queda em 2015. Os métodos da Decomposição Clássica com análise do ciclo econômico e de Holt-Winters melhoraram sua capacidade preditiva em relação ao ano passado, com destaque para este segundo método, que com sua capacidade de rápida adaptação tornou-se o mais assertivo.

Os resultados aqui observados em séries de vendas agrupadas valem, de maneira similar, para a previsão de famílias de produtos e mesmo de SKUs em uma empresa. Ou seja, a prática de ajustar os valores do ano anterior com base no crescimento/decrescimento de curto prazo para obter uma previsão de vendas, muito comum no mercado brasileiro, tende a apresentar erros significativamente maiores do que aqueles obtidos com o uso de métodos capazes de considerar o efeito do ciclo da economia na série de vendas e, em momentos de mudança brusca no comportamento do mercado, de métodos que consigam se adaptar mais rapidamente a estas mudanças.

 

Referências

<http://seriesestatisticas.ibge.gov.br/lista_tema.aspx?op=0&no=2&de=3>

<http://www.anfavea.com.br/tabelas.html>

<https://www.ilos.com.br/web/analise-de-mercado/relatorios-de-pesquisa/planejamento-no-supply-chain/>

 

PREVISÃO DAS VENDAS DE AUTOMÓVEIS NO BRASIL ATRAVÉS DE MÉTODOS CLÁSSICOS

As empresas e indústrias buscam modelos para suas vendas com o objetivo de prever a demanda futura, de modo que possam obter projeções que possibilitem melhorias no planejamento, redução de custos e outros benefícios. Em geral, as projeções advindas de modelos de previsão são baseadas em dados históricos ou em séries temporais.Existem diversas metodologias, técnicas e modelos de previsão.

Dentre as metodologias mais difundidas na literatura destacam-se: análise de regressão, médias móveis, decomposição clássica, amortecimento exponencial, modelos autorregressivos integrados e de médias móveis, métodos bayesianos e redes neurais.

No que se refere aos métodos de análise de regressão e suas aplicações para a feitura de projeções de séries temporais, pode-se recorrer a Gujarati (2006), enquanto Gooijer & Hyndman (2006) apresentam uma relevante resenha sobre os métodos de previsão, em especial de amortecimento exponencial.Os métodos automáticos de previsão apresentados por Box & Jenkins (1976) são amplamente difundidos, introduzidos em muitos softwares estatísticos e econométricos, e conhecidos como modelos ARIMA.

Enders (2004) é outra referência que deve ser citada para os modelos clássicos mencionados. Os métodos bayesianos, em particular os modelos dinâmicos sistematizados em West & Harrison (1989), são bastante úteis para o desenvolvimento de modelos de previsão. A metodologia de redes neurais, que apresentou um signifi cativo desenvolvimento nas últimas décadas, especialmente na previsão de séries temporais, pode ter como referência Zhang (2004).

O objeto deste estudo é a previsão de demanda para a indústria automobilística, relevante para que o planejamento do setor aconteça de maneira organizada após a recente crise fi nanceira, iniciada em setembro de 2008, que atingiu toda a economia mundial e, por conseguinte, afetou profundamente esse setor da economia brasileira.

ilos.indd

 

ilos.indd
Assim, este trabalho procura estudar as vendas de automóveis no Brasil através de métodos clássicos de previsão, disponíveis na literatura, projetando da maneira mais precisa possível a demanda do mercado de automóveis brasileiro, a partir de informações da Associação Nacional dos Fabricantes de Veículos Automotores (Anfavea). Essa associação congrega as empresas fabricantes de veículos automotores com instalações industriais no Brasil, fabricantes de automóveis, comerciais leves, caminhões, ônibus e máquinas agrícolas automotrizes. Como o foco deste artigo é a venda de automóveis, os dados aqui utilizados foram de vendas mensais de automóveis no Brasil, de janeiro de 2000 até agosto de 2009. As metodologias utilizadas neste trabalho se baseiam na análise de regressão linear, em modelos de amortecimento exponencial e em modelos ARIMA.Assim, este trabalho procura estudar as vendas de automóveis no Brasil através de métodos clássicos de previsão, disponíveis na literatura, projetando da maneira mais precisa possível a demanda do mercado de automóveis brasileiro, a partir de informações da Associação Nacional dos Fabricantes de Veículos Automotores (Anfavea). Essa associação congrega as empresas fabricantes de veículos automotores com instalações industriais no Brasil, fabricantes de automóveis, comerciais leves, caminhões, ônibus e máquinas agrícolas automotrizes. Como o foco deste artigo é a venda de automóveis, os dados aqui utilizados foram de vendas mensais de automóveis no Brasil, de janeiro de 2000 até agosto de 2009. As metodologias utilizadas neste trabalho se baseiam na análise de regressão linear, em modelos de amortecimento exponencial e em modelos ARIMA.

O MERCADO DE AUTOMÓVEIS NO BRASIL

A indústria automobilística brasileira teve diversos períodos marcantes que representaram queda ou elevação na venda de automóveis, devido a fatores relacionados, entre outros, a mudanças políticas e a variações do nível geral dos preços. Em setembro de 2008, quando da eclosão da mais recente crise fi nanceira mundial, a queda de vendas foi de 15%. Como tentativa de incentivar a produção da indústria automobilística, o Governo Federal procurou facilitar a compra de veículos através da redução do Imposto sobre Produtos Industrializados (IPI).
A Figura 1 mostra os principais fatos da indústria automobilística brasileira.

 

APLICAÇÃO DOS MODELOS DE PREVISÃO E ANÁLISE DOS RESULTADOS OBTIDOS

Os dados de vendas mensais de automóveis no Brasil foram utilizados na composição de duas séries temporais, uma com base nos dados reais desse mercado, representada no gráfi co da Figura 2. Na mesma fi gura pode se observar um crescimento signifi cativo das vendas de automóveis a partir de 2005 e movimentos nas vendas em alguns períodos, dentre os quais se destaca o movimento provocado pela crise de 2008.

A outra série temporal foi composta com base na variação das vendas do mercado de automóveis, calculada através do logaritmo da razão das vendas no período t, ou atual, pelo período t -1, ou período anterior, calculado pela expressão abaixo, onde Y representa a venda, e representada no gráfico da Figura 3.

ilos.indd

Deve-se observar que a série temporal da variação das vendas, na Figura 3, representa uma série estacionária para média, o que não se pode inferir da série de vendas do gráfi co da Figura 2. Os métodos de análise de séries temporais podem ser classifi cados para a análise em séries estacionárias e não-estacionárias. Dada a importância da estacionariedade para um estudo de um processo estocástico, existem vários métodos para testar a hipótese de estacionariedade de uma série temporal. Ela identifi ca a presença de movimentos ou da componente tendência na série.

ilos.indd

 

ilos.indd

 

O teste utilizado para testar a estacionariedade das duas séries temporais apresentadas neste trabalho foi o de raiz unitária, designado por teste de estacionariedade de Dickey & Fuller Aumentado, ou teste ADF. Para uma descrição detalhada de testes de estacionariedade pode-se recorrer a Gujarati (2006) e Enders (2004). Após os testes das séries foram confirmadas as inferências feitas a partir dos gráficos.

Para a realização da previsão de demanda de automóveis foram construídos modelos para duas séries aqui apresentadas, baseados na análise de regressão, regressão linear simples; no amortecimento exponencial, método de Holt e método de Winters; e na metodologia de Box & Jenkins, ou dos modelos ARIMA. Os resultados obtidos são apresentados a seguir.

O resultado do modelo de regressão linear simples para a série de vendas, o único modelo de regressão estimado, tendo o tempo como variável explicativa, obteve um coefi ciente de explicação de 83%, enquanto o erro padrão da regressão e a estatística F da análise de variância foram 27236,35 e 560,97, respectivamente.
A partir desses resultados pode-se inferir que as vendas podem ser explicadas por esse modelo, mas outros modelos devem ser investigados.

Assim, foram estimados os modelos de amortecimento exponencial de Holt e de Winters, utilizando a série de vendas e a de variação de vendas. Como mencionado anteriormente, além desses modelos foram estimados os modelos ARIMA. Dos modelos ARIMA estimados para as duas séries estudadas, o que apresentou os melhores resultados foi o SARIMA, um modelo ARIMA que leva em consideração a sazonalidade das informações.
Para a série de vendas, o modelo que apresentou o melhor ajuste foi um SARIMA (0,0,4)(0,1,1), enquanto que para a série de variação de vendas o modelo selecionado foi um SARIMA (0,0,0)(1,0,1).

Com base nos resultados obtidos a partir dos modelos estimados foi elaborada a Tabela 1, para comparação dos resultados e seleção do melhor modelo para predição das vendas de automóveis no Brasil. As medidas de performance dos modelos listadas nessa tabela são as seguintes:
erro médio quadrático ou mean square error (MSE); soma de quadrados das previsões ou prediction sum of squares (PRESS); critério de seleção de modelos de Akaike (AIC); critério de seleção de modelos de Schwarz (BIC); e erro percentual médio ou mean absolute percentage error (MAPE).

Após a análise da Tabela 1 pode-se observar que o modelo baseado na análise de regressão é o que apresenta os resultados menos satisfatórios. Este resultado era esperado, pois o modelo não capta o comportamento da tendência e sazonalidade apresentado pelos dados. Deve-se observar que somente a série de vendas foi utilizada para o modelo de regressão.

Por outro lado, pode-se verifi car que os modelos construídos a partir da metodologia sugerida, inicialmente Box & Jenkins (1976), foram os que apresentaram as melhores performances, como destacado na Tabela 1. Dentre esses, o modelo que apresentou o melhor desempenho para previsão de automóveis no Brasil é o SARIMA (0,0,0) (1,0,1), estimado utilizando a série de variação das vendas. O gráfi co apresentado na Figura 5 mostra os dados de variação das vendas e as previsões feitas através do modelo SARIMA.

ilos.indd

 

ilos.indd

Uma vez selecionado o modelo SARIMA (0,0,0)(1,0,1), estimado a partir dos dados obtidos através de uma variação logarítmica, calculou-se a previsão das vendas nos meses seguintes de 2009 e 2010, como mostra o gráfi co apresentado na Figura 6, com a continuação da série. Os valores estimados, ou as projeções, podem ser observados na Tabela 2.

 

CONSIDERAÇÕES FINAIS

No estudo não foi considerado o efeito da redução do IPI, o que provocou um aumento na venda de veículos em 2009. Comparando-se o resultado da previsão com o modelo escolhido para o fi nal de 2009 e para o ano de 2010 com os dados reais de mercado, encontra-se uma variação de aproximadamente 10% de MAPE em relação ao período de setembro a dezembro de 2009, compatível com o erro de previsão do modelo para a série histórica de janeiro de 2000 a agosto de 2009, de 9,9%; e de aproximadamente 17% para o período de janeiro a agosto de 2010.

Atribui-se esse erro à não consideração do aumento do IPI para o ano de 2010, o que implica na previsão de um volume maior de vendas para esse ano. Para levar em consideração a redução do IPI ou outras características qualitativas em um trabalho futuro, poderiam ser utilizadas variáveis dummy, no caso de métodos clássicos, ou feitas intervenções ou descontos, no caso de métodos bayesianos.Sugere-se que pesquisas que venham a ser desenvolvidas a partir deste trabalho sejam complementadas com a utilização de modelos clássicos vetoriais autorregressivos e, principalmente, de modelos bayesianos. Além disso, podem ser consideradas outras metodologias, tais como redes neurais e lógica fuzzy.

Espera-se que os resultados apresentados possam vir a contribuir de forma despretensiosa para estudos de planejamento e controle da produção da indústria automobilística, importante setor da economia brasileira.

 

REFERÊNCIAS BIBLIOGRÁFICAS

BOX, G. E. P.; JENKINS, G. M.. Time Series Analysis: Forecasting and Control. San Francisco: Holden-Day. 1976.
ENDERS, W.. Applied Econometric Time Series. 2nd ed.
New York: Wiley, 2004.
GOOIJER, J.; HYNDMAN, R.. 25 Years of Time Series Forecasting, International Journal of Forecasting. v. 22, pp. 443 473, 2006.
GUJARATI, D.. Basic Econometrics. 4th ed. New York:
McGraw-Hill, 2003.
HARRISON, P. J.; WEST, M.. Bayesian Forecasting and Dynamic Models. New York: Springer Verlag, 1989.
ZHANG, G.. Neural Networks in Business Forecasting.
London: Idea Group, 2004.
Site Consultado Anfavea: <http://www.anfavea.com.br>. Acesso em 21/11/2009 e em 20/10/2010.

COMBINAÇÃO OU COMPETIÇÃO DE PREVISÕES: UM ESTUDO DE CASO NOS FRETES DO AGRONEGÓCIO – PARTE 1

Tendo em vista a crescente importância das atividades logísticas no Brasil, torna-se cada vez mais necessário mensurar seus diferentes componentes. Especificamente, os transportes representam, em média, 64% do custo logístico das empresas, constituindo um objeto de análise importante para acadêmicos e gestores. Com base nessa perspectiva, é apresentado um estudo de caso que busca analisar o comportamento do preço de frete no setor de agronegócios, um dos mais dinâmicos da economia brasileira.

  1. INTRODUÇÃO

O agronegócio representa quase 33% do PIB nacional e envolve em torno de 37% da População Economicamente Ativa (PEA). Este setor responde ainda por 42% das exportações brasileiras e coloca o País em uma posição de destaque no cenário internacional. (MAPA, 2004).

Entretanto, o agronegócio enfrenta algumas dificuldades, principalmente em infraestrutura – o que pode provocar questionamentos quanto à capacidade de manutenção dessa posição de destaque. Segundo Rodrigues (2004, citado por Carvalho e Caixeta Filho, 2007), a falta de infraestrutura pode resultar em retenção da produção no campo, uma vez que os produtores rurais podem ficar sem meios para comercializar ou estocar seus produtos, o que caracterizaria a chamada “perspectiva da crise de abundância”. Para Castro (1995, citado por Carvalho e Caixeta Filho (2007), a logística eficiente é condição básica para a competitividade de todos os setores da economia.

Buscando uma análise mais profunda sobre o mercado de frete, as previsões do preço são conduzidas por meio de cinco diferentes métodos, os quais têm sido usados nas mais diversas aplicações, desde previsão de indicadores financeiros e otimização de funções até aplicações ligadas à medicina. Seus resultados são analisados à luz da combinação e da competição, duas abordagens alternativas para lidar com previsões geradas por diversos métodos.

Devido à extensão do assunto, o presente artigo será dividido em duas partes. Na primeira, serão abordadas as vantagens da previsão combinada na obtenção de um resultado mais preciso, além da análise de três dos cinco principais métodos de previsão usados atualmente pelas empresas (Modelo Econométrico, Decomposição Clássica e ARIMA). Os dois últimos métodos (Redes Neurais e Algoritmos Genéticos) serão analisados na segunda parte, que terá ainda um estudo de caso, que vai abordar a previsão dos preços de frete para uma empresa do setor de Agronegócios.

  1. COMBINAÇÃO X COMPETIÇÃO DE PREVISÕES

A combinação de previsões tem sido estudada há muito tempo. Evidências empíricas apontam que as previsões melhoram quando previsões individuais são combinadas. Gordon (1924, citado por Chase Jr, 2000), um dos primeiros a conduzir pesquisas nesse campo, fornece um bom exemplo, quando mostra uma das formas mais comuns de combinação de previsões – em eventos esportivos, como o boxe. Em busca do resultado mais justo, é feita uma média das notas dos três juízes.

As vantagens da previsão combinada se tornam mais evidentes em casos de alta incerteza ou quando as previsões são negativamente correlacionadas. Para Chase Jr (2000) a ideia de combinar previsões é melhor na medida em que os vieses dos métodos e/ou daqueles que fazem as previsões serão compensados de um para outro. Além disso, as previsões são geradas por indivíduos com dados e objetivos diferentes dentro das empresas. Combiná-las torna-se favorável, na medida em que deixa a previsão final mais equilibrada.

Existem diversos métodos para combinar previsões, sendo os mais básicos os que fornecem os melhores resultados: a média simples e a média ponderada. Por exemplo, a notação para média simples de três métodos de previsão é:

2010_05.2_imagem 01_parte 1

Elaborar uma previsão combinada requer a escolha de pesos para cada método. Essa decisão pode ser feita através softwares de otimização, cujo objetivo é determinar os pesos que minimizem o erro de previsão. A soma dos pesos é restrita a um. A notação para a média ponderada é apresentada a seguir:

2010_05.2_imagem 02_parte 1

Por outro lado, a competição consiste no confronto entre diferentes previsões individuais e na escolha da melhor delas. É uma abordagem interessante, considerando que determinado método pode apresentar maior acurácia para um conjunto de dados. Nesse caso, erros muito elevados em outras previsões não são incorporados na melhor delas.

Não existe uma abordagem de previsão que seja comprovadamente a melhor. Os tipos de dados e os objetivos a serem alcançados devem ser analisados e cada caso avaliado individualmente. As previsões combinadas, além das evidências empíricas que comprovam sua maior eficácia, são benéficas ao gerar um resultado mais equilibrado, mais próximo da real tendência central ao longo do tempo. Não obstante, a competição de previsões, pode gerar um resultado mais preciso. Sobretudo quando as previsões são positivamente correlacionadas. Flores e White (1989) consideram que a melhor abordagem a ser usada é aquela que gera sistematicamente os melhores resultados ao longo do tempo, seja a combinação ou a competição.

3. PRINCIPAIS MÉTODOS DE PREVISÃO

Na primeira parte desse artigo, abordaremos três dos cinco principais métodos de previsão – passíveis de combinação e competição – adotados pelas empresas.

3.1 MODELO ECONOMÉTRICO

A econometria é a ciência que une a economia, a estatística e a matemática. Para Gujarati (2000, citado por Rangel, 2007), o método da pesquisa econométrica visa, essencialmente, a uma conjunção da teoria econômica com medidas concretas, usando como ponte a teoria e as técnicas de inferência estatística.

Análise de regressão é uma das técnicas estatísticas usadas na econometria para explicar uma variável dependente Y por meio de uma ou mais variáveis independentes Xi. A correlação entre as variáveis independentes na regressão múltipla não pode ser alta. Quando isso ocorre, a contribuição das variáveis para o modelo é a similar, o que não gera previsões mais precisas, visto que não há informações realmente “novas” para explicar o comportamento da variável dependente.

A equação que descreve um modelo de regressão múltipla é dada pela função linear:

2010_05.2_imagem 03_parte 1

 

Os parâmetros do modelo são estimados através do método dos mínimos quadrados, a partir do conjunto de dados, por softwares como o Excel e o SPSS. Hanke e Wichern (2005) descrevem o significado dos coeficientes de regressão:
“O coeficiente parcial da regressão mede a variação média na variável dependente por unidade de variação na variável independente, mantendo as demais variáveis independentes constantes.”

Por exemplo, Castro (2003) estuda a formação dos preços no transporte de carga no Brasil. Para explicar o preço do frete (variável dependente), o autor usa como variáveis explicativas: preço do combustível, salário médio, despesa com seguro por tonelada, distância média de transporte, carregamento médio dos veículos, tamanho médio dos lotes e porcentagem das receitas em carga fracionada.

Conforme visto, os modelos econométricos podem ter diversas aplicações. É importante ressaltar que o acréscimo de variáveis a um modelo não o torna, necessariamente, mais preciso, principalmente quando o índice de correlação entre as mesmas for elevado. Por isso, é fundamental analisar a real contribuição de uma variável a um modelo. A ocorrência de multicolinearidade eleva o erro padrão dos coeficientes de regressão, tornando a variável menos significativa. Ou seja, no limite, esses coeficientes podem assumir qualquer valor, inclusive zero, o que pode prejudicar as análises do tomador de decisão.

3.2 DECOMPOSIÇÃO CLÁSSICA

O método de decomposição clássica é um dos métodos mais simples e de fácil aplicação usado para gerar previsões a partir de séries temporais. Morretin e Toloi (1987, citados por Werner e Ribeiro, 2003) definem uma série temporal como qualquer conjunto de observações ordenadas no tempo. Hanke e Wichern (2005) apresentam a seguinte definição:

“Uma série temporal consiste em dados coletados, registrados ou observados ao longo de sucessivos incrementos de tempo”

Os registros de uma série temporal devem ser feitos a intervalos fixos de tempo. Em geral, são feitos anualmente ou mensalmente, dependendo do objetivo da previsão. Para gerar uma boa previsão, a amostra deve ser considerável. Tabachnick e Fidell (2001) consideram que o mínimo deve ser de 50 observações. Normalmente, os valores de uma série são autocorrelacionados, ou seja, a variação de um valor impacta os vizinhos. Essa dependência produz um padrão de variabilidade que pode ser usado para prever valores futuros e ajudar na gestão de operações comerciais (Hanke e Wichern, 2005).

Uma série temporal é composta por quatro elementos básicos:

  1. Tendência (T): É a componente que mostra o crescimento ou declínio da série ao longo do tempo.
  2. Ciclo (C): A componente cíclica representa o movimento ondulatório ou ciclo de uma série com um ou mais anos de duração, que tende a ser periódico ao longo de vários anos.
  3. Sazonalidade (S): É a flutuação ondulatória da série dentro de um ano. Sofre influência do clima e de eventos como natal, férias escolares e feriados.
  4. Irregular (I): É a componente que representa as flutuações aleatórias da série, que não podem ser previstas. Também pode ser chamada de ruído aleatório ou erro.

A Figura 1 ilustra uma série com sazonalidade e pequena tendência de crescimento.

 2010_05.2_imagem 04_parte 1

 

A decomposição clássica pode gerar previsões (Y) através de dois modelos, o aditivo e o multiplicativo. As equações são apresentadas a seguir:

2010_05.2_imagem 05_parte 1 e 2010_05.2_imagem 06_parte 1

Considerando a dificuldade em trabalhar com ciclos – podem ser confundidos com a tendência (T) – alguns autores simplificam os modelos de previsão:

2010_05.2_imagem 07_parte 1 e 2010_05.2_imagem 08_parte 1

Outros ainda propõem simplificações diferentes, levando em conta que o erro aleatório não pode ser calculado:

2010_05.2_imagem 09_parte 1 e 2010_05.2_imagem 10_parte 1

O cálculo dos índices é muito simples – pode ser feito em Excel – constituindo uma das grandes vantagens desse método. Além disso, embora a amostra deva ter tamanho considerável, é feita para apenas uma variável, diferente do modelo econométrico, quando, em geral, mais de duas variáveis são necessárias. Em contrapartida, na decomposição clássica, não são analisados fatores externos à série temporal.
3.2 ARIMA

Os modelos ARIMA (Auto-Regressive Integrated Moving-Average ou Auto-Regressivos Integrados às Médias Móveis), assim como no método de decomposição clássica, são utilizados para previsão de séries temporais. São modelos lineares capazes de representar tanto séries estacionárias, quanto não-estacionárias (Hanke e Wichern, 2005). Também recebem o nome de modelos Box-Jenkins, autores que desenvolveram a metodologia na década de 70.

Segundo Werner e Ribeiro (2003), os modelos Box-Jenkins partem da idéia de que cada valor da série (temporal) pode ser explicado por valores prévios, a partir do uso da estrutura de correlação temporal. Esta também pode ser denominada autocorrelação. Cabe destacar a diferença entre a autocorrelação nas séries temporais e a correlação entre as variáveis no modelo econométrico. No primeiro caso, é a relação entre os próprios valores da série que gera uma estrutura capaz de realizar previsões. Ou seja, é fundamental que esta seja forte. No segundo, analisa-se a relação entre diferentes variáveis explicativas e a variável independente. Neste caso, é importante que as variáveis explicativas não sejam correlacionadas entre si para um bom desempenho do modelo.

O modelo é composto por três termos – o auto-regressivo, termo de tendência ou filtro de integração e o das médias móveis – representados pelas letras pd e q respectivamente. Esses termos podem ser combinados, gerando diferentes modelos: estacionários (ARMA), não–estacionários (ARIMA) e sazonais (SARIMA).

Tabachnick e Fidell (2001) apresentam a seguinte definição para os componentes pd e q:

  • Termo auto-regressivo (p) – Número de termos do modelo que descreve a dependência entre observações sucessivas.
  • Termo de médias móveis (q) – É o número de termos que descreve a persistência de um choque aleatório de uma observação para outra.
  • Termo de tendência (d) – Termos necessários para transformar uma série não-estacionária em estacionária.

As previsões ARIMA são realizadas seguindo as etapas do fluxograma da Figura 2. Caso o modelo sugerido não seja adequado, o procedimento é repetido.

2010_05.2_imagem 11_parte 1

Os modelos estacionários, embora não sejam muito comuns, podem ser apenas modelos auto-regressivos (AR) ou modelos de médias móveis (MA). A seguir são apresentadas funções que descrevem esses modelos, além do modelo auto-regressivo de médias móveis (ARMA):

Modelo Auto Regressivo:

2010_05.2_imagem 12_parte 1

 

 2010_05.2_imagem 13_parte 1

Caso a série analisada seja não-estacionária, ou seja, com tendência e sazonalidade, é preciso transformá-la em uma série estacionária, tomando sucessivas diferenças. A primeira diferença de uma série Yt é dada por:

2010_05.2_imagem 14_parte 1

Um modelo ARIMA com p =1 e q=1 é dado por:

2010_05.2_imagem 15_parte 1

Nos modelos SARIMA, muito usados quando a série é impactada pelo clima ou determinados eventos anuais, além dos componentes p, d e q não sazonais, são acrescentados parâmetros sazonais P, D e Q.

A utilização da metodologia Box-Jenkins requer conhecimento e atenção do previsor. A escolha de um modelo adequado é fundamental para realização de uma boa previsão. Essa escolha é baseada em alguns testes estatísticos, que não fazem parte do escopo do presente trabalho. A complexidade dos algoritmos usados para definição dos coeficientes do modelo torna fundamental o uso de softwares especializados, como o SPSS.

4 Conclusão

A logística cresce em importância dentro das empresas brasileiras e, junto com ela, se desenvolve também a preocupação em relação aos seus gastos. Por isso, é importante que se saiba mensurar seus diferentes componentes, principalmente o custo de transporte, que representa 64% dos gastos do agronegócio com logística.

Entretanto, encontrar modelos que se adequem ao conjunto de dados e aos objetivos das empresas é uma tarefa delicada e que requer conhecimento analítico. Na segunda parte desse artigo serão estudados os dois últimos métodos de previsão (Redes Neurais e Algoritmos Genéticos) – passíveis de combinação e competição – adotados pelas empresas, além da apresentação de um estudo de caso, que vai abordar a previsão dos preços de frete para uma empresa do setor de Agronegócios.

5 Bibliografia

CARVALHO, L. B.; CAIXETA FILHO, J. V. Comportamento do Mercado de Preços de Fretes Rodoviários de Açúcar para Exportação no Estado de São Paulo, Revista de Economia e Agronegócio, v. 5, n. 1, 2007.

CASTRO, N. Formação de Preços no Transporte de Carga, Pesquisa e Planejamento Econômico, v. 33, n. 1, 2003. Disponível em http://ppe.ipea.gov.br/index.php/ppe/article/viewFile/89/64. Acesso em 25/03/2010.

CHASE JR, W. C. Composite Forecasting: Combining Forecasts for Improved Accuracy, The Journal of Business Forecasting Methods & Systems. p 2, 20-22, 2000.

FAUSETT, L. Fundamentals of Neural Networks, Upper Saddle River: Prentice Hall, 1994. 461 p.

FLORES, B. E.; WHITE, E. M. Combining Forecasts: Why, When and How, The Journal of Business Forecasting Methods & Systems. p 2-5, 1989.

GURNEY, K.  An Introduction to Neural Networks. London: CRC Press, 2003. 234 p.

HANKE, J. E., WICHERN, D. W. Business Forecasting. 8. ed. New Jersey: Pearson Prentice Hall, 2005. 535p.

MAPA – Ministério da Agricultura, Pecuária e Abastecimento. Disponível em http://www.agricultura.gov.br/. Acesso em 30/03/2010.

MOREIRA, L. M.. Multicolinearidade em Análise de Regressão. 2003. Disponível em: http://www.ead.fea.usp.br/Semead/9semead/resultado_semead/trabalhosPDF/455.pdf. Acesso em 10/03/2010.

NEVES, M. V. Utilização de Redes Neurais para Predição de Series Temporais Aplicada a Detecção de Ociosidade Computacional

PACHECO, M. A. C. Algoritmos Genéticos: Princípios e Aplicações. 1999. Disponível em http://www.ica.ele.puc-rio.br/Downloads%5C38/CE-Apostila-Comp-Evol.pdf. Acesso em 15/03/2010.

RANGEL, L. A. A Utilização da Econometria na Pesquisa Empírica da Contabilidade, Revista CRCRS. 2007 Disponível em: http://www.crcrs.org.br/revistaeletronica/artigos/05_leandro.pdf. Acesso em 04/03/2010.

SANTA ROSA, H. N. Redes Neurais na previsão de Séries Temporais. 2004. Disponível em: http://inf.unisul.br/~ines/workcomp/cd/pdfs/2878.pdf. Acesso em 08/03/2010.

SOARES, G. L. Algoritmos Genéticos: Estudos, Novas Técnicas e Aplicações. 1997. 137 f . Dissertação (Mestrado em Engenharia Elétrica) – Escola de Engenharia, Universidade Federal de Minas Gerais, Belo Horizonte. 1997.

TABACHNICK, B. G.; FIDELL, L. S. Using Multivariate Statistics. 4. ed. Needham Heights,: Allyn & Bacon, 2001. 966 p.

WERNER, L.; RIBEIRO, J. L. D., Previsão de Demanda: Uma Aplicação dos Modelos Box-Jenkins na Área de Assistência Técnica de Computadores Pessoais. Gestão e Produção, v.10, n.1, p 47-67, 2003.

Autores: Peter Wanke e Marina Andries Barbosa

IMPACTOS DAS ABORDAGENS TOP-DOWN E BOTTOM-UP NA VARIÂNCIA DO ERRO DE PREVISÃO COM AMORTECIMENTO EXPONENCIAL SIMPLES

Este artigo tem por objetivo mensurar o impacto das abordagens Top-Down e Bottom-up na variância do erro de previsão de vendas com o método do amortecimento exponencial simples, relacionando a variância do erro às características mais comuns de uma série de vendas: coeficiente de correlação, variância das vendas e participação nas vendas agregadas.

Para isso, foram demonstradas analiticamente as expressões referentes à variância do erro de previsão para essas duas abordagens, sob diferentes condições do tempo de reposta: unitário, constante e variável. Os resultados das variâncias dos erros de previsão para as abordagens Top-Down e Bottom-up foram comparados para duas situações distintas com relação à constante de amortecimento alfa: igual e diferente entre essas abordagens.

Foi identificado que, considerando-se ou não a constante de amortecimento (alfa) entre as abordagens, são verificados dois tipos de efeitos principais que explicam o comportamento da variância dos erros de previsão de vendas em função das características mais comuns da série de vendas: Efeito Portifólio (constantes iguais) e Efeito Ancoragem (constantes diferentes). Até o presente momento esses efeitos são considerados antagônicos pela literatura de previsão de vendas.

O restante do artigo está estruturado em mais seis seções. A seção 2 é dedicada à revisão de literatura. Na seção 3 são demonstradas analiticamente as variâncias dos erros de previsão de vendas nessas duas abordagens de previsão de vendas para diferentes condições do tempo de resposta. Já nas seções 4 e 5 são analisados e discutidos os resultados encontrados, ou seja, a adequação dessas abordagens às características mais comuns de uma série de vendas. Finalmente, na seção 6 são apresentadas as conclusões e na seção 7, as referências bibliográficas.

  1. REVISÃO DE LITERATURA

A primeira parte dessa seção é dedicada à revisão das abordagens Top-Down e Bottom-Up em previsões de vendas bem como sua adequação a diferentes características das séries de vendas dos produtos ou itens; a segunda, ao método do Amortecimento Exponencial Simples e às recentes pesquisas desenvolvidas nessa área e a terceira, à determinação da variância dos erros de previsão de vendas com esse método e a necessidade de se considerar o tempo de resposta.

2.1 Abordagens Top-Down e Bottom-up

Existe grande consenso entre os autores sobre a conceituação e a operacionalização das abordagens Top-Down (TD) e Bottom-up (BU) na previsão de vendas. Por exemplo, segundo Lapide (1998), na abordagem TD a previsão de vendas é feita para a soma de todos os itens, sendo então desagregada item-a-item, geralmente com base no percentual histórico do item no total. Nesse sentido, Schwarzkopf et al. (1988) apontam que na abordagem TD primeiramente é previsto o total agregado e posteriormente é feito o rateio em itens, famílias ou regiões com base em suas proporções históricas.

Já na abordagem BU, cada um dos itens é previsto separadamente e as previsões são somadas caso seja necessária uma previsão agregada para o grupo (Lapide, 1998). Em outras palavras, na abordagem BU, o previsor primeiro prepara as previsões para cada SKU (stock keeping unit) agregando-as em seguida no nível de interesse da análise (Jain, 1995).

Apesar do consenso relacionado à conceituação e operacionalização das abordagens TD e BU, existe grande conflito entre os autores sobre sua adequação ou utilização no sentido de minimizar os erros de previsão de vendas e sua variância. Essa discussão é particularmente importante quando se observa a pesquisa desenvolvida por Mentzer e Cox (1984) em 160 empresas norte-americanas para determinar os principais fatores envolvidos na precisão da previsão de vendas. Além de fatores como treinamento formal, tipo de indústria e volume de vendas, o nível no qual as previsões de vendas são elaboradas (nível corporativo e maior agregação dos dados ou nível de produtos e maior desagregação) também interfere significativamente na precisão da previsão de vendas. De acordo com os autores, uma maior precisão na previsão de vendas está associada a um maior nível de agregação dos dados.

Diversos autores têm tentado relacionar a adequação das abordagens TD e BU a diferentes características das séries de vendas dos itens como, por exemplo, ao coeficiente de correlação das vendas entre o item em estudo e todos os itens restantes agrupados (r), à fração ou proporção do item em estudo nas vendas totais agregadas (f) e à razão entre as variâncias do item em estudo e a dos demais itens agrupados (k2).

Ainda que existam controvérsias com relação à adequação das abordagens TD e BU, uma premissa implícita em alguns dos artigos pesquisados está relacionada ao Efeito Portifólio, conceito definido inicialmente por Zinn, Levy e Bowersox (1989) – e expandido posteriormente para o tempo de resposta por Tallon (1993) e Evers (1998) – para avaliar o impacto da centralização dos estoques na variância das vendas agregadas de diferentes mercados.

De acordo com o Efeito Portifólio, a centralização dos estoques, ou seja, a agregação das vendas, minimiza a variância total quando o coeficiente de correlação das vendas entre os mercados é -1 e a variância das vendas relativa entre os mercados é 1. Em linhas gerais, o racional para a redução da variância, segundo os autores, é a compensação das flutuações das vendas entre dois mercados: quando as vendas de um mercado crescem, as vendas do outro mercado diminuem da mesma quantidade.

Um exemplo nesse sentido é o artigo de Kahn (1998), segundo o qual, na abordagem TD, os picos e vales característicos de cada item são cancelados pela agregação, constituindo uma representação artificial da verdadeira natureza do negócio. A correlação negativa entre os itens reduziria a variância das vendas agregadas. Também corroborando as principais conclusões do Efeito Portifólio, Schwarzkopf et al. (1988) apontaram que estimativas baseadas em dados agregados são mais precisas que estimativas baseadas em previsões individuais, quando os itens possuem padrões de vendas independentes (correlação nula).

No entanto, Lapide (1998) afirma que, como regra geral, a abordagem TD só faz sentido se, e somente se, os padrões de vendas de cada item são os mesmos. Em outras palavras, se todos os itens estão crescendo, decrescendo ou permanecendo estáveis, o que caracteriza correlação positiva entre as vendas dos diferentes itens. O autor prossegue afirmando que, freqüentemente, uma família de produtos é composta por itens que potencialmente se canibalizam, como no caso de uma família com produtos novos e antigos. Para esses itens, o padrão de demanda é bastante diferente, já que alguns itens crescem às custas de outros (correlação negativa), o que tornaria preferível a abordagem BU.

Gordon, Morris e Dangerfield (1998) e Gelly (1999) discorrem sobre a adequação das abordagens TD e BU a outras características das séries de vendas dos itens além do coeficiente de correlação.

Mais especificamente, Gordon, Morris e Dangerfield (1998) estudaram mais de 15.000 séries de vendas, de modo agregado e desagregado, gerando previsões a partir do método do Amortecimento Exponencial Triplo. A abordagem BU resultou em previsões mais precisas em 75% das séries, sendo os maiores ganhos de precisão obtidos para itens com forte correlação positiva e quando o mesmo representava uma grande fração da série agregada de vendas. Em contraste, quando os dados são negativamente correlacionados, a abordagem TD mostrou-se mais precisa, independentemente da participação do item na série agregada de vendas.

Finalmente, no estudo de caso apresentado por Gelly (1999), a abordagem TD mostrou-se mais adequada para item que possuem um padrão de vendas previsível ao longo do tempo, ou seja, um baixo coeficiente de variação nas vendas que poderia ser resultado de uma grande participação do item na série agregada de vendas e de uma pequena razão entre a variância da demanda do item e a dos demais itens agrupados.

Na Tabela 1 são resumidos os impactos relativos às abordagens TD e BU identificados nessa seção.

2006_07.2_imagem 01

2.2 Amortecimento Exponencial Simples

Segundo Gijbels, Pope e Wand (1999), o Amortecimento Exponencial Simples (AES) é o modelo mais comumente utilizado na previsão de séries temporais. Suas principais vantagens são relacionadas ao fato de ser um modelo não-paramétrico – ou seja, não associado a uma determinada distribuição de probabilidade – baseado em uma fórmula algébrica simples, que permite rapidamente a atualização da estimativa de nível local da série temporal através das recorrências em sua equação. O AES e suas extensões foram desenvolvidos a partir do final dos anos 50 por Brown, Winters e Holt, dentre outros autores (Chatfield, Koehler e Snyder, 2001). Dentre suas principais premissas ou limitações, cabe destacar que no AES não são consideradas eventuais tendências de crescimento ou decrescimento, flutuações sazonais e variações cíclicas.

Nos últimos vinte anos, algumas pesquisas foram empreendidas para melhor compreender e descrever o AES e suas extensões do ponto de vista estatístico. Por exemplo, Chatfield, Koehler e Snyder (2001) comparam uma variedade de potenciais modelos de Amortecimento Exponencial derivados de médias móveis auto-regressivas, modelos estruturais e espaços dinâmicos não-lineares e concluem por que o AES e suas extensões são robustos mesmo diante de mudanças na variância das séries temporais. Blackburn, Orduna e Sola (1995) mostram que o AES pode introduzir autocorrelações espúrias em series cujo componente de tendência tenha sido removido e que essas autocorrelações dependem da idade média dos dados e do valor da constante de amortecimento. Finalmente, Gibels, Pope e Wand (1999) comparam o AES com a Regressão Kernel (não-paramétrica) permitindo um melhor entendimento da equivalência e da adequação entre as duas abordagens.

Sejam Ft1 a previsão de vendas pelo AES para o item 1 no tempo t, a a constante de amortecimento, Dt1 a venda real do item 1 no tempo t, Dt a venda real agregada de todos os itens no tempo t, e f a fração ou percentual das vendas do item 1 nas vendas totais (suposta constante ao longo do tempo), então as previsões pelo AES para o item 1 nas abordagens TD e BU são dadas a seguir.

 2006_07.2_imagem 02

2.3 Variância dos Erros de Previsão e Tempo de Resposta

Diversos modelos de previsão de vendas não utilizam todos os dados históricos disponíveis. As médias móveis, por exemplo, só utilizam os n últimos dados e o AES atribui pesos declinantes nos dados passados (Silver e Peterson, 1985). Nestas circunstâncias amostrais, não são exatamente claras as estimativas mais corretas para a média e para a variância das vendas. A melhor estimativa da média de vendas é simplesmente a previsão de vendas para o próximo período. Já para estimar a variância das vendas, deve ser utilizada a variância do erro de previsão.

Segundo Silver e Peterson (1985) e Greene (1997), a variância do erro de previsão e a variância das vendas não são iguais. De acordo com esses autores, o racional associado à maior adequação da variância do erro de previsão está relacionado à utilização da previsão para estimação das vendas. O estoque de segurança, por exemplo, deveria ser dimensionado para proteger contra variações nos erros de previsão de vendas. De modo geral, a variância do erro de previsão tende a ser maior que a variância das vendas (Silver, Pyke e Peterson, 2002). Isto se deve ao erro de amostragem adicional introduzido pelos modelos de previsão ao só utilizar parte dos dados históricos disponíveis.Outra situação que deve ser considerada, conforme apontado por Harrison (1967) e Johnston e Harrison (1986) é se a previsão de vendas é congelada durante o tempo de resposta do ressuprimento (TR). Nesse caso, deve ser estimada variância do erro de previsão durante esse tempo de resposta. De acordo com Silver e Peterson (1985), a relação exata entre a variância do erro de previsão e a variância do erro de previsão no tempo de resposta depende de complicadas relações entre o padrão da demanda em questão, o procedimento para revisão das previsões e o valor de n utilizado na média móvel, ou da constante de amortecimento (veja-se, por exemplo, Harrison, 1967). Segundo os autores, uma das razões para tal complexidade é que o procedimento de recorrência no amortecimento introduz um certo grau de dependência entre os erros de previsão de períodos separados pelo tempo de resposta.

Silver e Peterson (1985) apontam que a seguinte relação empírica pode ser utilizada para estimar a variância dos erros de previsão no tempo de resposta do ressuprimento:

2006_07.2_imagem 03

onde c é um coeficiente que deve ser estimado empiricamente e V(E) é a variância do erro de previsão. Sejam Et1 o erro de previsão de vendas do item 1 no tempo t (definido como a diferença entre as vendas reais e a previsão de vendas),  F1tTR a previsão de vendas pelo AES para o item 1 atualizada no início do tempo de resposta em t – TR e SFTR1t a previsão de vendas acumulada para o item 1 no tempo de resposta TR terminado em t, então o erro de previsão de vendas do item 1 no tempo de resposta nas abordagens BU e TD (ETR1) é dado por:

2006_07.2_imagem 04
  1. VARIÂNCIA DOS ERROS DE PREVISÃO

Nesta seção são calculadas as variâncias dos erros de previsão de vendas pelo AES nas abordagens TD e BU em três circunstâncias particulares: tempo de resposta unitário, tempo de resposta constante e tempo de resposta variável (pela determinação da soma aleatória das vendas reais do item 1 no tempo de resposta e do produto da previsão de vendas do item 1 pelo AES no tempo de resposta).

3.1 Tempo de Resposta Unitário

Sejam V(Dt1) = s12 a variância das vendas reais do item 1, V(Dt) = s2 a variância das vendas agregadas de todos os itens, V(Ft1) a variância da previsão de vendas do item 1 pelo AES, então as variâncias dos erros de previsão pelo AES para o item 1 nas abordagens TD e BU, V(Et1) são dadas a seguir.

 

2006_07.2_imagem 05

sendo nas equações (12) e (16) resolvida a soma dos infinitos termos da progressão geométrica das equações (11) e (15), respectivamente, e nas equações (13) e (17) somadas as variâncias das vendas reais e da previsão de vendas pelo AES para o item 1, provadas independentes, conforme é demonstrado a seguir.

Coeficiente de Correlação entre Demanda e Previsão

Sejam rDXF o coeficiente de correlação entre a previsão de vendas pelo AES para o item 1 e as vendas reais do item 1, o valor esperado das vendas reais do item 1 e   o valor esperado da previsão de vendas pelo AES para o item 1. Então, o coeficiente de correlação entre vendas e previsão nas abordagens TD e BU é dado por:

 2006_07.2_imagem 06

3.2 Tempo de Resposta Constante

 

2006_07.2_imagem 07

 

3.3 Tempo de Resposta Variável

Foram utilizadas diferentes modelagens para a determinação da variância das vendas reais do item 1 no tempo de resposta (V(DTRt1)) e da variância da previsão de vendas do item 1 congelada no tempo de resposta (V(FTRt1)).

No primeiro caso, foi calculada a variância da soma aleatória das vendas reais no tempo de resposta, através de função geradora de momento fatorial (Zwillinger e Kokosa, 2000), supondo-se as vendas reais e o tempo de resposta independentes e com distribuição discreta. Foi corroborado o resultado apresentado anteriormente por Mentzer e Krishnan (1988), obtido para vendas reais com distribuição contínua, tempo de resposta com distribuição discreta e independência entre vendas reais e tempo de resposta. Os autores utilizaram função geradora de momento para demonstrar a conhecida relação na literatura de logística

 2006_07.2_imagem 08

representa a variância do tempo de resposta. Em sua demonstração foram necessárias transformações geométricas e de Laplace. Apesar desse resultado ser válido para qualquer combinação de distribuições de probabilidade, a demonstração que segue objetiva ilustrar a menor complexidade envolvida na demonstração por função geradora de momento fatorial.

No segundo caso, foi calculada a variância do produto das variáveis aleatórias previsão de vendas do item 1 e tempo de resposta, resultado idêntico aos apresentados por Brown (1982) e Wanke e Saliby (2005). O resultado

 2006_07.2_imagem 09

equivale a calcular a variância da previsão de vendas congelada no tempo de resposta.

Variância das Vendas Reais no Tempo de Resposta

Sejam Pd(t) e Pn(t), respectivamente, as funções geradoras de momento fatorial das variáveis aleatórias discretas demanda (D) e tempo de resposta (TR). P(t) representa a função geradora de momento fatorial da soma aleatória da demanda no tempo de resposta. Em particular, a variância da demanda no tempo de resposta (equação 28) é obtida avaliando-se a seguinte expressão para t =1: P”(t) + P’(t) – (P’(t))2 onde P’(t) e P”(t) são as derivadas primeira e Segunda de P(t) (equação 27).

2006_07.2_imagem 10

 

Coeficiente de Correlação entre Demanda e Previsão no Tempo de Resposta

Sejam rDTRxFTR o coeficiente de correlação entre a previsão de vendas para o item 1 e as vendas reais do item 1 no tempo de resposta,   o valor esperado das vendas reais do item 1 no tempo de resposta e  o valor esperado da previsão de vendas no tempo de resposta para o item 1. Então, o coeficiente de correlação entre vendas e a previsão no tempo de resposta nas abordagens TD e BU é dado por:

 

2006_07.2_imagem 11
  1. ANÁLISE DOS RESULTADOS

Nesta seção são apresentados e analisados os resultados que igualam as variâncias das abordagens TD e BU quando as constantes de amortecimento são iguais (mesmo alfa) e diferentes (possibilidade de adotar diferentes valores de alfa em cada uma das abordagens).

4.1 Constantes de Amortecimento e Iguais

Considerando k2 a razão entre a variância das vendas do item 1 e a variância das vendas de todos os demais itens agregados, ou seja,  considerando também que s2 = s12 +s22 +2ρs1s2 e igualando as equações (14) e (18), no caso do tempo de resposta unitário, (23) e (24), no caso do tempo de resposta constante e (37) e (38), no caso do tempo de resposta variável, obtém-se o valor de k que torna indiferentes as variâncias dos erros de previsão nas abordagens TD e BU.

2006_07.2_imagem 12

De acordo com os resultados, para a = 0, a variância do erro de previsão é a mesma para as abordagens TD e BU e é igual a TRs12, ou seja, não depende de a, f e k e sTR2. Para a > 0 e a £ 1 o valor de k (kcrítico) que iguala a variâncias dos erros de previsão nas abordagens TD e BU depende de f e ρ.

4.2 Constantes de Amortecimento Diferentes

Também considerando

2006_07.2_imagem 13

supondo valores diferentes da constante de amortecimento para as abordagens TD (atd) e BU (abu), igualando as equações (14) e (18), no caso do tempo de resposta unitário, (23) e (24), no caso do tempo de resposta constante e (37) e (38), no caso do tempo de resposta variável, obtém-se o valor de atd, em função de abu, f, k e ρ que torna indiferentes as variâncias dos erros de previsão nessas duas abordagens.

2006_07.2_imagem 14

 

De acordo com os resultados apresentados em (39) e (40), a escolha da abordagem de previsão de vendas independe de TR e sTR2.

  1. DISCUSSÃO DOS RESULTADOS

Nessa seção serão discutidos com maior profundidade os resultados gerados nas seções anteriores, sobretudo as equações (39) e (40). Especificamente foram geradas diferentes combinações aleatórias de f e ρ para se avaliar a resposta em termos dos valores de k na equação (39) e diferentes combinações aleatórias de abu, f, k e ρ para se avaliar a resposta em termos dos valores de atd na equação (40). Isso é necessário na medida que a não linearidade dos termos dessas equações torna difícil avaliar diretamente seu impacto marginal nas variáveis em evidência.

5.1 Constantes de Amortecimento Iguais

No Gráfico 1, construído a partir da equação (39), são apresentadas as linhas de indiferença entre as abordagens TD e BU para diferentes valores de f, k e ρ. Em essência, se k > kcrítico deve ser escolhida a abordagem TD, caso contrário, a abordagem BU. Em outras palavras, dado um par (f, ρ), se o valor de k for superior ao respectivo valor de kcrítico (dado pela equação 39) associado a esse par, deve ser escolhida a abordagem TD no amortecimento exponencial simples em detrimento da abordagem BU.

2006_07.2_imagem 15

Percebe-se pelo Gráfico 1 que, menores os valores de ρ e f, maiores as chances (área do gráfico acima da linha de indiferença) da abordagens TD minimizar a variância do erro de previsão no AES. O que explica esse resultado é o Efeito Portifólio no item 1: correlação negativa com os demais itens agregados e pequena participação percentual nas vendas totais. No entanto, para maiores valores de f e ρ, a abordagem TD ainda assim pode apresentar menor variância no erro de previsão se o valor de k for suficientemente grande. Ou seja, mesmo para itens com elevada participação no total e correlação positiva com os demais itens agregados é possível que a abordagem TD seja a melhor escolha, desde que a razão entre a variância das vendas do item em estudo e a dos demais produtos seja suficientemente grande. Parece haver um efeito compensatório ou trade-off entre valores do par (f, ρ).

Apesar da relação entre f, ρ e k poder ter sido explorada bidimensionalmente no Gráfico 1, foram geradas diferentes combinações aleatórias de f e ρ, com base em Distribuições Uniformes de Probabilidade para se avaliar a resposta em termos dos valores de k na equação (39). Para a geração dos valores de f foram observados os limites do intervalo compreendido entre 0 e 1e para os valores de ρ, entre –1 e + 1.

Os resultados das 10.000 interações foram analisados através de Regressão Logística Binomial: se para cada par (f, ρ) gerado aleatoriamente o valor de k estivesse situado entre 0 e 1, foi arbitrado que a abordagem TD seria VIÁVEL, caso contrário, INVIÁVEL; ou seja, correspondendo à situação concreta que seria um evento raro encontrar um único item com variância das vendas superior à variância das vendas agregadas dos demais itens.

Na Tabela 2 são apresentados os resultados da Regressão Logística Binomial. Dos 10.000 pares de (f, ρ) gerados aleatoriamente, 74,64% implicaram valores de k entre 0 e 1 (VIÁVEIS) e o restante, valores maiores que 1. Os sinais positivos de f e ρ denotam que maior a participação do item no agregado de vendas e maior a correlação positiva, maior a probabilidade da abordagem TD NÃO minimizar a variância do erro de previsão, sendo preferível a abordagem BU.

2006_07.2_imagem 16

 

Esses resultados, de acordo com a Tabela 3, corroboram as visões de Kahn (1998) e Gordon, Morris e Dangerfield (1998) sobre a adequação das abordagens TD e BU.

2006_07.2_imagem 17

 

5.2 Constantes de Amortecimento Diferentes

Foram geradas diferentes combinações aleatórias de f, r, abu e k com base em Distribuições Uniformes de Probabilidade para se avaliar a resposta em termos dos valores de atd na equação (40). Para a geração dos valores de f foram observados os limites do intervalo compreendido entre 0 e 1; para os valores de r, entre –1 e +1; para os valores de abu, entre 0 e 1 e para os valores de k, entre 0 e 5.

Também foram realizadas 10.000 interações, sendo seus resultados analisados através de Regressão Logística Multinomial. Se para cada conjunto de valores de f, r, abu e k o valor de atd estivesse situado entre 0 e 1, considerou-se que a abordagem TD seria VIÁVEL, caso contrário, INVIÁVEL. Na Tabela 4 são apresentados os resultados dessa análise de regressão.

2006_07.2_imagem 18

 

Dos 10.000 conjuntos de valores de f, r, abu e k gerados aleatoriamente, apenas 30,1% implicaram valores de atd entre 0 e 1 (VIÁVEIS) e o restante, valores maiores que 1. Os sinais positivos de abu e k e os sinais negativos de f e r denotam que, maiores a constante de amortecimento na abordagem BU e a razão entre a variância do item e a variância dos demais itens agrupados e menores a participação do item nas vendas agregadas e o coeficiente de correlação da série do item com a série dos demais itens agregados, maior a probabilidade da abordagem TD não minimizar a variância do erro de previsão, sendo preferível adotar a abordagem BU.

Por outro lado, quanto maiores o coeficiente de correlação e a fração do item em estudo na demanda total, e menores a razão entre as variâncias e o valor de alfa na abordagem BU, maiores as chances da abordagem TD minimizar a variância do erro de previsão. Esse resultado poderia ser conceituado como o Efeito Ancoragem, de modo análogo ao Efeito Portifólio na seção anterior. No Efeito Ancoragem, o item em questão apresenta uma grande participação na família, uma pequena incerteza e padrão de demanda semelhante, fazendo com a que a incerteza dos demais itens seja diluída ao serem agregados os dados na abordagem TD. Mais uma vez, tanto o tempo de resposta quanto o desvio-padrão do tempo de resposta não afetam a determinação da melhor abordagem.

Esses resultados, de acordo com a Tabela 5, corroboram as visões de Lapide (1998) e Gelly (1999) sobre a determinação da abordagem de previsão de vendas mais adequada.

 2006_07.2_imagem 19

 

  1. CONCLUSÃO

Ainda que não haja discordância na literatura sobre o significado e a operacionalização de previsões de vendas Top-Down e Bottom-up, existe considerável discordância quanto à adequação dessas abordagens a diferentes características de um determinado item e sua respectiva série de vendas: coeficiente de correlação com os demais itens agregados, variância relativa e participação percentual nas vendas totais.

Neste artigo demonstrou-se analiticamente a adequação das abordagens Top-Down e Bottom-up em previsões de vendas tendo como base o método do Amortecimento Exponencial Simples, um dos mais difundidos nos meios acadêmicos e empresarial. Considerou-se como critério de adequação a minimização da variância do erro de previsão de vendas e foram considerados diferentes cenários para o tempo de resposta: unitário, constante e variável.

Os resultados apontam que a média e a variância do tempo de resposta não são relevantes para determinar a abordagem de previsão de vendas mais adequada. Além disso, a possibilidade de variar a constante de amortecimento alfa entre as duas abordagens de previsão desempenha um papel fundamental para a compreensão e interpretação dos resultados gerados.

Quando se considera uma mesma constante de amortecimento e são analisadas as linhas de indiferença entre essas abordagens de previsão, verifica-se o clássico Efeito Portifólio: a abordagem Top-Down torna-se mais adequada para itens com correlação negativa, pequena participação nas vendas agregadas e elevada incerteza. Por outro lado, ao se variar a constante de amortecimento entre as abordagens, verifica-se o Efeito Ancoragem, sendo a abordagem Top-Down mais adequada para itens com correlação positiva, grande participação nas vendas agregadas e baixa incerteza. No primeiro caso (Efeito Portifólio), a variância do item em estudo é compensada pela variância agregada dos demais itens e pela correlação negativa. No segundo caso (Efeito Ancoragem), o item em estudo, por ser dominante dentro da série agregada de vendas, contribui para a diluição da variância combinada dos demais itens, gerando também um padrão mais estável de vendas.

Em resumo, os resultados encontrados conciliam as aparentemente antagônicas visões da literatura sobre a adequação das abordagens Top-Down e Bottom-up, pelo menos para o método do Amortecimento Exponencial Simples, ao identificar a possibilidade de variar a constante de amortecimento entre essas duas abordagens como seu elemento de ligação e entendimento do que acontece com as séries agregadas de vendas.

Gerentes também podem se beneficiar dos resultados já que a flexibilidade freqüentemente buscada no processo de previsão de vendas é assegurada. Os resultados apresentados nesse artigo são úteis na determinação da melhor abordagem de previsão (Top-Down ou Bottom-up) com muito menos esforço computacional envolvido.

Finalmente, os resultados apresentados são particularmente relevantes para as empresas que buscam segmentar seu processo de previsão (cf. Tabela 6).

2006_07.2_imagem 20

 

Por exemplo, itens C tipicamente apresentam menores vendas e maiores coeficientes de variação da vendas. Como regra geral, se eles são negativamente correlacionados aos itens A – maiores vendas e menores coeficiente de variação das vendas – e diferentes constantes de amortecimento são empregadas, a abordagem Bottom-up pode ser a mais adequada. Se a mesma constante de amortecimento for usada, os itens C devem observar a abordagem Top-Down.

Por outro lado, os itens A devem ser previstos individualmente (abordagem Bottom-up) se eles são positivamente correlacionados com as vendas agregadas dos itens restantes e a mesma constante de amortecimento é utilizada. Quando diferentes constantes de amortecimento são empregadas, os itens A deveriam observar a abordagem Top-Down.

  1. BIBLIOGRAFIA

BLACKBURN, K.; ORDUNA, F.; SOLA, M. Exponential smoothing and spurious correlation: a note. Applied Economic Letters, n. 2, pp. 76-79, 1995.

BROWN, R.G. Advanced service parts inventory control. Vermont: Materials Management Systems Inc., 1982.

CHATFIELD, C.; KOEHLER, A.B.; SNYDER, R.D. A new look at models for exponential smoothing. The Statistician, v. 50, n. 2, pp. 147-159, 2001.

EVERS, P.T., BEIER, F.J. Operational aspects of inventory consolidation decision making. Journal of Business Logistics, v. 19, n.1 , pp.173-189, 1998.

LAPIDE, L. A simple view of top-down versus bottom-up forecasting. The Journal of Business Forecasting, Summer, pp. 28-29, 1998.

GELLY, P. Managing bottom-up and top-down approaches: ocean spray’s experiences. The Journal of Business Forecasting, Winter, pp. 3-6, 1999.

GIJBELS, I.; POPE, A.; WAND, M.P. Understanding exponential smoothing via kernel regression. Journal of the Royal Statistician Society, v. 61, n. 1, pp. 39-50, 1999.

GORDON, T.P.; MORRIS, J.S.; DANGERFIELD, B.J. Top-down or bottom-up: which is the best approach to forecasting? The Journal of Business Forecasting, Fall, pp.13-16, 1997.

GREENE, J.H. Production and Inventory Control Handbook. 3rd Edition. New York: McGrawHill, 1997.

HARRISON, P.J. Exponential smoothing and shot-term sales forecasting. Management Science, v. 13, n. 1, pp. 821-842, 1967.

JAIN, C. How to determine the approach to forecasting. The Journal of Business Forecasting, Summer, p. 2, 1995.

JOHNSTON, F.R.; HARRISON, P.J. The variance of lead-time demand. Journal of the Operational Research Society, v.31, n. 8, pp. 303-308, 1986.

KAHN, K.B. Revisiting top-down versus bottom-up forecasting. The Journal of Business Forecasting, Summer, pp. 14-19, 1998.

MENTZER, J.T.; COX, J.E. A model of the determinants of achieved forecast accuracy. Journal of Business Logistics, v. 5, n. 2, pp. 143-155, 1984.

MENTZER, J.T.; KRISHNAN, R. The effect of the assumption of normality on inventory control/customer Service. Journal of Business Logistics, v. 6, n. 1, p. 101-120, 1988.

SCHWARZKOPF, A.B.; TERSINE, R.J.; MORRIS, J.S. Top-down versus bottom-up forecasting strategies. International Journal of Production Research, v. 26, n. 11, pp. 1833-1843, 1988.

SILVER, E.A., PETERSON, R. Decision Systems for Inventory Management and Production Planning. 2 ed, New York: Wiley&Sons, 1985.

SILVER, E., PYKE, D.; PETERSON, R. Decision Systems for Inventory Management and Production Planning and Scheduling. New York: Wiley&Sons, 2002.

TALLON, W. The impact of inventory centralization on aggregate safety stock: the variable supply lead time case, Journal of Business Logistics, v. 14, n. 1, pp.185-196, 1993.

WANKE, P., SALIBY, E. Proposta para a gestão de estoques de novos produtos: solução do modelo (q,r) para a distribuição uniforme da demanda e do lead-time de suprimento. Revista Gestão & Produção, v. 12, n. 1, pp. 1-20, 2005.

ZINN, W.; LEVY, M.; BOWERSOX, D.J. Measuring the effect of inventory centralization/decentralization. Journal of Business Logistics, v. 10, n. 1, 1989.

ZWILLINGER, D., KOKOSA, S. Standard Probability and Statistics Tables and Formulae. New York: Chapman&Hall, 2000.

COMPARAÇÃO ENTRE AS ABORDAGENS TOP-DOWN E BOTTOM-UP PARA PREVISÃO DE VENDAS

A previsão de vendas desempenha papel de grande importância no planejamento e coordenação dos fluxos de informação e de produtos físicos em uma empresa, tendo impactos relevantes no gerenciamento de marketing, na programação e controle da produção, nas operações logísticas e nas decisões de planejamento da capacidade das instalações.

O imperativo por redução de custos e os avanços da tecnologia da informação fizeram com que as empresas buscassem um aprimoramento de seus métodos e integração dos processos de previsão de vendas, que, até então, era realizada por cada área da empresa separadamente, o que, quase sempre, resultava em perda de precisão e aumento dos níveis de estoque.

O aumento da complexidade nos sistemas logísticos, com a multiplicação dos pontos de vendas, aumento do número de locais de produção e armazenagem e redução do ciclo de vida e proliferação de produtos, resultou em um aumento da dificuldade de realizar previsões de vendas. As empresas de varejo, por exemplo, precisam realizar previsões para milhares de itens diferentes em centenas de pontos de vendas. Essas previsões apresentam, em geral, baixa acurácia, o que resulta em stockout de alguns produtos e níveis excessivos de estoque para outros. Existem duas abordagens para a realização da previsão de vendas nestes casos: Top-Down ou Bottom-Up.

A abordagem Top-Down consiste em realizar previsões de vendas para séries consolidadas, isto é, a previsão é realizada para vendas agregadas de vários produtos ou de várias regiões. Na abordagem Top-Down, também conhecida como abordagem analítica, a previsão de vendas é feita para grupos ou famílias de produtos e depois desagregada para cada item, segundo o percentual histórico de vendas. Também é possível fazer uma previsão agregada para uma região e, então, decompor em previsões para as diversas localidades que compõe esta região, segundo sua representatividade histórica. A Figura 1 mostra um exemplo bastante comum da abordagem Top-Down nas indústrias de bens de consumo não-duráveis: a empresa realiza a previsão de vendas de um determinado produto com base nos dados históricos das vendas totais e, posteriormente, decide o volume que será enviado para cada centro de distribuição, segundo a representatividade (em %) destes.

 2004_11_imagem 01
Figura 1 – Exemplo de abordagem Top-Down

Na abordagem Bottom-Up, a previsão é realizada diretamente para cada item ou para cada localidade e, posteriormente, agregada por família/grupo de produtos ou por regiões. A Figura 2 apresenta um exemplo da abordagem Bottom-Up. Neste caso, os centros de distribuição têm autonomia para realizar a previsão de vendas de um determinado produto, que, então, é enviada para a fábrica e consolidada para gerar as ordens de produção e remessa.

 2004_11_imagem 02
Figura 2 – Exemplo de abordagem Bottom-Up

A escolha de uma ou outra abordagem para a realização da previsão de vendas tem impactos operacionais e estratégicos para a empresa. Em geral, as empresas optam pela estratégia que minimiza o erro de previsão, porém outros fatores também são levados em consideração, tais como os custos de implementação e operação do método. A decisão, pois, de qual abordagem escolher é de grande importância para um grande número de empresas, com destaque para as grandes empresas de varejo, distribuição e produção de bens de consumo não-duráveis. Serão apresentadas, a seguir, algumas comparações entre as duas abordagens, no que se refere aos custos de implementação e operação e a acurácia.
CUSTO DE IMPLEMENTAÇÃO E OPERAÇÃO

Com relação aos custos, o principal argumento dos defensores da abordagem Top-Down é que armazenar informações e realizar previsões de vendas para milhares de itens é muito caro. Desta forma, a abordagem Bottom-Up seria muito mais dispendiosa em termos de: (a) armazenamento de dados, (b) tempo requerido para o cálculo e (c) utilização de recursos computacionais. No entanto, alguns estudos (Schwarzkopf, Tersine e Morris, 1988) evidenciam que não existe diferença significativa, em termos de custo, entre as duas abordagens.

Para realizar a comparação de custos entre as abordagens Top-Down e Bottom-Up, utilizou-se o método quantitativo do amortecimento exponencial simples para realizar as previsões, pois este é um método bastante utilizado para o cálculo da previsão de valores futuros em séries relativamente estáveis, isto é, séries sem sazonalidade e sem tendência. Neste método, a previsão de vendas é calculada com base em três parâmetros: vendas reais do período anterior (Rt-1), previsão de vendas do período anterior (Pt-1) e a constante de amortecimento (a).

 2004_11_imagem 03
Equação 1 – Fórmula de cálculo do
Amortecimento Exponencial Simples

(a) Armazenamento de Dados

O custo de armazenamento de dados pode ser calculado pelo custo do espaço de armazenagem e pelo esforço necessário para manter os dados atualizados. Na maioria dos sistemas de informação, o esforço de atualização das informações é mais importante do que o custo do espaço de armazenagem, pois envolve sistemas e pessoas.

O custo do espaço de armazenagem é calculado com base na quantidade de informações que são armazenadas. Na abordagem Top-Down, para a realização da previsão de vendas, pelo método do amortecimento exponencial simples, de cada item de uma determinada família de produtos são necessárias as informações sobre as vendas totais desta família de produtos no último período, a previsão de vendas totais do último período e a representatividade de cada item em relação às vendas totais da família. Para obter esta representatividade histórica, no entanto, são necessárias todas as informações sobre as vendas de cada item nos períodos anteriores. Na abordagem Bottom-Up, para realizar a mesma previsão de vendas, são necessárias apenas as informações de vendas do último período. Desta forma, em geral, a abordagem Bottom-Up requer menos dados armazenados para a realização da previsão.

Além da quantidade de informação que é armazenada para que se possa realizar a previsão de vendas, outra dimensão relevante é a freqüência que estes dados são utilizados. Na abordagem Bottom-Up, em todos os períodos é necessário resgatar as informações de vendas e previsão para o período anterior de cada item, isto é, as informações são atualizadas em cada período para que se obtenha uma nova previsão. Já na abordagem Top-Down, em geral, não existe necessidade de se rever o percentual de participação de cada item a cada período, uma vez que estes percentuais costumam se manter relativamente estáveis ao longo do tempo. A revisão destes percentuais pode, por exemplo, ser realizada anualmente. Assim, as únicas informações a serem atualizadas periodicamente são as vendas totais e a previsão de vendas da família de produtos. Desta forma, em geral, a abordagem Top-Down requer menos esforço para atualização dos parâmetros. No entanto, quando as séries de representatividade (em %) de cada produto forem instáveis, am
as as abordagens demandam essencialmente o mesmo esforço de manutenção.

A Tabela 1 mostra as diferenças entre as abordagens, em relação ao custo de armazenamento de dados, indicando aquela de menor custo. Estas diferenças são influenciadas pelas características das séries de vendas.

 2004_11_imagem 04
Tabela 1 – Comparação do custo de armazenamento de dados (menor custo)

(b) Tempo Requerido para o Cálculo

Outra medida de custo para um sistema de previsão de vendas é o tempo requerido para o cálculo, que pode ser avaliado pelo número de operações matemáticas realizadas para chegar à previsão de vendas de cada item.

Na abordagem Top-Down, os cálculos para a obtenção da previsão de vendas de cada item seriam:

(1) Calcular a previsão de vendas da família de produtos:
 2004_11_imagem 05
Neste cálculo teríamos duas multiplicações e uma adição, totalizando três operações matemáticas.(2) Multiplicar a previsão de vendas da família de produtos pela representatividade histórica (em %) de cada item:
 2004_11_imagem 06
Neste cálculo teríamos uma multiplicação para cada item que compõe a família de produtos.

Desta forma, na abordagem Top-Down, temos 3+N operações matemáticas, onde N é o número de itens da família de produtos.

Na abordagem Bottom-Up, os cálculos para se obter a previsão de vendas para cada item seriam:

(1) Calcular a previsão de vendas de cada item:
 2004_11_imagem 07
Neste cálculo teríamos duas multiplicações e uma adição, totalizando três operações matemáticas para cada item.

Desta forma, na abordagem Bottom-Up, temos 3N operações matemáticas, onde N é o número de itens da família de produtos.

Assim, quando não existe necessidade de atualização constante da representatividade de cada item, a abordagem Top-Down apresenta uma certa vantagem. No entanto, se fosse necessário atualizar periodicamente a representatividade histórica de cada produto, o número de operações matemáticas a serem realizadas para a obtenção da previsão de vendas seria praticamente o mesmo nas duas abordagens. Observe na Tabela 2 a comparação entre as abordagens.

 2004_11_imagem 08
Tabela 2 – Comparação do Tempo Requerido
para Cálculo (menor tempo)

(c) Utilização de Recursos Computacionais

A utilização de recursos computacionais pode ser medida pelos acessos ao disco rígido do computador. No entanto, como é difícil avaliar o valor de um acesso ao disco rígido, segue-se a regra geral de que a diferença entre as duas abordagens está no fato de que, como discutido anteriormente, na abordagem Bottom-Up é necessário acessar um número maior de informações e, por isso, esta abordagem requer uma maior utilização de recursos computacionais.

Apesar das aparentes diferenças entre as abordagens Top-Down e Bottom-Up, com relação aos custos de implementação e operação, Schwarzkopf, Tersine e Morris (1988) mostram através de simulação que, na prática, estas diferenças não são significativas. Eles simularam as previsões para um conjunto de 10.000 itens diferentes, incluindo variações sazonais e tendência nas séries de vendas, e encontraram resultados idênticos de custos de armazenamento de dados e utilização de sistemas computacionais nas duas abordagens. A única diferença constatada na simulação foi do tempo necessário para o cálculo, que na abordagem Top-Down foi 4 segundos mais rápido, o que significa dizer que, se a hora desta operação custasse R$1.000,00, a diferença seria de R$ 1,11.

O aumento da complexidade das previsões e a estrutura organizacional da empresa podem influenciar nos custos de cada abordagem. No entanto, como conclusão geral, pode-se dizer que não existem diferenças significativas de custos entre as abordagens Top-Down e Bottom-Up para previsões de vendas de itens individuais. A escolha da metodologia deve ser influenciada por outros fatores, como a acurácia da previsão.

ACURÁCIA DA PREVISÃO DE VENDAS

A mensuração da acurácia é bastante complexa e deve levar em consideração, além da (a) precisão da previsão de vendas, (b) os vieses e (c) a robustez da abordagem. Para examinar a performance das abordagens Top-Down e Bottom-Up nestes fatores, não será escolhido um método específico para a realização da previsão de vendas. A escolha e aplicação de um método de previsão podem tornar a análise muito complexa e desviar a atenção do objetivo de comparar a acurácia das abordagens.

(a) Precisão

A precisão da previsão de vendas é medida pela variabilidade dos valores estimados em relação aos valores observados. Em outras palavras, a precisão de uma abordagem de previsão de vendas é medida pelo tamanho do erro, isto é, por quão diferente são os valores observados dos valores previstos. O erro é definido como a média da diferença quadrada entre as estimativas e os valores reais, sendo calculado pela variância (Var) destes valores. Os defensores da abordagem Top-Down, baseados no princípio estatístico que sugere que uma série formada pela soma de vários itens é menos variável do que as séries dos itens individuais, afirmam que esta seria inerentemente mais precisa do que a abordagem Bottom-Up.

O problema com esta análise está no fato de que ela não considera uma correlação entre as séries de vendas dos dois produtos. Na maioria dos casos reais, no entanto, existe correlação positiva ou negativa entre as vendas dos produtos de uma família. Por exemplo, o aumento das vendas de um determinado produto pode alavancar as vendas de toda a família de produtos do qual faz parte. Neste caso, existe correlação positiva entre as séries de vendas. Por outro lado, o aumento das vendas de um determinado produto pode diminuir as vendas de um produto correlato da mesma família. O lançamento de uma nova embalagem (novo SKU – stock keeping unit) ou o aumento na propaganda de um item podem fazer com que consumidores passem a preferir este novo item ou o produto em maior evidência em detrimento de outro produto consumido anteriormente da mesma família e, por conseqüência, da mesma empresa. Este processo recebe o nome de “canibalização” (ou efeito portfólio) e indica correlação negativa entre as séries de vendas.

Para efeito prático, isto significa dizer que a série de vendas consolidadas de uma família de produtos com forte correlação positiva entre seus itens terá uma variância maior do que a soma das variâncias das séries de vendas de cada item. Deste modo, o erro da previsão calculada pela abordagem Top-Down será maior do que o erro da abordagem Bottom-Up. No caso de uma forte correlação negativa, o efeito inverso será observado e a abordagem Top-Down apresentará vantagens sobre a abordagem Bottom-Up. A Tabela 3 mostra a variância calculada para séries de vendas de produtos com correlação positiva e com correlação negativa.

 2004_11_imagem 09
Tabela 3 – Efeito Portfólio

O efeito das correlações entre as séries de vendas de produtos de uma empresa deve ser cuidadosamente estudado, pois, como visto no exemplo acima, têm grande influência na decisão de qual abordagem adotar para realizar a previsão de vendas. Outros estudos (Gordon, Morris e Dangerfield, 1997) compararam as duas abordagens, utilizando diferentes métodos quantitativos e qualitativos e variando as características das séries de vendas, e encontraram resultados semelhantes, ou seja, independente do método utilizado para calcular a previsão de venda, a abordagem Bottom-Up apresenta melhores resultados para séries positivamente correlacionadas e a abordagem Top-Down para séries negativamente correlacionadas.

(b) Vieses

Avaliando apenas a precisão da abordagem (a), desconsideram-se outros importantes fatores de acurácia da previsão de vendas, tais como o impacto de vieses (b) nas previsões de vendas dos produtos. Viés é um desvio constante (positivo ou negativo) da previsão de vendas em relação às vendas reais, causado pela inexatidão do método de previsão de vendas. A existência de vieses é bastante comum em previsões de vendas, uma vez que os métodos não são exatos e que estas sofrem, com freqüência, influência de julgamentos otimistas ou pessimistas.

Na abordagem Bottom-Up, como a previsão é realizada para cada produto, o viés em uma das séries não interfere na acurácia, pois o processo de modelagem individual de cada série elimina o viés. Já na abordagem Top-Down, o viés terá um impacto negativo na acurácia, pois este será distribuído incorretamente entre as previsões de cada item.

Desta forma, além da componente de erro relativo a precisão, existe uma outra componente de erro que se refere ao modelo de previsão de vendas. Na prática, é necessário avaliar se esta componente desempenha papel significativo que possa alterar a decisão de qual abordagem utilizar pelo critério de precisão.

(c) Robustez

A robustez de uma abordagem pode ser avaliada pela influência de dados problemáticos ou inadequados nas séries de vendas. Estatísticos acreditam que modelos baseados em dados agregados (Top-Down) são mais robustos, pois modelos baseados em dados não-agregados (Bottom-Up) tendem a ser mais sensíveis a outliers na amostra.

Resumindo, existem três dimensões de erro que devem ser incluídas no processo de escolha da abordagem a ser utilizada para realizar a previsão de vendas: precisão, vieses e sensibilidade a dados errados (influência de outliers). As abordagens Top-Down e Bottom-Up se comportam de maneira diferente em cada uma destas dimensões, o que torna bastante complexo o processo decisório de escolha da abordagem a ser utilizada.

Os resultados sugerem que a abordagem Top-Down reduz os efeitos do erro aleatório e da influência de outliers nas séries de vendas, sendo, pois, mais robusta que a abordagem Bottom-Up. No entanto, esta última se comporta melhor frente ao efeito de vieses. Além disso, a abordagem Top-Down introduz uma complexa interação entre os efeitos provocados por vieses e outliers nas vendas.

Em relação a acurácia de cada abordagem, podemos concluir que existem diferenças significativas. A decisão de qual abordagem utilizar, no entanto, depende muito do comportamento das séries de vendas. Correlação entre produtos, existência de vieses e de outliers e representatividade de cada produto irão determinar qual abordagem deverá ser utilizada. Em geral, estudos empíricos indicam que a variável com maior impacto sobre o erro e, portanto, a de maior importância para a análise é a precisão. A existência de correlação positiva ou negativa (efeito portfólio) entre os produtos, conforme demonstrado na Tabela 3, tem forte impacto na decisão de qual abordagem deverá ser utilizada.

Correlações positivas são encontradas, por exemplo, em produtos que seguem as mesmas variações sazonais. Correlações negativas são encontradas, muitas vezes, em variações (tamanho, embalagem ou modelo) de um mesmo produto. Por exemplo, a venda de ventiladores e condicionadores de ar seguem o mesmo padrão sazonal, influenciado por fatores climáticos, e apresentam forte correlação positiva. A previsão de vendas deve, pois, ser realizada separadamente (Bottom-Up). Já entre os ventiladores, existem diversos modelos diferentes e, apesar das vendas acompanharem os efeitos sazonais, as vendas de cada modelo são influenciadas por outros fatores, havendo “canibalização” de vendas entre os modelos. Neste caso, será mais eficiente realizar uma previsão agregada para toda a família de ventiladores e, depois, desagregar esta previsão pela representatividade histórica de cada modelo (Top-Down).

CONCLUSÃO

Conforme analisado, existem aspectos positivos e negativos em cada uma das abordagens. A comparação entre as abordagens Top-Down e Bottom-Up mostra que existe espaço para utilização de ambas. Ao mesmo tempo em que uma previsão Top-Down pode ser mais precisa, previsões individuais para cada item podem ajudar a identificar padrões de demanda. Elas não são, pois, excludentes e podem ser utilizadas de forma combinada, em um modelo híbrido.

Se a empresa utiliza a previsão de vendas para desenvolver planos estratégicos e decidir orçamentos, a abordagem Top-Down pode ser preferida. Por outro lado, se a previsão de vendas é utilizada para organizar os calendários de produção e distribuição, a abordagem Bottom-Up provavelmente será escolhida. Desta forma, a escolha da abordagem depende, além do comportamento dos dados, dos objetivos de utilização da previsão pela empresa.

BIBLIOGRAFIA

Darrough, Masako N. e Russell, Thomas “A Positive Model of Earnings Forecast: Top-Down versus Bottom-Up” The Journal of Business, 75 (1), Janeiro/2002, pp.127-152.

Gordon, Teresa P., Morris John S. e Dangerfield, Byron J. “Top-Down or Bottom-Up: Which is the Best Approach to Forecasting?” The Journal of Business Forecasting Methods & Systems, 16 (3), Fall 1997, pp.13-16.

Jain, Chamam L. “How to Determine the Approach to Forecasting” The Journal of Business Forecasting Methods & Systems, 14 (2), Summer 1995, página 2.

Kahn, Kenneth B. “Revisiting Top-Down versus Bottom-Up Forecasting” The Journal of Business Forecasting Methods & Systems, 17 (2), Summer 1998, pp.14-19.

Lapide, Larry “New Developments in Business Forecasting” The Journal of Business Forecasting Methods & Systems, 17 (2), Summer 1998, pp.28-29.

Portougal, Victor “Demand Forecast for a Catalog Retailing Company” Production and Inventory Management Journal, 43 (1/2), pp.29-34.

Schwarzkopf, A.B., Tersine, R.J. e Morris, J.S. “Top-Down versus Bottom-Up Forecasting Strategies” International Journal of Production Research, 26 (11), 1988, pp.1833-1843.

West, Douglas C. “Number of Sales Forecast Methods and Marketing Management” Journal of Forecasting, 13 (4), Agosto/1994, pp.395-407.

LIDANDO COM SAZONALIDADES NO PROCESSO LOGÍSTICO

Praticamente todos os processos logísticos estão sujeitos a algum tipo de sazonalidade. A humanidade e seus grupos sociais, desde tempos remotos, sempre tiveram suas atividades controladas por algum tipo de evento periódico: inverno e verão, meses do ano, período semanal e mesmo ao longo das horas do dia.

Esta variação rítmica de atividade tem inúmeras implicações, dentre elas um forte impacto nas operações logísticas. A demanda por produtos e serviços é geralmente influenciada por componentes sazonais que devem ser levados em conta para uma utilização mais eficiente dos recursos e oportunidades disponíveis. Neste texto, após discutirmos o conceito técnico de sazonalidade, apresentaremos algumas formas mais simples de como mensurá-la. O uso dos chamados índices sazonais vai além do simples processo de previsão de demanda, sendo também utilizado no acompanhamento de resultados, após descontar o efeito sazonal. Softwares de previsão podem nos auxiliar nesta tarefa. No entanto, deveremos procurar manter sempre um controle do processo de previsão, evitando que este seja visto como o resultado de caixa preta em que os valores são fornecidos sem que o usuário saiba como foram obtidos. Por fim, vale a pena avaliar em que situações uma maior complexidade do processo de determinação dos índices sazonais seria justificável, em lugar do uso de métodos mais simples e também de mais fácil compreensão.

CONCEITO DE SAZONALIDADE

Ao analisarmos uma série de dados de venda de um produto ou serviço, quase sempre observamos um movimento periódico desta série ao longo do tempo. Este movimento periódico, muitas vezes associado aos meses do ano, caracteriza o que denominamos efeito ou componente sazonal. Exemplos práticos não faltam deste tipo de situação: venda de bebidas e alimentos, consumo de combustíveis e energia elétrica, venda de aparelhos eletrodomésticos, ocupação de hotéis, tráfego aéreo, atendimento médico hospitalar, e o mais marcante, as vendas de final de ano.

De fato, em nosso varejo, o mês de dezembro é o mais forte do ano, com vendas usualmente superiores à média dos demais meses do ano em 50% ou mais. Esta flutuação de demanda na ponta do processo (compra pelo consumidor final) gera uma onda que se propaga ao longo de toda a cadeia logística, com as devidas defasagens de tempo. Por exemplo, para que o produto esteja disponível para venda na época natalina, ele deverá ter sido produzido e entregue à loja com a devida antecedência; por sua vez, o seu pedido deverá ter sido preparado mais cedo ainda, assim como todos os insumos da cadeia produtiva/logística deverão ter sido adequadamente previstos.

Do ponto de vista da produção e logística, o mundo ideal seria aquele em que a produção e demanda por um produto ou serviço fosse a mais estável possível, exigindo assim um mínimo de intervenção no processo. Mas, felizmente ou infelizmente, o mundo nunca é como gostaríamos que fosse!

Assim no nosso dia a dia, temos que lidar com não só com as incertezas típicas de um ambiente econômico de natureza aleatória, como também temos que saber levar em conta a sazonalidade em nossos planos e ações. A primeira questão reside em como medir a sazonalidade, melhor ilustrada através de um exemplo.

ÍNDICES SAZONAIS

O primeiro passo na análise de uma série de vendas, antes mesmo de identificar o seu eventual padrão sazonal, consiste em identificar o seu comportamento geral. Assim, vamos considerar o caso de um produto, cuja série de vendas passadas, em unidades/trimestre, é apresentada na tabela 1:

1999_12_imagem 01

Antes de utilizarmos uma técnica quantitativa no estudo de uma série de vendas como esta, deveremos representá-la num gráfico para que possamos identificar seus componentes. Embora outros componentes estejam normalmente presentes numa série de vendas, como o nível e tendência das vendas , nossa preocupação atual reside no componente sazonal. No caso, já se sabia da existência de uma acentuada sazonalidade nas vendas do produto, fato este confirmado pelo Gráfico 1:

1999_12_imagem 02

Observando este gráfico notamos um movimento regular de oscilação das vendas ao longo do ano, sempre com um pico no primeiro trimestre e um valor baixo no terceiro trimestre. Ora, esta situação, típica de muitos produtos e serviços, leva necessariamente a inúmeros desafios logísticos, tais como o fornecimento de matéria prima que também pode ter uma oferta sazonal, a definição de uma política de armazenagem/produção adequada aos custos envolvidos e às características da situação, uma estratégia de distribuição envolvendo operadores logísticos, distribuidores e clientes e até mesmo uma política de preços. Para que toda esta preparação seja possível, torna-se necessária uma forma de mensuração da sazonalidade, o que é feito através dos chamados índices sazonais.

Em princípio, há duas maneiras de se representar um efeito sazonal:

  • Através de um componente aditivo
  • Através de um componente multiplicativo

O componente aditivo, como seu nome indica, tem como princípio a soma (adição) de parcelas associadas a cada período sazonal, trimestre no caso. Já o componente multiplicativo é caracterizado pelo uso de um fator multiplicativo para cada período, em geral sob a forma de um percentual. Discutiremos, a seguir, cada uma destas representações, apresentando também possíveis formas de cálculo.

COMPONENTE ADITIVO

O componente aditivo (relativo à operação de soma ou adição) é representado através de um valor fixo para cada trimestre que é somado (ou subtraído) ao valor base das vendas de um determinado período. Assim, por exemplo, as vendas do primeiro trimestre de um ano poderiam ser vistas como a venda média do ano mais, digamos, 129 unidades, enquanto que as vendas do terceiro trimestre – mais baixas- poderiam ser vistas como as vendas médias do ano menos 150 unidades. Da mesma maneira, teríamos um valor a ser aplicado para os demais trimestres do ano. Com base nesta formulação, iremos considerar como uma aproximação que o efeito do trimestre é sempre o mesmo para cada um dos trimestres de cada ano. Assim, o aumento de vendas do primeiro trimestre é, em média, 129 unidades, qualquer que seja o ano considerado, enquanto que as vendas do terceiro trimestre são sempre 150 unidades abaixo da média trimestral. Se isto é uma boa descrição das vendas reais, já é outra estória, mas de qualquer forma já temos um bom começo!

Como então poderíamos calcular este efeito sazonal aditivo?

Não existe uma única forma de fazê-lo, mas uma regra a ser seguida é que a soma dos efeitos sazonais ao longo do ano seja neutra, no caso igual a zero. Tendo esta regra como base, uma forma simples de calcularmos os índices sazonais de cada trimestre (sem nos preocuparmos com a tendência da série) seria através do cálculo das médias de aumento/redução das vendas para cada trimestre do ano, conforme exemplificado na tabela 2:

1999_12_imagem 03

Nesta tabela, definida pelas diferenças entre os valores de venda a cada trimestre e a média das vendas do respectivo ano, a soma dos valores de cada coluna, referentes a um mesmo ano, é zero. Assim, para o primeiro trimestre de 1992, o valor 125 indica que o nível das vendas neste trimestre esteve 125 unidades acima da média do ano, enquanto que o valor de –25 do segundo trimestre nos diz que as vendas deste período foram 25 unidades abaixo da média deste mesmo ano. Agora, ao tomarmos a média dos valores de cada um dos trimestres (média das linhas da tabela), teremos uma boa estimativa do efeito sazonal aditivo de cada trimestre.

Assim, com base nos resultados obtidos e supondo que as vendas estimadas para o próximo ano seriam em média de 700 unidade por trimestre, nossa previsão ajustada para a sazonalidade seria de 829 (700+129) para o primeiro trimestre, 650 (700-50) para o segundo, 550 (700-150) para o terceiro e finalmente 771 (700+71) para o quarto trimestre.

Naturalmente, os números obtidos são apenas previsões, mas já devidamente ajustadas às expectativas do nível esperado das vendas e aos componentes sazonais. Continuando em nossa análise, vamos agora supor que as vendas reais para o primeiro trimestre do próximo ano tenham sido de 850 unidades. Como este valor superou nossas previsões, temos duas possíveis explicações para o fato: ou o nível das vendas aumentou ou a sazonalidade foi mais forte que o previsto. De qualquer forma, esta constatação somente foi possível após termos isolado os dois componentes das vendas: nível e sazonalidade.

Mas, o procedimento apresentado não é a única maneira de calcularmos os índices sazonais aditivos. A teoria estatística das previsões propõe outras opções de cálculo que, em geral, são de elevada complexidade e pouco acrescentam em relação a métodos mais simples como o que aqui vimos. De fato, embora diferentes metodologias forneçam resultados diferentes quando do estudo de uma mesma série de vendas, os valores obtidos com métodos mais sofisticados, quando aplicados a este mesmo caso, não diferem substancialmente dos que obtivemos com este simples cálculo de médias, que além de mais fácil é também mais intuitivo.

Na verdade, a principal crítica em relação ao uso de componentes aditivos não reside no procedimento de cálculo dos índices sazonais, mas na sua aplicabilidade prática. São poucas as situações do mundo real em que um efeito sazonal, como uma parcela que se soma ou subtrai a cada período, é uma descrição adequada do comportamento das vendas. O mais intuitivo e usual consiste em considerar-se a sazonalidade não como um efeito absoluto que se soma ou subtrai das vendas, mas como um efeito multiplicativo e relativo, um percentual que se aplica a cada período específico, seja para incrementar as vendas deste período em relação à média, seja para reduzir as vendas do período em função de uma sazonalidade de baixa. Então em lugar de considerarmos as vendas de um período como sendo de 150 unidades a mais, melhor seria considerá-la, digamos, como 40% acima da média. É esta a idéia dos componentes multiplicativos que discutiremos a seguir.

COMPONENTE MULTIPLICATIVO

Uma alternativa aos efeitos aditivos consiste no uso de componentes multiplicativos. Neste caso, um efeito sazonal multiplicativo neutro corresponderia a um índice sazonal igual a 1 (100%), um índice superior a 1, digamos 1.50 (150%), corresponderia a um período com sazonalidade 50% superior a um mês ou dia médio. A representação da sazonalidade como um efeito multiplicativo é uma melhor forma de traduzir a idéia de que a sazonalidade das vendas seria um efeito proporcional ao nível das vendas o que é a prática comum na maioria das empresas.

Tal como ocorre com o componente aditivo, não há uma única forma de calcularmos os seus valores, mas vale também a regra básica de que a soma dos efeitos sazonais ao longo do ano seja neutra;  no caso, por serem efeitos que multiplicam nível médio das vendas, sua média deve ser igual a 1 para que o efeito sazonal ao longo de um ano seja neutralizado. Tendo este princípio como base, podemos calcular os índices sazonais multiplicativos para os mesmos dados anteriormente estudados com o modelo aditivo.

No caso, necessitamos de um valor que sirva de base para o cálculo dos efeitos sazonais de cada trimestre. Uma boa opção (existem outras ainda melhores!) é tomar a relação das vendas de cada trimestre com a respectiva média do ano. A tabela 3 ilustra a aplicação desta idéia à nossa série:

1999_12_imagem 04

Nesta tabela, definida pela divisão dos valores de venda a cada trimestre pela respectiva média das vendas para o mesmo ano, a média dos valores de cada coluna, referentes a um mesmo ano, é um (100%). Assim, para o primeiro trimestre de 1992, o valor 133 % indica que o nível das vendas neste trimestre esteve 33% acima da média do ano, enquanto que o valor de 93% do segundo trimestre nos diz que as vendas deste período foram 93% da média anual ou seja 7% abaixo desta média. Agora, tal como fizemos no caso anterior relativo aos efeitos aditivos, tomamos a média dos valores de cada um dos trimestres (média das linhas da tabela). Com isso, teremos uma boa estimativa do efeito sazonal multiplicativo de cada trimestre.

Assim, com base nos resultados obtidos e supondo que as vendas estimadas para o próximo ano seriam novamente em média de 700 unidade por trimestre, nossa previsão ajustada para a sazonalidade seria de 903 (700*129%) unidades para o primeiro trimestre, 623 (700*89%) para o segundo, 455 (700*65%) para o terceiro e finalmente 819 (700*117%) para o quarto trimestre. Em comparação com os valores ajustados no caso aditivo, observamos que nossas previsões foram agora mais carregadas tanto para os trimestres mais fortes (primeiro de quarto) como para os mais fracos (segundo e terceiro); isto se deve ao fato dos cálculos serem feitos com base no nível estimado de vendas para o próximo ano que, neste caso, é um valor acima da média passada por serem as vendas crescentes ao longo do tempo. A tabela 4 resume esta comparação:

1999_12_imagem 05

Novamente aqui, poderemos avaliar o resultado das vendas futuras em relação ao que esperávamos. Assim uma venda de 850 unidades no próximo trimestre seria um bom resultado ou não? Neste caso, ao contrário do modelo aditivo, a resposta seria não, já que esperávamos uma venda de 903 unidades! Naturalmente, como vivemos em um mundo de incertezas, um resultado como este, apesar de abaixo das expectativas, seria absolutamente normal em função dos elementos aleatórios presentes no ambiente de negócios.

O uso de componentes multiplicativos tem ainda uma vantagem adicional em relação aos componentes aditivos pois permitem uma melhor comparação de sazonalidades entre diferentes produtos, diferentes setores de atividade ou mesmo diferentes estabelecimentos. Esta comparação só seria possível com a adoção de índices sazonais padronizados (com média unitária) ao longo do ano, caso contrário não teríamos uma base comum de referência.

Finalmente, temos novamente outras opções para o cálculo de índices sazonais multiplicativos como por exemplo os métodos conhecidos como decomposição clássica ou o amortecimento exponencial de Holt Winters. Embora estes métodos sejam mais sofisticados e portanto forneçam resultados mais precisos, sua aplicação a este nosso exemplo leva a resultados muito próximos daqueles a que chegamos com um simples cálculo de médias. E esta é uma constatação empírica que os autores de trabalhos de previsão de vendas tem chegado: em geral, métodos relativamente simples fornecem resultados quase tão bons como os métodos mais sofisticados, muitas vezes não compensando o preço de uma maior complicação matemática e dificuldade de compreensão.

CONCLUSÃO

Como pudemos constatar, a sazonalidade pode ser facilmente quantificada seja para gerar previsões, seja para compararmos resultados de diferentes períodos ou de diferentes produtos. Com bom senso e o uso correto de conceitos básicos estatísticos como o cálculo de médias, podemos obter valores quase tão bons quanto aqueles fornecidos por sofisticados e caros softwares de previsão e, melhor ainda, fazermos tais cálculos com uma simples planilha eletrônica.

BOX 1

VALE A PENA UTILIZAR MÉTODOS MAIS SOFISTICADOS PARA A DETERMINAÇÃO DE ÍNDICES SAZONAIS?
Embora existam sempre ganhos de precisão com o uso de métodos mais sofisticados, a prática mostra que estes ganhos não são muitas vezes expressivos de modo a justificar uma maior complexidade estatística, requerendo um conhecimento mais aprofundado das técnicas de previsão e também o uso de softwares mais caros e difíceis. É claro que em geral vale a pena utilizarmos métodos mais elaborados do que os aqui apresentados, particularmente no caso em que os erros de previsão têm custo elevado. Este custo elevado pode ser gerado pela perda resultante de uma previsão pessimista abaixo do real, quando muitas vezes teremos que arcar com custos mais elevados para atendermos as vendas ou mesmo pela perda de vendas por falta de capacidade de produção ou atendimento. Mas temos também a perda decorrente de uma previsão otimista acima do real quando teremos que arcar com um excedente de produtos em estoque que, para serem desovados, necessitarão de um substancial desconto nos preços ou mesmo tornar-se-ão obsoletos no caso de produtos altamente perecíveis ou ainda, no caso de serviços; como o transporte, em que nossa capacidade de operação será sub-utilizada com uma consequente ociosidade.
BOX 2

SOFTWARES DE PREVISÕES

Embora haja uma tendência recente de integração de módulos de previsão em sistemas logísticos e de ERP, existem diversos produtos no mercado voltados para o problema das previsões. Estes produtos são classificados em três categorias: automáticos, semi-automáticos e manuais. Os softwares automáticos, como o nome diz, fazem praticamente sozinhos a tarefa de analisar séries e recomendar o método de previsão mais adequado à situação em estudo com base em critérios estatísticos. Embora representem uma boa opção, eles tendem a ser utilizados como caixas pretas em que o usuário tem pouca ou nenhuma possibilidade de intervenção no processo, aceitando ou não os seus resultados. Um dos produtos mais conhecidos desta categoria é o software Forecast Pro (www.forecastpro.com) cuja versão mais completa custa cerca de US$1000,00. O Forecast Pro incorpora um sistema especialista para a seleção do método de previsão mais adequado para cada série analisada.

Os softwares semi-automáticos de previsão são, em princípio, softwares estatísticos como o SPSS, SAS ou econométricos como o EVIEWS. Neste caso, o usuário faz uma seleção prévia dos métodos a serem testados em seu problema , deixando ao computador a escolha dos parâmetros ótimos que minimizam o erro de previsão. A escolha do método mais adequado é feita pelo usuário com base nos resultados dos vários testes. Finalmente, os softwares manuais são aqueles em que o usuário define o método de previsão a ser testado e respectivos parâmetros; o software é utilizado unicamente para avaliar o desempenho do método proposto. Neste caso, há necessidade de um maior conhecimento técnico por parte do usuário, mas em compensação tem-se um maior controle do processo de previsão.

BIBLIOGRAFIA

Para um estudo mais aprofundado da determinação de índices sazonais bem como das técnicas de previsões, indicamos três textos, todo em inglês, porém de fácil leitura e aquisição. Uma sugestão para aquisição destes textos é através das livrarias eletrônicas na Internet, como por exemplo a Amazon (www.amazon.com)

DeLurgio, S.A. Forecasting Principles and Applications. New York, McGraw Hill, 1998.

Hanke, J.E. e Reitsch, A G. Business Forecasting. 6 Ed., Prentice Hall, 1998

Makridakis, S., Wheelwright, S. e Hyndman, R.J. Forecasting: Methods and Applications. 3 Ed., New York, Wiley, 1998.

Mentzer, J. e Bienstock, C. Sales Forecasting Management. Sage, 1998.