CÁLCULO PROBABILÍSTICO DE PRODUTIVIDADES GLOBAIS

 

 

Annibal Parracho Sant’Anna

Universidade Federal Fluminense

tel: 5521-27291803 fax: 5521-2748731

e-mail: tppaps@vm.uff.br

 

 

RESUMO

Neste trabalho, se desenvolvem critérios para avaliar a produtividade baseados na modelagem de recursos e produtos com erro. Propostas para lidar com a falta de informação anterior sobre a distribuição de probabilidades das perturbações estocásticas são, também, desenvolvidas.

As medidas de produtividade propostas são inicialmente construídas seguindo a perspectiva da Análise Envoltória de Dados de Dados (DEA), de quantificar a proximidade do desempenho ótimo observado. Na orientação para a maximização do produto, a produtividade será medida pela probabilidade de a unidade de produção apresentar o volume máximo em algum output e não apresentar o volume máximo em nenhum input. Na orientação para a minimização do recurso, será medida a probabilidade de apresentar o menor volume em algum input e não apresentar o menor volume em nenhum output.

São também discutidas outras formas de avaliar, apropriadas a situações em que não há motivo para se orientar preferencialmente para um ou outro grupo de variáveis, em que há mais de dois grupos de variáveis a considerar ou em que a eficiência é buscada em termos de afastamento de patamares de pior desempenho, em vez de aproximação de algum teto de desempenho ótimo.

 

Palavras-chave: análise envoltória de dados – produtividade – aleatorização

 

 

ABSTRACT

Criteria to evaluate productivity based on the modeling of resources and products with error are developed here. Proposals to deal with the lack of previous information on the distribution of probabilities of the random disturbances are also developed.

The measures of global productivity initially proposed are constructed following the principles of Data Envelopment the Analysis (DEA), of measuring the productivity by proximity of the observed excellent performances. In the orientation to output maximization, the productivity will be measured by the probability of the production unit to present the maximum volume of some output, not presenting the maximum volume of any input. In the orientation for input minimization, it will be measured by the probability to present the smallest volume of some input and not to present the smallest volume of any output.

Other measurement strategies are then discussed, appropriate to situations where there is no reason to prefer one or another group of variables, where there are more than two groups of variables to consider or where efficiency is aimed in terms of escaping from a floor of worst performance, instead of reaching a ceiling of excellent performance.

 

 

1. Introdução

 

A Análise Envoltória de Dados é desenvolvida com um objetivo explícito: ordenar unidades produtivas de acordo com a produtividade, medida pela eficiência em extrair um maior agregado de produtos de um menor agregado de recursos utilizados. Algumas características tornam a DEA um instrumento atraente: a eficiência é medida realisticamente, em termos de distância aos melhores desempenhos; para levar em conta que cada unidade pode ter o seu próprio nicho de mercado, a agregação dos recursos e a agregação dos produtos são efetuadas utilizando, para cada unidade avaliada, os pesos que lhe sejam mais favoráveis; algoritmos distintos podem ser empregados para analisar a situação em que as unidades de operação atendem a encomendas cujo volume é determinado fora do seu campo de decisão, de modo que seus esforços para elevar a produtividade são orientados para a minimização do volume de recursos utilizados, e para analisar a situação oposta em que os recursos disponíveis estão fora do campo de decisão da unidade produtiva e a produtividade é dada pelo volume de produção extraída.

O algoritmo de cálculo da eficiência típico da DEA foi desenvolvido por Charnes et alii (1978) e o conceito de eficiência que utiliza é o de Farrel (1957). Dificuldades na interpretação dos resultados obtidos em certas situações práticas conduziram ao desenvolvimento de algoritmos alternativos. Estas dificuldades decorrem de alguns aspectos que não são levados em consideração na abordagem inicial. O primeiro diz respeito às escalas de operação das unidades comparadas. A inclusão na análise de uma unidade com dimensões muito distintas das encontradas no restante do conjunto e que lhe garantam vantagens de escala, resulta em que essa unidade passará a ocupar uma posição de paradigma de produtividade que não se deve esperar possa ser, de fato, atingido pelas outras unidades. Para evitar que se possa construir o padrão de referência compondo apenas unidades observadas de dimensões sempre menores ou sempre maiores que as da unidade avaliada foi desenvolvida a abordagem de Banker et alii (1984). O defeito desta saída é que todas as unidades com valores extremos em alguma variável passam a receber necessariamente a medida de eficiência máxima.

A segunda dificuldade diz respeito à liberdade de especialização. Se for conveniente para melhorar a avaliação da unidade, é permitido atribuir, na composição do critério de eficiência que lhe é aplicado, peso nulo a qualquer variável, de tal sorte que seu desempenho quanto a tal variável em nada influencia a sua medida de produtividade. A alternativa mais conhecida para incluir na comparação as parcelas de produtos e recursos desprezadas na comparação com o agregado formado para servir como paradigma de eficiência da unidade no conceito de Farrel é medir a eficiência através da soma das folgas. Isto conduz ao chamado modelo aditivo (Charnes et alii, 1985). O ônus envolvido nesta e outras alternativas desenvolvidas para lidar com as folgas está em passar a exigir, contrariando o princípio de livre escolha dos pesos, que se determine externamente a escala de importância que se deseja atribuir a cada produto e recurso.

Estes aspectos não limitam a aplicabilidade da metodologia, visto que para a correta interpretação dos resultados basta o exame cuidadoso dos dados, em especial das unidades selecionadas para servir de referência. Uma terceira dificuldade decorre de a análise não levar em conta a possibilidade de erros aleatórios nas medidas dos recursos e produtos. Esta dificuldade é mais séria porque, ao contrário da especialização ou das diferenças de dimensões, as distorções que a influência das perturbações estocásticas pode provocar nos resultados não são evidenciadas por nenhum sinal externo. A fronteira de excelência eventualmente gerada por desempenhos extremos que sejam efeito de perturbações grosseiras das medidas em nada se distingue da fronteira gerada por observações medidas com precisão.  Para lidar com essa dificuldade, há alternativas, ora envolvendo a modelagem paramétrica da fronteira (para uma completo levantamento, veja-se Kumbhakar e Lovell, 2000), ora tratando estatisticamente o vetor de medidas de eficiência (Simar e Wilson, 1998).

Neste trabalho, se desenvolvem critérios para a eficiência baseados na modelagem das variáveis com erro. Ao contrário de abordagens anteriores, enfatizamos, aqui, em vez da completa parametrização das distribuições, que exigiria que dispuséssemos de repetições suficientes para poder estimar com precisão os parâmetros, a combinação de medidas aproximadas para probabilidades calculadas relativamente a cada recurso e a cada produto, de tal sorte que qualquer erro nas aproximações tenha sua influência no resultado final diluída.

Mais importante nesta abordagem que a correta atribuição de probabilidades é a forma como estas probabilidades são combinadas para gerar as medidas de eficiência. Neste sentido, ainda que a indisponibilidade de dados nos impeça de modelar corretamente as distribuições, podemos chegar a medidas de eficiência mais confiáveis que as extraídas dos dados tratados como determinísticos. A idéia básica é, embora ainda permitindo que a medida de eficiência de qualquer unidade de produção seja fortemente elevada pelo desempenho extremo seja na minimização do volume de algum recurso seja na maximização do volume de algum produto, amenizar a influência desses pontos extremos, levando em conta o desempenho de mais variáveis e de mais unidades de observação. Enquanto a fronteira de excelência tende a ser formada por desempenhos raros, a comparação em variáveis em que a unidade não apresente desempenho extremo e a comparação com um conjunto de observações com valores mais comuns torna o procedimento de avaliação mais resistente a erros aleatórios.

As medidas de eficiência aqui propostas são, basicamente, na orientação da maximização do produto, a probabilidade de a unidade de produção apresentar o volume máximo observado em algum output e não apresentar o volume máximo em nenhum input e, na orientação para a minimização do recurso, a probabilidade de a unidade de produção apresentar o menor volume em algum input e não apresentar o menor volume em nenhum output.

Variantes destas medidas que se afastam mais do critério básico da DEA são também discutidas aqui e abrangem os casos em que não se lida com variáveis associadas entre si como recursos e produtos. Uma delas é a probabilidade de apresentar o melhor desempenho em algum critério, seja através da maximização do volume de algum output seja através da minimização do volume de algum input, e aplica-se melhor ao caso de uma coleção de critérios independentes. Outra alternativa é mais bem aplicável ao caso em que se deseja otimizar o desempenho em cada um de dois ou mais blocos de critérios, sejam estes blocos constituídos um de recursos e outro de produtos ou constituídos de outra forma qualquer. Neste caso, a medida global seria dada pela probabilidade de apresentar o melhor desempenho em pelo menos um critério de cada bloco.

Há situações como a de muitos segmentos do setor público em que o referencial está colocado em um desempenho pior possível ou em patamares estabelecidos pela sociedade para o pior desempenho aceitável. A partir desse patamar se realizam os progressos em relação à qualidade. Nestes casos, nas variáveis mais difíceis de administrar eficientemente, deverá aparecer assimetria, com concentração e valores próximo ao patamar de eficiência mínima permitida. Com a rarefação da distribuição no lado eficiente, torna-se mais seguro medir o desempenho pelo afastamento da fronteira de ineficiência que pela proximidade da fronteira de eficiência. Por exemplo, um valor equivocadamente registrado próximo daquele de uma unidade de fato muito mais eficiente que as demais afetará fortemente sua probabilidade de atingir a fronteira de eficiência, enquanto afetará muito pouco sua probabilidade de chegar à fronteira de ineficiência. Um critério adequado a esta situação deverá, então, basear-se nas probabilidades de se afastar da fronteira de ineficiência. E a medida global será dada pelo produto das probabilidades de não apresentar o pior desempenho.

Além de lidar com as duas ultimas dificuldades da DEA acima referidas, ao levar em conta o caráter aleatório e impedir que o desempenho em algumas variáveis seja completamente desprezado, esta abordagem tende a atribuir menos medidas de eficiência elevadas às unidades de dimensão muito pequena ou muito grande em relação ao conjunto analisado. De fato, unidades com valores extremos terão suas medidas de eficiência calculadas através do produto de probabilidades muito próximas de zero por probabilidades muito próximas de 1, enquanto as unidades com valores mais próximos da mediana terão suas medidas de eficiência calculadas através do produto de fatores mais homogêneos. 

 

 

2. Probabilidades de Pertencer à Fronteira

 

Uma forma probabilística de compor critérios atribuindo igual importância a todos consiste em usar como medida global a probabilidade de a unidade avaliada ser a preferida por pelo menos um dos critérios considerados. No caso de unidades de decisão utilizando recursos para gerar produtos, a medida de eficiência deverá, então, ser tanto maior quanto maior a probabilidade de maximizar o volume produzido de algum output ou minimizar o volume utilizado de algum input. Seguindo este princípio, representando por Pij a probabilidade da opção j-ésima ser a preferida pelo critério i-ésimo, a medida final da preferência por essa opção será 1- P(1-Pij), sendo i o índice do produtório, variando ao longo de todos os critérios considerados. Assim, uma unidade de produção será eficiente na medida em que minimize a utilização de um recurso ou maximize o volume ofertado de um produto. Na perspectiva da DEA, de minimizar razões insumo/produto, para ter todas as variáveis orientadas no mesmo sentido, podemos substituir o objetivo de maximizar o volume de um produto pelo de minimizar o inverso desse volume. Da mesma forma, podemos substituir a minimização dos valores dos inputs pela maximização dos inversos desses valores.

Ao colocar lado a lado recursos e produtos, esta medida não avalia, entretanto, propriamente, a produtividade. Segundo ela, as unidades de produção se aproximam do desempenho ideal, elevando o volume de qualquer output ou reduzindo o volume de qualquer input, isoladamente. Isto é, basta que a unidade seja grande na produção de um output ou pequena no consumo de um input para que sua medida de eficiência se aproxime da eficiência máxima. Como todos os recursos e produtos são considerados, razões insumo/produto pequenas resultarão em elevada medida de eficiência, mas esta condição não é necessária.

Para que a medida probabilística de eficiência não possa premiar o esforço apenas em aumentar a produção ou inversamente o esforço em apenas em reduzir o consumo, basta que valorize separadamente alta probabilidade de maximização de algum output e de minimização de algum input. A probabilidade de a unidade de produção j-ésima apresentar o valor máximo de algum output no conjunto examinado é dada por 1- P(1-Pij), onde, como antes, Pij representa a probabilidade de essa unidade ser a que oferece o maior volume do produto i-ésimo, mas a variável do produtório, i, agora varia ao longo apenas dos produtos considerados. Da mesma forma, a probabilidade dessa unidade de produção apresentar o valor mínimo de algum input no conjunto examinado é dada por 1- P(1-Pij), onde, como antes, Pij representa a probabilidade de essa unidade ser a que utiliza o menor volume do recurso i-ésimo, mas i agora varia ao longo apenas dos recursos considerados. Assim, a produtividade será medida pelo produto [1- P(1-Pkj)] * [1- P(1-Plj)] onde no primeiro produtório temos um fator para cada recurso, representado pelo índice k, e no segundo produtório um fator para cada produto, representado pelo índice l.

Há situações em que o importante é não ultrapassar tetos orçamentários para a utilização de nenhum recurso nem negligenciar a demanda por nenhum produto. A eficiência, nesse contexto, pode ser medida pela probabilidade de apresentar o maior valor em cada produto e o menor valor em cada recurso. Esta medida, entretanto, tem o defeito de referir toda comparação ao desempenho melhor possível, o qual tem considerável probabilidade de ser afastado dos demais por erros aleatórios ou sistemáticos. Uma medida mais resistente à influência de desvios dessa natureza é dada pela probabilidade de não ser o pior em nenhuma variável, isto é, pela probabilidade de não atingir o valor mais alto em nenhum input e não atingir o valor mais baixo em nenhum output. Formalmente, esta medida será dada por P(1-Pij), onde i é o índice do produtório e varia ao longo de todo o conjunto de variáveis representativas tanto de recursos quanto de produtos considerados e Pij indica a probabilidade de atingir o valor mais alto observado para a variável i-ésima se esta representar um recurso ou o valor mais baixo se esta representar um produto.

Ao levar em conta, para cada variável, a probabilidade de um evento mais fácil de ocorrer, este critério discrimina mais. Além disto, reduz a possibilidade de alguma unidade apresentar boas medidas de desempenho apenas por ter tamanho muito maior ou muito menor que o das demais, tanto nos recursos quanto nos produtos.

Além dessas alternativas, podemos escolher medidas probabilísticas mais coerentes com as orientações para maximizar a produção de algum produto, cuidando, do lado oposto, apenas para que os volumes de recursos utilizados não ultrapassem limites compatíveis com a prática mais freqüente, ou para minimizar o consumo de algum recurso, sem, também, exigir maximização da produção, mas cuidando apenas para que os volumes produzidos não fiquem abaixo de patamares medianos, compatíveis com a prática mais freqüente.  No primeiro caso, a medida de eficiência probabilística orientada para a maximização do output será dada por uma expressão envolvendo dois produtórios, P(1-Qkj) * [1- P(1-Plj)], onde o segundo produtório é como o do parágrafo anterior, mas, no primeiro, aparece Qkj representando a probabilidade de o volume utilizado do k-ésimo recurso ser o maior de todos. Analogamente, a medida de eficiência probabilística orientada para a minimização do input será fornecida por uma expressão envolvendo outros dois produtórios, [1-P(1-Pkj)] *P(1-Qlj), onde agora é no segundo produtório que aparecem novos fatores Qlj representando as probabilidades de os volumes produzidos serem mínimos.

 

           

3. Aleatorização dos Volumes de Recursos e Produtos

 

Com a introdução de erros de medida aleatórios, os volumes de inputs e outputs inicialmente apresentados de forma determinística passam a ser tratados como estimativas das médias de distribuições de probabilidades independentes. Pode-se derivar, do conjunto de valores observados, estimativas para outros parâmetros dessas distribuições.

É difícil dispor de informação a priori sobre a distribuição das perturbações aleatórias e, nas primeiras aplicações, não é comum dispor de um número de observações em cada unidade suficiente para, mesmo assumindo as habituais hipóteses de normalidade da distribuição e independência entre as observações, estimar, com precisão satisfatória, suas variâncias. Nesta seção, é desenvolvida uma sistemática para modelar as parcelas probabilísticas das medidas de inputs e outputs, com base na amostra de valores observados em todas as unidades examinadas.

Como usual, assumimos perturbações independentes e de média zero e com distribuição completamente determinada pelos dois primeiros momentos. Para que a abordagem probabilística seja mais efetiva, convém que se facilite ao máximo a troca de postos entre opções próximas. Com este objetivo, a melhor escolha é a da distribuição uniforme. Adiante, serão comparados resultados obtidos assumindo a hipótese de distribuição uniforme com a, mais comum, hipótese de distribuição normal.

Para modelar a dispersão, a hipótese básica que aqui se assume é que, se duas unidades de produção quaisquer pertencem ao conjunto analisado, existe uma probabilidade não nula de inversão entre as suas posições relativamente ao volume observado de cada recurso ou produto e esta probabilidade deve ser pequena quando se consideram as unidades com o maior e o menor valor. Estabelecer quão pequena deve ser esta probabilidade e como cresce com a proximidade entre as medidas observadas completa a modelagem estatística. 

  Se o número de unidades comparadas não é muito pequeno, probabilidade pequena ou probabilidade zero de inversão entre a primeira e a última faz muito pouca diferença quando se vão calcular, a seguir, probabilidades de pertencer à fronteira. Assim, poderíamos simplificar, tomando a amplitude observada entre as medidas registradas como estimativa para a amplitude da distribuição de cada medida. Entretanto, para levar em conta, de um lado, que volumes de recursos e produtos costumam ser registrados em valores inteiros com a escala em que as medidas são lançadas refletindo sua precisão, e, de outro, que aumentando o tamanho do universo de unidades de produção examinadas se reduz a probabilidade de se ter deixado fora do conjunto observado valores mais afastados, é preferível adicionar à amplitude observada uma pequena parcela proporcional a algum parâmetro de locação e decrescente com o tamanho da amostra. No que segue, esta parcela será dada pelo quociente do menor valor observado pelo número de unidades observadas. A estimativa assim produzida corresponde ao valor da amplitude amostral resultante de acrescentarmos ao conjunto uma unidade de produção fictícia, com volumes inferiores aos menores volumes observados, distando destes, exatamente, a n-ésima parte dos mesmos, n sendo o tamanho da amostra.

Formalmente, dado o volume observado Rij na unidade de produção j-ésima do recurso ou produto i-ésimo, pode-se resumir as hipóteses estabelecidas nos parágrafos acima dizendo que cada um desses volumes é uniformemente distribuído em torno do respectivo registro Rij e estas distribuições uniformes são independentes, todas aquelas relativas a um mesmo recurso ou produto tendo a mesma amplitude, igual, para o recurso ou produto i-ésimo, ao máximo das diferenças Rij1 – Rij2, para j1 e j2 variando ao longo de todas as unidades de produção avaliadas, acrescido de Riji/n onde ji designa a unidade que apresenta o menor valor na i-ésima variável.

Poderíamos, também, seguir a prática usual de derivar estimativa para o desvio padrão da perturbação de cada medida do desvio padrão amostral, sendo a amostra, no caso, constituída pelos valores observados no conjunto das unidades de produção examinadas. O fato de que os valores esperados das variáveis na amostra são diferentes deve fazer este procedimento superestimar a dispersão. Por outro lado, para a distribuição normal, para a qual o desvio padrão é o parâmetro de dispersão que ocorre naturalmente, o gradual decréscimo da densidade com o afastamento do centro exige, para facilitar adequadamente as inversões de posição, que a relação entre a dispersão atribuída a cada medida e a dispersão observada entre as medidas iniciais seja maior. Assim, quando se assumir normalidade, estimar-se-á o desvio padrão de cada observação pelo desvio padrão amostral.

Pode-se, ainda, abandonar a hipótese de idêntica dispersão e ampliar ou reduzir o desvio padrão de uma ou outra medida para refletir uma certeza maior ou menor sobre as medidas referentes a unidades de produção mais bem ou menos bem conhecidas. A modelagem da dispersão é, não obstante, em geral, uma possibilidade difícil de explorar.

O uso das probabilidades assim estabelecidas para calcular, apenas, probabilidades de ocupar posições limites na comparação com outras unidades diminui a importância da correta especificação da forma da distribuição. Em Sant’Anna e Sant’Anna (2001) se desenvolve uma sustentação empírica de que o produto de probabilidades envolvido resulta em resistência à influência da forma de medir as variáveis maior que aquela fornecida à DEA pela invariância com as unidades de medida. De fato, verifica-se que, enquanto a livre variação dos pesos na DEA torna seus resultados invariantes apenas em relação a mudanças proporcionais de escala, o cálculo da probabilidade de ocupar posição na fronteira é menos influenciado pelos valores das observações que pela ordem das posições das unidades.

Outro aspecto a ser levado em conta na modelagem das dispersões é que idêntico desvio padrão implica em coeficiente de variação maior para as medidas de menor valor. Assim, assumindo idêntica distribuição para as perturbações se está, de fato, proporcionalmente, atribuindo menor dispersão às medidas de volumes de inputs e outputs maiores. Para assumir que as medidas mais importantes são tomadas com mais cuidado e fazer corresponder menores dispersões aos valores mais próximos da fronteira de excelência, sempre se pode trabalhar com os inputs invertidos e transformar em maximização do inverso do input o objetivo de minimização do input. Note-se que a idéia de inverter valores de variáveis opostas não é nova nesta área de aplicação, já estando presente nas razões insumo/produto dos primeiros modelos da DEA.

Uma última observação sobre a construção das distribuições é que, em vez do patamar oferecido pela unidade com pior desempenho na variável, poderíamos usar um patamar absoluto para as comparações, zero sendo o valor mais natural. Entretanto, o patamar mais alto possível fornece uma informação mais fundamentada para a estimação da amplitude.

 

 

4. Exemplo.

 

            Para ilustrar a flexibilidade da abordagem probabilística, esta sessão analisa uma situação simples: cinco unidades de produção utilizando dois recursos para produzir dois produtos. Em uma segunda etapa, os valores de uma dessas unidades são replicados.  O acréscimo de uma unidade de produção nessas condições não altera a envoltória e, conseqüentemente, não pode alterar as medidas de eficiência na DEA. Entretanto, aumenta a informação disponível, especialmente quanto à confiabilidade dos valores observados, que é avaliada, na sistemática acima proposta, pelos parâmetros de dispersão do universo de unidades conhecidas. Através do efeito dessas medidas de dispersão sobre as probabilidades de troca de posição, as avaliações finais de eficiência são, então, alteradas.

            O conjunto de unidades comparadas é constituído de uma unidade com bom desempenho, uma com desempenho ruim, outra com desempenho bom a menos de um input com volume muito elevado, outra com desempenho ruim a menos de um input com volume baixo e a última com desempenho intermediário. Esta última é replicada no segundo conjunto.

            A tabela 1 abaixo apresenta os valores das variáveis consideradas. Os maiores volumes de output são encontrados nas duas primeiras unidades. A segunda apresenta o menor volume do input 1, mas um volume do input 2 muito acima dos das outras unidades. A quarta unidade apresenta volumes baixos nos dois outputs, um input com volume elevado, mas o outro no limite inferior. A quinta unidade apresenta os menores volumes de output, para volumes de input no mesmo nível das demais. A sexta unidade é uma replicação da terceira, com valores de inputs e outputs medianos.

 

 

TABELA 1. VALORES DAS VARIÁVEIS ANALISADAS

NOME

RECURSO1

RECURSO2

PRODUTO1

PRODUTO2

Boa

3

3

3

3

Boa a menos de 1

2

5

3

3

Regular

3

3

2

2

Ruim a menos de 1

5

3

2

2

Ruim

3

3

1

1

Replicada

3

3

2

2

 

 

            As tabelas 2 e 3 apresentam os desempenhos das cinco unidades iniciais, segundo cada um dos critérios probabilísticos propostos, primeiro supondo que são as únicas unidades observadas e depois se acrescentando a replicação da terceira. Os resultados na tabela 2 são obtidos assumindo para as perturbações distribuição uniforme de amplitude igual à amplitude observada no conjunto acrescida de 1/5 ou 1/6 do menor valor, conforme se inclua ou não a replicação no conjunto de unidades. Na tabela 3, a distribuição adotada é a normal de desvio padrão igual ao desvio padrão no conjunto de valores observados para a variável.

 

 

TABELA 2. VALORES DAS EFICIÊNCIAS PARA PERTURBAÇÕES UNIFORMES

 

NOME

 

MINIMIZANDO RECURSO

MAXIMIZANDO PRODUTO

RECURSO E PRODUTO

ALGUMA ÓTIMA

NENHUMA PÉSSIMA

 

SEM RÉPLICA

COM RÉPLICA

SEM RÉPLICA

COM RÉPLICA

SEM RÉPLICA

COM RÉPLICA

SEM RÉPLICA

COM RÉPLICA

SEM RÉPLICA

COM RÉPLICA

 

Boa

0,32

0,26

0,65

0,64

0,22

0,18

0,80

0,77

0,92

0,93

 

Boa a menos de 1

0,73

0,69

0,05

0,05

0,52

0,48

0,92

0,90

0,07

0,08

 

Regular

0,29

0,24

0,08

0,07

0,03

0,02

0,38

0,32

0,85

0,86

 

Ruim a menos de 1

0,23

0,19

0,02

0,02

0,02

0,02

0,32

0,26

0,17

0,20

 

Ruim

0,00

0,00

0,00

0,00

0,00

0,00

0,32

0,26

0,01

0,01

 

 

 

 

TABELA 3. VALORES DAS EFICIÊNCIAS PARA PERTURBAÇÕES NORMAIS

 

NOME

 

MINIMIZANDO RECURSO

MAXIMIZANDO PRODUTO

RECURSO E PRODUTO

ALGUMA ÓTIMA

NENHUMA PÉSSIMA

 

SEM RÉPLICA

COM RÉPLICA

SEM RÉPLICA

COM RÉPLICA

SEM RÉPLICA

COM RÉPLICA

SEM RÉPLICA

COM RÉPLICA

SEM RÉPLICA

COM RÉPLICA

 

Boa

0,31

0,26

0,53

0,53

0,21

0,17

0,75

0,72

0,76

0,81

 

Boa a menos de 1

0,56

0,57

0,17

0,16

0,39

0,37

0,86

0,84

0,24

0,25

 

Regular

0,27

0,23

0,16

0,14

0,07

0,04

0,47

0,39

0,67

0,73

 

Ruim a menos de 1

0,21

0,18

0,06

0,05

0,05

0,03

0,41

0,34

0,25

0,27

 

Ruim

0,03

0,03

0,03

0,02

0,01

0,01

0,36

0,29

0,08

0,09

 

 

 

            Verifica-se que há uma variação muito maior dos resultados quando se muda o foco de interesse do que quando se muda o modelo para a distribuição de probabilidades das perturbações. A inclusão de uma unidade adicional resulta em maior dificuldade de atingir a posição de fronteira e conseqüentemente em redução das medidas de eficiência que exigem aproximação da posição de melhor de todos e elevação da que mede afastamento da posição de pior de todos. Comparando os resultados obtidos com a distribuição uniforme com aqueles obtidos com a distribuição normal, nota-se ampla concordância entre os resultados. Com a distribuição normal, percebe-se maior proximidade entre as medidas de eficiência ao longo das unidades, ainda que os desvios-padrão observados na tabela 1 sejam menores que os estimados a partir das amplitudes, usando a relação d2 entre o valor esperado da amplitude amostral e o desvio padrão populacional.

As tabelas 4 e 5 permitem comparar com as eficiências radiais da DEA as medidas de eficiência relativa obtidas dividindo pela maior as eficiências segundo cada critério. Para fixar, dado o pequeno afastamento entre os resultados produzidos pelas diversas alternativas, nos limitamos a apresentar, na tabela 4, as eficiências relativas do caso sem replicação e assumindo normalidade. A tabela 5 apresenta as eficiências relativas da DEA. A comparação dos resultados apresentados nas duas tabelas permite aquilatar a variedade de informação fornecida pela aplicação dos critérios probabilísticos. O fato mais notável é a perda da posição de benchmark da unidade boa a menos de 1 input quando se aplicam os critérios envolvendo a exigência de não maximização do input em vez da sua minimização. Este tipo de exigência não é contemplado na DEA.

 

 

TABELA 4. EFICIÊNCIAS RELATIVAS PROBABILÍSTICAS

NOME

 

MINIMIZANDO RECURSO

MAXIMIZANDO PRODUTO

RECURSO E PRODUTO

ALGUMA

ÓTIMA

NENHUMA PÉSSIMA

Boa

55%

100%

55%

88%

100%

Boa a menos de 1

100%

32%

100%

100%

32%

Regular

48%

31%

17%

55%

82%

Ruim a menos de 1

37%

11%

13%

47%

32%

Ruim

6%

5%

3%

42%

10%

 

 

 

TABELA 5. EFICIÊNCIAS RELATIVAS CRS E VRS

NOME

ORIENTADA PARA RECURSO

ORIENTADA PARA PRODUTO

 

CRS

VRS

CRS

VRS

Boa

100%

100%

100%

100%

Boa a menos de 1

100%

100%

100%

100%

Regular

67%

100%

67%

67%

Ruim a menos de 1

67%

100%

67%

67%

Ruim

33%

100%

33%

33%

 

 

 

5. Conclusão.

 

            Desenvolve-se neste artigo uma abordagem probabilística para a comparação de desempenhos. Em particular, é discutida a situação de falta de informação anterior sobre a distribuição de probabilidades das perturbações estocásticas.  Os resultados obtidos no exemplo apresentado evidenciam, de um lado, a variedade de alternativas de análise oferecidas e de outro a robustez da metodologia relativamente à escolha da distribuição de probabilidades para as perturbações.

 

 

Referências

 

Banker, R. D., Charnes, A. H. e Cooper, W. W. (1984). Some Models for estimating Technical and Scaling Inefficiencies in Data Envelopment Analysis, Management Science, 30, 1078-1092.

Charnes, A., Cooper, W. W. e Rhodes. E. (1978). Measu­ring the Efficiency of Decision Making Units, European Journal of Oper­ations Research, 2: 429-444

Charnes, A. H., Cooper, W. W., Golany, B., Seiford, L. M. e Stutz, J. (1985). Foundations of data envelopment analysis for Pareto-Koopmans efficient empirical production functions, Journal of Econometrics, 30, 91-107

Farrell, M.J. (1957). The measurement of productive efficiency, Journal of the Royal Statistical Society, 120, 449-460.

Kumbhakar, S. C. e Lovell, C. A. K., Stochastic Frontier Analysis, Cambridge University Press, Cambridge, U. K., 2000.

Sant’Anna, A. P. e Sant’Anna, L. F. (2001). Randomization as a Stage in Criteria Combining, in Production and Distribution for the 21st Century, Proc. of the VII International Conference on Industrial Engineering and Operations Management, 248-256.

Simar, L. e Wilson, P. W. (1998). Sensitivity analysis of efficiency scores: How to bootstrap in nonparametric frontier models, Management Science, 44, 49-61.