APROXIMACIÓN A LA MEDICIÓN DE LA CALIDAD DE VIDA SOCIAL E INDIVIDUAL EN LA EUROPA COMUNITARIA
Mª Noelia Somarriba Arechavala
Esta página muestra parte del texto pero sin formato.
Puede bajarse la tesis completa en PDF comprimido ZIP
(448 páginas, 2.91 Mb) pulsando aquí
La metodología del Análisis Envolvente de Datos (DEA), ha sido tradicionalmente utilizada para la estimación de la eficiencia relativa de un conjunto de unidades productivas. En los últimos años, se han desarrollado otras aplicaciones en las que se incluye el DEA como posible herramienta para la obtención de índices sintéticos a partir de indicadores parciales.
El Análisis Envolvente de Datos (DEA) es en origen un procedimiento no paramétrico que utiliza una técnica de programación lineal y que va a permitir la evaluación de la eficiencia relativa de un conjunto de unidades productivas homogéneas.
En nuestro ámbito de estudio, en los últimos años han surgido algunos trabajos en los que se utiliza esta técnica para la derivación de indicadores sintéticos de bienestar y calidad de vida, como por ejemplo Hashimoto y Kodama (1996), Despostis (2004), Mahlberg y Obersteiner (2001)… entre otros, aunque las aplicaciones en este campo de investigación son todavía escasas.
Como principal ventaja de esta técnica se apunta a su flexibilidad, porque no exige que todas las unidades concedan la misma importancia a un mismo indicador parcial.
A continuación, plantearemos brevemente el modelo en el que se basa, sin profundizar en todas las formulaciones alternativas que han ido surgiendo en el desarrollo de esta metodología. Posteriormente, revisaremos algunas de los escasos trabajos propuestos en el campo del bienestar, y por último recogeremos un apartado con las principales ventajas e inconvenientes de esta técnica, a modo de valoración.
Formulación del modelo
El Análisis Envolvente de Datos [DEA] es una técnica de medición de la eficiencia basada en la obtención de una frontera de eficiencia a partir de un conjunto de observaciones, sin necesidad de asumir ninguna forma funcional entre “input” o insumisos y “ouputs” o productos. Es, en definitiva, una alternativa para extraer información de un conjunto de observaciones frente a los métodos paramétricos.
DEA trata de optimizar la medida de eficiencia de cada unidad analizada, para crear así una frontera eficiente basada en el criterio de Pareto. Recuérdese, que quizás una de las ideas más extendida de eficiencia es la del óptimo de Pareto, según el cual una asignación de recursos A es preferida a otra B si y solo si con la segunda al menos algún individuo mejora y nadie empeora.
Mediante la utilización de técnicas de programación lineal, el DEA compara la eficiencia relativa de un conjunto de unidades que producen “outputs” similares a partir de una serie de “inputs” comunes.
El Análisis Envolvente de Datos fue propuesto por Charnes et al. (1978) basándose en el trabajo seminal de Farrel (1957) y fue ampliamente empleada en las décadas posteriores, véase la recopilación de Tavares (2002), Seiford (1996).
Además de Farrel, existe otro amplio conjunto de autores que establecieron los cimientos que sirvieron de base al desarrollo posterior del DEA como por ejemplo Aigner y Chu (1968) y Afriat (1972), entre otros muchos.
Inicialmente, este modelo adopta como medida de eficiencia el ratio entre la suma ponderada de “inputs” y la suma de “outputs” de cada unidad de decisión (DMU) y utiliza modelos de optimización lineal para calcular las ponderaciones. Hay que señalar que este primer modelo [Charnes et al. (1978)] era de tipo fraccional y no lineal. A continuación se recoge a grandes rasgos el planteamiento del modelo.
Dado un proceso caracterizado por rendimientos constantes a escala, en el que se utilizan m “inputs” en la producción de s “outputs” y para el que se cuenta con observaciones correspondientes a n unidades productivas, la eficiencia técnica de una determinada unidad 0 puede estimarse a través del siguiente programa lineal:
Max
s.a.:
;
Donde:
h0 : es la función objetivo
s : es número “outputs”
m : el número de “inputs”
: el peso del “output” r
: el peso del “input” i
yrj : es la cantidad del “output” r de la unidad j.
Xij : es la cantidad del “input” i de la unidad j.
En este modelo la eficiencia es computada como el ratio definido por el cociente entre la suma ponderada de los “outputs” y la suma ponderada de los “inputs”, considerando que la eficiencia de ninguna unidad puede superar la unidad.
En la estimación de la eficiencia existen dos enfoques u orientaciones diferenciados:
1. Un primer enfoque que consiste en minimizar el “input” manteniendo constante el “output”: Orientación “input”.
2. Y un segundo enfoque cuyo objetivo es obtener el máximo “output” manteniendo los “inputs” constantes: Orientación “output”.
Independientemente de la orientación, el programa se computa separadamente para cada unidad de producción, generando n conjuntos de ponderaciones a aplicar sobre los “inputs” y “outputs” incluidos en el análisis. Los valores de las ponderaciones pueden ser distintas para cada unidad, ya que para cada una de ellas se seleccionan las ponderaciones de manera que su evaluación sea lo más favorable posible.
Es decir, la idea que subyace a este planteamiento es la de maximizar una especie de índice de productividad total de factores (unidades de “output” producido por cada unidad de “input” empleada) para cada unidad. En el numerador del índice se resumen todos los “outputs”, al igual que en el denominador se resumen todos los “inputs”. Sin embargo, para esa agregación no se utiliza un sistema de precios convencional sino un conjunto de ponderaciones cuyo valor es precisamente el que se pretende hallar de tal forma que maximice el ratio para cada unidad.
Como podemos observar h0 es el ratio de eficiencia de la unidad comparada (0) y su maximización está sujeta a la restricción de que ningún ratio de eficiencia supere la unidad.
Obsérvese que h0 es el cociente entre una suma ponderada de “outputs” en el numerador y en el denominador la suma ponderada de los “inputs”, lo cual implica que proporciona una medida de la cantidad de “ouputs” que se genera por cada unidad de “input”.
El programa busca como soluciones los parámetros u y v que hacen que h0 alcance su máximo valor y que el ratio de eficiencia de cualquier unidad productiva no supere la unidad .
Al ser el propio programa el que determina las ponderaciones, nos arroja flexibilidad e implica la ausencia de juicios de valor por parte del investigador referentes a la importancia relativa de cada variable en la determinación de la eficiencia de una unidad (DMU).
Como principal desventaja de este procedimiento está que el programa puede asignar una ponderación nula o muy escasa a un determinado factor, que desde un punto de vista teórico tenga una gran importancia en la eficiencia relativa de las unidades productivas. Al respecto, ha habido varios intentos de solucionar este problema que implican la incorporación de información adicional al modelo a cerca de las funciones de las unidades productivas.
Destaquemos en este sentido el trabajo de Pedrajas et al. (1997) donde se realiza un repaso a los posibles métodos para acotar los parámetros en la función de la información disponible.
A través de la solución de este problema o de cualquiera de sus variantes lineales se obtiene la eficiencia estimada de la unidad 0, que será igual a 1 si esta técnica es eficiente. Un problema similar debe de ser resuelto para cada una de las n unidades. Además este resultado básico proporciona una serie de información adicional como por ejemplo: el conjunto de referencia para las unidades ineficientes (conjunto de unidades eficientes del que deben de aprender), los “inputs” y “outputs” virtuales (aportación de cada factor al índice de referencia estimado) o los objetivos de producción y consumo (niveles de “inputs” y “outputs” que convertirán en eficiente a una unidad que no lo es).
La no linealidad del modelo anterior, junto a que las soluciones del problema son infinitas, va a complicar la resolución del mismo. Así que, se propone la transformación del modelo anterior a un modelo lineal [Charnes et al. (1978)].
En la literatura han surgido diferentes reformulaciones y modificaciones de este modelo con el objetivo de dar solución a los problemas que iban surgiendo a medida que se iba aplicando esta metodología a diferentes ámbitos de investigación.
Trabajos en el ámbito de la calidad de vida y del bienestar
En los últimos años, han surgido nuevas aplicaciones de esta técnica desde el punto de vista multidimensional, proporcionando una herramienta útil para el diseño de indicadores sintéticos a partir de indicadores parciales, aunque las aplicaciones en este ámbito son todavía escasas.
A continuación, procederemos a examinar algunos de los trabajos con el objetivo de dar constancia de la aplicación de esta técnica a nuestro ámbito de estudio.
Algunas propuestas sobre la estimación de índice de bienestar social y calidad de vida en Japón vienen de la mano de autores como Hashimoto y Ishikawa (1993) y Hashimoto y Kodama (1997). En estos trabajos como paso previo se clasifican los indicadores parciales en “outputs” e “inputs”, los “outputs” son indicadores de carácter positivo de la forma cuanto más grande mejor y los “inputs” de carácter negativo de la forma cuanto más pequeño mejor.
En el mismo sentido hay que citar el trabajo de Murias, P. Martínez, F. (2004) que utilizan DEA para la agregación de indicadores parciales en el ámbito de las provincias españolas. Estos autores gradúan la importancia de los índices a través de ratios en las ponderaciones, que se toman de la encuesta conocida como Barómetro (CIS, 2001). El objeto de estudio de este trabajo no coincide exactamente con el concepto de bienestar, se trata de conocer cuál es su situación en relación con los problemas que más preocupan a los españoles.
En relación a las restricciones, es interesante el trabajo de Cherchye et al. (2002) que proponen la utilización de DEA para la derivación de un Meta Índice de Desarrollo Sostenible e introducen una serie de restricciones. Estos autores trabajan con los indicadores parciales normalizados.
En la práctica, no sólo nos enfrentaremos a “inputs” con carácter negativo sino también a “outputs” (en el sentido de cuanto más peor). En este sentido es de gran interés el trabajo de Jahanshahloo (2004) en el que se realiza una revisión de la estimación de DEA en presencia de factores indeseables y que ofrece otra óptica de abordar el problema.
Un trabajo de gran interés es el de Raab e al. (2000) en él que se utiliza DEA para construir un índice de calidad de vida infantil para un conjunto de países subdesarrollados. El modelo que emplean es de carácter aditivo y utilizan un procedimiento en dos fases.
Hay otro grupo de autores que proponen reformulaciones del Índice de Desarrollo Humano, a través de DEA. Proponiendo formulaciones más sencillas que las vistas hasta ahora:
Mahlberg, B. y Obersteiner, M. (2001) proponen una forma alternativa de cálculo del IDH empleando programación lineal, en este caso se emplean los mismos indicadores que en el IDH.
Otros trabajos relacionados con esta línea son los de Depostis, D. K. (2004, a b) que plantea también una reformulación del IDH para el caso de Asia y el Pacífico, mediante el empleo de programación lineal. En los trabajos de este autor se asume una orientación “output” y todos los indicadores adoptan esa orientación. Este autor plantea que las puntuaciones que obtenemos de DEA no pueden ser usadas directamente para ordenar las variables ya que no se encuentran basadas en las mismas ponderaciones y proceden a calcular las distancias de las puntuaciones de DEA por unidades a las puntuaciones globales e introduciendo unas especie de medida de distancia.
En el ámbito de la calidad de vida un trabajo de gran interés que utiliza como técnica el análisis envolvente de datos es el de Zhu, J. (2001). Este trabajo persigue varios objetivos: medir la eficiencia de las unidades, identificar el estatus de una unidad en un espacio multidimensional, determinar su mejor escala de calidad de vida, introducción de restricciones al modelo y se propone como objetivo determinar qué atributos resultan críticos con respecto a la calidad de vida.
Esta pequeña muestra de trabajos pretende dar constancia del empleo de está técnica en el diseño de indicadores sintéticos.
Ventajas e inconvenientes de la metodología
A continuación realizaremos una breve exposición de las ventajas e inconvenientes que presenta está técnica de cara a nuestro objeto de estudio la calidad de vida.
Dentro de las ventajas destaquemos:
- Partiendo de este enfoque se ofrece una alternativa al problema de la ponderación de los indicadores parciales, permitiendo la búsqueda de un equilibrio entre elementos objetivos y subjetivos, que parecen relevantes en esta materia.
- Efectivamente, si bien la asignación de pesos ha de realizarse de manera objetiva, al mismo tiempo debería asumir y respetar la subjetividad con la que distintos grupos interpretan su bienestar. Esta herramienta por un lado presenta un carácter objetivo porque no precisa de la asignación de ponderaciones a priori. Por otro lado, es enormemente flexible porque no exige que todas las unidades concedan la misma importancia a un mismo indicador parcial.
- No nos exige el conocimiento de la función producción, es decir en nuestro ámbito de estudio no nos exige conocer a priori la forma funcional de la forma en que se relacionan nuestros factores.
- Nos va ofrecer información particularizada por unidades (países, ciudades, individuos…) que podrá ser empleada para establecer guías de actuación de cara a la mejora de su eficiencia (bienestar).
- DEA nos proporciona información adicional tal como el conjunto de referencia para las unidades ineficientes (conjunto de unidades eficientes del que deben aprender), los “inputs” y “outputs” virtuales (aportación de cada factor al índice de eficiencia estimado) o los objetivos de producción y consumo (niveles de “inputs” y “outputs” estimados) o los objetivos de producción y consumo (niveles de “inputs” y “outputs” que convierten en eficiente a una unidad que no lo es).
- También nos va a permitir la realización de análisis de sensibilidad y de estabilidad lo que puede resultar de interés como herramienta de cara a la toma decisiones en materia de política y económica con el objetivo de incrementar la calidad de vida de las áreas geográficas objeto de estudio.
Pero sin embargo, tiene una serie de inconvenientes de gran importancia:
- La primera de ellas y quizás una de las de mayor peso es la confusión a la hora de definir qué son los “inputs” y qué son los “outputs”.
- La exigencia de la homogeneidad de las unidades sometidas a análisis:
Homogeneidad en las escalas (solventadas por la modificación de Banker y Morey (1986b)).
Homogeneidad en los usos de “inputs” y “outputs” y en las circunstancias que constituyen el ámbito de actuación de las unidades.
- La flexibilidad de la elección de las ponderaciones, además de ventaja puede ser considerada como un problema sobre la base de la existencia de la posibilidad de que la evaluación de eficiencia de alguna/s unidad/es algún/os “inputs” reciban una ponderación nula y por tanto no sean contemplados en el proceso de cómputo. Ello podría implicar que variables trascendentales para el análisis pasaran desapercibidas al establecer conclusiones encaminadas a mejorar la calidad de vida basadas en variables secundarias.
- Carecemos de criterios a la hora de introducir las variables en nuestro objeto de estudio, y no existen tests adecuados para estimar si los resultados del análisis son estables o varían significativamente con la utilización de otro tipo de variables. Ello obliga a realizar estudios de sensibilidad mediante diferentes especificaciones.
- La fiabilidad de los datos depende de la relación existente entre el número de variables consideradas y el de unidades. Así por ejemplo Banker et al. (1989) establecían a modo orientativo el requisito de que el número de unidades analizadas sea mayor o igual a la suma de “inputs” y “outputs” para que el modelo tenga carácter discriminatorio, aunque en este sentido las opiniones son variadas (Norman M. y Stoker, B. (1991) o Mancebón (1996), entre otros autores.
- A todas las desventajas anteriores podemos añadir que puede presentar múltiples soluciones virtuales y que la existencia de restricciones puede causar no factibilidad.