La investigación al referirse a hechos ya ocurridos dentro del proceso de desarrollo agrícola, se define el tipo de estudio, el diseño de investigación no experimental transversal correlacional-causal, es decir, describe relaciones entre dos o más categorías o variables en un momento determinado, ya sea en términos correlaciónales, o en función de la causa-efecto.1
La figura 4.1, muestra en forma esquemática las etapas y el procedimiento que se siguió en la investigación de tesis doctoral. La información de los dos primeros cuadros de abajo hacia arriba, ayudó a formular el problema de investigación y los demás elementos que contiene el capítulo I. El marco teórico proporciona las bases conceptuales necesarias para la formalización del problema de investigación; definir el enfoque teórico, asimismo nos proporciona e indica las necesidades específicas de instrumentos metodológicos para realizar la investigación de campo. Esto último incluye las técnicas e instrumentos para captar información, es decir, los cuestionarios y la guía de entrevista. La investigación de campo se realizó en el período de mayo a octubre de 2009, durante el cual se aplicaron las técnicas cuantitativas y culitativas mencionadas.
La encuesta fue dirigida a las jefas y jefes de hogares utilizando como herramienta el cuestionario; este se compuso de ocho partes: 1) Características socioeconómicas del hogar, 2) ingresos por remesas, 3) Otros ingresos, gastos y equipamiento del hogar, 4) Tenencia de la tierra, 5) Innovación Tecnológica, 6) Financiamiento para la producción agrícola, 7) Producción de cultivos básicos y comerciales, 8) Actividades ganaderas de autoconsumo y comerciales; (ver cuestionario aplicado en el anexo 20). Con la información recabada se procedió a llevar a cabo la operacionalización de variables y de ahí derivar los resultados del trabajo de campo.
Para operacionalizar las variables de investigación, se consideran indicadores de los referentes teóricos respectivos de cada variable y se transforma al modelo empírico.
Cuadro 4.1. Variables del Desarrollo Agrícola
Dimensión/Variables |
Definición |
|
Variable cuantitativa que corresponde a la suma total de los valores de los bienes y servicios agropecuarios producidos por una sociedad, independientemente de que se trate de insumos, es decir, bienes intermedios que se utilizan en el proceso productivo o de artículos que se destinan al consumidor final. Se incluyen la producción para autoconsumo - la que produce una unidad y ella misma la consume- y la fabricación de activos fijos para su propio uso.2 |
Fuente: Elaboración propia
Cuadro 4.2. Variable Tierra
Indicador |
Definición |
|
Variable cuantitativa que compara el total de hectáreas de tierra por hogar. |
|
Variable nominal o dummy3 que compara las unidades de producción según disponibilidad de agua a través de obras, mecanismos u otros medios utilizados por el hombre. El agua puede provenir de presas, pozos profundos, manantiales, ríos, etc. |
Fuente: Elaboración propia
Cuadro 4.3. Variable capital
Indicador |
Definición |
|
Variable nominal que compara unidades de producción que emplean semilla mejorada. Se asignaron valores de 1= si usan y 0=no usa |
|
Variable nominal que compara unidades de producción que emplean tecnología con insumos de pesticidas y fertilizantes químicos Se asignaron valores de 1= si usan y 0=no usa. |
|
Variable nominal que compara unidades de producción según disponibilidad propia de activos productivos. Se asignaron valores de 1=si disponen 0=no disponen. |
|
Variable cuantitativa que mide la cantidad de ingresos directos otorgados por la federación a los productores agropecuarios, en este caso jefe de hogares. |
|
Variable nominal que compara unidades de producción que aprovecharon una cantidad de dinero o insumo, conseguido vía préstamo a través de la banca oficial, banca de desarrollo, otras instituciones de gobierno y/o particulares, para el desarrollo de la unidad de producción en el año agrícola, a cambio de un compromiso de pago a futuro, por el mismo valor, más una cantidad adicional denominada interés. Se asignaron valores de 1=Si utilizaron 0=No utilizaron |
|
Variable nominal que hace referencia al uso de ingresos privados en explotaciones agrícolas. 0= No usa, 1=Usa |
Fuente: Elaboración propia
Cuadro 4.4. Variable Trabajo
Indicador |
Definición |
|
Variable cuantitativa que mide el número de jornales familiares no remunerados usados en los procesos de producción agropecuaria. |
|
Variable cuantitativa que mide el número de jornales remunerados usados en los procesos de producción agropecuaria. |
Fuente: Elaboración propia
Cuadro 4.5. Variable Conocimiento
Indicador |
Definición |
|
Variable nominal, que compara el nivel de escolaridad de los jefes de unidades de producción agrícola. Se asignaron valores de 6=primaria, 9=secundaria, 12=preparatoria y 18=Universidad. |
Fuente: Elaboración propia
Cuadro 4.6. Variable características socioeconómicas de la población
Indicador |
Definición |
|
Variable nominal que compara los hogares de acuerdo al género del jefe. Se asignó 1 a los hogares con jefatura masculina y cero a hogares con jefatura femenina o con ambos cónyuges. |
|
Variable cuantitativa medida en años. |
|
Variable nominal que compara a los jefes de hogares que hablan una lengua indígena con aquellos que hablan solamente español. |
Fuente: Elaboración propia
Cuadro 4.7. Variable Municipio (Espacial)
Indicador |
Definición |
|
Variable nominal que compara los hogares de acuerdo al municipio de residencia, con el objetivo de evaluar su efecto sobre la variable dependiente. |
Fuente: Elaboración propia
De acuerdo a Rodríguez Vignoli (2004)4 y Busso (2001)5 , se entiende a la vulnerabilidad socioeconómica de los grupos de la población de un municipio, microrregión, estado o país en un período determinado, como la condición que resulta de la exclusión de los beneficios de las políticas públicas de bienestar y del insuficiente acceso a los recursos vitales, bienes y servicios. Según Pizarro (2001)6, Salgado de Zinder (2007)7 y Vignoli (2004) otra condición de la vulnerabilidad se refiere a la dificultad de los grupos para dar respuesta a los efectos de eventos adversos, como crisis económicas nacionales, catástrofes naturales y exclusión de las políticas públicas. Tal debilidad de respuesta está vinculada a la escasez de activos y al bajo poder adquisitivo que mantiene a los miembros de los hogares en una condición de vulnerabilidad. Como consecuencia, bajo condiciones adversas, el consumo de alimentos puede llegar a reducirse por debajo del nivel de subsistencia o los hijos pueden abandonar la escuela para trabajar y ayudar en el gasto familiar. En ocasiones, ni siquiera la venta de los escasos activos familiares llega a ser suficiente para hacer frente a los gastos por enfermedades, defunción o problemas legales.
Los procesos que modelan la vulnerabilidad socioeconómica dependen de la estructura de oportunidades socioeconómicas para los ciudadanos, sus familias y comunidades. Su carácter multidimensional, algunas formas, intensidades e implicaciones demográficas y territoriales de exclusión pueden ser aproximados mediante medidas sintéticas o de resumen (Índice de Vulnerabilidad Socioeconómica). Como se comprenderá, dichas medidas analítico-descriptivas son sumamente útiles para la planeación del desarrollo, dado que permiten diferenciar unidades territoriales según la intensidad de las privaciones que padece su población, así como establecer órdenes de prioridad en las políticas públicas orientadas a mejorar la calidad de vida de la población y a fortalecer la justicia distributiva regional.
El índice de Vulnerabilidad Socioeconómica es una medida-resumen que permite diferenciar municipios según el impacto global de las carencias que padece la población, como resultado de sus características demográficas, indigenismo, pobreza, educación, vivienda y salud. Mide su intensidad espacial como porcentaje de la población que no participa del disfrute de bienes y servicios esenciales para el desarrollo de sus capacidades básicas. En el anexo 1, pueden verse las dimensiones y formas de exclusión social de origen estructural que capta el índice de Vulnerabilidad Socioeconómica a través de sus indicadores.
El cálculo del índice de Vulnerabilidad Socioeconómica Municipal 2000 y 2005 del Estado de Oaxaca, se basa en catorce indicadores socioeconómicos del XII Censo General de Población y Vivienda de 2000 y del II Conteo de Población y Vivienda 2005, fuentes fundamentales por su cobertura, grado de desagregación y actualidad de los datos.
En un primer paso, se identificó cada uno de los tabulados censales que contienen la información necesaria para el cálculo de los siguientes indicadores socioeconómicos: promedio de ocupantes en viviendas particulares, hogares con jefatura masculina, ocupantes en viviendas sin drenaje, ocupantes en viviendas con piso de tierra, población indígena, población ocupada en el sector primario, analfabetismo, porcentaje de población de quince años y más con primaria incompleta, población ocupada que gana hasta dos salarios mínimos, población ocupada que no recibe ingresos por su trabajo, población que no tiene derechos a servicios de salud, tasa de mortalidad infantil y viviendas particulares habitadas sin ningún bien. En el anexo 2 se especifica el procedimiento que se siguió para la obtención de cada uno de los indicadores.8
Una vez calculados los trece indicadores socioeconómicos que permiten medir cada una de las formas de exclusión, es necesario construir, a partir de ellos, una medida resumen que dé cuenta de la intensidad del fenómeno. En este sentido, se busca generar un índice que evalúe el impacto global de los déficits y que además cumpla ciertas características que faciliten el análisis de la expresión territorial de la vulnerabilidad socioeconómica:1) Reduzca la dimensionalidad original y al mismo tiempo retenga y refleje al máximo posible la información referida a la dispersión de los datos en cada uno de los 13 indicadores, así como las relaciones entre cada uno de ellos y; 2) Permita establecer una ordenación entre los municipios.
El primer paso que se lleva a cabo es un análisis de fiabilidad con el objetivo de confirmar si la muestra que se tiene es confiable.
El objetivo de la técnica es determinar un conjunto de variables o ítems de una prueba que puedan conducir a resultados que estén altamente correlacionados con los resultados que se llegarían a obtener si se aplicara otra prueba que mida lo mismo, es decir, una prueba confiable. 9
El resumir una escala se deben observar las características de los ítems que la constituyen, primero considerando cada uno por separado, luego la relación entre los ítems tomados de manera particular y luego desde el punto de vista de la escala en su totalidad. Corresponde identificar la media y la varianza de la escala en la eventualidad de que cada ítem fuera retirado de la misma prestando atención a aquellos que pueden hacer una diferencia mayor. También se determina la correlación de cada ítem respecto a los demás en conjunto. Además se debe establecer el coeficiente de determinación que corresponde a cada ítem cuando éste es considerado como una variable dependiente con respecto a los otros ítems los cuales fungirán como variables independientes. Esto opera como si fuera un análisis de regresión múltiple y se supone que el coeficiente de determinación elevado representa una alta correlación del item con el conjunto.
Todas estas observaciones pueden conducir a identificar algún ítem que resulte de poca importancia o relación con la escala en general. Debe de reconocerse que en algunos casos la eliminación de un ítem puede mejorar o afectar la confiabilidad de la escala en general. La columna donde se presenta el coeficiente alpha que corresponde a la escala en el caso que se retirara cada uno de los itemes de manera independiente, es la más fácil e inmediata forma de valorar la contribución de cada item. En el caso de que se observe un item que al ser retirado se obtiene un coeficiente alpha mucho mayor al general obtenido, es conveniente considerar la posibilidad de retirar el item de la escala.
La medición de la Confiabilidad. Existen diferentes formas de medir la confiabilidad de una prueba. Se puede computar un estimado de la confiabilidad a partir de las correlaciones observadas o las covarianzas de los ítems entre sí. También se pueden correlacionar los resultados de dos formas alternas de la misma prueba o partir la prueba en dos mitades y observar la correlación entre ambas partes. Esto último es útil siempre y cuando se use un criterio apropiado para distribuir los ítems en la prueba.
Alpha de Cronbach. Uno de los coeficientes más comunes de confiabilidad es el Alpha de Cronbach (a) que se orienta hacia la consistencia interna de una prueba.10 Usa la correlación promedio entre los ítems de una prueba si éstos están estandarizados con una desviación estándar de uno; o en la covarianza promedio entre los ítems de una escala, si los ítems no están estandarizados. Esta técnica supone que los ítems están correlacionados positivamente unos con otros pues miden en cierto grado una entidad en común. De no ser así, no hay razón para creer que puedan estar correlacionados con otros ítems que pudiesen ser seleccionados, por lo que no podría haber una relación entre la prueba y otra similar.
El alpha de cronbach puede ser interpretada de dos maneras diferentes: a) puede referirse a una correlación entre la prueba que se tiene y otra que pudiese ser elaborada a partir del universo de ítems que miden la característica en cuestión. b) Se puede considerar alpha como el cuadrado de la correlación entre los resultados obtenidos por una persona en una escala en particular (puntaje observado) y los puntajes que se obtendrían si se contestaran todos los ítems disponibles en el universo (puntaje verdadero).
Esta medida se entiende como un coeficiente de correlación con un rango de cero hasta uno. Los valores negativos de (a) resultan cuando los ítems no se relacionan de manera positiva entre ellos, lo que conduce a la violación del modelo de confiabilidad. (Esto puede suceder en algunos casos si la escala ha sido elaborada con itemes que se orientan en diferentes direcciones respecto al constructo, por lo que antes de proceder al análisis de confiabilidad se recomienda que se recodifiquen o redirección en las respuesta ofrecidas por los sujetos).
El valor a depende tanto del largo (extensión) de la prueba y la correlación de los ítems que constituyen la prueba. Se puede obtener un coeficiente de confiabilidad alto aunque el promedio de correlación entre los ítems sea pequeño, si el total de ítems contenidos en la prueba es suficientemente grande. También es importante tomar en cuenta que el número de casos incluidos en la observación puede contribuir a diferentes resultados. Una vez realizada la observación, el procedimiento puede conducir a la eliminación de aquellos ítems que al retirarlos de la prueba contribuyen a un incremento significativo del valor (a). El alpha de Cronbach cuanto más se aproxime a su valor máximo, 1, mayor es la confiabilidad de la escala. Además, en determinados contextos y por tácito convenio, se considera que valores del alpha superiores a 0,7 son suficientes para garantizar la confiabilidad de la escala.11
Los anexos 3, 4, y 5 muestran los estadísticos del análisis de confiabilidad para los periodos 2000 y 2005. Es importante mencionar que de los catorce indicadores de vulnerabilidad considerados en los dos periodos fueron eliminados seis, para que esta prueba sea confiable. Las alphas de Cronbach resultantes para ítems estandarizadas son: 0.882 para el período 2000 y 0.881 para el año 2005. Esto significa que garantizan la prueba de confiabilidad.
El Análisis Factorial es una técnica estadística multivariante cuyo principal propósito es sintetizar las interrelaciones observadas entre un conjunto de variables en una forma concisa y segura como una ayuda a la construcción de nuevos conceptos y teorías. Para ello utiliza un conjunto de variables aleatorias inobservables, que llamaremos factores comunes, de forma que todas las covarianzas o correlaciones son explicadas por dichos factores y cualquier porción de la varianza inexplicada por los factores comunes se asigna a términos de error residuales que llamaremos factores únicos o específicos. El Análisis Factorial puede ser exploratorio o confirmatorio. El análisis exploratorio se caracteriza porque no se conocen a priori el número de factores y es en la aplicación empírica donde se determina este número. Por el contrario, en el análisis de tipo confirmatorio los factores están fijados a priori, utilizándose contrastes de hipótesis para su corroboración.12 En esta ocasión nos centraremos en el Análisis Factorial Exploratorio dado que el Análisis Factorial Confirmatorio se suele estudiar como un caso particular de los Modelos de Ecuaciones Estructurales.
El cuadro 4.8, muestra la secuencia metodológica del análisis factorial que se llevó a cabo para la construcción del índice de Vulnerabilidad Socioeconómica de los municipios del Estado de Oaxaca.
Cuadro 4.8. Etapas del Análisis Factorial para la Construcción del Índice de Vulnerabilidad Socioeconómica municipal, 2000 y 2005
Paso |
Objetivo |
Indicadores/Método |
1.- Matriz de correlación (debe ser positiva definida) |
Examinar la correlación y la asociación lineal entre variables |
-Medida de Adecuación Muestral de Kaiser-Meyer-Olkin. |
2.- Extracción de Factores |
Resumir el conjunto de variables en subconjunto de factores, de tal manera que aun siendo en número menor, ofrezcan la misma observación. |
Componentes principales |
3.- Rotación de Factores |
Pretende seleccionar la solución factorial más sencilla e interpretable |
Normalización Varimax con Kaiser |
4.- Puntuaciones Factoriales |
Permite determinar en qué medida los factores seleccionados se dan en los individuos o en otras unidades de análisis |
|
Fuente: Elaboración propia
a.- Análisis de la matriz de correlaciones, uno de los requisitos que debe cumplirse para que el Análisis Factorial tenga sentido es que las variables estén altamente intercorrelacionadas. Por tanto, si las correlaciones entre todas las variables son bajas, el análisis factorial tal vez no sea apropiado. Además, también se espera que las variables que tienen correlación muy alta entre sí la tengan con el mismo factor o factores. A continuación presentamos dos indicadores del grado de asociación entre las variables.
Test de esfericidad de Barlett, una posible forma de examinar la matriz de correlaciones es mediante el test de esfericidad de Bartlett que contrasta, bajo la hipótesis de normalidad multivariante, si la matriz de correlación de las variables observadas, Rρ, es la identidad. Si una matriz de correlación es la identidad significa que las intercorrelaciones entre las variables son cero. Si se confirma la hipótesis nula ( H0: |Rρ |= 1 o Rρ = I ) significa que las variables no están intercorrelacionadas.
Si H0 es cierta los valores propios valdrían uno, o equivalentemente, su logaritmo sería nulo y, por tanto, el estadístico del test valdría cero. Por el contrario, si con el test de Bartlett se obtienen valores altos de χ2, o equivalentemente, un determinante bajo, esto significa que hay variables con correlaciones altas (un determinante próximo a cero indica que una o más variables podrían ser expresadas como una combinación lineal de otras variables). Así pues, si el estadístico del test toma valores grandes se rechaza la hipótesis nula con un cierto grado de significación. En caso de no rechazarse la hipótesis nula significaría que las variables no están intercorrelacionadas y en este supuesto debería reconsiderarse la aplicación de un Análisis Factorial.
Medida de Adecuación de la Muestra KMO. El coeficiente de correlación parcial es un indicador de la fuerza de las relaciones entre dos variables eliminando la influencia del resto. Si las variables comparten factores comunes, el coeficiente de correlación parcial entre pares de variables deberá ser bajo, puesto que se eliminan los efectos lineales de las otras variables. Las correlaciones parciales son estimaciones de las correlaciones entre los factores únicos y deberían ser próximos a cero cuando el Análisis Factorial es adecuado, ya que, estos factores se supone que están incorrelados entre sí. Por lo tanto si existe un número elevado de coeficientes de este tipo distintos de cero es señal de que las hipótesis del modelo factorial no son compatibles con los datos. Una forma de evaluar este hecho es mediante la Medida de Adecuación de la Muestra KMO propuesta por Kaiser, Meyer y Olkin.
KMO es un índice que toma valores entre 0 y 1 y que se utiliza para comparar las magnitudes de los coeficientes de correlación observados con las magnitudes de los coeficientes de correlación parcial de forma que, cuanto más pequeño sea su valor, mayor es el valor de los coeficientes de correlación parciales y, por lo tanto, menos deseable es realizar un análisis factorial. Kaiser, Meyer y Olkin caracterizan las siguientes medidas: si KMO = 0.90 como maravillosas, KMO = 0.80 como meritorias, KMO = 0.70 como media, KMO = 0.60 como mediocre, KMO < 0,5 es inaceptable.13
En el anexo 6, se observa que el valor del KMO = 0.826 para los dos periodos de análisis son catalogados como meritorios por lo que los valores recomendados por Kaiser, Meyer y Olkin ponen de manifiesto que, en este caso muy probablemente, el proceso de reducción de datos es muy espectacular. El test de esfericidad de Bartlett, sin embargo, rechaza la hipótesis de diagonalidad de la matriz de correlación indicando que sí existen relaciones significativas entre las variables.
b.- Como se ha comentado, el objetivo del Análisis Factorial consiste en determinar un número reducido de factores que puedan representar a las variables originales. Por tanto, una vez que se ha determinado que el análisis factorial es una técnica apropiada para analizar los datos, debe seleccionarse el método adecuado para la extracción de los factores. Existen diversos métodos cada uno de ellos con sus ventajas e inconvenientes. En este caso, se explica el método de componentes principales.
Método de las Componentes Principales. El método consiste en estimar las puntuaciones factoriales mediante las puntuaciones tipificadas de las k primeras componentes principales y la matriz de cargas factoriales mediante las correlaciones de las variables originales con dichas componentes. Este método tiene la ventaja de que siempre proporciona una solución. Tiene el inconveniente, sin embargo, de que al no estar basado en el modelo de Análisis Factorial puede llevar a estimadores muy sesgados de la matriz de cargas factoriales, particularmente, si existen variables con comunalidades bajas.14 En los anexos 7 a 10 se muestran los valores propios de la matriz de correlaciones y los gráficos de sedimentación para los periodos 2000 y 2005. Tanto el criterio del valor propio mayor que 1 o 0.7 como el gráfico de sedimentación sugieren la presencia de 2 factores que explicarían el 74.26% (periodo 2000) y 72.44% (periodo 2005) de la variación total de los datos. Por lo tanto optamos por extraer 2 factores.
c.- Rotación de factores
La rotación factorial se presenta como la solución que nos permite transformar la matriz inicial en otra de más fácil interpretación, y se basa en la posibilidad de transformar la estructura factorial sin alterar sus propiedades matemáticas. Existen varios métodos, en esta investigación se habla de la rotación varimax, se trata de un método de rotación ortogonal (los factores comunes no están correlacionados) que minimiza el número de variables con cargas altas en un factor, mejorando así la capacidad de interpretación de factores. Este método considera que si se logra aumentar la varianza de las cargas factoriales al cuadrado de cada factor consiguiendo que algunas de sus cargas factoriales tiendan a acercarse a uno mientras que otras se acerquen a cero, lo que se obtiene es una pertenencia más clara e inteligible de cada variable a ese factor. Los nuevos ejes se obtienen maximizando la suma para los k factores retenidos de las varianzas de las cargas factoriales al cuadrado dentro de cada factor. Para evitar que las variables con mayores comunalidades tengan más peso en la solución final, suele efectuarse la normalización de Kaiser consistente en dividir cada carga factorial al cuadrado por la comunalidad de la variable correspondiente.15
En los anexos 11 a 13 se visualizan los resultados de aplicar una rotación Varimax, se muestra la matriz de transformación de componentes y los gráficos de componentes de espacio rotados. Se observa que la interpretabilidad de los componentes obtenidos ha mejorado sustancialmente debido a que, en este caso, cada variable tiende a relacionarse con un solo componente. Se analiza que el componente 1 rotado está muy relacionado con los indicadores que reflejan el nivel de Vulnerabilidad Socioeconómica.
d. Puntuaciones Factoriales
Una vez que se han identificado y nombrado los factores o componentes latentes de un conjunto de variables, puede ser de utilidad que puntuaciones obtienen los sujetos o unidades de análisis, esto es: las variables son sustituidas por las variables de análisis, lo que nos permitirá analizar las similitudes que se den entre los individuos respecto a sus puntuaciones y en el conjunto de variables observadas. El cálculo de las puntuaciones factoriales de cada individuo indica en qué medida los factores se dan en las unidades de análisis. Por otro lado, las puntuaciones factoriales sólo serán exactas, si el método de extracción de factores ha sido el de componentes principales, de no ser así, las puntuaciones factoriales solo reflejaran estimaciones de las mismas.16 Los anexos 14 y 15 muestran la matriz de coeficientes para el cálculo de las puntuaciones en las componentes y la matriz de covarianza de las puntuaciones de las componentes, ambas para los periodos 2000 y 2005. Las puntuaciones factoriales se encuentran en formato diferencial, por lo que una puntuación de cero corresponde con una puntuación factorial igual a la media, las puntuaciones positivas son puntuaciones mayores que la media y las negativas menores que la media. La matriz de covarianza de las puntuaciones de los componentes, lógicamente contiene en la diagonal principal la varianza de las puntuaciones factoriales de cada componente (que se sabe que vale 1) y fuera de la diagonal principal la covarianzas existente entre cada par de componentes (covarianza que en nuestro ejemplo vale cero, indicando esto que las puntuaciones factoriales de ambos factores son completamente independientes entre sí su correlación es nula).
Para la aplicación del modelo de Dalenius y Hodges se desarrolló el siguiente procedimiento matemático.17
• Obtención de una distribución de frecuencias de la única variable de estratificación, en intervalos de igual amplitud. Una manera óptima de obtener el número de intervalos es:
Número de intervalos = 1+3.3 x log (n) donde n es el número de observaciones o manzanas cerradas. Para Oaxaca, en la aplicación del modelo el número de intervalos se calculó con la fórmula anterior y generó el siguiente resultado:
Número de intervalos = 1+3.3*log (570) = 10.094, aproximando a 10 intervalos.
• Cálculo de la raíz cuadrada de las frecuencias con el fin de obtener una distribución uniforme de las observaciones en cada intervalo.
• Formar la acumulada de la raíz cuadrada de las frecuencias.
• Escoger los límites de cada estrato los cuales deben tener intervalos de igual longitud en el recorrido de la acumulada de la raíz cuadrada. La longitud del intervalo se calcula como el cociente entre el rango de la variable y el número de intervalos a construir (número de estratos definidos, en este caso cinco). El rango es dado por el valor máximo menos el mínimo posible para la variable. En este caso el rango para los dos periodos es: Rango de la Variable= (75-8)/5)=14, (ver anexos 16 a 19).
La técnica principal es la encuesta probabilística que se aplicó a una muestra de hogares de los tres municipios que conforman la Microrregión Zimatlán, Oaxaca. La segunda técnica se refiere a entrevistas estructuradas que se aplicaron a autoridades municipales e informantes claves.
La encuesta. Es un método que permite explorar sistemáticamente lo que otras personas saben, sienten, profesas o creen.18 El instrumento que utiliza la encuesta para captar información es el cuestionario que se estructura de forma temática y coherente mediante cuatro tipos de preguntas: cuantitativas, nominales, categóricas y abiertas.
Las preguntas cuantitativas son cerradas y sus respuestas se expresan en cantidades medidas en escalas convencionales (longitud, peso, volumen, años, entre otros. Las preguntas nominales son también, en cierta forma cerradas ya que solamente permiten detectar presencia o ausencia de una situación, atributo o preferencia. Los códigos utilizados son: 0= No y 1=Si.
La encuesta permite inferir acerca de las características de una población mediante una muestra aleatoria. Normalmente se recomienda que el tamaño de la muestra no deba ser menor de 30 unidades, para asegurar que la distribución muestral de la media se acerque a la distribución normal.19 Esto garantizará que el error estándar (error de muestreo) sea pequeño. Sin embargo, cuando se trata de poblaciones grandes, los estadísticos recomiendan 1,000 o más unidades para estudios nacionales y 200 ó más para estudios regionales.20 En realidad el tamaño de muestra depende del nivel de detalle del análisis que se requiera en la investigación, además se reconoce que es más eficiente el muestreo y se logra mayor representatividad si se divide la población de estudio en subgrupos.21 Al respecto, Rossi, Wrigh y Anderson (1983)22 establecen una regla general: la muestra debe ser lo suficientemente grande para que haya 100 o más unidades en cada categoría de las divisiones grandes y un mínimo de 20-50 en las decisiones pequeñas. También, existe otro tipo de error que no es estadístico y que representa normalmente una fuente de error importante. A los errores de este tipo, se les llama errores de medición y son aquellos incurridos al aplicar los cuestionarios: 1. Apreciación imprecisa de las repuestas por parte de los entrevistadores; 2. Falta de comprensión de las preguntas por parte de los entrevistados; 3. Información incorrecta proporcionada por los entrevistados.
Como el error de medición puede suponerse independiente, esto es ortogonal al error de muestreo, el error total resulta ser la suma vectorial de los dos tipos de error.23 Esto significa que habrá que ser cautelosos para asegurar la calidad de la información suministrada por la encuesta además de considerar el tamaño de la muestra. Algunas recomendaciones son las siguientes: 1. El cuestionario debe revisarse con sumo cuidado y probarse mediante una prueba piloto. Es decir, se debe cuidar la redacción de las preguntas en cuanto a precisión y considerando el nivel socioeconómico y de escolaridad de los hogares a los que va dirigido el cuestionario; 2. Se deben capacitar a los entrevistadores y; 3. El investigador deberá supervisar personalmente el levantamiento de la encuesta, así como la captura de la información.
En este caso la encuesta tuvo dos propósitos: 1) realizar una caracterización socioeconómica y demográfica de los hogares agrícolas, 2) Obtener las variables de producción agrícola que sirvieron como insumos para la construcción del modelo econométrico y llevar a cabo la regresión lineal múltiple.
Marco de muestreo para los municipios de la Microrregión Zimatlán, Oaxaca
Se aplicó un muestreo en dos etapas. Primero se estratificó la muestra por municipios. En seguida, se aplicó un muestreo aleatorio simple en cada municipio, ya que este tipo de muestreo se adapta cuando no existe una definición clara de las manzanas. El tamaño de muestra fue de 120. A cada municipio le corresponde un número de muestra proporcional al número total de sus hogares: San Pablo Huixtepec (65), Santa Gertrudis (30), Santa Inés Yatzeche (25).
La encuesta se aplicó durante el transcurso de los meses de mayo a octubre de 2009 y para la captura de los datos, se utilizó un código binario (0, 1) para preguntas nominales y categóricas, así también se elaboraron códigos numéricos para las opciones de respuestas abiertas.
Procesamiento de los cuestionarios. Los cuestionarios de la encuesta se capturaron en la hoja de cálculo de Excel y el análisis estadístico se realizó en el paquete estadístico SPSS.
Entrevistas. Se aplicaron entrevistas estructuradas a autoridades municipales de las tres localidades seleccionadas mediante un cuestionario de preguntas abiertas sobre actividades productivas de la localidad, nivel de tecnificación del campo, infraestructura de riego para la producción, etc.; (ver guía de entrevista, anexo 21).
Análisis descriptivo. Son Medidas de resumen y características de datos cuantitativos y nominales. Para la Microrregión Zimatlán y en particular para cada uno de los tres municipios de estudios se llevó a cabo un análisis descriptivo, es decir, se calcularon estadísticos descriptivos para las variables cuantitativas tales como: Porcentajes y media aritmética. Para las preguntas nominales se calcularon: frecuencias y porcentajes. El propósito fue analizar las desigualdades entre municipios y hogares agrícolas en materia de producción agropecuaria mediante gráficos y cuadros.
Análisis de Regresión Múltiple. Es una técnica estadística para estimar la relación entre una variable continua dependiente y dos o más variables independientes discretas o predictivas.24 Los objetivos del uso del análisis de regresión para esta tesis, fue en primer término construir una función de producción agrícola o modelo econométrico y, en segundo la comprobación de hipótesis a través de la función de producción agrícola. En seguida se realiza una exposición con propósitos didácticos sobre la aplicación del análisis de regresión.25
Modelo general de regresión con ordenada al origen (término constante) y con n variables independientes posibles, siendo n≥2, expresado por la ecuación [1.0]. En este modelo las variables independientes (Xᵢ) pueden ser cuantitativas, es decir, de naturaleza continua o discreta; o bien pueden ser nominales (dicotómicas) a las que se dominan variables dummy. Asimismo, consideramos la posibilidad de formas no lineales de las (Xᵢ), ya que el modelaje en las ciencias sociales conduce también a modelos no lineales. 26. Sin embargo, la variable dependiente (Y) únicamente puede ser de tipo cuantitativo. El término de error (ξ) normalmente se mide mediante el coeficiente de determinación (R²) el cual también permite calcular el grado de explicación de una ecuación de regresión. R² es una cantidad que puede interpretarse como un factor (porcentaje) de reducción de la incertidumbre cuando son conocidas las variables independientes. Cuanto más se acerque a 1, más poder explicativo tendrá el modelo. Pero esto esconde una trampa, cada vez que introducimos una nueva variable en el modelo, R² no puede hacer una cosa que aumentar. Si se introduce un número artificialmente grande de ellas, se puede llegar a acercarla a uno tanto como se quiera. En este sentido, los programas estadísticos muestran R² corregida, que se interpreta como una corrección de honestidad, castigará disminuyendo cuando se introduzcan variables innecesarias. Si al ir complicando el modelo este término aumenta una cantidad “razonable”, se puede considerar posiblemente una variable de interés, pero si disminuye, se debe pensar dos veces si merece la pena la complejidad del modelo para tan poco beneficio.27
A diferencia de las matemáticas, las variables independientes (Xᵢ), constituyen series de datos conocidas, mientras que las constantes (α) representan en realidad las variables desconocidas que se van a determinar mediante la técnica de mínimos cuadrados.
Y = αₒ + α1 x + α2x2 +…+ αn x n+ ξ [1.0]
Criterios para aceptar una ecuación de regresión [1.0]. Para que la ecuación de regresión resultante se acepte, debe cumplir con los siguientes criterios:
La especificación del modelo empírico de desarrollo agrícola (función de producción agrícola agregada) de la Microrregión Zimatlán, Oaxaca, se plantea a través de la siguiente ecuación de regresión:
VALPROAGROP = αₒ + α1 TIERRA + α2 DISPAGUA + α3 USEMEJ+ α4 UPEST+ α5 TRACTOR + α6 PROCAMPO + α7 UCREDITO + α8 INVPRIV + α9 MOAFAMILIA + α10 MOASAL + α11 ESCOHAGRIC + α12 GENJ + α13 EDAD + α14 IDIOMA + α15SNPABLO + α16SANTAGER + α17 SNTINESYAT+ ξ ………………………………………………… [2.0]
Donde:
VALPROAGROP = Valor de la producción agropecuaria
El procedimiento cualitativo para comprobar hipótesis consiste en la interpretación de los resultados del análisis de regresión que se establecen entre la variable dependiente Valor de la producción agropecuaria y las variables independientes relativas a los factores de la producción agropecuaria y condicionantes socioeconómicos. Esta interpretación se enriquece con la observación empírica de las relaciones sociales que se manifiestan en el área de estudio, lo cual nos servirá de marco para la discusión y no se apoya de pruebas estadísticas.
2 http://www.sbif.cl/sbifweb/servlet/Glosario?indice=5.0&letra=V, 15/01/2010
3 Son variables que indican presencia o ausencia de un atributo, Knoke, Bohrnsted y Potter (2002:27).
4 Jorge Rodríguez Vignoli, Vulnerabilidad social y sociodemográfica: distinciones conceptuales, antecedentes empíricos y aportes de política, Taller sobre vulnerabilidad NEPO, CELADE, 17 de febrero. 2004.
5 Roberto Busso, Vulnerabilidad social: nociones e implicancias de políticas para Latinoamerica a inicios del siglo XXI, Seminario internacional “Las diferentes expresiones de la vulnerabilidad social en América Latina y el Caribe”, CEPAL, Santiago de Chile, 20 y 21 de junio. 2001
6 Roberto Pizarro, La vulnerabilidad social y sus desafíos: Una mirada desde América Latina, Serie Estudios Estadísticos Prospectivos, núm. 6, Naciones Unidas-CEPAL, Santiago de Chile, Pág. 11-12, 2001
7 V. Nelly Salgado de Snyder, Tonatiuh González Vázquez, Ietza Bojorquez Chapela, César Infante Xibillé, , Vulnerabilidad social, salud y migración México-EstadosUnidos, Salud Pública de México, vol. 49, p. 8-10, edición especial, XII congreso de investigación en salud pública, Instituto de Salud Pública, Cuernavaca, Morelos. Pág. 8-10,2007
8 Luz María Valdés, Op. Cit.
9 Marija J. Norusi, SPSS Profesional Statistics 6.1, USA, Pág.143-154, 1994.
10 David Knoke, Gorge W. Bohrnstedt, Alisa Potter Mee, Statics for social Data Analysis, Fourth Edition, USA, pág. 238. 2002
11 David Knoke, Gorge W. Bohrnstedt, Alisa Potter Mee, Op.Cit, Pág. 239
12 Marija J.Norusis. 1994. Op. Cit. Pág. 47
13 Marija J. Norusis, Op. Cit. Pág. 52-53. 1994.
14 Richard A. Dean W., Johnson Wichern, Applied Multivariate Statistical Analysis, Sixt Edition, USA, Pearson- Prentice Hall, pág. 430, 2007.
15 Marija J. Norusis, Op.cit, pág. 63-65, 1994.
16 Marija J. Nousis, Op. Cit. Pág. 73-74.
17 Alcaldía Mayor de Bogotá D.C. La estratificación en Bogotá D.C y estudios relacionados 1983-2004. Departamento Administrativo, Planeación Distrital, pp.69-70.
18Anton de Shuter, Investigación Participativa, Una opción metodológica para la educación de adultos. CREFAL. Patzcuaro, Mich, México. Capítulo 4: Metodología de la investigación, 1981.
19 Richard L. Levin. Estadística para administradores. Segunda edición, México: Prentice Halls Latinoamericana, 1998.p 315.
20 P. H. Rossi, J.D. Wrigh y B. Anderson (eds.), Handbook of survey research. USA: Academic Press, Inc., 1983. pp 181-182.
21 Earl Babbie, The practice of social research. Seven edition, USA: Wadsworth Publishing Company, 1995, p. 210; Hubert M. Blalock, Estadística social. Segunda edición, México, Fondo de cultura económica, 1986, p. 529.
22 Peter H. Rossi, James D. Wright and AndyB. Anderson(eds): Handbook of Survey Research. Orlando and London: Academic Press, 1983.
23 Hubert M. Blalock, Op. Cit. pp553-554.
24 Knoke, Bohrnstedt, Potter, Op.Cit, 2002, pág.235.
25 Para una exposición más formal y detallada se puede consultar a Chou (1991) , Johnson y Wichern (1992), Martínez Garza y Castillo M. (1987), Knoke y Bohrnstedt (1994), Norusis (1994) y Luis Pineda (1992).
26 Stimson, Carmines y Zeller 1981; Blalock; Bode y Morris 1994b.
27 Robert S. Pindyck, Daniel L. Rubinfeld. Econometric models and economic forecast, second edition, International Student Edition, McGraw-Hill, pág.80-81. 1981.
En eumed.net: |
1647 - Investigaciones socioambientales, educativas y humanísticas para el medio rural Por: Miguel Ángel Sámano Rentería y Ramón Rivera Espinosa. (Coordinadores) Este libro es producto del trabajo desarrollado por un grupo interdisciplinario de investigadores integrantes del Instituto de Investigaciones Socioambientales, Educativas y Humanísticas para el Medio Rural (IISEHMER). Libro gratis |
15 al 28 de febrero |
|
Desafíos de las empresas del siglo XXI | |
15 al 29 de marzo |
|
La Educación en el siglo XXI |