Artículos Graduación no-paramétrica con suavidad y estructura impuestas por el analista: aplicaciones demográficas para México( Nonparametric Graduation with Smoothness and Structure Imposed by the Analyst: Demographic Applications for Mexico Víctor M. Guerrero** Eliud Silva*** Departamento de Estadística, Instituto Tecnológico Autónomo de México. Correo electrónico: <guerrero@itam.mx>. Escuela de Actuaría, Universidad Anáhuac del Norte. Correo electrónico: <jsilvaurrutia@hotmail.com>. Resumen:

Se presenta un método estadístico de carácter no-paramétrico para graduar datos demográficos de manera que se obtenga no sólo suavidad, sino que los datos graduados sigan cierta estructura impuesta por el analista. El principal objetivo es que éste sea capaz de controlar tres aspectos fundamentales de la graduación: la fidelidad de los datos graduados a los datos originales, la suavidad de dichos datos graduados, y la cercanía de los mismos a determinada estructura. Las ilustraciones empíricas utilizan datos referidos a la realidad demográfica de México y hacen uso de diversos indicadores al alcance de los analistas interesados.

Palabras clave: comparabilidad, Filtro de Kalman, graduación, índice de estructura, índice de suavidad, Mínimos Cuadrados Generalizados, Modelo de Componentes No-Observables, Modelo de Espacio de Estados, Modelo de Señal Más Ruido. Abstract: A non-parametric statistical method is presented for graduating demographic data so as to obtain not only smoothness, but also to ensure that the graduating data follow a certain structure imposed by the analyst. The main aim is for it to be able to control three fundamental aspects of graduation: the faithfulness of the graduated data to the original data, the smoothness of these graduated data, and their proximity to a particular structure. The empirical illustrations use data regarding the demographic reality of Mexico and make use of various indicators available to interested analysts. Key words: comparability, Kalman Filter, graduation, structure index, smoothness index, Generalized Least Squares, Unobservable Components Model, State Space Model, Signal Plus Noise Model. Fecha de recepción: 5 de enero de 2011. Fecha de aceptación: 26 de junio de 2012. Introducción

Los datos demográficos, ya sea que provengan de censos, de encuestas o de estadísticas vitales, comúnmente sufren diversas anomalías. Si bien algunas de ellas son atribuibles a errores humanos (de los informantes, de los encuestadores o del personal encargado de transcribir y capturar los datos), ésta no es la única fuente de errores ni necesariamente la más importante, pues ciertas cuestiones climáticas (como los huracanes, las sequías, etcétera) o fuera del control de los analistas (terremotos, huelgas, etcétera) provocan también la generación de errores en las bases de datos. Desde luego, estos errores distorsionan el patrón verdadero del fenómeno que los datos pretenden cuantificar y su presencia hace necesaria la aplicación de herramientas que corrijan, o al menos mitiguen, el efecto perverso de tales distorsiones en lo que respecta a los resultados de posibles análisis que se efectúen con los datos. Ello ocurre de esta manera sin importar lo elaborados que puedan ser tales análisis, los cuales pueden ir desde una mera descripción superficial de los patrones más relevantes en los datos, hasta un análisis confirmatorio de alguna teoría que explique el comportamiento de la población bajo estudio.

Una de tales “herramientas correctoras”, que se utiliza con mucha frecuencia en la práctica, es la graduación de datos. Puede aplicarse tanto en las instituciones gubernamentales, con fines muy generales para percibir de manera lo más clara posible los patrones subyacentes en los datos, o en organizaciones privadas con fines muy particulares, para tomar decisiones específicas de las mismas. Esto se debe en buena medida a que es muy fácil efectuar la graduación de datos debido a que se basa en ideas muy simples y su instrumentación computacional es relativamente fácil; asimismo porque el costo asociado con su aplicación es muy bajo (un programa computacional sencillo permite hacer la aplicación).

Tanto la sencillez de representación como la facilidad y el bajo costo de implementación computacional se mantienen en la propuesta que aquí se presenta. Adicionalmente, el nuevo método que se sugiere produce ganancias en cuanto a la operatividad de conceptos como la fidelidad a los datos originales, la suavidad de los datos graduados y la cercanía de éstos a una estructura que se considera como meta. Para ello primero se formalizan estas ideas mediante una representación de los datos disponibles a través de un modelo estadístico de componentes no-observables, para el cual se asocia en forma natural el método de estimación de parámetros denominado Mínimos Cuadrados Generalizados (MCG). Posteriormente se muestra que es posible cuantificar la suavidad y la cercanía a la estructura meta por medio de unos índices expresables en forma de porcentajes, con lo cual se sigue que es factible controlar estas características de la graduación propuesta simplemente al fijar valores para tales índices, de acuerdo con el criterio del analista.

La importancia de efectuar el control mencionado radica en que con ello se pueden realizar comparaciones válidas entre datos con suavidades y cercanías a estructuras límites similares, algo que de otra manera no tendría mucho sentido intentar siquiera comparar. Finalmente, los cálculos de la graduación aquí propuesta se realizan de manera muy sencilla al emplear una herramienta de cálculo muy poderosa conocida como Filtro de Kalman, que es aplicable cuando el Modelo de Componentes No-Observables se interpreta en la forma de un Modelo de Espacio de Estados.

La estructura del documento es la siguiente: en la próxima sección se presentan brevemente algunos modelos y técnicas no-paramétricas que suelen usarse en la graduación de datos; en la tercera se mencionan algunas técnicas de carácter demográfico que sirven para analizar y proyectar datos. Posteriormente, en la cuarta sección se presenta el método propuesto para llevar a cabo la graduación; ahí se muestran las ideas fundamentales, que se expresan por medio de ecuaciones y dan origen al Modelo de Componentes No-Observables por utilizar. En la quinta sección se presentan los índices de estructura y suavidad que se utilizan para cuantificar los respectivos conceptos y que permiten fijar los porcentajes deseados para los mismos. Una vez que se han fijado los valores para los índices, se demuestra que se pueden deducir los valores para las constantes respectivas, las cuales forman parte de la especificación del modelo. En la sexta sección se pretende mostrar, mediante diversas aplicaciones a datos demográficos de la realidad mexicana, la utilidad de la metodología propuesta y el tipo de resultados que se pueden obtener de la misma. En la última sección se exponen algunas conclusiones para destacar los pros y contras del uso de la metodología propuesta.

Métodos no-paramétricos

Haberman y Renshaw (1996) definen la graduación como un grupo integral de técnicas y principios que permiten realizar el ajuste de probabilidades o datos en general para suavizarlos de manera que se puedan realizar inferencias y análisis del tipo que sea necesario. La graduación de datos puede efectuarse mediante procedimientos que típicamente se clasifican en paramétricos o no-paramétricos. La segunda clase de técnicas no requiere del supuesto de que una cierta función represente el comportamiento de los datos globalmente y en forma estricta; por el contrario, se pretende suavizar las fluctuaciones que básicamente oscurecen la tendencia subyacente en los datos observados y obtener representaciones localmente aceptables. Los métodos no-paramétricos son más flexibles y robustos, en tanto que son menos los supuestos que respaldan su uso. Además, en muchas ocasiones resulta más fácil emplear los métodos no-paramétricos que su contraparte paramétrica, debido al menor rigor implícito en su aplicación.

La propuesta de este trabajo se encuentra dentro del ámbito de los métodos no-paramétricos, ya que se pretende simplificar el análisis de los datos observados después de que se les ha eliminado una parte de la variabilidad que no es intrínseca de ellos. De hecho, los datos originales se convierten en estimaciones una vez que se les han cancelado las fluctuaciones que oscurecen su tendencia. Dentro de las técnicas no-paramétricas que se utilizan más frecuentemente se encuentran los métodos gráficos, los promedios móviles ponderados, el método del núcleo y la graduación en general, en especial la que se aplica a los datos demográficos (Copas y Haberman, 1983; Papaioannou y Sachlas, 2004). Por ejemplo, algunas aplicaciones de los modelos no-paramétricos en demografía permiten obtener estimaciones de mortalidad en edades avanzadas (Fledelius et al., 2004). Asimismo, en el trabajo de Debón et al. (2006) se muestran diversas comparaciones entre métodos no-paramétricos y de suavizamiento realizado con Modelos Aditivos Generalizados, en particular con splines, también dentro de un contexto demográfico.

La técnica de graduación que se usa más frecuentemente en la práctica es la de Whittaker y Henderson. Esta forma de graduación se aplica a los datos originales para obtener datos suavizados de manera tal que se satisfagan dos criterios: bondad de ajuste (es decir, fidelidad a los datos originales) y suavidad de los datos resultantes. Al lector interesado en detalles acerca de este tipo de graduación y otros métodos similares se le recomienda consultar el libro de London (1985). Para lograr que los dos criterios se cumplan, se pondera en forma relativa su importancia mediante una constante o parámetro de suavizamiento. De hecho, el método surge al resolver un problema de minimización de la función siguiente:

/ v-u Wv-u+λ v KdKd v

en donde sobresale la constante de suavizamiento ( > 0 recién mencionada, la cual se supone conocida al efectuar la minimización. El vector u = (u1, …, un)’ contiene los valores observados de la variable en cuestión, y el vector de valores graduados v = (v1, …, vn)’ es el que se desea obtener. Se usa también la matriz diagonal W = diag(w1,...,wn) que sirve para asignar ponderaciones a las diferencias entre valores observados y graduados. Finalmente, la matriz Kd, que permite aplicar diferencias a datos contiguos, es de dimensión (n - d) × n y está definida de forma tal que su ij-ésimo elemento está dado por la expresión

/ Kdi,j=-1d+i-jd!/j-i!d-j+i!

la cual es válida para i = 1, ..., n-d y j = 1, ..., n, junto con Kd (i, j) = 0 para j < i ó j > d+i.

El caso particular d = 2 del método de Whittaker y Henderson fue redescubierto por Hodrick y Prescott en un trabajo que elaboraron dichos autores en 1980 dentro de un contexto de análisis económico, aunque el artículo correspondiente se publicó apenas en 1997 (véase Hodrick y Prescott, 1997). Por este motivo dicho método se conoce como Filtro de Hodrick y Prescott (Hp) en el área económica, donde se utiliza ampliamente para estimar tendencias y realizar análisis de ciclos económicos (véase Guerrero, 2008, para mayores detalles sobre el citado Filtro Hp). El problema de minimización correspondiente al valor d = 2 puede plantearse como

/ minYtS1σ02Yt-YtS2+1σ122YtS2

donde ahora se define a Yt como la variable observada en el tiempo de observación t, mientras que YtS es su correspondiente valor suavizado de tendencia, que no es observable y se pretende estimar, / σ02 es la varianza del componente cíclico, definido como la desviación del dato observado respecto a la tendencia / Yt-YtS, mientras que / σ12 es la varianza del crecimiento de la tendencia, / 2YtS. Por su lado, el parámetro de suavizamiento es de la forma / λ=σ02/σ12, lo cual permite interpretarlo como una constante con la cual se puede establecer un balance entre la fidelidad de la serie suavizada a los datos originales y la suavidad de la tendencia que se obtiene. Al resolver el problema de minimización, en términos del vector de datos observados Y = (Y1, ..., Yn)’ se produce el siguiente estimador de la tendencia de los datos. Para detalles acerca de este resultado véase Hodrick y Prescott (1997) o Guerrero (2008),

/ ŶS=In+λK2K2-1Y

con / ŶS= Ŷ1S, , ŶnS, In,la matriz identidad de dimensión n × n y K2 la matriz definida mediante la expresión [2], con el valor d = 2, es decir, es de la forma

/ K2=1 -2 1 0 0  0 0 0 00 1 -2 1 0     0 0 0 0       0 0 0 0 0   0 1 -2 1

La expresión [4] es precisamente el estimador producido por el Filtro HP cuyo uso requiere, además del vector de datos Y, conocer el valor del parámetro de suavizamiento (, puesto que los demás elementos de esa expresión son conocidos. La solución que dieron Hodrick y Prescott para elegir dicha constante de suavizamiento está basada en argumentos del dominio de las frecuencias, aplicables al análisis de ciclos económicos, con los cuales se obtuvo como resultado el valor ( = 1600, para series económicas trimestrales de Estados Unidos en la época de la posguerra, de longitud aproximada a los 100 datos. Para otros casos el analista debe ser responsable de elegir el valor más apropiado, teniendo en mente que un valor pequeño conducirá a una tendencia poco suave (muy semejante a los datos que se observaron originalmente). En cambio, al elegir un valor elevado para dicha constante la tendencia será muy suave (i. e., se aproximará a la línea recta estimada para los datos observados mediante el método de Mínimos Cuadrados Ordinarios).

Dado el éxito del Filtro HP para realizar análisis de ciclos económicos, Laxton y Tetlow (1992) propusieron una extensión de dicho resultado y desarrollaron el filtro conocido como Filtro HP Multivariado (HPMV), con el cual se extiende la aplicabilidad de la herramienta original, en el sentido de que además de las ideas de fidelidad a los datos y suavidad se puede incorporar la cercanía a una estructura dictada por algún tipo de teoría del fenómeno en estudio. De esta forma se obtiene el filtro correspondiente al minimizar nuevamente una función de los valores estimados y que ahora considerará también la existencia de un error aleatorio asociado con la discrepancia entre lo que indica la teoría y lo que muestran los datos observados. En consecuencia, el Filtro HPMV sirve para estimar la tendencia YtS (que no es observable) de una variable Yt (observable) mediante la solución del siguiente problema de minimización:

/ minYtSYt-YtS2+λ12YtS2+λ2ξt

donde aparecen ahora dos parámetros de suavizamiento, (1 y (2. Desde luego debe notarse la similitud entre las expresiones [3] y [6], ya que esta última es una extensión de la anterior, en tanto que ahora incluye también el error aleatorio 𝜉 𝑡 asociado con alguna teoría del fenómeno que involucra a YtS. Una presentación ampliada y con detalle del desarrollo del Filtro HPMV se puede consultar en Boone (2000).

Algunas técnicas demográficas de modelación

La metodología que se propone en este trabajo para corregir anomalías en los datos demográficos parte de la idea de que se puede representar el comportamiento de tales datos mediante un modelo estadístico muy general. Conviene, por lo tanto, conocer algunas técnicas que también se basan en representaciones o modelos generales para tratar de encontrar similitudes en los distintos enfoques. El Método de Componentes es, sin lugar a dudas, el que más se utiliza en la práctica para efectuar proyecciones demográficas. El método como tal no ha variado en su esencia, y en términos generales se ha usado para estudiar el comportamiento futuro de los diversos componentes demográficos en forma separada, esto es, la fecundidad, la migración y la mortalidad para horizontes previamente determinados (George et al., 2004).

El Método de Componentes presenta variantes que permiten hacer supuestos acerca del patrón que siguen, por ejemplo, las tasas de mortalidad. A partir de los supuestos, las técnicas pueden agruparse de la siguiente manera: a) técnicas extrapolativas; b) métodos en que se piensa que la mortalidad de cierta área geográfica es válida para otras áreas; y c) modelos estructurales en que los cambios de las tasas de mortalidad se asocian con cambios en ciertas variables socioeconómicas. Para los grupos de técnicas a) y b), las posibilidades existentes incluyen el uso de modelos del tipo Auto-Regresivo Integrado y de Promedios Móviles (ARIMA), como sucede con el método que propusieron Lee y Carter (1992), o bien modelos paramétricos como los de Makeham, Gompertz o Helligman y Pollard, entre otros. De igual manera, las tablas de vida de diferentes lugares del mundo se pueden utilizar como tablas base de referencia, dentro de las cuales están las tablas modelo que presentan diferentes niveles de mortalidad y estructuras, así como la función logit y otras más.

Otros métodos que también se encuentran dentro de las categorías a) y b) tienen su fundamento en tablas límite de mortalidad, de manera que hacen uso de los niveles más bajos alcanzados para interpolar las tablas intermedias. La primera propuesta de tablas límite de mortalidad fue presentada por Bourgeois-Pichat (1952) con el supuesto principal de que los niveles límite se alcanzarían en el largo plazo. La hipótesis que subyace en este tipo de métodos surge de la idea de que la mortalidad cambia como función del nivel y la estructura de la mortalidad, dependiendo de la región del mundo a la que corresponda. Por otra parte, en lo que toca a los límites de la sobrevivencia humana los trabajos de Olshansky et al. (1990, 2001) y de Oeppen y Vaupel (2002) ofrecen aportaciones importantes a la literatura porque estudian la reducción en mortalidad que se necesita para alcanzar una esperanza de vida al nacer que aumente de 80 a 120 años y cómo puede afectar esto a distintas áreas de la política pública.

En el caso b), por ejemplo, se utiliza la técnica de alcanzar una meta establecida de antemano. Dicha técnica se basa en la idea de que, para una población dada, las tasas de mortalidad convergen con las que se observan en otra población y se consideran como una meta por alcanzar. La población meta en cuestión debe elegirse de manera tal que brinde un conjunto de metas creíbles que puedan ser alcanzadas por la población que se proyecta. La elección de la población meta se basa comúnmente en similitudes que se refieren a características culturales, socioeconómicas, avances en la medicina y a las causas primarias de mortalidad (Olshansky, 1988). Una alternativa de presentar las metas consiste en referirlas a lo que se conoce como retraso de la causa; con este tipo de enfoque la población meta que se elige es una cohorte más joven de la misma población en estudio, en lugar de la misma cohorte de una población diferente. El objetivo se ubica por lo general en las implicaciones que conllevan el retraso o la eliminación total de la ocurrencia de una o más causas de mortalidad (Manton et al., 1980 y Olshansky, 1987).

Metodología propuesta

Esta metodología surge al reconocer que existe una fuerte conexión entre suavizar una serie de tiempo y estimar su tendencia (Guerrero y Silva, 2010). De hecho, al suavizar una serie se busca un valor central que represente el comportamiento local de la variable, y eso es lo que en esencia se busca también al estimar la tendencia. Debido a ello conviene recordar algunos resultados importantes acerca de la estimación de tendencias para series de tiempo univariadas. En ese contexto la extracción de señal con el Filtro de Wiener y Kolmogorov, el Filtro de Kalman con suavizamiento y Mínimos Cuadrados Penalizados produce resultados que son equivalentes a los que arroja el Filtro HP que emplean los analistas de ciclos económicos. De manera semejante se ha demostrado que el método estadístico de estimación de MCG produce resultados idénticos a los que resultan de los filtros anteriores (Guerrero, 2007). Además, también se puede apreciar que el inverso de la matriz de Error Cuadrático Medio (ECM) es la suma de dos matrices de precisión. A partir de estos hechos Guerrero propuso medir la participación a la precisión de la tendencia estimada, que corresponde al elemento de suavidad del modelo estadístico implícito en el proceso de estimación. Esa medida de participación de la suavidad conduce a un índice de suavidad que depende sólo del parámetro de suavizamiento y del número de datos de la serie en estudio. Por lo tanto, dada una serie de longitud fija, el índice de suavidad brinda la posibilidad de decidir el valor del parámetro de suavidad como función sólo de un porcentaje deseado de suavidad, el cual puede elegirse en forma anticipada.

El enfoque tradicional para suavizar una serie de datos utiliza el parámetro de suavizamiento λ seleccionado con ayuda de algún criterio numérico, por ejemplo el criterio de Akaike, conocido como AIC, que se minimiza en forma automática sin que el analista se entere de los efectos de la elección que surja (a este respecto véase Hastie y Tibshirani, 1990). Sin embargo debe reconocerse que al suavizar los datos con un valor específico de λ se obtiene también un porcentaje de suavidad específico para la tendencia. Así pues, desde un punto de vista meramente descriptivo, un analista de los datos de la serie que aplique el suavizamiento debería, por lo menos, reportar el porcentaje de suavidad alcanzado con el parámetro λ que utilice. En esta línea de pensamiento se considera aun mejor fijar por adelantado un monto deseado de suavidad para la tendencia, en lugar de elegir el valor de λ en forma automática. Esta idea es semejante a la que respalda la costumbre actual de fijar de antemano el nivel de confianza (digamos en 95%) para estimar parámetros en un análisis estadístico, ya que así se pueden establecer comparaciones válidas entre dos o más intervalos de confianza. Este argumento se extiende en el presente trabajo al caso de fijar el porcentaje de suavidad, junto con el de estructura, que se pretende alcanzar con la estimación de la tendencia. Lo cual es necesario, de nuevo, para poder establecer comparaciones válidas. En resumen, lo que aquí se propone es calibrar los parámetros de suavidad y estructura que intervienen en el proceso de estimación de la tendencia de datos demográficos, de manera que se reduzca la subjetividad en el uso del procedimiento.

Es importante reconocer que el solo hecho de poder medir la suavidad con el índice propuesto permite al analista comparar los resultados de dos series suavizadas no sólo mediante inspección visual, sino numéricamente. Es en este sentido que la decisión acerca de cuál de las dos series tiene mayor suavidad se puede tomar objetivamente, o al menos con base en los datos disponibles, no en creencias subjetivas. Por estos motivos, la sugerencia que aquí se hace es usar el Filtro HPMV para estimar tendencias en datos demográficos incorporando las ideas de suavidad y estructura. Para presentar la propuesta formalmente se usará primero un modelo de señal más ruido, o sea,

/ Yt=YtS+ηt

donde Yt denota la variable de interés (digamos la mortalidad), YtS es la señal, que en el presente caso representa la tendencia de la mortalidad suavizada, y ηt es el ruido, que básicamente oscurece el comportamiento de la tendencia, ya que en la práctica sólo se observa Yt. Al penalizar por falta de suavidad y alejamiento de estructura respecto a YtS surge el siguiente problema de minimización:

/ minYtSt=1nYt-YtS2+λ12YtS2+λ2ξt

Con / ξt el error aleatorio asociado con un modelo demográfico en donde se hace uso de la variable YtS. Este problema es similar al que plantea Boone (2000), mediante el cual se intenta estimar ahora los valores de YtS como solución de [8].

Esta perspectiva consiste en definir primero un índice de suavidad que sirva de ayuda para elegir las constantes (1 y (2. La metodología propuesta brinda la posibilidad de interpretar entonces los resultados de acuerdo con una teoría demográfica que permite realizar comparaciones válidas entre tendencias de los datos. Dicha estimación se efectúa mediante un balance de los siguientes tres elementos: los datos observados originalmente, la suavidad de la tendencia que se obtenga como resultado, y la cercanía de dicha tendencia a cierta estructura teórica presupuesta como meta. El modelo estadístico que se emplea surge del planteamiento de las siguientes representaciones: i) los datos observados pueden expresarse como una tendencia oscurecida por un error aleatorio; ii) el patrón de suavidad subyacente de la tendencia es de carácter polinomial de orden uno; y iii) la estructura teórica que se supone como meta proviene de una fuente de información externa a los datos originales y sirve para incorporar una meta en los datos suavizados. Estas tres representaciones dan origen a las expresiones que siguen y que, en conjunto, forman el modelo

/ Y= YS+η, η ~ (0, ση2In) / K2YS= ε, ε ~ (0,σε2 In-2), E(εη)=0 y / U=YS+ δ,δ ~ (0,σδ2 In), E(δη) =0, E(δε)=0

donde el símbolo ~ significa “distribuido como” (vector de medias, matriz de varianza-covarianza). De esta forma la ecuación [8] expresa el vector de datos originales como un vector de valores de tendencia YS más un vector de ruido aleatorio η, con varianza de cada elemento dada por / ση2. En [9] se tiene una ecuación que induce suavidad en el comportamiento YS al suponer un patrón polinomial de grado uno, esto es, / YtS=2Yt-1S+Yt-2S+εt para t = 3, ..., n donde / εt es un error aleatorio con varianza / σε2. Por último, en [10] se postula una experiencia demográfica con estructura límite o, dicho de otra manera, se hace uso de otra fuente de información para combinar sus datos con los que se observaron originalmente. A partir de las ecuaciones [9] a [11] se obtiene el sistema:

/ Y0U=InK2InYS+η-εδ, conη-εδ~ 000, Σdonde Σ=ση2In000σε2In-2000σδ2In

Por ello, se puede emplear MCG para estimar YS y así se obtiene lo siguiente:

/ ŶS=InK2InΣ-1InK2In-1InK2InΣ-1Y0U=ση-2In+σε-2K2K2+λ2In-1 ση-2Y+σδ-2InU

Entonces, si se hace / λ1=ση2/σε2 y / λ2=ση2/σδ2, se llega a

/ ŶS=In+λ1K2K2+λ2In-1 Y+λ2U

que es el estimador buscado, cuya matriz de varianza-covarianza está dada por

/ Γ=Var ŶS=In+λ1K2K2+λ2In-1ση2

Una manera alternativa de expresar los resultados anteriores surge al reconocer que / ŶS=MY+λ2U y que / Γ=Mση2 con / M=In+λ1K2K2+λ2In-1. Por lo tanto, si ahora se escribe

/ M=In+λ11+λ2K2K2-11+λ2-1

la ecuación [13] puede reescribirse como

/ ŶS=In+αλ1K2K2-1αY+1-αU, con α=1+λ2-1

Esta última expresión permite apreciar que / ŶSU si / α0 , de forma que la suavidad inducida por [10] desaparece y la tendencia converge a la estructura indicada en [11]. Por otro lado, si / α1, / ŶSIn+λ1K2K2-1Y y se obtiene entonces el resultado usual del Filtro HP. Debe notarse que el valor de / αtiene que conocerse de antemano para calcular / ŶS. Además, esta tendencia puede interpretarse como la combinación de dos fuentes de información cuyos pesos los decide implícitamente el analista al elegir el valor de la constante / α. Existen dos posibles perspectivas para elegir los valores de las constantes de suavizamiento. La primera, llamada (A), indica elegir los valores de (1 y (2, de manera que se establezca un balance entre la suavidad y la estructura. A partir del conocimiento de (2 se obtiene el correspondiente valor de / α. La perspectiva (B), en cambio, indica elegir los valores de (1 y / α, de manera que se tiene que decidir en principio el porcentaje de suavidad y después cuál de las dos fuentes de información (la observada y la propuesta como meta) tiene mayor credibilidad. Desde el punto de vista del cálculo de la estimación numérica de los valores de tendencia, el vector suavizado / ŶSse puede obtener directamente al aplicar el Filtro de Kalman con suavidad. Para aplicar este filtro se debe notar que los modelos [9] y [11] producen las expresiones siguientes, válidas para todo valor de t,

/ Yt=ŶS+ηt  y Ut=YtS+δt, ηt ~0,σδ2 , Eηt εt=0

por lo cual se sigue que

/ αYt+1-αUt=αYtS+αηt +1-αYtS+1-αδt==YtS+γt

con

/ γt=αηt +1-αδt ~ 0,σγ2  y / σγ2=α2ση2+1-α2σδ2

A partir de estas ecuaciones puede escribirse un Modelo de Espacio de Estados con las siguientes ecuaciones de medición y transición, respectivamente:

/ αYt+1-αUt=ctXtγt y / Xt=AtXt-1+wt,

donde los vectores y matrices involucrados son de la forma

/ Xt=YtSYt-1S,At=2-110, ct=10y wt=εt0

Una vez expresado el modelo en forma de espacio de estados es factible utilizar el Filtro de Kalman como en Guerrero, 2008, pero en lugar de usar los datos originales Yt como en aquel artículo, ahora se hace uso de los datos combinados / αYt+1-αUt, para lo cual se requiere que el valor de α sea conocido.

Los índices de suavidad y su empleo para elegir las constantes de suavizamiento

Para medir la proporción de suavidad relativa / ση-2In respecto a la precisión total que se logra con el proceso de estimación, que está dada por / ση-2In+σδ-2In+σε-2K2K2, se propone utilizar el índice

/ Λση-2In;ση-2In+σδ-2In+σε-2K2K2=trση-2Inση-2In+σδ-2In+σε-2K2K2-1/n

en donde tr(.) denote la traza de una matriz, mientras que / ση-2In,  σδ-2In y σε-2K2K2 son matrices positivas definidas de dimensión n × n. Este índice es una medida que cuantifica la precisión relativa y que tiene las siguientes cuatro propiedades: 1) toma valores dentro del intervalo (0, 1), de manera que puede interpretarse como una proporción propia; 2) es invariante bajo transformaciones lineales de la variable Y involucrada, por lo cual los resultados son válidos aun si se transforma la variable linealmente; 3) se comporta en forma lineal, de manera que pueden aplicarse directamente herramientas de álgebra lineal para hacer los cálculos necesarios; 4) la suma de las precisiones relativas es la unidad, lo cual significa que

/ Λση-2In;ση-2In+σδ-2In+σε-2K2K2+Λσδ-2In;ση-2In+σδ-2In+σε-2K2K2+Λσε-2K2K2;ση-2In+σδ-2In+σε-2K2K2=1

La demostración de que Λ es la única medida escalar que cumple con las cuatro propiedades enunciadas previamente, se sigue de la prueba que aparece en Theil, 1963, para el caso de dos matrices positivas definidas A y B, donde el índice está dado por Λ(A; A+B). Lo que se requiere para adaptar la prueba a la situación presente es reconocer que, por ejemplo, ahora / ση-2In juega el papel de A y la matriz / σδ-2In+σε-2K2K2 juega el de B. Este índice es útil para cuantificar la precisión relativa atribuible a la suavidad y a la estructura inducida en el modelo, que forman parte de la matriz de precisión / Γ-1 dada por el inverso de [15]. En consecuencia, se define el índice de suavidad

/ Sλ1, λ2;n=trσε-2K2K2ση-2In+σε-2K2K2+σδ-2In-1/n=1-trIn+λ K2K2-1/n

Con

/ λ=ση-2+σδ-2-1σε-2=λ11+λ2-1=αλ1.

Ahora bien, como el parámetro λ está asociado con la suavidad de / αY+ (1 -α)U, su valor se puede elegir con la ayuda del índice de suavidad / S(λ1, λ2; n). Posteriormente, ya que el parámetro / λ1 se asocia con la suavidad de los datos originales Y, puede obtenerse a partir de los valores de / λ y / α; esto se debe a que / λ1=λ/α con / α > 0. Otra forma de seleccionar los parámetros necesarios comienza por elegir a / λ1 de manera que se fije la suavidad deseada para Y y después se elige el valor de / α (0,1) entonces se deduce el valor de / λ=αλ1 que sirve para determinar la suavidad de la combinación convexa / α Y+(1 -α)U.

Debe notarse que el porcentaje de suavidad para Y debe ser mayor o igual que el de la combinación debido a que: i) / λ=αλ1λ1, pues 0 < / α ≤ 1, y ii) el índice de suavidad es una función monótona creciente de / λ. Además, el parámetro λ 1 se elige a partir del índice de suavidad / S(λ1; n)=1-trIn+λ1 K2K2-1/n, el cual se asocia con la suavidad de Y, puesto que equivale a usar el índice de suavidad aplicable a / αY+ (1 -α)U cuando / α=1, en cuyo caso / λ2=0 y el estimador de la tendencia resulta ser / ŶS=In+λ1 K2K2-1Y. Desde luego, para incluir tanto la suavidad como la estructura demográfica en la solución, se debe elegir / α(0,1), de manera que se obtenga / λ2 > 0 y se utilice el estimador dado por / ŶS=In+αλ1 K2K2-1α Y+(1 -α)U. Por último, es importante hacer la siguiente aclaración acerca del máximo porcentaje de suavidad que puede lograrse con un conjunto de datos determinado. Debido a que

Métricas de artículo

Vistas Resumen.
Número total de vistas al resumen de este artículo.
a description of the source 232
Esta revista








Cargando métricas ...

Metrics powered by PLOS ALM

Enlaces refback

  • No hay ningún enlace refback.


Licencia de Creative Commons
Este obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

 

Información legal

ESTUDIOS DEMOGRÁFICOS Y URBANOS, vol. 34, núm. 3 (102), septiembre-diciembre, 2019, es una publicación electrónica cuatrimestral editada por El Colegio de México, A.C., con domicilio en Carretera Picacho Ajusco núm. 20, col. Ampliación Fuentes del Pedregal, delegación Tlalpan, C.P. 14110, Ciudad de México, tel. +52 (55) 5449 3031, página web: www.colmex.mx, correo electrónico: ceddurev@colmex.mx. Editor responsable: Manuel Ángel Castillo. Reserva de Derechos al Uso Exclusivo: 04-2016-031810381800-203, ISSN impreso: 0186-7210, ISSN electrónico: 2448-6515, ambos otorgados por el Instituto Nacional del Derecho de Autor. Responsable de la última actualización de este número: Leticia Argüelles, Carretera Picacho Ajusco núm. 20, col. Ampliación Fuentes del Pedregal, delegación Tlalpan, C.P. 14110, Ciudad de México. Fecha de última modificación, 09 de septiembre de 2019.

El contenido de los artículos publicados es responsabilidad de cada autor y no representa el punto de vista de El Colegio de México, A.C. Se autoriza cualquier reproducción parcial o total de los contenidos o imágenes de la publicación, incluido el almacenamiento electrónico, siempre y cuando sea sin fines de lucro o para usos estrictamente académicos, citando invariablemente la fuente sin alteración del contenido y dando los créditos autorales.

Licencia de Creative Commons Licencia de Creative Commons Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional