Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
INDICE
Análisis de Riesgo en Presas ................................................................................... 1
1. Conceptos generales de la evaluación probabilista de riesgos ................................................. 1
1.1 Procedimiento para el análisis del riesgo........................................................................... 1
1.2 Ecuación fundamental .......................................................................................................... 2
1.3 Temporalidad de las amenazas ........................................................................................... 4
1.4 Estimadores puntuales del riesgo ....................................................................................... 5
1.5 Probabilidad de excedencia de valores de pérdida .......................................................... 5
1.6 Análisis para un solo escenario ........................................................................................... 6
1.7 Aplicación al análisis de riesgo por inundaciones............................................................ 6
2. La incertidumbre y su evaluación ................................................................................................ 10
2.1 Introducción ......................................................................................................................... 10
2.2 Definición de la incertidumbre .......................................................................................... 11
2.3 Dimensiones de la incertidumbre ..................................................................................... 13
2.4 Niveles de incertidumbre ................................................................................................... 14
2.5 Naturaleza de la incertidumbre ........................................................................................ 18
2.6 Incertidumbre en la evaluación del riesgo....................................................................... 18
2.7 Métodos para el análisis de incertidumbre...................................................................... 25
3. Incertidumbres en la estimación de hidrogramas de entrada al vaso ................................... 44
3.1 Introducción ......................................................................................................................... 44
3.2 Métodos para la estimación de gastos máximos de diseño........................................... 44
3.3 Selección del método .......................................................................................................... 66
3.4 Estimación de gasto de diseño para la descarga de presas de almacenamiento ........ 71
3.5 Gasto de descarga para avenidas frecuentes ................................................................... 73
3.6 Políticas de operación ......................................................................................................... 76
3.7 Fuentes de incertidumbre .................................................................................................. 80
4. Incertidumbre en la estimación de hidrogramas de salida en descarga controlada o libre
83
4.1 Método para tránsito de avenidas por vasos de almacenamiento ............................... 84
5. Incertidumbre en la estimación de hidrogramas de salida por ruptura de presas o bordos
92
5.1 Clasificación de presas de acuerdo con el riesgo potencial de daño............................ 92
5.2 Rotura de presas .................................................................................................................. 93
1
5.3 Hidrograma de salida por la brecha formada durante la ruptura de la presa o bordo
99
5.4 Hidrograma de salida por la ruptura de una presa o bordo obtenido con fórmulas
empíricas .......................................................................................................................................... 100
5.5 Selección del modelo matemático a utilizar .................................................................. 103
6. Comentarios finales ...................................................................................................................... 104
6.1 Análisis del riesgo ............................................................................................................. 104
6.2 Incertidumbres................................................................................................................... 106
6.3 Generación de escenarios ................................................................................................. 110
7. Referencias...................................................................................................................................... 112
Apéndice A. Relaciones matemáticas entre las tasas de excedencia y otras medidas de riesgo115
Apéndice B. Notificaciones en tiempo real de infraestructura expuesta ante eventos sísmicos
117
Antecedentes ................................................................................................................................... 117
Adquisición de datos en tiempo real ........................................................................................... 118
Sistema para la generación de mapas nacionales de intensidades en tiempo real ............... 120
Generación de listados de infraestructura expuesta y listados dinámicos de notificación .. 125
Descripción detallada del sistema de notificaciones en tiempo real ....................................... 126
Criterio de selección de las obras para el listado de infraestructura expuesta: ..................... 126
Listado de obras de infraestructura de CONAGUA: ................................................................ 127
Listado dinámico de destinatarios para el envío de notificaciones en tiempo real:.............. 137
Referencias ....................................................................................................................................... 141
2
Modelación probabilista de riesgos naturales
El análisis probabilista del riesgo tiene como objetivo fundamental determinar las distribuciones de
probabilidad de los daños que pueden sufrir las personas o los activos expuestos, como consecuencia
de la ocurrencia de amenazas naturales, integrando de manera racional las incertidumbres que existen
en las diferentes partes del proceso. La pregunta que el análisis probabilista de riesgo debe contestar
es: dado que se tiene un conjunto de personas o bienes expuestos a los efectos de una o varias
amenazas naturales, ¿con qué frecuencia se presentarán pérdidas que superen un valor dado?
Puesto que la frecuencia de los eventos catastróficos es particularmente baja, queda descartada la
posibilidad de contestar la pregunta anterior formulando modelos puramente empíricos del proceso
de ocurrencia de estos eventos. Esto obliga a la construcción de modelos probabilistas como el que
aquí se describe. El procedimiento de cálculo probabilista consiste entonces, en forma resumida, en
evaluar las pérdidas que acontecen durante cada uno de los escenarios que colectivamente describen
la amenaza, y luego integrar probabilísticamente los resultados obtenidos utilizando como factores de
peso las frecuencias de ocurrencia de cada escenario.
1. Evaluación de la amenaza: para cada uno de los peligros considerados, es necesario definir un
conjunto de eventos, o escenarios, que colectivamente representan todas las formas en que
puede materializarse la amenaza correspondiente. En otras palabras, no es posible que ocurran
realizaciones de la amenaza diferentes a las que se consideran en el conjunto de eventos. Los
escenarios son, por tanto, colectivamente exhaustivos. Cada uno de los escenarios deberá
contener información que permita establecer la distribución espacial de las intensidades
producidas por su ocurrencia. En términos generales, las intensidades serán probabilistas, en
el sentido de que, dada la ocurrencia de un escenario, se considerará que las intensidades son
cantidades sobre las que es posible establecer una distribución de probabilidad.
Adicionalmente, para cada uno de los escenarios deberá calcularse una frecuencia anual de
ocurrencia.
1
Modelación probabilista de riesgos naturales
3. Vulnerabilidad de las construcciones: debe asignarse a cada una de las clases estructurales una
función de vulnerabilidad para cada tipo de amenaza. Esta función caracteriza el
comportamiento de la construcción durante la ocurrencia de fenómenos amenazantes. Las
funciones de vulnerabilidad definen la distribución de probabilidad de las pérdidas como
función de la intensidad producida durante un escenario específico. Se definen mediante
curvas que relacionan el valor esperado del daño y la desviación estándar del daño con la
intensidad del fenómeno.
El riesgo por amenazas naturales es comúnmente descrito mediante la llamada curva de excedencia
de pérdidas (loss curve) que especifica las frecuencias, usualmente anuales, con que ocurrirán eventos
en que se exceda un valor especificado de pérdidas. Esta frecuencia anual de excedencia se conoce
también como tasa de excedencia, y puede calcularse mediante la siguiente ecuación, que es una de
las múltiples formas que adopta el teorema de la probabilidad total:
𝐸𝑣𝑒𝑛𝑡𝑜𝑠
En general, no es posible calcular directamente el término 𝑃𝑟(𝑃 > 𝑝|𝐸𝑣𝑒𝑛𝑡𝑜 𝑖), sino que su cálculo
debe hacerse encadenando dos distribuciones de probabilidad: la de la intensidad, dado que ocurrió el
evento i, y la del daño, dado que la intensidad tomo un valor determinado. La primera de estas
distribuciones de probabilidad, 𝑝𝑦 (𝑦|𝐸𝑣𝑒𝑛𝑡𝑜 𝑖), se obtiene de los cálculos de amenaza, mientras que
2
Modelación probabilista de riesgos naturales
la segunda, 𝑃𝑝 (𝑝|𝑦), proviene de la vulnerabilidad del bien cuya pérdida se calcula. Así, si sólo
tuviéramos un bien expuesto, encontraríamos que:
La pérdida p es una cantidad incierta, cuyo valor, dada la ocurrencia de un evento, no puede
conocerse con precisión. Debe, por tanto, ser vista y tratada como una variable aleatoria y
deben preverse mecanismos para conocer su distribución de probabilidad, condicionada a la
ocurrencia de cierto evento.
La pérdida p se calcula como la suma de las pérdidas que se presentan en cada uno de los
bienes expuestos. Cada uno de los sumandos es una variable aleatoria y entre ellos existe cierto
nivel de correlación, que debe ser incluido en el análisis.
En vista de los términos que integran la ecuación 1, la secuencia de cálculo probabilista de riesgo es
la siguiente:
3
Modelación probabilista de riesgos naturales
El cálculo se repite para todos los eventos, con lo que se obtiene el resultado indicado por la ecuación
1.
Nótese que la ecuación 1 no hace distinción entre eventos que pertenezcan a diferentes amenazas. En
efecto, la suma en esa ecuación podría incluir, por ejemplo, tormentas y huracanes. Esto puede hacerse
porque se ha supuesto que tanto los eventos asociados a una misma amenaza como los eventos
asociados a distintas amenazas no ocurren simultáneamente. Sin embargo, algunos fenómenos
potencialmente dañinos sí ocurren simultáneamente, por lo que en estos casos hay que tomar
previsiones especiales para la determinación de la distribución de probabilidad de p, tal como se
analiza en el siguiente inciso.
Algunos de los fenómenos naturales producen pérdidas por varios conceptos, que ocurren de manera
simultánea. Por ejemplo, el paso de un huracán genera tanto un campo de vientos fuertes como
inundaciones por aumento en los niveles de la marea y por las lluvias intensas asociadas; los daños
por viento y por inundación, entonces, ocurren al mismo tiempo, y no pueden considerarse eventos
independientes. Este es un caso en que tres amenazas diferentes (viento, inundación por marea de
tormenta e inundación por exceso de lluvia) ocurren simultáneamente, asociadas a la misma
temporalidad.
La evaluación de pérdidas durante un escenario se realiza entonces considerando que las amenazas
que pertenecen a una misma temporalidad ocurren de manera simultánea. No existe una manera
sencilla y libre de ambigüedades para evaluar las pérdidas en estas condiciones (varias amenazas
ocurriendo simultáneamente). En el pasado se ha propuesto la siguiente expresión para evaluar la
pérdida en cada uno de los bienes expuestos, que corresponde a un modelo de daño en cascada, en el
cual el orden de exposición a las diferentes intensidades es irrelevante:
en donde Pi es la pérdida asociada al escenario i, Pij es la pérdida asociada al escenario i por concepto
de la amenaza j, y M es el número de amenazas simultáneas consideradas en la temporalidad a la que
pertenece el escenario i.
4
Modelación probabilista de riesgos naturales
Conviene recordar que Pij son variables aleatorias y, por tanto, Pi también lo es. Sin embargo, si las
distribuciones de probabilidad de las Pij son conocidas, y se hacen suposiciones razonables sobre su
nivel de correlación (que están perfectamente correlacionadas, por ejemplo) los momentos de la
distribución de probabilidad de Pi pueden determinarse a partir de la Ecuación 2.
La curva calculada aplicando la ecuación 1 tiene toda la información necesaria para caracterizar el
proceso de ocurrencia de eventos que produzcan pérdidas. Sin embargo, en ocasiones es impráctico
utilizar una curva completa, por lo que conviene utilizar estimadores puntuales del riesgo que permitan
expresarlo con un solo número. Se presentan a continuación los dos estimadores puntuales más
comúnmente utilizados.
(a) Pérdida anual esperada (PAE): se trata del valor esperado de la pérdida anual. Indica, por
ejemplo, que si el proceso de ocurrencia de eventos dañinos fuera estacionario de aquí a la
eternidad, los daños totales serían iguales a haber pagado la PAE anualmente. Por tanto, en un
sistema simple de seguro, la pérdida anual esperada sería la prima pura anual. La PAE puede
obtenerse por integración de (p) o mediante la siguiente expresión:
𝐸𝑣𝑒𝑛𝑡𝑜𝑠
(b) Pérdida máxima probable (PML del inglés Probable Maximum Loss): se trata de una pérdida
que ocurre poco frecuentemente, es decir, que está asociada a un periodo de retorno largo (o,
alternativamente, a una tasa de excedencia muy baja). No existen estándares universalmente
aceptados para definir qué quiere decir “poco frecuentemente”. De hecho, la elección del
periodo de retorno depende de la aversión al riesgo de quien lo está tomando. En la industria
aseguradora, por ejemplo, los periodos de retorno utilizados para definir la PML varían entre
200 y 1500 años.
La curva de pérdidas, 𝜐(𝑝), calculada con la ecuación 1, indica con qué frecuencia ocurrirán eventos
que producirán pérdidas iguales o superiores a una dada, 𝑝. Si suponemos que el proceso de ocurrencia
de eventos en el tiempo obedece a un proceso de Poisson, entonces es posible calcular la probabilidad
de que la pérdida 𝑝 sea excedida en un lapso 𝑇, es decir, en los próximos 𝑇 años, con la siguiente
expresión:
5
Modelación probabilista de riesgos naturales
donde Pe(p,T) es la probabilidad de que la pérdida p sea excedida en los próximos 𝑇 años.
Este caso tiene aplicaciones importantes en el campo de la planeación territorial, ya que sus resultados,
mapeados por ejemplo en términos del valor esperado de la pérdida, son fácilmente incorporables en
los planes de ordenamiento territorial.
La amenaza está representada por un conjunto de eventos o escenarios, que colectivamente describen
todas las formas posibles en que puede ocurrir una inundación en el sitio de análisis, y las frecuencias
de ocurrencia de cada uno de estos eventos. En el caso de las inundaciones provocadas por el vertido
controlado de una presa, este conjunto de escenarios está formado por los gastos de salida de la presa
y sus hidrogramas correspondientes, que se presentan con diferentes periodos de retorno. Como se
verá más adelante, es frecuente que la amenaza que estamos estudiando quede descrita por un gran
número de combinaciones Volumen-Gasto Pico, asociada cada combinación a una frecuencia anual
de ocurrir. Llamaremos escenario a cada una de estas combinaciones. Un escenario, entonces, estará
definido por una combinación volumen-gasto pico, la frecuencia anual de ocurrencia de la
combinación y un mapa de los tirantes de inundación producidos por el tránsito de la avenida y el
eventual desbordamiento del cauce que la conduce.
Conviene señalar, por una parte, que la frecuencia que caracteriza a cada escenario es su frecuencia
anual de ocurrencia y no la probabilidad de que, por ejemplo, un valor de gasto sea excedido en un
lapso dado. El cálculo de la frecuencia anual de ocurrencia implica, generalmente, la necesidad de
discretizar (dividir en clases) tanto el dominio del volumen como el del gasto pico, para obtener
combinaciones definidas usualmente por las marcas de clase. A esta combinación se asigna toda la
frecuencia de ocurrencia correspondiente a los intervalos (Volumen-Gasto Pico) considerados. El
número de clases que se elijan para el análisis, el cual determina el número de escenarios que se
estudien, tiene que ser suficientemente grande como para muestrear con razonable detalle el espacio
6
Modelación probabilista de riesgos naturales
Volumen-Gasto Pico, pero suficientemente pequeño como para hacer que el cálculo de las manchas
de inundación sea práctico.
Por otra parte es importante tener en mente que, en general, los tirantes de inundación que se calculan
como consecuencia del tránsito de una avenida con características dadas no están exentos de
incertidumbres por lo que, rigurosamente, deben ser tratados como variables aleatorias. Estas
incertidumbres, que suelen llamarse secundarias, provienen principalmente de incertidumbres en los
datos de entrada (secciones transversales del cauce, distribución de la rugosidad, etc.) y de las
simplificaciones inherentes a los modelos de cálculo usados (por ejemplo, la simplificación de ignorar
el flujo transversal al cauce del río). Sin embargo, no pertenecen a este grupo de incertidumbres las
que provienen de la aleatoriedad del volumen y del gasto pico, usualmente llamadas primarias, que ya
han sido incluidas en el análisis, cuando se definieron las combinaciones Gasto-Volumen relevantes
y sus correspondientes frecuencias de ocurrencia.
No existen métodos formales para evaluar las incertidumbres secundarias. Sin embargo, el analista
debe hacer un esfuerzo para estimarlas e incluirlas en el cálculo de riesgo; el análisis de sensibilidad
suele ser útil para estos fines. La consecuencia de suponer que, dada una combinación volumen-gasto
pico, el tirante de inundación es una variable aleatoria es que este tirante no puede caracterizarse con
un solo número, sino que se requiere una distribución de probabilidad. Es usual que el tirante calculado
con los modelos se interprete como su valor esperado, y que para cada punto de la región en estudio
se asigne, por ejemplo, un coeficiente de variación que mida la incertidumbre que se tiene sobre el
tirante calculado. En vista de esto, para un escenario determinado será necesario calcular dos manchas
de inundación: la de valores esperados y la de, por ejemplo, coeficientes de variación.
Para hacer un análisis de riesgo debe definirse el inventario de elementos expuestos, en el cual debe
especificarse la localización geográfica de cada uno de ellos, más algunos parámetros que lo califican:
su costo de reposición, el número de ocupantes estimado y, por las razones que veremos en el siguiente
7
Modelación probabilista de riesgos naturales
inciso, la clase estructural a la que pertenece. El inventario de bienes expuestos no está limitado a
edificación urbana. En principio, si son relevantes para el análisis, deberían incluirse como bienes
expuestos las líneas vitales (calles, vías, carreteras, líneas de transmisión, redes de agua y drenaje), la
infraestructura susceptible de ser dañada por las inundaciones (puentes, obras de drenaje, etc.) y las
zonas agrícolas susceptibles de afectación.
Una manera cómoda de hacer la descripción del inventario es mediante archivos tipo shape que
almacenan tanto la localización geográfica de objetos geométricos (puntos, líneas o polígonos) como
una base de datos con la información que sea pertinente (valor, ocupantes, clase estructural, etc.).
Las funciones de vulnerabilidad deben construirse de tal suerte que, para diversos niveles de
intensidad, quede definida la distribución de probabilidad de las pérdidas que se presentarían. Esto se
consigue, usualmente, haciendo que las funciones de vulnerabilidad especifiquen curvas que
relacionen el valor esperado del daño y la desviación estándar del daño con la intensidad del
fenómeno.
8
Modelación probabilista de riesgos naturales
En las figuras siguientes se presentan dos ejemplos de funciones de vulnerabilidad, utilizadas por
Jaimes et al. (2011), para viviendas de materiales débiles, de dos niveles, con cubierta ligera:
Las funciones de vulnerabilidad económica de la figura anterior nos indican que si el tirante de
inundación tuviera un valor de 1 m, la pérdida sería una variable aleatoria con un valor esperado de
0.08 𝑉 y una desviación estándar de 0.06 𝑉. Es una práctica común asignar a la pérdida, dado un valor
de tirante, una distribución de probabilidad Beta con los dos primeros momentos estadísticos dados
por la función de vulnerabilidad. Puesto que la Beta es una distribución de dos parámetros, queda
completamente definida al especificar sus dos primeros momentos estadísticos.
9
La incertidumbre y su evaluación
2. La incertidumbre y su evaluación
2.1 Introducción
La idea de reconocer las limitaciones en nuestra capacidad para generar conclusiones, tiene una larga
historia. Entre los primeros filósofos en identificar la importancia de la incertidumbre en el proceso
de análisis, se encuentra David Hume, pensador escocés impulsor del empirismo, quien desde el siglo
XVI proponía: "En general, existe un grado de duda, precaución y modestia, que en todo tipo de
escrutinio y decisión deben por siempre acompañar al razonador justo" (Hume, 1748).
Otra cita clásica, tiene su origen en tiempos del filósofo británico John Maynard Keynes (Keynes,
1937), como sigue: "Permítanme explicar, por conocimiento incierto no me refiero simplemente a
distinguir lo que es conocido por cierto de lo que es meramente probable. El juego de la ruleta no
está sujeto, en este sentido, a la incertidumbre; como tampoco lo está el prospecto de un bono de
Victoria. La esperanza de vida es vagamente incierta. Incluso el clima es moderadamente incierto. El
sentido en el que estoy utilizando el término, define la posibilidad de una guerra en Europa como
incierta, o el precio del cobre y la tasa de interés dentro de 20 años; o la obsolescencia de un nuevo
invento o la posición de los magnates en el sistema social en el año 1970. Sobre todos estos asuntos,
no existe base científica que nos permita el cálculo de una probabilidad de ninguna clase.
Simplemente no sabemos."
Una vía natural para hacer frente a los grandes problemas en ingeniería, es a través de la aplicación
del principio de precaución, en el que la acción preventiva se realiza sin esperar los resultados
concretos de la evidencia científica (Stirling, 2007). Es decir, la prevención toma un rol decisivo
durante ambos procesos, el de evaluación y manejo del riesgo. De hecho, en los últimos años, una de
las metas más importantes dentro de la toma de decisiones en materias ambiental y tecnológica, ha
sido la evolución hacia un énfasis hacia la prevención. Esta mutación implica que ambos, científicos
y tomadores de decisiones, aceptan las limitaciones inherentes del conocimiento anticipatorio, sobre
el que se basan las decisiones para el manejo y adaptación del medio ambiente.
Los cambios naturales y antropogénicos que se observan en el mundo, están ocurriendo de forma
rápida. El futuro es incierto, incluso nuestro entendimiento de los sistemas naturales, económicos y
sociales requieren que el trabajo tenga como base la premisa de que todos tienen asociados
complejidades y están llenos de interacciones y no linealidades. Nuestra comprensión de la naturaleza
y nuestra habilidad para predecir su comportamiento presente y futuro, están limitadas. Dentro del
campo de la ingeniería, es necesaria la cuantificación transparente del riesgo e incertidumbre, con el
propósito de definir entre diversas opciones de mitigación y alivio para reducir los riesgos asociados
a estos cambios. De tal forma que las decisiones sean tomadas desde una base sólida, a pesar de
nuestro conocimiento limitado del sistema (Hill et al., 2013).
Aunado a lo anterior y como resultado de la globalización, los problemas e interrelaciones entre los
sistemas, hacen que las consecuencias de tomar decisiones políticas incorrectas sean aún más serias e
10
La incertidumbre y su evaluación
Es necesario entonces reconocer que el conocimiento científico formal, está construido sobre hipótesis
y juicios; y que éste tiene asociada una gran cantidad de incertidumbre. En un futuro cada vez más
próximo, tal y como lo señalan Obersteiner et al. (2001), la sociedad tendrá que hacer frente a las
interacciones no lineales que se presentan entre los ecosistemas y un clima que está cambiando.
Aunado a lo anterior, se suma la complejidad del crecimiento poblacional. En caso de no ser atendidas,
estas interacciones darán lugar a malestares sociales aún mayores; sobre todo, en aquellas regiones
del mundo en donde las sociedades no hayan fomentado su capacidad para afrontar riesgos climáticos
adicionales.
El objetivo de este capítulo consiste en proveer un marco de trabajo conceptual para el tratamiento
sistemático de la incertidumbre, de tal forma que se mejore su gestión en el proceso de toma de
decisiones. Existen diversas razones por las que el desarrollo de una tipología de la incertidumbre es
positivo. Primero, nivelará el terreno al proveer los conceptos comunes para una mejor comunicación
entre analistas, ingenieros y tomadores de decisiones. En la situación actual, diferentes analistas usan
diversos términos para los mismos tipos de incertidumbre, y algunos usan el mismo término para
referirse a distintos tipos. Esto hace extremadamente difícil su comprensión para aquellos que no
participaron en un trabajo dado. Definir la incertidumbre a través de una tipología, permitirá una mejor
comunicación entre todos los interesados, sean tomadores de decisiones, académicos o la sociedad
civil.
Dentro del contexto de manejo del riesgo por inundaciones, el problema radica en cómo evaluar y
cuantificar la incertidumbre. La falta de un conocimiento absoluto sobre el funcionamiento de los
11
La incertidumbre y su evaluación
sistemas naturales complejos, y las incertidumbres asociadas con el comportamiento humano, las
organizaciones y los sistemas sociales, hacen extremadamente complicada la predicción de la
vulnerabilidad ante inundaciones. De forma tradicional, se ha buscado incluir de manera implícita a
la incertidumbre en el riesgo. La protección estructural contra inundaciones, está basada en el
conocimiento acumulado con base en eventos anteriores, en los que el cambio climático estaba
conceptualizado como un proceso cuasi-estacionario, donde el pasado es capaz de reflejar el futuro.
En la actualidad, muchas definiciones de incertidumbre coexisten. El matemático francés Laplace
(1749-1827) argumentaba que el mundo era completamente determinista: en otras palabras, que la
incertidumbre es resultado de un conocimiento incompleto. La doctrina de determinismo científico,
permaneció como la hipótesis estándar por más de 100 años hasta principios del siglo XX, cuando una
serie de descubrimientos de la física probaron que la ciencia solamente puede reducir la incertidumbre
de forma parcial. Posteriormente, el economista norteamericano Knight (1921), definió la
incertidumbre como un concepto claramente diferente al de riesgo, donde incertidumbre representa la
aleatoriedad del sistema con probabilidades desconocidas y el riesgo es la aleatoriedad con
probabilidades conocidas. En 1983, el Consejo Norteamericano para los Recursos Hídricos, definió
riesgo e incertidumbre en relación con la habilidad para describir resultados potenciales en términos
probabilistas. Dentro de este marco, el Consejo estableció que las situaciones de riesgo, se definen
como aquellas en las que el resultado potencial puede ser descrito razonablemente con funciones de
distribución de probabilidad conocidas (e.g. probabilidad de avenidas); mientras que las situaciones
de incertidumbre, se definen como aquellas en las que el resultado potencial no puede ser descrito de
una forma objetiva con funciones de distribución de probabilidad conocidas.
Existen en la literatura diferentes tipologías de la incertidumbre que han sido desarrolladas con
propósitos diversos, la que se presenta en este trabajo está en línea con la mayoría de ellas. Las
diferencias radican en que las otras son más generales o no están orientadas de manera específica al
apoyo en la toma de decisiones (Rowe, 1994), o aplican a un contexto específico como el de calidad
del agua (Beck, 1987). Por otro lado, clasificaciones orientadas hacia el uso de modelos se enfocan
más en descripción de una sola dimensión de la incertidumbre, como su ubicación (Alcamo y
Bartnicki, 1987) o su reducción hacia el error, o no discriminan de forma explícita entre nivel y
naturaleza de la misma (Morgan y Henrion, 1990).
La incertidumbre está contenida en distintos componentes, tales como las variaciones estadísticas, la
medición de los errores, la ignorancia y la indeterminación, las cuales dan soporte a su característica
en común, la incertidumbre reduce la confianza en la estimación dentro de la cadena causa-efecto. Si
no es posible explicar la complejidad por medio de métodos científicos, la incertidumbre aumenta.
Inclusive relaciones simples pueden estar asociadas con altos grados de incertidumbre, si el
conocimiento que les da sustento está incompleto.
12
La incertidumbre y su evaluación
De acuerdo con Walker et al. (2003), dentro del marco de trabajo para la toma de decisiones, existen
tres diferentes dimensiones de incertidumbre, a saber:
A continuación, las secciones siguientes describen cada una de estas dimensiones en mayor detalle.
Ubicación de la incertidumbre
Esta dimensión se refiere a la lógica estructural de un modelo genérico del sistema, dentro del cual es
posible ubicar las diversas fuentes de incertidumbre dentro de la estimación de las consecuencias de
interés. Idealmente, la ubicación se deberá caracterizar en una forma que sea operacionalmente
benéfica de tal manera que permita identificar dónde en el modelo se genera la incertidumbre asociada
con el resultado. Dentro de esta dimensión se tienen las siguientes formas en las que puede existir:
13
La incertidumbre y su evaluación
Incertidumbre de parámetros: está asociada con los datos y métodos utilizados para calibrar
los parámetros del modelo. En otras palabras, las constantes del modelo, supuestamente
invariantes dentro de cada contexto y escenario establecido. Existen parámetros exactos tales
como el valor de las constantes universales 𝜋 y 𝑒. Parámetros fijos que están muy bien
definidos por investigaciones previas y pueden ser considerados exactos, como el valor de la
gravedad en un punto particular de la tierra. Además hay parámetros seleccionados a priori,
los cuales son difíciles de identificar por medio de un proceso de calibración, y se eligen fijos
en un valor considerado constante. Los parámetros calibrados, representan incógnitas que no
pueden ser transferidas de otras investigaciones, debido por ejemplo, a diferencias en las
condiciones iniciales. Éstos se deben definir, por medio de un proceso de calibración que se
lleva a cabo a través de la comparación de resultados del modelo con registros históricos.
Cada etapa del proceso de pronóstico induce errores, por ejemplo, puede haber problemas en la
adquisición de datos en campo o limitaciones en el conocimiento que redundarán en una reducción de
la capacidad de los modelos para representar la realidad de forma fidedigna. Contrario a lo que se
piensa de forma general, existe un espectro completo de niveles de conocimiento, que abarcan desde
el ideal inalcanzable de un conocimiento determinista completo, en un extremo de la escala, hasta la
ignorancia total en el otro. En muchos casos, es necesario tomar decisiones cuando no solamente
existe una falta de certidumbre en la situación futura o sus consecuencias, sino también cuando
algunos de los posibles cambios en sí mismos son desconocidos. Es justamente en esta zona gris, entre
lo enteramente conocido y lo desconocido, que el grado de incertidumbre e ignorancia deben ser
considerados en la toma de decisiones. La meta última en la toma de decisiones con incertidumbre,
debe ser la reducción de los impactos no deseados y la eliminación de sorpresas (ej. impactos no
esperados), en lugar de hacer énfasis en su eliminación completa (Dewar, 2002).
14
La incertidumbre y su evaluación
Siguiendo el marco de trabajo propuesto por Wynne (1992) y modificado por Spiegelhalter y Riesch
(2011), se acepta que existen 5 niveles de incertidumbre tal y como se presenta en la Tabla 1. Los tres
primeros niveles reflejan las medidas estadísticas de la incertidumbre que son tradicionales, las cuales
están sujetas a hipótesis explícitas o implícitas. Los dos niveles restantes intentan crear premisas
incondicionales o implícitas, sobre la pertinencia del modelo en el contexto de análisis, donde los
niveles 4 y 5 corresponden a la indeterminación e ignorancia propuestos por Wynne (1992). La Figura
4 presenta de una forma gráfica, la distribución de estos niveles de incertidumbre con énfasis hacia la
identificación en los modelos formales.
15
La incertidumbre y su evaluación
Figura 4. Los cinco niveles de incertidumbre, mientras que los tres primeros son jerárquicos, los
niveles 4 y 5 aplican a todo proceso de modelación que existe.
A continuación, se presenta una breve descripción de cada uno de los niveles identificados.
Nivel 1. Incertidumbre sobre los eventos: Es una impredecibilidad esencial que se genera por
la aleatoriedad, errores en la medición, o por asumir que el proceso es determinista pero
caótico, tal y como se hace en la predicción del clima. En estos casos, es natural el deseo de
16
La incertidumbre y su evaluación
Nivel 2. Incertidumbre en los parámetros del modelo: Cualquier modelo que sea base para el
análisis de riesgo, y que se suponga correcto, contendrá parámetros que intentarán representar
estados idealizados de la naturaleza. Por ejemplo, la relación lluvia-escurrimiento para una
cuenca. También, están incluidas en este aspecto variables de entrada como los forzamientos
de los modelos climáticos. La incertidumbre en estos parámetros da como resultado un
incremento en la incertidumbre de las probabilidades de eventos futuros, y se debe
esencialmente, a las limitaciones de la información, en particular a la falta de datos de calidad.
Nivel 3. Incertidumbre sobre el mejor modelo: Los modelos matemáticos del riesgo,
representan idealizaciones de cómo funciona el mundo, e intentan capturar las características
esenciales de la amenaza en estudio. En algunos casos especiales, es posible expresar la
incertidumbre en los diferentes modelos y sus estructuras, por medio de la teoría Bayesiana de
probabilidades (Raftery y Volinsky, 1999). Sin embargo, se considera apropiada una
exploración determinista de su sensibilidad, por medio de un análisis cualitativo de la relativa
plausibilidad de los modelos/escenarios.
Nivel 4. Incertidumbre sobre las inadecuaciones conocidas del mejor modelo: Incluso el mejor
modelo imaginable tiene limitaciones, que pueden ser importantes para la correcta estimación
del riesgo que se desea caracterizar. Existen un rango de formas para expresar este tipo de
incertidumbre, en especial, podemos denominarlas como "sorpresas imaginables", esas son
cosas que suponemos pueden ocurrir, pero que por limitaciones del conocimiento no es posible
incluir en el modelo.
Nivel 5. Incertidumbre sobre las inadecuaciones desconocidas de todos los modelos: Este
nivel comprende las dudas sobre el proceso de modelado en su conjunto. Es posible expresarla
en función de nuestra confianza en el entendimiento básico, la calidad de la evidencia que da
soporte al análisis o nuestra ignorancia. Desde luego, es importante hacer distinción entre la
ignorancia reconocida o consciente, en donde tenemos identificado lo que no sabemos y la
meta-ignorancia donde ni siquiera se considera la posibilidad del error (Bammer y Smithson,
2008).
17
La incertidumbre y su evaluación
Esta distinción, nos permite entender mejor cómo se pueden manejar las incertidumbres específicas.
En el caso de la incertidumbre epistémica, estudios adicionales permiten incrementar la calidad de
nuestro conocimiento y por lo tanto, la calidad de nuestro resultado. Sin embargo, en el caso de la
incertidumbre aleatoria, la investigación adicional puede no resultar en un mejoramiento de la calidad
del resultado. La revisión de estos conceptos, presentada por Baecher y Christian (2000) representa
un buen punto de partida para su consideración en los procesos de análisis de riesgo. Un error muy
común, consiste en la dificultad para distinguir entre la naturaleza de la incertidumbre, aleatoria vs
epistémica. Por ejemplo, en la variación estacional de la precipitación extrema que da lugar a las
inundaciones (Mikkelsen et al., 1999).
Cada etapa del proceso de pronóstico induce errores, por ejemplo, fallas en las observaciones y en la
habilidad de los modelos para representar la realidad; los modelos representan idealizaciones de
procesos naturales generalmente más complejos. Esto es lo que se conoce como incertidumbre. Así,
los modelos que generan los pronósticos están sujetos a incertidumbres de naturaleza epistémica
(limitaciones del conocimiento), además de las asociadas a los datos de entrada, los errores de los
18
La incertidumbre y su evaluación
datos geográficos y la falta de datos de campo para su correcta calibración (e.g. Rauch et al., 2002;
Korving et al., 2009; Reeve et al. 2011).
Desde hace más de dos décadas, la discusión sobre la importancia y problemas derivados de la
incertidumbre en la modelación numérica de flujos ambientales, ha sido un tema primordial para
comunidad científica mundial (e.g. Beck, 1987, en el campo de modelado de calidad del agua). A
pesar de ello, de acuerdo con Pappenberger y Beven (2006), la estimación de la incertidumbre todavía
no es práctica común en la práctica de la ingeniería hidráulica. Entre las razones por las cuales la
incorporación práctica del análisis de incertidumbre se ha retrasado, se incluyen:
Pappenberger y Beven plantean que cada una de las siete razones anteriores carecen de validez en
muchas aplicaciones, más aún en aquellas donde la estimación de la incertidumbre no está limitada
por condiciones de cómputo. Los conceptos de incertidumbre y riesgo se perciben y entienden en una
gran variedad de maneras en función de las comunidades y las personas. Sin embargo, a través del
trabajo conjunto entre científicos, tomadores de decisiones y sociedad, este vacío en la interpretación
de la incertidumbre puede ser reducido. Por ejemplo, muchos estudios han demostrado que los
pronósticos probabilistas del clima son hoy en día entendidos por una comunidad no especialista (e.g.
Luseno et al. 2003). Más aún, en virtud de que el conocimiento científico está basado en hipótesis
limitadas, los tomadores de decisiones hacen su labor de forma regular en condiciones de
incertidumbre severa. De hecho, algunos estudios recientes plantean que los tomadores de decisiones
quieren conocer de alguna manera el rango de incertidumbre y riesgo de los posibles resultados,
siempre y cuando esto sea posible (McCarthy et al. 2007).
En esencia, este es un punto muy importante dado que para un modelador la mala interpretación de la
confiabilidad de los resultados puede dar lugar a la pérdida de credibilidad y confianza en el proceso
de simulación (Demeritt, 2001; Lemos et al. 2002). La comunicación de la incertidumbre a los
tomadores de decisiones, al público y a otros interesados es muy importante; de hecho, su estimación
está adherida al proceso de toma de decisiones más amplio (Refsgaard et al. 2006).
Con las herramientas numéricas disponibles para la predicción de amenazas en el medio ambiente, se
hace necesaria la incorporación explícita de las limitaciones en los modelos para representar la
19
La incertidumbre y su evaluación
En situaciones de riesgo, gran parte de las decisiones se realizan sobre condiciones de incertidumbre
(Merz, 2008: Paté-Cornell, 1996). Por ejemplo, la puesta en marcha de un plan de emergencia, la
planeación de una obra de protección o el análisis técnico de un evento caótico, requieren que los
mecanismos de evaluación y análisis de riesgo se soporten sobre bases confiables para la toma de
decisiones. Sin embargo, como se ha mencionado en la sección anterior, existen diferentes tipos de
incertidumbre que impiden un resultado preciso en la evaluación del riesgo, sean estas controlables
(epistémica) o no controlables (aleatoria). De acuerdo con Merz et al. (2010), se puede afirmar que la
incertidumbre en el riesgo responde a las siguientes condiciones:
Los sistemas de predicción del riesgo son inciertos: Los sistemas de predicción aun presentan
incertidumbres estocásticas, producto del desconocimiento de los procesos físicos que
representan. Además de ello, estos modelos se encuentran basados en parámetros estacionarios
y no permiten recrear el dinamismo de los sistemas afectables.
Para ser capaces de enfrentar el reto de inundaciones más severas, bajo condiciones de un clima que
está cambiando, se necesitan visiones holísticas del problema. La estrategia del Gobierno Británico
para el manejo de los riesgos de inundación representa un buen ejemplo de lo anterior, la iniciativa
titulada "Haciendo espacio al agua", considera el manejo de las cuencas como unidades (DEFRA,
2005). En este plan, se incluyen cambios en el uso de suelo (ordenamiento territorial) en áreas
20
La incertidumbre y su evaluación
proclives a inundación, manejo de los drenajes urbanos, las tierras rurales y las costas. De hecho, los
primeros resultados reportan que en algunos casos, se ha visto que en función del uso agrícola que se
le da a la tierra (tipo de sembradío), esta puede tener un efecto positivo o adverso en la severidad de
una inundación (O'Connell et al. 2011).
Figura 5. Esquema general de los procesos involucrados en el manejo del riesgo por inundaciones.
Dentro del contexto de inundaciones e hidrología, el proceso de control del riesgo está compuesto por
tres componentes principales (Plate 2002): a) El análisis del riesgo; b) Las medidas de mitigación, y
c) Las actividades relacionadas con la preparación ante una contingencia. La primera de ellas
considera el estudio de los orígenes de la amenaza, la probabilidad de los eventos no deseados y los
daños y consecuencias fruto de su incidencia. En general, considera la caracterización de la amenaza,
el análisis de vulnerabilidad, y la determinación del nivel de riesgo. Las medidas de mitigación
comprenden todas aquellas actividades de mejoramiento y mantenimiento de los sistemas expuestos
con el fin de reducir el riesgo. Estas pueden ser estructurales como la construcción física de bordos o
diques, o no estructurales como soluciones o prácticas basadas en el conocimiento (e.g. planes de
desarrollo urbano; ordenamiento territorial, etc.). Por último, la preparación contiene todas las
acciones no estructurales encaminadas a la preparación ante el desastre como son, el alertamiento
temprano, la planeación de operaciones de auxilio y la evacuación de la población.
21
La incertidumbre y su evaluación
Los modelos numéricos forman parte fundamental en el marco de trabajo dentro del proceso de toma
de decisiones. De hecho, generalmente es el caso que una agencia o compañía responsable en tomar
decisiones, comisionará un estudio de modelización de tal suerte que pueda llevar a cabo su tarea
correspondiente, en el sentido de que resultados científicos le permitan justificar una decisión dada.
Tal es el caso de la definición de zonas proclives a inundación para efectos de planeación urbana y
ordenamiento territorial a través de técnicas de modelización conocidas.
La evaluación del riesgo para diferentes opciones de decisión requiere la estimación de dos
componentes principales: la probabilidad de ocurrencia del evento y la estimación de sus
consecuencias (Kaplan y Garrick, 1981).La determinación cuantitativa del riesgo, requiere que ambos
componentes sean expresados en términos numéricos. Dentro de un análisis probabilista del riesgo, la
posibilidad de ocurrencia de un evento se expresa en función de su probabilidad, de tal forma que la
suma de las probabilidades sobre todos los posibles eventos es igual a la unidad (e.g. Bedford y Cooke,
2001). Las consecuencias de un evento se expresan de forma general en relación al costo (e.g. daños
esperados) pero también puede expresarse en función de la pérdida de esperanza de vida u otra medida
de severidad.
De acuerdo con el marco de trabajo presentado por Stirling (2003), la Figura 6 provee una vista
general de las respuestas metodológicas frente a diferentes grados de certeza en ambos, las
consecuencias y las probabilidades. La manera más sencilla de trabajar con incertidumbre es por
medio del análisis de sensibilidad de las variables. Esta herramienta se utiliza para conocer y entender
22
La incertidumbre y su evaluación
el comportamiento del modelo por medio de la sensibilidad de los resultados a cambios en las
variables de entrada y sus parámetros, los cuales no pueden ser conocidos con entera certeza. Otra
metodología, más demandante, es aquella que se denomina propagación de la incertidumbre en los
modelos. Esta concierne a la estimación del riesgo asociado a la salida y la distribución de
probabilidad de las variables resultantes, dada una incertidumbre en los parámetros y variables de
entrada. La implementación más simple de la propagación de la incertidumbre, involucra la definición
de una distribución conjunta en parámetros seleccionados, para posteriormente propagar su
incertidumbre hasta el resultado del modelo. Otra implementación más compleja comprende el
modelado de ciertas variables de interés como procesos estocásticos. Para propósitos
computacionales, la propagación de la incertidumbre involucra el muestreo de una distribución
conjunta por medio de un método de tipo Monte-Carlo o - si este es demasiado demandante- una
simulación Monte-Carlo reducida, por ejemplo usando el muestreo Latin Hypercube.
El análisis de escenarios es una metodología que tiene como propósito entender los efectos de la
incertidumbre en el resultado del modelo, este se lleva a cabo a través de la simulación de diversos
escenarios posibles, cada uno de los cuales es definido en función de hipótesis consistentes sobre los
23
La incertidumbre y su evaluación
forzamientos y las relaciones entre las variables clave dentro del problema. En este caso, los escenarios
no representan predicciones del futuro, sino simplemente visiones sencillas y lógicas en el largo plazo.
En el caso de hacer frente a condiciones de ignorancia, esta tiene dos componentes principales, por
un lado la imperfección del conocimiento científico y por otro, la impredecibilidad natural de los
sistemas. La incertidumbre epistémica, implica que en principio el conocimiento base puede ser
mejorado a través de más investigación, monitoreo o adquisición de datos. En este extremo, el método
científico puede trabajar de manera gradual hacia la reducción de la incertidumbre en un problema
dado, o al menos a su tratamiento específico. En este contexto, métodos para la evaluación y
cuantificación de los efectos de la incertidumbre en los modelos son muy útiles.
Desde luego, este no es un problema nuevo, es tan viejo como la historia de las herramientas de diseño,
máquinas y estructuras; en el sentido de que existe alguna experiencia en el pasado que documenta su
éxito y falla, pero se desconoce a qué fuerzas estará expuesta en el futuro. Esto mismo ocurre con los
modelos hidrológicos e hidrodinámicos, tenemos cierta experiencia de éxito y fracaso en la calibración
de los mismos, pero no estamos seguros de las condiciones de frontera y los cambios que puedan
ocurrir en un futuro.
En el contexto de diseño ingenieril, una forma de manejar la ignorancia de condiciones futuras ha sido
a través del desarrollo del concepto de Factor de Seguridad. Para una estructura, el factor de seguridad
se define como la proporción entre el esfuerzo actuante sobre la estructura y el esfuerzo crítico de falla
para un diseño particular. Es entonces un problema de estándares negociados respecto al factor de
seguridad aceptable para un tipo de aplicación dada. Pueden haber diversas fuentes de esfuerzos e
incertidumbre relacionadas con la especificación de los esfuerzos y el diseño, que a su vez vuelven
una enorme tarea la evaluación de factores de seguridad apropiados, sobre todo en problemas de
diseño complejos. Eso es lo que ahora se conoce como análisis de confiabilidad (e.g. Bockley, 1992).
Estas incertidumbres quieren decir que los diseños necesitan cierto grado de robustez. Al mismo
24
La incertidumbre y su evaluación
tiempo de que existe la posibilidad de ahorro en la optimización del diseño, también existe el riesgo
de falla como resultado del desprecio de la incertidumbre. Un ejemplo interesante es el uso del bordo
libre como factor de seguridad en el diseño de bordos contra inundaciones, tal y como lo discute Hine
(2007).
Este árbol de decisión está diseñado para ayudar en el proceso de selección del método para realizar
un análisis cuantitativo de incertidumbre. Se debe recordar que la incertidumbre también tiene
aspectos cualitativos, los cuales también pueden ser importantes en el proceso de toma de decisiones,
por lo que se les debe registrar siempre que sea posible (e.g. la metodología NUSAP propuesta por
van der Sluijs et al. 2005).
25
La incertidumbre y su evaluación
Figura 7. Árbol de decisión para un análisis de incertidumbre. Óvalos representan preguntas que
derivan en un método de incertidumbre; cuadros azules la clasificación de los métodos y cuadros
blancos métodos individuales o pequeños subgrupos.
26
La incertidumbre y su evaluación
Tal y como se presenta en la Figura 7, los métodos para el análisis de incertidumbre pueden dividirse
en tres categorías, asimilación de datos en tiempo real, condicionamiento de la incertidumbre con
datos y modelos de propagación de la incertidumbre, dentro de las cuales se encuentran los siguientes:
Representaciones difusas.
Filtro de Kalman.
Filtro de ensamble de Kalman.
Métodos de tipo Monte-Carlo
Regresión no-lineal.
Métodos Bayesianos.
Análisis de sensibilidad
Métodos emuladores.
Estimación de Incertidumbre con Máxima Verosimilitud Generalizada (GLUE).
Es natural que no sea posible representar todas las incertidumbres por medio de probabilidades. Un
intento para proveer una visión alternativa, fue dada por la teoría de conjuntos difusos propuesta por
Zadeh (1965), en donde la incertidumbre se puede expresar en medidas difusas como la expresión de
una posibilidad de diferentes resultados potenciales. Klir (2006) y Zadeh (2005) muestran de diferente
manera, como esta es una forma más general de métodos no probabilistas para expresar la
incertidumbre con base en la teoría de conjuntos. En este caso, se otorga énfasis en el uso de conjuntos
difusos en la propagación de incertidumbres desde las variables de entrada y valores de parámetros, a
través del modelo hidrológico o hidráulico, a fin de determinar las posibilidades de las salidas en lugar
de sus probabilidades.
Se define a un conjunto difuso a través del grado de membresía, 𝜇, de los miembros de ese conjunto,
dentro de un rango entre 0 y 1. Es posible definir cualquier variable difusa con respecto al conjunto
de valores, con un grado de membresía particular, con membresía nula en cero y membresía completa
en uno. Un ejemplo muy común para explicar una variable difusa es la altura de las personas, la cual
se puede medir en una escala de longitud. Pero, ¿qué significa decir que alguien es "bajo" o "alto" o
de "estatura media"? La clase de personas "altas", es un conjunto difuso que se puede extender sobre
diferentes partes de la escala de longitud en diferentes circunstancias (en el sur de México en la zona
rural o en la Ciudad de México). Un ejemplo más relevante con las variables ambientales es el de la
temperatura. La temperatura puede ser también cuantificada en una escala científica para este
propósito, pero también podemos investigarla de acuerdo a los antiguos registros del clima, donde un
registro puede indicar que un día fue "excepcionalmente caliente". Pero, ¿Qué es caliente? o ¿qué es
excepcionalmente caliente? Claramente, no hay una definición precisa de estas descripciones y se les
puede tratar como variables difusas.
27
La incertidumbre y su evaluación
Posibilidades conjuntas de múltiples variables también se pueden expresar de esta manera, en este
caso el grado de membresía se define con respecto al conjunto de ambas variables. El rango de
variables para el cual 𝜇 > 0, se conoce como soporte del conjunto difuso, si este soporte tiene un
rango muy limitado de valores constituye un conjunto nítido, sin embargo la membresía de cualquier
valor en ese conjunto será más o menos difusa dependiendo de su grado de membresía. Los diferentes
grados de incertidumbre de una variable en particular (o posibilidades conjuntas de muchas variables)
pueden expresarse en función de cortes anidados 𝛼 del conjunto difuso. Estos son conjuntos nítidos
definidos por el rango de valores para el cual 𝜇 ≥ 𝛼 (0 < 𝛼 < 1). Las variables difusas expresadas
de esta forma pueden ser manipuladas por operadores estándar o aritmética difusa (incluyendo suma,
resta y los operadores lingüísticos generales).
Ejemplos del uso de este tipo de metodologías en el caso de problemas asociados a la hidráulica, más
específicamente a la cuantificación de la incertidumbre en curvas elevación-gasto para ríos, han sido
presentados por Shrestra y Simonovic (2009). En este caso, además de la incertidumbre asociada a las
mediciones de las variables, la relación gasto-elevación también contiene incertidumbres debidas a
cambios en las secciones transversales de los ríos, las cuales pueden introducir una tendencia en la
regresión de los datos. Por otro lado, la histéresis añade un carácter no unívoco a la relación, la cual
se estima de forma tradicional por medio de la fórmula de Jones (1916). Sin embargo, el modelado de
la histéresis con esta expresión está afectado por la incertidumbre debida a simplificaciones en las
hipótesis que no pueden expresarse en un marco de trabajo estadístico por medio de bandas de
confianza.
La teoría de conjuntos difusos representa una manera alternativa para el análisis de incertidumbre por
medio de un marco de trabajo no probabilista, en el que se definen de manera vaga las fronteras de
los conjuntos difusos. El-Baroudy y Simonovic (2006) y Guyonnet et al. (2003) utilizaron conjuntos
difusos para tratar incertidumbres debido a la falta de conocimiento y la carencia de datos,
respectivamente. En años recientes, varios investigadores han utilizado los conjuntos difusos para
expresar la incertidumbre en las mediciones (Mauris et al. 2001; Xia et al. 2000). El estudio de Xia et
al. (2000) consideró la aplicación de un conjunto difuso para la estimación de la incertidumbre cuando
el número de mediciones es muy pequeño y la función de distribución de probabilidad es desconocida.
Mientras que Mauris et al. (2001) los utilizaron para la representación de la interpretación vertical de
la función de distribución de probabilidad y anidaron bloques de intervalos como la interpretación
horizontal de dicha función para la representación de la incertidumbre en la medición. El estudio
mostró que la representación difusa de la incertidumbre en la medición, en función de distribuciones
de posibilidades es compatible con la dispersión de los datos registrados y provee un intervalo de
confianza que contiene una proporción importante de los valores observados. Otra metodología que
evalúa la incertidumbre en las mediciones utiliza variables aleatorias difusas (Ferrero and Salicone
2003; 2004; Urbanski and Wasowski 2003) para definir las propiedades aleatorias de la incertidumbre
en función de la distribución de probabilidad y los componentes sistemáticos en términos de la función
de posibilidad.
28
La incertidumbre y su evaluación
La metodología de conjuntos difusos, también conocida como regresión difusa, puede utilizarse en
problemas donde no hay valores únicos en la solución de una expresión que relaciona variables
dependientes e independientes. La regresión difusa define bandas de incertidumbre superior e inferior
alrededor de valores medidos en campo, en años recientes hay diversos ejemplos de lo anterior con
aplicaciones en hidrología (e.g. Bárdossy et al. 1990; Lee et al. 2001; D'Urso 2003; Kao and Chyu
2003; Mousavi et al. 2007).
Entre los números difusos utilizados con mayor frecuencia, se encuentra el número difuso triangular,
que se basa en un número 𝐴 = (𝑎, 𝑏, 𝑐) con 𝑎 ≤ 𝑏 ≤ 𝑐. El intervalo (𝑎, 𝑏) representa la base del
número triangular difuso. Esta función de membresía se muestra en el panel izquierdo de la Figura 8
y está dada por:
0 𝑠𝑖 𝑥 ≤ 𝑎
𝑥−𝑎
𝑠𝑖 𝑎 ≤ 𝑥 ≤ 𝑏
𝑏−𝑎
𝜇𝐴 (𝑥) =
𝑐−𝑥 (6)
𝑠𝑖 𝑏 ≤ 𝑥 ≤ 𝑐
𝑐−𝑏
{ 0 𝑠𝑖 𝑥 ≥ 𝑐
Número difuso trapezoidal, la función para este caso se basa en un número difuso número 𝐴 =
(𝑎, 𝑏, 𝑐, 𝑑) con 𝑎 ≤ 𝑏 ≤ 𝑐 ≤ 𝑑. El intervalo (𝑎, 𝑑) representa la base del número difuso y su
membresía se ilustra en el panel derecho de la Figura 8, la cual se define por:
0 𝑠𝑖 𝑥 ≤ 𝑎
𝑥−𝑎
𝑠𝑖 𝑎 ≤ 𝑥 ≤ 𝑏
𝑏−𝑎
𝜇𝐴 (𝑥) = 1 𝑠𝑖 𝑏 ≤ 𝑥 ≤ 𝑐
(7)
𝑑−𝑥
𝑠𝑖 𝑐 ≤ 𝑥 ≤ 𝑑
𝑑−𝑐
{ 0 𝑠𝑖 𝑥 ≥ 𝑑
29
La incertidumbre y su evaluación
Número difuso de Izquierda-Derecha (𝐼 − 𝐷), es posible modificar la función lineal que se emplea en
la definición de números triangulares difusos, con una función monotónica. A esta se le conoce como
representación Izquerda-Derecha de los números difusos y fue propuesta por Dubois y Prade (1980).
Por ejemplo, se expresa el coeficiente 𝐴̈ = 𝑓(𝑚, 𝛼, 𝛽), donde 𝑚 es el valor central y los valores 𝛼 y
𝛽 representan la dispersión a la izquierda y derecha, respectivamente. La función de membresía,
ilustrada en la Figura 9, queda expresada de la siguiente forma:
𝑚−𝑥
1− 𝑝𝑎𝑟𝑎 𝑚 − 𝛼 ≤ 𝑥 ≤ 𝛼, 𝛼>0
𝛼
𝜇𝐴 (𝑥) = { 𝑥−𝑚 (8)
1− 𝑝𝑎𝑟𝑎 𝑚 ≤ 𝑥 ≤ 𝑚 + 𝛽, 𝛽>0
𝛽
Por otro lado, los cortes anidados 𝛼 del conjunto difuso, permiten definir con mayor precisión el rango
de valores permitidos para la variable difusa, ver Figura 10. En donde 𝛼 representa una intersección
de la función de membresía en dos puntos 𝑎1 y 𝑎2 donde (𝑎1 , 𝑎2 𝜖 𝐴). Así la región 𝐴𝛼 contiene
30
La incertidumbre y su evaluación
todos los valores posibles para la variable difusa 𝐴, este subconjunto contiene los elementos que tienen
al menos una membresía igual o mayor a 𝛼, y está dado por 𝐴𝛼 = {𝑎 𝜖 𝐴, 𝜇𝐴 (𝐴) ≥ 𝛼}:
El filtro de Kalman (KF) se deriva del trabajo de Kalman (1960) para el control óptimo de sistemas
lineales. Es una manera recursiva de actualizar un modelo (paso a paso), conforme nuevos datos sobre
el comportamiento del sistema están disponibles. El filtro de Kalman ha sido utilizado en hidrología
y problemas ambientales como una manera de mejorar los pronósticos. Esto se logra en el sentido de
que busca maximizar la correlación entre lo observado y lo modelado, al mismo tiempo que minimiza
la varianza del error en la predicción. Una ecuación generalizada de este método de asimilación de
datos, tiene su base en la representación discreta del modelo de tal suerte que:
donde los estados futuros del sistema están dados por 𝑆(𝑡+1) definidos a través del modelo 𝑀[ ] como
una función de estados en un tiempo t, un vector de valores de entrada 𝑈𝑡 en un tiempo 𝑡 y en tiempos
pasados, y un vector de parámetros 𝛩, que se asume como constante. Para la correcta aplicación de
este método, el modelo debe asumirse como lineal (ej. la duplicación en las entradas del modelo,
duplicará las salidas del mismo). El término 𝜀𝑡 representa un término de error dinámico del modelo.
En este caso, las salidas del modelo serán una función lineal de sus estados y forzamientos,
condicionadas a los valores seleccionados de los parámetros. Por lo que se asume que el valor
verdadero de un estado observable, 𝑆𝑡∗ , puede representarse como una función de la salida del modelo
y un error aleatorio, de tal suerte que para cualquier estado particular:
31
La incertidumbre y su evaluación
donde 𝑆𝑡 es el estado del sistema en un tiempo 𝑡 y con un error aleatorio 𝜂𝑡 , que normalmente se
asume con media cero y con una distribución normal (sin embargo, habría que hacer notar que la
derivación original de Kalman se desarrolló en función de proyecciones ortogonales y no requería la
hipótesis de errores Gaussianos). Conforme una observación nueva del sistema y su estado, está
disponible 𝑆̃𝑡 en el tiempo 𝑡, es posible representar al error del pronóstico del estado verdadero en dos
maneras, notando que la predicción en el tiempo 𝑡0 es función exclusiva de los estados pasados, tal
que:
𝑆̃𝑡 − 𝑆𝑡0
∗
= 𝑀[𝑆𝑡0 ] = 𝜂𝑡0 (11)
El filtro de Kalman actualiza directamente los pronósticos para corregir este error por medio un
proceso en dos pasos, un paso predictor seguido de un paso corrector. En el paso de predicción, la
actualización de la estimación de los estados, se obtiene por medio de la siguiente ecuación:
donde 𝑆̂𝑡0+1|𝑡 representa los nuevos estados condicionales y 𝐾𝑡 , conocida como ganancia de Kalman,
es equivalente a un peso 𝑊 = 𝜎𝑏2 /(𝜎𝑏2 + 𝜎𝑂2 ) definido por las varianzas de los valores de estimados
y observados. Sin embargo, en el filtro de Kalman no es necesario asumir a la varianza como un valor
conocido, ya que esta puede recalcularse conforme se corrige el pronóstico. El tamaño de la ganancia
de Kalman dependerá de la magnitud del error en la predicción, y se actualiza en cada paso de tiempo
conforme a la disponibilidad de nuevos datos. La predicción se corrige en el segundo paso como:
Si se requiere una predicción más de un paso de tiempo hacia adelante, es posible aplicar la ecuación
de predicción de forma sucesiva hasta que se alcance el tiempo necesario o solicitado. Cabe hacer
notar que esto requiere el uso de ciertas hipótesis sobre las entradas futuras, en virtud de que estas
todavía no han sido medidas. El paso de corrección para mejorar la estimación, sólo se puede aplicar
conforme a la disponibilidad de nuevas observaciones (ver Figura 11).
32
La incertidumbre y su evaluación
Figura 11. Actualización de un pronóstico en etapas para cada paso de tiempo conforme nueva
información sobre el valor pronosticado está disponible (línea gris suave).
Ejemplos de aplicación del 𝐾𝐹 para problemas relacionados con inundaciones, han sido presentados
por Lees et al. (1994) o Beven (2001), quienes utilizan esta metodología para el diseño de sistemas
de alerta ante inundaciones en una cuenca de Escocia. Por otro lado un buen resumen que integra la
aplicación de esta metodología a problemas de pronóstico de avenidas se puede encontrar en Young
(2002).
En el caso de que se trate de aplicar esta técnica a modelos medianamente lineales, el filtro de Kalman
𝐾𝐹, puede ser modificado para considerar la actualización de las respuestas y los parámetros dentro
del modelo. Esta metodología se conoce como filtro de Kalman extendido y requiere la linealización
de la varianza del pronóstico (y covarianza en el caso de varios parámetros o variables) asociada a las
predicciones no lineales del modelo entre los tiempos 𝑡 y 𝑡 − 1. En este caso (al primer orden) el
conjunto deseado de valores al tiempo 𝑡, 𝑆 ∗ , en el modelo 𝑀(𝑆) será una perturbación de los estados
actuales estimados con forma:
donde, 𝐿𝑡−1 es la matriz Jacobiano del gradiente, evaluado al tiempo 𝑡 − 1, que tiene elementos:
donde 𝑁𝑠 representa el número de estados. La matriz 𝐿 extrapola cualquier perturbación del estado en
el modelo al estado del objetivo. La matriz transpuesta 𝐿𝑇 se utiliza para extrapolar un estado objetivo
en el tiempo 𝑡 − 1 a su equivalente en el modelo, en el tiempo 𝑡. Este filtro extendido también asume
que las observaciones contienen errores aleatorios con media cero y covarianza conocida. Esta
metodología se aplica sólo a modelos débilmente no lineales. Ejemplos de aplicación para la
determinación de la humedad del suelo y la estimación de parámetros en acuíferos complejos se
encuentran en Walker et al. (2001), y Yeh y Huang (2005), respectivamente.
33
La incertidumbre y su evaluación
El ensamble del filtro de Kalman (𝐸𝑛𝐾𝐹) fue desarrollado con el propósito de aplicarlo a problemas
y modelos con mayor no linealidad, por medio de la propagación de diferentes fuentes de error a lo
largo del modelo. Para ello se utiliza una estrategia de muestreo de tipo Monte-Carlo, que permite que
cualquier efecto en de las no linealidades es tratado directamente en las salidas de los modelos. En
cada paso de tiempo se utilizan las ecuaciones predictor-corrector del filtro de Kalman, para la
actualización de valores de estado y parámetros del modelo. Esto provee la base para la realización de
un muestreo tipo Monte-Carlo en el siguiente paso de tiempo. En la mayoría de las aplicaciones el
𝐸𝑛𝐾𝐹 se asumen distribuciones multivariadas de tipo Gaussiano, que requieren la estimación y
actualización de la matriz de varianza-covarianza completa. Este método fue utilizado por primera
vez por Evensen (1994) en el contexto de la predicción del clima, y desde entonces se ha utilizado
para modelos hidrológicos por Moradkhani et al.(2005), Vrugt et al.(2006), y Vrugt y Robinson
(2007); modelos hidráulicos por Madsen y Cañizares (1999), Sorensen et al.(2004), y Weerts y El
Serafy (2006), y estimación de flujos atmosféricos por Margulis et al.(2002), Reichle et al.(2002), y
Crowd and Wood (2003).
El empleo de técnicas de tipo Monte-Carlo en la modelación del clima y flujos ambientales tiene una
larga historia. Por ejemplo, Press (1968) llevó a cabo un experimento de tipo Monte-Carlo que
involucró cinco millones de simulaciones con un modelo geofísico para la propagación de ondas
sísmicas de la tierra (incluso con las computadoras de la época). En este caso consideró como válidos
los resultados de sólo 6 modelos, con predicciones adecuadas de los datos disponibles (sin embargo,
ninguno de esos modelos es cercano a los modelos actuales que representan la estructura terrestre, con
lo que podemos afirmar que la ciencia progresa para reducir la incertidumbre en las predicciones pero
la lección es que no deberíamos de tener mucha fe en los modelos actuales).
Esencialmente, en su forma más simple los experimentos de tipo Monte-Carlo involucran la selección
aleatoria de un conjunto de parámetros (y tal vez representaciones de las variables de entrada), de tal
suerte que se ejecuten múltiples realizaciones del modelo para determinar las diferentes respuestas o
resultados. De alguna forma, esto permite explorar la superficie de respuesta en el espacio del modelo,
como una alternativa al muestreo discreto en intervalos. Esto es particularmente útil cuando las salidas
de un modelo dependen de manera no-lineal de las entradas y parámetros que lo definen, de tal suerte
que la propagación analítica de la incertidumbre no es posible. Propiamente todos los modelos
utilizados en hidrología e hidráulica son de este tipo.
Las limitaciones de cómputo aplican de la misma forma que en el muestreo discreto, ya que en el
espacio del modelo puede resultar complicado llevar a cabo un número suficiente de muestras para
34
La incertidumbre y su evaluación
𝑋
𝐹(𝑀(𝐼) ≤ 𝑋) = ∫ 𝑊( 𝐼|𝑀(𝐼) ≤ 𝑋)𝑑𝑋 (17)
−∞
donde 𝑀(𝐼) es la salida de un modelo forzada por un vector de entradas 𝐼 que son menores a un valor
particular 𝑋. Las salidas pueden ser valores de una variable en particular, o puede ser una medida del
desempeño o verosimilitud del modelo. W(𝑀(𝐼)) es una función de peso para una ejecución en
particular del modelo que debe reflejar la ocurrencia relativa de un vector particular 𝐼. La suma
acumulada de W (𝑀(𝐼)) en todas las realizaciones deberá escalarse para sumar 1.
Este método consiste en la calibración de parámetros en un modelo no lineal, recae de manera firme
en el paradigma de optimización y puede ser usado para estimar la incertidumbre en ambos,
parámetros y resultados del modelo. Esta metodología ha sido ampliamente utilizada en flujos
ambientales, en rutinas de estimación de parámetros de diversos códigos fuente, por ejemplo en flujo
subterráneo en el modelo MODFLOW de Hill et al. (2000), el modelo de transporte en flujo uniforme
de Toride et al. (1995), y en códigos de estimación de parámetros como UCODE de Poeter et al.
(2005) y PEST de Doherty (2005).
El libro de Hill y Teideman (2007) provee una exposición detallada de las técnicas que utilizan la
regresión no-lineal en problemas de flujo subterráneo. En este tipo de método, el problema de
optimización se presenta como:
35
La incertidumbre y su evaluación
tiempo y espacio. La optimización se realiza en función de la validez de las hipótesis del modelo para
representar la respuesta del sistema, y los errores residuales que se pueden hacer para satisfacer ciertas
hipótesis estadísticas. La función objetivo expresada en conjunto con los errores en forma matricial,
es:
donde 𝑦 es una observación, 𝑦̂ es la predicción del modelo, los { } representan una variable vectorial,
𝑊 es una matriz cuadrada de coeficientes de peso y 𝜀 es el error de la predicción. En aquellos casos
en los que los errores de la predicción pueden asumirse independientes, la matriz de peso tendrá ceros
en la diagonal principal. Naturalmente, se pueden presentar otras maneras de representar la función
objetivo, incluyendo la maximización de la función de verosimilitud en lugar de la minimización de
la suma de los cuadrados en la ecuación (19) (e.g. ver Hill y Tiedeman, 2007). La función objetivo en
forma logarítmica de verosimilitud tiene la forma:
Desde luego información adicional puede ser añadida a la función objetivo, por ejemplo, puede existir
información antecedente sobre el valor de algunos parámetros en un sitio dado (en un ejemplo de flujo
subterráneo, quizá como el resultado de un bombeo en un pozo, para determinar su conductividad
hidráulica). En este caso, es deseable introducir algunas condicionantes a los valores a través de la
suma de los pesos a la función objetivo, para limitar la diferencia entre la conductividad observada y
predicha.
También se pueden incorporar funciones sencillas para los errores, en muchas aplicaciones del
modelado del medio ambiente, se tienen errores heterocedásticos, que son aquellos en los que la
varianza cambia en función de la magnitud de la predicción. Evidentemente, esto entra en conflicto
con la hipótesis de una matriz de varianza-covarianza constante, por lo que es necesario transformar
36
La incertidumbre y su evaluación
al error. Para el caso más simple, se asume que el valor observado y es igual al valor verdadero más
un error que es función de la magnitud de esa variable tal que:
Esto es equivalente a usar la transformada logarítmica de los valores observados para regresar a la
forma de un simple error añadido, por ejemplo:
Otras transformaciones, que usan los la raíz cuadrada para el residual toman la forma:
Los orígenes de este tipo de métodos se fundamentan en un artículo del Reverendo Thomas Bayes
encontrado después de su muerte en 1761, el cual fue presentado ante la Sociedad Real de Londres
por su amigo Richard Price en 1763, con título "Ensayo hacia la solución de un problema en la doctrina
de la suerte". Este trabajo contiene lo que ahora se conoce como el teorema de Bayes. En esta
metodología, las primeras estimaciones de los parámetros del modelo, deben ser modificadas en
función de una medida de la verosimilitud que indique que tan bien el modelo reproduce las
observaciones disponibles. De esta manera, es posible calcular una distribución posterior de
parámetros, que incluya cualquier covariación entre los parámetros para obtener buenos ajustes. La
ecuación de Bayes se define de forma tal que, dado un número de modelos o hipótesis viables, la
evidencia y observaciones 𝑂, la probabilidad de los modelos 𝑀 en función de 𝑂 está definida por:
donde 𝑝(𝑀) es un probabilidad inicial definida para todos los modelos viables, 𝑝(𝑂|𝑀) es la
verosimilitud de simular la evidencia dados los modelos, y 𝐶 es una constante de escala para asegurar
que la densidad de probabilidad acumulada posterior 𝑝(𝑀|𝑂) sea igual a 1. La ecuación de Bayes
representa una estrategia formal de aprendizaje. Conforme un nuevo conjunto de datos esté disponible,
se puede utilizar la ecuación para actualizar la distribución y determinar una nueva distribución
posterior. También se puede utilizar para seleccionar entre diferentes estructuras de los modelos por
medio del empleo de factores Bayesianos, y combinar las predicciones provenientes de estas
estructuras con usando un promedio de modelos Bayesiano.
37
La incertidumbre y su evaluación
En este método, las distribuciones iniciales de los parámetros se seleccionan de manera subjetiva,
pero, conforme se añaden más datos al análisis y se actualiza la distribución posterior, se acepta que
ésta se aproximará a la distribución conjunta de los parámetros verdadera (al menos en casos ideales).
Así esta metodología representa la forma más objetiva para obtener estimaciones válidas de las
funciones de probabilidad conjunta de parámetros y errores residuales. Lo cual representa la única
manera de obtener la probabilidad de predecir una observación condicionada a la selección de un
modelo particular. Como Lindley (2006) y otros sugieren, la probabilidad es la única manera de lidiar
con la incertidumbre, incluso si es complicado encontrar la forma correcta de la verosimilitud (e.g.
O'Hagan y Oakley, 2004).
Por esta razón, los métodos Bayesianos se ha vuelto tremendamente populares en una amplia gama
de disciplinas, desde la ecología (Wikle, 2003, Clark 2006; van Oijen et al. 2006) la modelación de
flujos subterráneos (Neumann, 2003; Feyen et al. 2003), el modelado de la calidad del agua (Jackson
et al. 2004), las proyecciones del incremento en el nivel del mar (Patwaedhan y Small 1992) el
pronóstico de inundaciones (Krzysztofowicz, 2002a,b); hasta los modelos lluvia-escurrimiento (Vrug
et al. 2003; Marshall et al. 2004; Yang et al. 2007). Entre sus ventajas reconocidas se encuentran: que
es posible utilizar la información sobre los parámetros y otras incertidumbres, para expresar
información previa sobre el sistema; que se puede usar a la estructura formal de la verosimilitud para
determinar el contenido de información de diferentes conjuntos de datos y estructuras del modelo; que
una vez que se ha encontrado la forma de la función de verosimilitud, el proceso de aplicar la ecuación
de Bayes es objetivo y coherente en el sentido de que la solución converge a una solución verdadera;
y que provee una distribución predictiva de cualquier variable de interés en función de su probabilidad.
Con todas estas ventajas de los métodos Bayesianos, será natural preguntarse si merece la pena
considerar cualquier otro método. Ciertamente, en casos donde las hipótesis del análisis sean válidas,
y cuando la información contenida en los datos disponibles, sea tal que las distribuciones posteriores
no sean afectadas por la subjetividad de la selección inicial, estas ventajas se mantienen.
Desafortunadamente, no es el caso para la mayor parte de los modelos utilizados en hidrología o en el
medio ambiente, dado que la definición de una medida formal de verosimilitud puede dar como
resultado conclusiones equivocadas en caso de que las hipótesis sobre las que se fundamenten no sean
válidas (ver discusiones de Beven 2006, Beven et al. 2008). En estos casos, los modelos están sujetos
a errores en ambos, su estructura y las variables de entrada, por lo que sólo es posible representar la
complejidad de los errores de forma aproximada; y esto significa que la función de verosimilitud será
solo aproximada y los parámetros resultantes podrán ser tendenciosos, por lo que algunas de las
ventajas se pierden (Beven et al. 2008).
38
La incertidumbre y su evaluación
𝑑𝑝
𝑑𝑥𝑖 (25)
𝑆𝐼𝑖 =
𝑥𝑖
𝑑𝑝
El término del gradiente, , es por lo general muy difícil de evaluar analíticamente (lo que requiere
𝑑𝑥𝑖
la derivación de las ecuaciones del modelo), por lo que se calcula de forma numérica por medio de
ejecuciones del modelo con valores diferentes de 𝑥𝑖 . Una aproximación en diferencias finitas a la ec.
(25) está dada por:
Es posible utilizar estas medidas de sensibilidad para examinar la sensibilidad relativa de diferentes
factores en el espacio del modelo. En virtud de que son medidas puntuales, el índice para un parámetro
particular del modelo o variable de entrada puede variar (a veces de forma discontinua y rápida) a lo
largo de todo el espacio del modelo. Así mismo, es de esperarse que también varíe en función de la
variable de salida (𝑃) que sea considerada. Por lo tanto, mientras que representa una primera guía a la
sensibilidad de los parámetros y variables de entrada, existen los mismos problemas de explorar la
forma en la que la sensibilidad cambia a lo largo del espacio del modelo, como los hay en la
exploración de las respuestas en sí mismas. De hecho, el problema se complica en el sentido de que
puede haber sensibilidades a la ocurrencia conjunta de ciertos valores de parámetros y entradas, que
no se revelan a través del uso de medidas individuales como las que se presentan en las ecuaciones
(25) y (26). En este sentido, es necesario hacer notar que estudios comparativos de diversos métodos
para realizar el análisis de sensibilidad en modelos ambientales, han reportado que las sensibilidades
aparentes de diferentes factores varían con el tipo de análisis de sensibilidad implementado
(Borgonovo, 2006; Pappenberger et al. 2006; Tang et al. 2007). No existe una solución única al
problema de la sensibilidad de parámetros, pero por lo general los métodos permitirán identificar los
factores más importantes.
39
La incertidumbre y su evaluación
Si se emplea un modelo que sea computacionalmente muy caro, es decir que las simulaciones tarden
mucho tiempo, es evidente que los análisis de incertidumbre serán posibles sólo para una pequeña
muestra de las respuestas. Esto ha dado lugar a una gran variedad de intentos por emular las respuestas
complejas de modelos, por medio de descripciones más simples, de tal suerte que el número limitado
de respuestas de un modelo complejo puedan aproximarse a más puntos dentro del espacio o dominio
del modelo. A esta técnica se le conoce como emulación de modelos.
Existen dos tipos de emulación: en la primera, se usa un modelo más simple para reproducir el
comportamiento de un modelo mucho más complejo y que toma mucho tiempo en terminar una
simulación. El modelo emulador es usualmente bueno para representar conjuntos de salidas del
modelo complejo (y pueden incluir variables de interés que no son observables de forma directa con
mediciones). El emulador se utiliza para correr más condiciones de entrada de forma más rápida tal
que se expanda el rango de resultados disponibles. La emulación no es un reemplazo a la realización
de más ejecuciones del modelo complejo (especialmente en modelos altamente no-lineales), pero, en
algunos casos, se pueden obtener reducciones ventajosas de la dimensionalidad del problema. Por
ejemplo, Young (1998) demostró que para el caso de la temperatura media global, la salida de un
modelo global de carbón con 26 parámetros puede ser simulada por medio de una ecuación de
transferencia sencilla de segundo orden con gran precisión (ver Figura 12). La función de
transferencia se puede entonces utilizar como un emulador para explorar las respuestas de un rango
más amplio de entradas en segundos, en lugar de esperar resultados de las ejecuciones del modelo más
complicado.
40
La incertidumbre y su evaluación
En este caso podemos esperar que los resultados de la función de transferencia simple, son útiles en
el rango de entradas para las que provee una buena simulación en comparación con el modelo no
lineal. El problema de qué tan amplio es ese rango, o qué tan válida es la emulación del modelo, no
se puede resolver sin ejecutar el modelo complejo más ocasiones para revisar los resultados de la
emulación.
El segundo tipo de emulación consiste esencialmente, en una técnica de interpolación. En este caso,
se utiliza el emulador para interpolar la forma de la salida en la superficie de respuesta del modelo, a
partir de un número limitado de ejecuciones del modelo completo. Este proceso es equivalente a la
interpolación de la lluvia en una cuenca a partir de datos de estaciones climatológicas. En este caso la
variación de las salidas del modelo no lineal es función, además de las entradas, de las variaciones en
los parámetros en cada dimensión dentro del espacio del modelo.
Existen muchas técnicas de emulación, desde luego, ninguna de ellas es perfecta ya que interfieren
con un gran número de valores desconocidos a partir de un grupo pequeño de valores conocidos sobre
la superficie de respuesta. La complejidad de esta superficie (gobernada por la no linealidad en las
salidas del modelo) controlará el éxito de la técnica de interpolación. Dentro de estos métodos
utilizados para este propósito se encuentran el emulador Gaussiano (ver O'Hagan, 2006), donde la
naturaleza de la interpolación puede variar a través del espacio en función de la información
disponible. También existen métodos en función de valores vecinos (Beven y Binley, 1992; Osidele
et al. 2006); análisis de regresión (Iooss et al. 2006); redes neuronales (Broad et al. 2005); y de
parámetros dependientes del estado (Ratto et al. 2005). Por definición, todos estos métodos
funcionarán en relación con la información disponible de las ejecuciones del modelo más complejo.
Como en cualquier técnica de interpolación, habrá cierta incertidumbre asociada con la estimación de
la forma de la superficie de respuesta. Para aquellas superficies que sean sencillas, la incertidumbre
no será muy grande, pero para superficies complejas, es probable que sí lo sea.
El propósito último de cualquier modelo, consiste en que sus resultados sean útiles para el
mejoramiento de la toma de decisiones sobre algún problema sea este ambiental, de planeación o
hidrológico. Sin embargo, los usuarios no siempre tienen en mente las grandes simplificaciones o
hipótesis de estas herramientas para representar una realidad que resulta, la mayoría de las veces,
mucho más compleja.
Por ejemplo, los modelos hidrológicos distribuidos determinan el comportamiento físico de una
cuenca y su relación lluvia-escurrimiento, a través de criterios prácticos y relaciones empíricas. Por
lo tanto, una interrogante válida sobre los resultados de estos modelos consiste en conocer o
determinar hasta qué punto, estas aproximaciones de procesos y parámetros distribuidos, son capaces
41
La incertidumbre y su evaluación
Por otro lado, el reconocimiento del concepto conocido como equifinalidad, surgió de experimentos
de Monte Carlo en la aplicación de modelos con conjuntos de diferentes parámetros en la simulación
de descargas en cuencas de gran escala (ver Beven y Binley, 1992; Duan et al., 1992; Beven, 1993).
La equifinalidad es la existencia comprobada de un conjunto de parámetros óptimos que de
implementarse en un modelo hidrológico son capaces de reproducir un escurrimiento medido en
campo. Es decir, con la misma herramienta numérica existen varias variaciones en los parámetros que
permitirán llegar a una misma solución. Este problema condujo a Beven y Binley (1992) a producir
una metodología conocida como Estimación de Incertidumbre con Máxima Verosimilitud
Generalizada (GLUE, por sus siglas en inglés), la cual ha sido desarrollada de forma continua por
Beven (2000b) y Beven (2001).
GLUE representa una extensión del análisis de sensibilidad generalizada de Hornberger, Lanza y
Young (Hornberger y Spear, 1981; Spear et al. 1994) en la que muchos conjuntos diferentes de
parámetros del modelo se eligen al azar, con lo que se tiene la posibilidad de generar varias
simulaciones de hidrogramas que pueden representar la realidad.
En GLUE las predicciones de los modelos son ponderados por una medida de probabilidad con base
en los resultados para formar una distribución acumulativa ponderada de cualquier variable de interés
predicha. Los marcos tradicionales de probabilidad y estadística pueden ser utilizados, en cuyo caso
las distribuciones de predicción de salida pueden considerarse como probabilidades de predicción de
la variable de interés. Sin embargo, la metodología es general, incluyendo medidas difusas, en cuyo
caso sólo delimitan las predicciones. Con la ecuación de Bayes pueden combinarse diferentes marcos
de probabilidad (ver Beven, 2000a; Beven, 2001).
Una de las enseñanzas de los estudios de GLUE es que una buena caracterización de los parámetros
da un buen ajuste en las modelaciones. Es muy raro el caso en que las simulaciones sean tan sensibles
a un determinado parámetro y que sólo ciertos valores de ese parámetro generen buenas
aproximaciones. Aun así, reuniendo diferentes valores de parámetros de diferentes fuentes, esto no es
garantía de que (incluso si fueron óptimas las situaciones en las que se determinaron), darán buenos
resultados como conjunto en diferentes circunstancias.
42
La incertidumbre y su evaluación
difíciles de evaluar a priori. En principio, la incertidumbre adicional derivada de los errores en las
estimaciones de datos de entrada y otras condiciones de frontera también podrían incluirse en el
GLUE, pero esto normalmente no se hace, principalmente por los altos requerimientos
computacionales. De esta forma, los resultados serán condicionados a: los datos de entrada, la
estructura del modelo seleccionado, la elección de los parámetros a variar y las medidas de
probabilidad elegidas para la evaluación del modelo. Cada elección, deben ser explícita y debe estar
sujeta a una revisión crítica de los usuarios finales.
Conceptualmente, la base de la metodología GLUE es muy sencilla y puede resumirse en una serie de
decisiones, a saber:
Decidir en una medida o medidas de verosimilitud informal (o formal) para evaluar cada salida
del modelo, incluyendo un criterio de rechazo para una salida que no de un comportamiento
satisfactorio con verosimilitud cero. Idealmente, esto se debe hacer antes de correr el modelo,
considerando todas los posibles errores en variables de entrada y observaciones (Beven, 2006).
Definir un método para generar realizaciones aleatorias de los modelos consistentes con las
hipótesis propuestas en los pasos 1 y 2.
43
Incertidumbre en la estimación de hidrogramas de entrada al vaso
La finalidad de este capítulo es proporcionar elementos para estimar la avenida de diseño de una obra
en particular, esto es la avenida máxima que dicha obra deberá manejar sin que le ocurran daños. Para
ello se exponen tres métodos alternativos de cálculo, se discuten los criterios para seleccionarlos y,
finalmente, se analiza el efecto de la regulación en el vaso para el caso del diseño de la obra de
excedencias de las presas.
Para diseñar una obra de excedencias se necesitan determinar las avenidas con las que teóricamente
trabajará dicha obra, ya sea las que se presentan únicamente en condiciones extraordinarias, o las que
frecuentemente se tendrán que manejar.
Para determinar tales avenidas se requiere, en primer término definir las avenidas que puedan ocurrir
en el río, independientemente de la posible presa que regulará su comportamiento.
Una vez determinadas las avenidas del río, en particular la de diseño, se procede a calcular el efecto
regulador que la presa ejerce sobre ellas, para obtener así el gasto máximo que descargará la obra de
excedencias. Cuando se está en la etapa de diseño de una obra de excedencias, esta última operación
implica un proceso de aproximaciones sucesivas, puesto que para estudiar la regulación en el vaso se
requiere suponer conocidas las dimensiones del vertedor.
Las avenidas son escurrimientos causados por tormentas ocasionales que provocan gastos por encima
de los normales. De los volúmenes llovidos, calculados como el producto de las alturas de la lluvia
por el área de la cuenca, solamente escurre una parte, pues la otra queda retenida momentáneamente,
se evapora o se infiltra en el terreno. Los volúmenes no escurridos constituyen las pérdidas, cuya
predicción es difícil porque estos fenómenos obedecen a leyes complejas todavía no bien
comprendidas. Por esta razón es necesario contar con datos recientes de escurrimientos y
precipitaciones producidas por tormentas ocurridas en el pasado, para calibrar modelos que permitan
predecir posibles fenómenos que pudieran presentarse en el futuro y que constituyen la base para los
estudios destinados a estimar las avenidas de diseño.
Existen distintos tipos de métodos para la determinación de avenidas de diseño; cuando se dispone de
un registro histórico suficientemente largo de escurrimientos en o cerca del sitio de interés, se hace un
análisis estadístico de los datos del registro, que puede ser univariado (cuando interesa
fundamentalmente el gasto pico de la avenida) o bien multivariado cuando interesa toda su forma.
44
Incertidumbre en la estimación de hidrogramas de entrada al vaso
Sin embargo, en muchas ocasiones no se cuenta con datos de escurrimientos registrados en el sitio de
interés y se requiere usar métodos hidrometeorológicos, de acuerdo con los cuales se calcula primero
una tormenta de diseño, que después se transforma en hidrograma usando un modelo apropiado de
transformación lluvias-escurrimiento, de preferencia calibrado con datos de una cuenca similar a la
del sitio que se estudia.
Finalmente, hay casos en los que tampoco se cuenta con datos para dicha calibración, o bien en los
que sólo se requiere una estimación preliminar, en los cuales se utilizan métodos empíricos.
Para precisar ideas, a continuación se exponen algunos de los métodos más empleados en el medio.
Otros métodos alternativos se pueden consultar en los capítulos A.1.5 y A. 1.6 del Manual de Obras
Civiles de la Comisión Federal de Electricidad.
En este capítulo se expone la forma de aplicar los métodos descritos en los caps. A.1.5 y A. 1.6 en la
obtención de la avenida de diseño en el sitio en el que se piensa construir una obra. Para ello se han
seleccionado algunos métodos representativos de tres clases o grupos de métodos. La idea es que una
vez expuestas las características generales de cada grupo, se emplee el más adecuado para cada tipo
de obra.
donde
𝑄 gasto en m3/s
𝐴 área de la cuenca, en km2
𝐶 parámetro que depende de la región considerada
Para determinar el pico de la avenida de diseño con este método, se procede a seleccionarla envolvente
regional o mundial para hacer el diseño. La curva envolvente proporciona coeficientes unitarios para
45
Incertidumbre en la estimación de hidrogramas de entrada al vaso
cada valor del área. El producto de ese coeficiente por el área de la cuenca dará como resultado el
gasto pico buscado.
Los métodos estadísticos permiten ajustar una función de distribución de probabilidades a los gastos
máximos registrados en el pasado, para, extrapolando dicha función, determinar el gasto que
corresponde a una probabilidad deseada. Las bases y el desarrollo de los métodos estadísticos se
presentan con detalle en el capítulo A.1.6 del Manual de Obras Civiles de la Comisión Federal de
Electricidad; aquí se presenta un resumen en el que se hace énfasis en la función de distribución de
Gumbel. Se considera primero el análisis univariado, para el que se incluye la determinación de los
intervalos de confianza, y después se comentan los métodos para la estimación de una avenida de
diseño completa.
Esta función corresponde a la idea del histograma de frecuencias acumuladas estudiada anteriormente
(Figura 13).
F(x)
1.0
0.5
x
Figura 13. Función de distribución de probabilidad
𝐹(∞) = 1
𝐹(−∞) = 0
𝐹(𝑥 + ∆𝑥) ≥ 𝐹(𝑥) ; 𝑠𝑖 ∆𝑥 > 0
46
Incertidumbre en la estimación de hidrogramas de entrada al vaso
∑𝑛𝑖=1(𝑥𝑖 − 𝑥𝑖𝑒 )2
𝐸𝐸 = √ (30)
𝑛−𝑚
donde
𝑥𝑖 valor 𝑖–ésimo de la muestra
𝑥𝑖𝑒 valor 𝑖–ésimo estimado
𝑛 Número de datos de la muestra
𝑚 Número de parámetros de la función de distribución utilizada
Si bien se pueden elegir una o dos distribuciones con valores de 𝐸𝐸 bajo, éste no debe ser un criterio
definitivo, ya que las distribuciones también deben ser evaluadas en rangos de eventos grandes, lo
cual exige realizar extrapolaciones. Esta situación es común en el análisis de frecuencias, por lo que
se recomienda realizar una inspección gráfica visual del comportamiento de los datos medidos contra
la función de ajuste, para tomar la decisión en la elección de la función de distribución; para ello se
suele utilizar una escala Gumbel en el eje horizontal y en el eje vertical los datos de la variable
aleatoria (Figura 14).
Figura 14. Ejemplo de dibujo en escala Gumbel de los datos medidos y la función de distribución
de mejor ajuste.
47
Incertidumbre en la estimación de hidrogramas de entrada al vaso
𝑞−𝛼
𝐹𝑄 (𝑞) = 𝑒𝑥𝑝 {−𝑒𝑥𝑝 ( )} (31)
𝛽
donde
𝑞 variable que representa a los gastos máximos anuales
𝐹𝑄 (𝑞) función de distribución de probabilidades de los gastos máximos anuales
𝛼 𝛽 parámetros de la función. Se estiman a partir de los gastos máximos anuales
registrados.
𝑒𝑥𝑝 base de los logaritmos naturales.
1 𝑞−𝛼
𝐿𝑛 𝐿𝑛 ( )= (32)
𝐹𝑄 (𝑞) 𝛽
donde
𝐿𝑛 logaritmo natural
O bien
𝑇𝑚 𝑞−𝛼
𝐿𝑛 𝐿𝑛 [ ]= (33)
𝑇𝑚 − 1 𝛽
donde
𝑇𝑚 periodo de retorno en años, asociado al gasto q, cuyo recíproco es la probabilidad de
que en un año cualquiera ocurra ese gasto o uno mayor.
𝑇𝑟
𝑞 = 𝛼 + 𝛽 𝐿𝑛 𝐿𝑛 [ ] (34)
𝑇𝑟 − 1
Existen una gran cantidad de métodos para estimar la probabilidad de que el gasto máximo anual en
una estación exceda a un valor preestablecido; sin embargo, el método de Gumbel ha sido utilizado
preferentemente para el estudio de gastos máximos anuales, debido a que, bajo ciertas hipótesis, dicha
función de distribución, ec. (31), fue derivada teóricamente.
Las principales hipótesis en las que se basó la derivación de la función de distribución de Gumbel, y
sus implicaciones al utilizarse en la determinación de los gastos máximos anuales se comprenden
mejor si se considera el siguiente experimento: Sean 𝑥𝑖 los valores de una variable aleatoria continua
con función de densidad de probabilidad no acotada y cuya rama descendente tiene la forma
exponencial (Figura 15).
48
Incertidumbre en la estimación de hidrogramas de entrada al vaso
f(x)
Descenso exponencial
x
Figura 15. Función de densidad de probabilidad no acotada.
Tómese aleatoriamente muestras de 𝑁 elementos y escójase el valor máximo de cada muestra. El valor
escogido se designará como 𝑦𝑖 . Si el tamaño de las muestras es suficientemente grande, esto es, si 𝑁
tiende a infinito, la nueva variable aleatoria 𝑦𝑖 tendrá una función de distribución del tipo Gumbel, ec.
(33).
La popularidad del método Gumbel se debe probablemente al parecido del experimento anterior con
la forma en que se seleccionan los valores de gastoso de lluvias máximos. Sin embargo, antes de
realizar un proceso de ajuste, se hace una gráfica de los gastos máximos contra su periodo de retorno
estimado 𝑇𝑟 . Dicha gráfica puede mostrar en algunos casos que la función de distribución real no es
de tipo Gumbel y conducir a errores considerables. Los parámetros que definen una distribución
particular, pueden estimarse de diversas maneras de acuerdo con la norma con la que se midan los
errores.
Intervalo de confianza
La ecuación (34) representa una estimación de la distribución de gastos máximos (que se supone tiene
distribución Gumbel) a partir de los datos de una muestra. La función de distribución real de la
población puede ser diferente de la estimada con el procedimiento descrito. Los límites entre los que,
con una probabilidad dada α, puede variar la función de distribución real se denominan intervalos de
confianza y se determinan mediante los siguientes pasos:
1 (𝑋0 − 𝑋̅)2
∆𝑞𝑖 = ± 𝑡𝛼/2 𝑆𝑒 √ + (36)
𝑛 (∑𝑛𝑖=1 𝑋𝑖2 − 𝑛𝑋̅ 2 )
donde
49
Incertidumbre en la estimación de hidrogramas de entrada al vaso
Los métodos univariados para el cálculo para la avenida de diseño, definen el gasto máximo pero no
el volumen y la forma del hidrograma. Cuando el vaso de una presa tiene una capacidad de regulación
considerable, el gasto máximo de la avenida de entrada no define por sí solo el gasto máximo de
descarga por el vertedor. En este caso es necesario utilizar métodos estadísticos para calcular el valor
del gasto máximo de la avenida de diseño además la forma de dicha avenida.
Aquí se presenta un método estadístico para calcular la avenida de diseño para varios periodos de
retorno mediante un análisis estadístico del registro histórico de los volúmenes medios (convertidos a
gastos medios) de entrada al sitio, asociados a distintas duraciones. El método de cálculo de avenidas
descrito es aplicable al caso de los vertedores de presas, en las que la capacidad de regulación hace
que el gasto máximo de descarga sea sensiblemente menor que el gasto máximo de la avenida que
ingresa al vaso de la presa. El método se divide en tres etapas:
a) Procedimiento de síntesis
b) Procedimiento de extrapolación estadística
c) Procedimiento de desagregación
50
Incertidumbre en la estimación de hidrogramas de entrada al vaso
a) Procedimiento de síntesis
El procedimiento de síntesis se emplea para encontrar para cada año del registro histórico el
máximo valor de los gastos medios asociados a distintas duraciones. Dado que lo común es
que la información hidrométrica disponible es la de los gastos medios de los 365 días del año,
en la descripción del procedimiento que se presenta a continuación se supondrán intervalos de
tiempo 𝛥𝑡=1 día. Con esa base, las avenidas sintéticas máximas anuales se calculan de la
siguiente forma:
Para una duración de un día, el máximo valor del gasto medio se obtiene simplemente
seleccionando el mayor de los 365 valores del registro histórico, esto es:
donde
𝑄̅𝑖,𝑗 valor máximo del gasto medio correspondiente a una duración de 1 día, para el
registro histórico del año 𝑗.
𝑞𝑘,𝑗 gasto medio diario registrado para el día 𝑘 del año 𝑗.
Para las duraciones, 𝑙, entre 2 y 𝑚 días, los valores máximos del gasto medio asociado a cada
duración se calculan mediante la ecuación:
1
𝑄̅𝑖,𝑗 = ( ) 𝑚á𝑥𝑘 {𝑞𝑘,𝑗 + 𝑞𝑘+1,𝑗 + ⋯ + 𝑞𝑘+𝑙−1,𝑗 }; 𝑘 = 1,2, … 365 − 1, 𝑙
𝑙 (38)
= 1,2,3 … , 𝑚
Como se muestra con detalle en los ejemplos de las ayudas de diseño, el procedimiento de
síntesis transforma una avenida real, como la mostrada en la Figura 16a, en una avenida
sintética como la mostrada en la Figura 16b.
51
Incertidumbre en la estimación de hidrogramas de entrada al vaso
q3
Gasto, Q
Q1
Gasto, q
q2 Q2
q4 Q3
q5 Q4
q1 Q5
q6 Q6
Duración, m Duración, m
(a) (b)
Figura 16. Hidrogramas
𝑄̅1 = 𝑞3
𝑄̅2 = (𝑞3 + 𝑞2 )/2
𝑄̅3 = (𝑞3 + 𝑞2 + 𝑞4 )/3
Y así sucesivamente, cuidando que los valores entre paréntesis correspondan siempre a barras
consecutivas del histograma de la parte (a) de la Figura 16.
Como sucede generalmente, al sintetizar la información se sacrifica una parte del detalle de la
información histórica, a cambio de destacar las características estadísticas más importantes
para facilitar su análisis probabilístico y poder extrapolar a periodos de retorno grandes. Dado
que el procedimiento que se describe es aplicable a presas de gran capacidad de regulación, es
poco probable que se requieran intervalos menores que 1 día, para los que, por otra parte,
difícilmente se contará con información disponible en forma continua para todo el registro
histórico. En caso necesario, los valores propuestos para 𝑚 pueden aumentarse cuando sea
necesario para incluir toda la avenida.
52
Incertidumbre en la estimación de hidrogramas de entrada al vaso
De esta forma, para cada valor de duración (1,2, … , 𝑚) se cuenta con una muestra de 𝑛 valores
de gastos máximos anuales, a los que se puede ajustar una función de distribución. Las
funciones de distribución ajustadas (una para cada duración) permiten entonces estimar la
avenida (sintética) de diseño para cualquier periodo de retorno, 𝑇𝑚 , esto es permite estimar la
secuencia:
donde 𝑄̅𝑙 (𝑇𝑟 ) es el gasto medio estimado para una duración de 𝑙 días y un periodo de retorno
𝑇𝑟 .
El procedimiento de extrapolación se realiza por separado para cada duración. Como resultado
se obtienen avenidas de diseño sintéticas pero ahora asociadas a los periodos de retorno que se
deseen para el diseño.
c) Procedimiento de desagregación
El procedimiento de desagregación es, por así decirlo, el inverso del de síntesis. Tiene por
objeto obtener avenidas con una forma parecida a las históricas pero respetando siempre que
los gastos medios máximos correspondientes a días consecutivos sean iguales a los obtenidos
de la extrapolación; de esta forma se logra que, al transitar la avenida por el vaso se obtenga
un gasto máximo de descarga cuyo valor resulta prácticamente igual para las distintas formas
de avenidas factibles. Sin embargo si no se tiene experiencia para seleccionar la forma de la
avenida de diseño, puede recurrirse al procedimiento sistemático que se describe en Ramírez
y Aldama (2000).
53
Incertidumbre en la estimación de hidrogramas de entrada al vaso
Finalmente, los gastos medios diarios 𝑞𝑘 (𝑇𝑚 ), cuya secuencia tiene una tendencia decreciente
como la que se muestra en la Figura 18, deben de reordenarse para que tomen la forma de un
hidrograma histórico representativo. Las posibles reordenaciones deben de limitarse a aquellas
para las que se cumpla con en la ec. (38).
q1
Gasto, q
q2
q3
q4
q5
q6
Duración, m
(b)
Figura 18. Gastos individuales
En la Figura 19 se muestran las posibles ordenaciones de los gastos medios diarios para el
caso en que 𝑚 =4. De ellas debe seleccionarse la que mayor parecido tenga con las mayores
avenidas históricas.
Una forma sencilla de hacer el ordenamiento es el uso del método de bloques alternos, en el
que, al centro de la avenida se coloca el gasto individual de un día, hacia adelante se coloca el
gasto de dos días, hacia atrás del gasto del centro se coloca el de tres días, y así, se van
colocando el de tres días hacia adelante, el de cuatro días hacia atrás, hasta construir la forma
de la avenida (Figura 19c).
54
Incertidumbre en la estimación de hidrogramas de entrada al vaso
Gasto, q
Gasto, q
q1 q1
q2 q2
q3 q3
q4 q4
Duración, m Duración, m
a) b)
Gasto, q
Gasto, q
q1 q1
q2 q2
q3 q3
q4 q4
Duración, m Duración, m
c) d)
Gasto, q
Gasto, q
q1 q1
q2 q2
q3 q3
q4 q4
Duración, m Duración, m
e) f)
Gasto, q
Gasto, q
q1 q1
q2 q2
q3 q3
q4 q4
Duración, m Duración, m
g) h)
Figura 19. Posibles ordenaciones de 𝑞𝑖 para 𝑚 =4
55
Incertidumbre en la estimación de hidrogramas de entrada al vaso
Figura 20. Avenida con un mismo gasto pico pero con diferente volumen.
Duración de la avenida
La duración de la avenida dependerá de cada estudio en particular, según el tamaño de la presa y la
disponibilidad de la información; por ejemplo puede ser de unas seis horas o menos en el caso de
presas pequeñas mientras que en presas grandes pueden manejarse de unos 5 días en el caso de presas
con poca capacidad de regulación o hasta de unos 20 días en presas con gran capacidad de regulación.
( Ref 1).
56
Incertidumbre en la estimación de hidrogramas de entrada al vaso
En la última columna de la Tabla 3 se indica el cociente del volumen de la avenida entre el volumen
de regulación. Dicho cociente es una medida de las posibilidades de regulación. Por ejemplo, en el
caso de la presa La Villita, el volumen de la avenida máxima histórica (ocurrida en 1967) es de 6881
millones de m3 y la presa tiene un volumen de regulación de 200 millones de m3, entonces el cociente
resulta ser 34.41; si se compara con la presa Infiernillo, la cual se encuentra aguas arriba de la misma
sobre el río Balsas, observaremos que el cociente es aproximadamente 13 veces menor. Esto quiere
decir que en el caso de la presa La Villita, el vaso no pudo moderar la avenida que ingresó, puesto que
el volumen de ésta resultó mucho mayor que el que puede regular la presa; en cambio, en la presa
Infiernillo la avenida pudo ser regulada.
Así, de acuerdo con la Tabla 3, se pude formar un juicio preliminar respecto a la capacidad de
regulación de una presa: si el cociente resulta menor a 3, entonces la presa es de gran capacidad de
regulación y para definir la avenida de diseño se requiere estudiar, además del pico, el volumen y la
forma de la avenida. En cambio si el cociente es mayor a 10, significa que la presa no es reguladora
de avenidas. Por otra parte, si el cociente se encuentra entre 3 y 10, se aconseja aplicar el método de
mayoración para tener una estimación sencilla de la avenida de diseño y posteriormente transitarla por
el vaso; de manera que, si existe una amplia diferencia entre el gasto máximo de la avenida de diseño
y el gasto máximo de descarga, es conveniente ahondar más en el conocimiento de la forma y el
volumen de la avenida de diseño, debido a que probablemente se trata de una presa de gran capacidad
de regulación.
Para ejemplificar lo anterior se presenta el caso de la construcción de la forma del pico de la avenida
de diseño de la presa Chicoasén. Primero se dibujó el hidrograma de gasto medio diario registrado en
los días 4 a 8 de octubre del 2005, considerando su distribución uniforme durante el día; por otra parte,
considerando los reportes de funcionamiento horario dados a cada 3 horas por parte de CFE, se dibujó
el hidrograma horario registrado Figura 21. Al dividir ambos hidrogramas entre el máximo valor de
gasto medio diario registrado, se obtuvieron los hidrogramas adimensionales que se muestran en la
Figura 22, en los que se determinó un factor de 1.2 entre los gastos de pico.
Ese factor de 1.2 se utilizó para obtener el gasto de pico aproximado para avenidas de diseño con
distintos periodos de retorno, realizando una compensación de las áreas a partir de fijar algunos puntos
del hidrograma. A continuación se ejemplifica el caso de la avenida con periodo de retorno de 10 años.
57
Incertidumbre en la estimación de hidrogramas de entrada al vaso
Figura 21. Hidrograma de gastos medios diarios y gastos horarios registrados del 4 al 8 de octubre
del 2005. Chicoasén, Chis.
Figura 22. Hidrograma adimensional (dividido entre el gasto medio diario máximo de la avenida
del 4 al 8 de octubre del 2005). Chicoasén, Chis.
Al considerar los gastos medios diarios obtenidos para el periodo de retorno de 10 años para
duraciones de 1 a 15 días se calcularon los gastos individuales y se acomodaron de acuerdo con el
procedimiento de bloques alternos. (Tabla 4 y Figura 23). Posteriormente se le dio una distribución
horaria al hidrograma obtenido, considerando un Δ𝑡 de 3 horas para que fuera congruente con los
valores horarios reportados por CFE; se seleccionaron los valores de la hora 147 a la 219, intervalo
que incluye al valor máximo de la avenida. Por otra parte se consideró una variación lineal
aproximadamente de la hora 162 a la 183 en la que colocó como valor de pico el correspondiente al
gasto medio diario máximo multiplicado por el factor 1.2. En este caso, el gasto medio diario máximo
fue de 1796 m3/s, por lo que, al multiplicarse por 1.2 se obtuvo un valor de 2154.8 m3/s que se colocó
en la hora 183; de la hora 183 a la 198 se consideró una variación lineal en la curva de descenso del
hidrograma y de ese instante en adelante se consideró el comportamiento del hidrograma de gasto
medio originalmente calculado. Al calcular el área bajo la curva comprendida en la porción central
del hidrograma todavía se ajustó el valor del gasto de pico seleccionándose un valor final de 2075
m3/s (corresponde a un factor muy cercano a 1.2) con lo que se logró un diferencia en valor absoluto
en los volúmenes calculados de 0.86 millones de m3. En las Figura 24 y Figura 25 se aprecian estos
resultados.
58
Incertidumbre en la estimación de hidrogramas de entrada al vaso
Figura 23. Avenida de diseño (a nivel diario) para un periodo de retorno de 10 años. Presa
Chicoasén, Chis.
59
Incertidumbre en la estimación de hidrogramas de entrada al vaso
Figura 24. Construcción del pico de la avenida de diseño para un periodo de retorno de10 años.
Presa Chicoasén, Chis.
Figura 25. Avenida de diseño (horaria) para un periodo de retorno de10 años. Presa Chicoasén,
Chis.
La modelación del proceso lluvia escurrimiento puede realizarse utilizando desde un modelo más
simple de cuenca impermeable y uniforme, hasta modelos complejos donde se toma en cuenta la
desigual distribución de la tormenta en tiempo y espacio.
Para explicar el primer caso consideremos una cuenca impermeable de ancho unitario y uniforme. Si
se define al tiempo de concentración como el que tarda una gota de agua desde que cae en el punto
más alejado de la cuenca hasta que sale de la misma, y se supone que la velocidad de traslado es la
misma en toda la cuenca, se pueden definir isócronas de la forma indicada en la Figura 26.
60
Incertidumbre en la estimación de hidrogramas de entrada al vaso
tc
4
3
__
4
tc
3
2
__
4
tc
2
1
__
4 tc
1
Si se toma en cuenta una tormenta con una intensidad constante y una duración igual al tiempo de
concentración, se tendría un escurrimiento inicial igual a cero que luego comenzaría a incrementarse
linealmente hasta presentarse el máximo cuando ocurre el tiempo de concentración, y si termina de
llover en ese momento, empezaría a disminuir el caudal nuevamente en forma lineal hasta que el
escurrimiento cesa. En ese caso, cuando todo lo que se precipita escurre, el escurrimiento máximo o
de pico sería 𝑄 = 𝑖𝐴. En la Figura 27se ilustra el comportamiento de la precipitación y del
escurrimiento para este ejemplo hipotético.
i
(mm/h) hp hp
i = ____ ____
d tc
tc t
Q Qp
3
(m /s) Qp = iA
tc t
Figura 27. Escurrimiento debido a una precipitación con duración igual al tiempo de concentración.
Si la precipitación durara una cuarta parte del tiempo de concentración, se tendría un escurrimiento
inicialmente de cero que se incrementaría linealmente hasta alcanzar su pico en un tiempo 𝑡𝑐 /4;
posteriormente el escurrimiento tendría un comportamiento constante hasta alcanzarse el tiempo de
concentración y luego vendría el descenso en el hidrograma (Figura 28).
61
Incertidumbre en la estimación de hidrogramas de entrada al vaso
i
(mm/h)
tc t
Q
3
(m /s) Qp = iA
t
Figura 28. Escurrimiento cuando la precipitación tiene una duración igual a 𝑡𝑐 /4.
Si la precipitación tuviera una duración mayor que la del tiempo de concentración, el incremento lineal
en el escurrimiento se tendría hasta alcanzarse el tiempo de concentración, vendría posteriormente un
comportamiento constante del mismo hasta la duración de la tormenta y luego vendría el descenso
lineal en el escurrimiento (Figura 29).
i
(mm/h)
Q t
3
(m /s)
t
tc D D+ t c
Lo anterior es aplicable en el caso de una cuenca impermeable. Como las cuencas comúnmente son
irregulares, en forma de pera, como las ejemplificadas en la Figura 30, se tienen distintas áreas de
aportación entre isócronas y las formas de los hidrogramas ya no son triangulares sino curvas (Figura
31).
62
Incertidumbre en la estimación de hidrogramas de entrada al vaso
3
4
2
3
2
1
1
Q
3
(m /s)
t
Figura 31. Ejemplo de hidrograma de escurrimiento en cuencas típicas.
Diversos autores proponen los llamados hidrogramas unitarios sintéticos para realizar la
transformación de la lluvia en escurrimiento en estos casos, ejemplos de ellos son, el hidrograma
unitario adimensional del Soil Conservation Service, el de Snyder o el de Clark, que se describen en
el capítulo A.1.5.
Las cuencas rara vez son impermeables y entonces se debe consideran las pérdidas por infiltración,
algunos métodos que cuantifican este mecanismo son: el método del coeficiente de Escurrimiento, el
del coeficiente de infiltración,𝜙o el método del número de curva N (ver capítulo A.1.4) del Manual
de Obras Civiles de la Comisión Federal de Electricidad
Adicionalmente, cuando se requiere tomar en cuenta las variaciones en la intensidad de la lluvia con
un Hietograma, que no es uniforme en el tiempo como en el caso simple que se ha presentado, se
aprovechan los principios de linealidad y superposición de causas y efectos.
Se utiliza entonces la teoría del hidrograma unitario instantáneo, cómo se muestra con detalle en el
capítulo A.1.5 del Manual de Obras Civiles de la Comisión Federal de Electricidad
63
Incertidumbre en la estimación de hidrogramas de entrada al vaso
En lo que sigue se presenta una descripción resumida de los modelos más importantes.
Método racional
El método racional constituye el modelo más sencillo de la relación lluvia-escurrimiento. Se expresa
mediante la ecuación:
𝑄 = 𝑘𝐶𝑖𝐴𝑐 (41)
Donde
𝑄 gasto máximo que produce una intensidad media de lluvia i en una cuenca de área Ac
𝐶 coeficiente de escurrimiento
𝑖 intensidad de precipitación promedio en la cuenca, en una duración 𝑑 igual al tiempo
de concentración (en cuencas naturales) y al tiempo de concentración más el tiempo de traslado en la
red de drenaje (en cuencas urbanas)
𝑘 constante de conversión de unidades.
En el caso de una cuenca no urbana, el tiempo de concentración 𝑡𝑐 , se define como el tiempo que tarda
una gota en pasar del punto más alejado hasta la salida de la cuenca. Suele estimarse con la fórmula
de Kirpich:
𝐿0.77
𝑡𝑐 = 0.000325 0.385 (42)
𝑆
donde:
S pendiente media del cauce principal, sin dimensiones
L distancia, medida sobre el cauce, desde el punto más alejado hasta la salida de la cuenca
en 𝑚
tc tiempo de concentración, en ℎ
64
Incertidumbre en la estimación de hidrogramas de entrada al vaso
1) Una vez determinadas las curvas intensidad-duración-frecuencia (caps. A.1.2 y A.1.6) y los
hidrogramas unitarios correspondientes, se determina la frecuencia deseada para la avenida de
diseño, utilizando los lineamientos que se exponen en el apartado 8.2.4 de este capítulo.
Relación lluvia-escurrimiento
Grande > 60 > 30 Considerables Catastróficos usando la precipitación máxima
probable.
Mismo orden de
Periodo de retorno de 50 a 100
Pequeña < 1.5 < 15 Ninguna magnitud que el
años.
costo de la presa
Si se diseña una obra mediana o grande, el procedimiento es semejante, solo que en lugar de considerar
una sola intensidad uniforme durante un tiempo igual al tiempo de concentración, se debe calcular
una tormenta de diseño definida por su hietograma, y utilizar los conceptos de linealidad y de
superposición de causas y efectos, que dan lugar a una convolución entre las lluvias y los
escurrimientos:
𝜏=𝑖
65
Incertidumbre en la estimación de hidrogramas de entrada al vaso
En la descripción de la forma de aplicar el método para determinar la avenida de diseño para una obra
chica, se supone que la tormenta de diseño se obtiene a partir de las curvas Intensidad-Duración-
Periodo de Retorno, por lo que dicha tormenta se representa con un valor de precipitación media para
la duración considerada. En otros casos en los que la tormenta de diseño sea más compleja (posibilidad
que se contempla en los caps. A.1.2 y A.1.7) el hidrograma unitario deberá calibrarse para duraciones
pequeñas y el hidrograma de escurrimiento directo se obtiene (según se describe con mayor amplitud
en el capítulo A.1.5) por medio de la convolución definida en la ec (43). En aquellos casos en que la
tormenta no es uniforme en el espacio se tienen que usar modelos distribuidos apoyados en dos
modelos conceptuales, ver capítulo A.1.6:
b) Modelos de transferencia. Con ellos se representa el viaje del escurrimiento directo que se va
agregando aguas abajo en la red de drenaje, hasta llegar al sitio de interés.
Los principales factores que influyen en la selección del método o los métodos más apropiados para
calcular la avenida de diseño son la información disponible, las características de la obra y la magnitud
de los daños que podrían causarse en caso de que se presentara una avenida mayor que la de diseño.
Para las grandes presas (de acuerdo con la clasificación de la Tabla 5) la avenida de diseño se debe
calcular con la extrapolación de datos hidrométricos (normalmente existen o se pueden inferir de
estaciones cercanas) y considerando tanto el pico como la forma del hidrograma. Si la cuenca está
expuesta a la entrada directa de huracanes, se recomienda revisar con la precipitación máxima
probable y utilizando un modelo distribuido para transformarla en escurrimiento.
En el caso de presas medianas o pequeñas, el periodo de retorno se define de acuerdo con las
recomendaciones de la CONAGUA (Tabla 6) o haciendo un análisis de riesgo; se recomienda dar
preferencia al análisis estadístico de los datos hidrométricos y en el caso de no contarse con ellos
obtener una tormenta de diseño y usar un modelo distribuido para la relación lluvia-escurrimiento.
En el caso de otras obras en cauces importantes (bordos, rectificaciones, etc.) se deber revisar la
existencia de registros hidrométricos o bien a partir de un análisis de precipitación y el uso de modelos
distribuidos. En algunos casos, como en las partes bajas del Río Grijalva o del río Pánuco, se requiere
realizar un análisis de simultaneidad con los procedimientos descritos más adelante.
Para cuencas pequeñas, en las que o no hay registros hidrométricos o estos no son estacionarios
(debido a que las características de la cuenca se modifican por la urbanización, la desforestación o
causas similares), se requiere trabajar con modelos lluvia-escurrimiento de parámetros concentrados,
si hay información simultánea de lluvias y escurrimientos para al menos dos o tres tormentas, se
recomienda el hidrograma unitario instantáneo calibrado con esas tormentas, cuidando que la
estimación de la lluvia efectiva considere los posibles cambios futuros en las características de la
cuenca.
66
Incertidumbre en la estimación de hidrogramas de entrada al vaso
Para las redes de drenaje urbano se recomienda el uso de los hidrogramas unitarios sintéticos, de
preferencia alimentados con un hietograma representativo de la tormenta de diseño. Sólo para casos
de redes muy sencillas se puede usar el método racional o un hidrograma unitario sintético alimentado
con la precipitación correspondiente al tiempo de concentración y el periodo de retorno seleccionado.
Si la obra se diseña con una avenida de periodo de retorno igual a 𝑇𝑟 años, la probabilidad de falla o
de que el gasto de diseño sea sobrepasado durante la vida útil de la estructura sería:
1 𝐿
𝑃 = 1 − (1 − ) (44)
𝑇𝑟
donde
𝑃 probabilidad de tener al menos una falla durante la vida útil de la estructura
𝑇𝑟 periodo de retorno del gasto de diseño, en años
𝐿 vida útil de la obra, en años
Tabla 6. Recomendación de periodos de retorno para la estimación del gasto de diseño en las obras
hidráulicas.
Tr
TIPO DE OBRA HIDRÁULICA
(años)
1 DRENAJE PLUVIAL
Cunetas y contra cunetas en:
a) Caminos secundarios 2
1.1
b) Carreteras 5
c) Tramo de cruce a poblados 5 a 10
1.2 Estaciones de Autobuses y Ferrocarril 10
1.3 Aeropuertos 25
Zonas urbanas:
a) Drenaje secundario, (diámetros menores o igual que 90 cm) 2a5
b) Drenaje primario, (diámetros menores que 2.40 m) 5 a 10
1.4
c) Drenaje principal, (colectores con diámetro mayor que 2.40m,
corrientes principales y conductos de descarga fuera de la
zona urbana) 10 a 50
2 ESTRUCTURAS DE CRUCE
Alcantarillas para el paso de pequeñas corrientes
a) En caminos locales que comunican poblados pequeños (menos de 30000
10 – 25
habitantes)
2.1 25 – 50
b) En caminos regionales que comunican poblados medianos (menos de 100000
habitantes)
50 – 100
c) En caminos primarios que comunican poblados grandes (ciudades)
Puentes carreteros en:
a) Caminos locales que comunican poblados pequeños (menos de 30000
habitantes) 25 – 50
2.2
b) Caminos regionales que comunican poblados medianos (menos de 100000 50 – 100
habitantes) 500 – 1000
c) Carreteras que comunican poblados grandes (ciudades)
2.3 Puentes Ferrocarrileros en:
67
Incertidumbre en la estimación de hidrogramas de entrada al vaso
Tr
TIPO DE OBRA HIDRÁULICA
(años)
a) Vías locales aisladas (desvíos) 50 – 100
b) Vías secundarias regionales 100 – 500
c) Vías primarias del país 500 – 1000
Puentes canales o tuberías de conducción de agua:
a) Para riego área menor de 1, 000 Ha 10 – 25
b) Para riego área de 1, 000 a 10, 000 Ha 25 – 50
c) Para riego área mayor de 10, 000 Ha 50 – 100
d) Abastecimiento industrial 25 - 50
e) Abastecimiento de agua potable
2.4 Poblados pequeños (menos de 30000 habitantes) 100
Poblados medianos (menos de 100000 habitantes) 200
Poblados grandes (ciudades) 500
f) Conducción de aguas negras
Poblados pequeños (menos de 30000 habitantes) 100
Poblados medianos (menos de 100000 habitantes) 200
Poblados grandes (ciudades) 500
Puentes para tuberías de petróleo y gas:
a) Abastecimiento secundario local 25 – 50
2.5
b) Abastecimiento regional 50 – 100
c) Abastecimiento primario 100 - 500
3 DELIMITACIÓN DE ZONAS FEDERALES
5
Corrientes libres en:
10 ó mayor
a) Zonas semiáridas a húmedas
3.1 Con base en la
b) Zonas áridas con régimen de escurrimiento errático
capacidad del
c) Zonas de desbordamiento
cauce natural
cavado
Corrientes con obras de control:
3.2 Además del tramo libre debe tenerse en cuenta el gasto regulado para una creciente con
5 ó 10 en ambos.
el mismo periodo de retorno
A juicio de la
4 DELIMITACIÓN DE ZONAS DE PROTECCIÓN EN OBRAS HIDRÁULICAS
CNA
5 ENCAUZAMIENTO DE CORRIENTES*
Corrientes libres en zona; en función de la zona potencial de afectación:
a) Zona agrícola pequeña: menor de 1000 ha
b) Zona agrícola mediana: de 1000 ha a 10000 ha
c) Zona agrícola grande: mayor a 10000 ha
d) Zona urbana con parques de recreo, estacionamientos y pequeñas instalaciones
comerciales o industriales
e) Zona urbana con viviendas aisladas o grandes instalaciones comerciales**
f) Zona urbana ocupada principalmente por viviendas*** 10 -25
*No se incluyen mejoras de mantenimiento en esta tabla, toda vez que significan una 25 – 50
reducción en el riesgo de inundaciones. 50 – 100
5.1
**Estas recomendaciones se establecen con base en los daños materiales, por lo que 25-50
para evitar pérdidas de vida deberán establecerse sistemas que permitan alertar a la
población con al menos una hora de anticipación, así como planes de evacuación 25-100
previamente difundidos.
***El rango recomendado para los periodos de retorno de diseño es muy amplio; se 250 – 1000
requerirá por tanto un análisis casuístico de los daños potenciales para definir el periodo
de retorno más adecuado. Cuando las viviendas susceptibles de inundarse están en una
zona baja, por lo que pueden esperarse tirantes mayores que 50 cm, se obtendrán
periodos de retorno cercanos a 1000 años; si no es así, pueden aceptarse periodos de
retorno menores (del orden de 250 años).
68
Incertidumbre en la estimación de hidrogramas de entrada al vaso
Tr
TIPO DE OBRA HIDRÁULICA
(años)
Corrientes controladas:
El gasto de diseño se calculará sumando el producido en el tramo libre (si existe) con el
de descarga de la obra de control correspondientes al mismo periodo de retorno. El periodo de
Se establecerá un procedimiento de pronóstico que garantice un aviso oportuno a la retorno para el
5.2 población cuando el gasto total (descarga más tramo libre) supere al de diseño de la diseño será
corriente siempre igual o
*La construcción de un almacenamiento para regulación con frecuencia propicia un mayor que el
crecimiento de la zona urbana aledaña al cauce, por lo que, al definir la zona afectada y establecido en 5.1*
utilizar las recomendaciones de 5.1 debe considerarse dicho crecimiento.
6 PRESAS DERIVADORAS*
a) Zonas de riego pequeñas (menor de 1, 000 Ha)
50 – 100
b) Zonas de riego medianas (1, 000 a 10, 000 Ha)
100 – 500
c) Zonas de riego grande ( más de 10, 000 Ha)
500 - 1000
*La clasificación y el tamaño se refieren a la zona afectable en caso de falla
7 OBRAS DE DESVÍO TEMPORAL
7.1 Obras con 1 a 2 años de vida útil 10 - 50
7.2 Obras con vida útil de 3 a 4 años 25 – 200
7.3 Obras con vida útil mayor que 4 años 50 - 500
8 OBRAS DE ALMACENAMIENTO
8.1 De Jales (lodo del procesamiento de minerales en minas) 500 – 1000*
Se presentan en el
8.2 De agua para abastecimiento a poblaciones, riego, energía, etc.
siguiente cuadro:
ALMACE-
ALTURA PÉRDIDA DAÑOS PERIODO DE
CATEGORÍA NAMIENTO
(m) DE VIDAS MATERIALES RETORNO
(millones de m3)
Menor que el costo
Ninguna
de la presa 100 a 500 años
Del orden del costo 250-1000 años
PEQUEÑA Menor de 1.5 Menor de 15 Moderada
de la presa 500 a 10,000
Mayor que el costo años
Considerable
de la presa
Ninguna
Dentro de la
500 a 10000 años
capacidad financiera
Entre 1.5 y 60 Ligeramente mayor
Entre 15 y Moderada 1000 a 10000
MEDIANA que la capacidad
30 años
financiera
Mayor que la
≥ 10000 años**
capacidad financiera
Considerable
MAYOR:
Mayor que la
NO SE TOLERA Mayor de 60 Mayor de 30 Considerable ≥ 10000 años**
capacidad financiera
FALLA
*Debe evitarse la construcción de presas de Jales en sitios donde la falla podría ocasionar pérdida de vidas y daños
serios a casas, construcciones industriales o comerciales, servicios públicos importantes, carreteras y vías férreas; si
no es posible evitar esa ubicación, el vertedor deberá diseñarse para un periodo de retorno de 10,000 años.
**Para las presas cuya cuenca se encuentra protegida del ingreso directo de huracanes se recomienda utilizar la
avenida de 10,000 años de periodo de retorno estimada utilizando métodos estadísticos; en caso contrario es necesario
verificar calculando la avenida máxima probable.
69
Incertidumbre en la estimación de hidrogramas de entrada al vaso
La principal limitación de los métodos estadísticos es que con cierta frecuencia solo se cuenta con una
muestra relativamente pequeña (del orden de 15 a 25 años) de valores tomados de la población de
todos los que podrían ocurrir en el sitio, con lo cual la ley de probabilidades que se obtiene con el
ajuste es de un grado alto de incertidumbre y resulta ser solo una aproximación a la ley de
probabilidades real. Esto se agrava porque en muchas zonas del país las tormentas máximas pueden
ser de tipo ciclónico y, por ello, la muestra corresponde a dos poblaciones diferentes, siendo entonces
más difícil la aplicación de los métodos estadísticos (Ref 1). Otra limitación de los métodos
estadísticos aplicados a los gastos máximos es que con ellos se infiere solo el valor del gasto de pico
y, por lo tanto, se requiere hacer algunas hipótesis adicionales como los que se describen más adelante
para definir la forma de las avenidas.
La principal desventaja de los métodos empíricos, se debe a que son obtenidos de relaciones
estadísticas deducidas con datos de otras regiones, cuya extrapolación conduce a resultados muy
controvertibles. En todo caso, si no hay posibilidad de utilizar otro método por falta de información,
se recomienda utilizar fórmulas empíricas que cuando menos cualitativamente resulten lógicas.
Por otra parte, en Escalante (2007) y González (1970) se pueden encontrar fórmulas empíricas
desarrolladas para las regiones del Pacífico centro y del Papaloapan respectivamente, que pueden
aplicarse a sitios no medidos dentro de esas regiones.
En un caso particular, los factores que determinan el tipo de método adecuado son:
El daño que produciría una falla
La necesidad, si la hubiera, de estimar además del pico, el volumen de la avenida
La disponibilidad de información
El costo del daño por una posible falla está relacionado con el periodo de retorno de diseño, por lo
que la selección del método puede relacionarse a su vez con el periodo de retorno.
En las recomendaciones se dan dos criterios para estimar el periodo de retorno adecuado; la primera,
supone que es posible hacer un análisis para determinar el costo que causaría una falla, y la segunda,
contenida en las Tabla 5 y Tabla 6 (basada en Williams(1994) con algunas modificaciones para
adecuarla a nuestro medio), de tipo cualitativo.
Si el periodo de retorno de diseño es muy grande (e.g. de 1000 años o más) se recomienda hacer un
análisis estadístico de los gastos máximos registrados en la cuenca de aportación, y comparar los
resultados con los que se obtienen al calcular una tormenta de diseño y utilizar la relación lluvia-
escurrimiento.
Para periodos de retorno menores, del orden de 100 a 1000 años, se recomienda hacer las estimaciones
a partir de procedimientos estadísticos ya sea ajustando una función de distribución directamente a
70
Incertidumbre en la estimación de hidrogramas de entrada al vaso
los gastos máximos, o bien, dando un tratamiento similar a las precipitaciones y convirtiéndolas
posteriormente a escurrimiento mediante un modelo lluvia-escurrimiento.
Para obras pequeñas (periodo de retorno menor que 100 años), lo más recomendable es utilizar
estimaciones estadísticas basadas en el registro de gastos máximos; sin embargo, muchas veces no se
dispone de dichos registros, por lo que se requiere estimar una tormenta de diseño y modelar la
relación lluvia- escurrimiento.
En general los métodos que utilizan la relación lluvia-escurrimiento son conceptualmente preferibles
a los estadísticos y estos a su vez a los empíricos. Sin embargo, tomando en cuenta la información
requerida, la situación es la contraria, esto es, los métodos empíricos requieren solo de información
fisiográfica general, los estadísticos de algunos años de registro de gastos máximos y los de relación
lluvia-escurrimiento del registro simultáneo de datos de precipitación y escurrimiento durante las
principales avenidas ocurridas en el pasado.
En este subcapítulo se presentan procedimientos sencillos (aunque laboriosos) para obtener primero
alternativas de combinaciones de volúmenes de regulación y capacidades del vertedor que permitan
manejar la avenida de diseño, y luego, para cada alternativa, obtener en forma aproximada los gastos
máximos de descarga que se producirían al ingresar avenidas más frecuentes que la de diseño.
La avenida de diseño se controla destinando una parte del volumen de almacenamiento de la presa
(superalmacenamiento) para regularla (esto es, para que el gasto máximo de descarga sea menor que
el de la avenida de diseño) y dando a la obra de excedencias capacidad para conducir el gasto regulado.
Entre mayor sea el volumen destinado a regular avenidas, menor será la capacidad de la obra de
excedencias y viceversa. La selección de la mejor combinación, que se discute en el cap A.2.9,
requiere de información sobre qué alternativas permiten manejar la avenida de diseño y, para cada
alternativa, sobre el gasto máximo de descarga para avenidas más frecuentes. En ambos casos se
utilizan políticas de operación simplificadas (la política de operación que se adopte una vez diseñada
o construida la obra se discute en el subcapítulo 8.3.3.) y se supone conocido el nivel de aguas máximo
de operación (NAMO), el cual debe definirse en términos de las políticas de aprovechamiento según
se indica en el capítulo A.2.9.
El estudio de la regulación en el vaso es necesario para definir la forma en que las avenidas que se
producen aguas arriba de la presa se regulan en ésta, de forma que la obra de excedencias, si se opera
adecuadamente, descargue siempre un gasto menor que el pico de la avenida de entrada; entre mayor
sea el volumen de la presa destinado a regular avenidas, menor será el gasto de descarga.
71
Incertidumbre en la estimación de hidrogramas de entrada al vaso
El proceso que se describe a continuación tiene por objeto obtener diversas combinaciones de
capacidad de descarga de la obra de excedencias 𝑄𝑖 contra volumen de almacenamiento necesario
para regulación 𝛥𝑉𝑖 . Para ello se supone que el vertedor trabaja a su máxima capacidad (es decir,
descarga libre) con la única limitación de que el gasto máximo de descarga no sea mayor que el pico
de la avenida de entrada.
El procedimiento es el siguiente:
1. Se recomienda un intervalo de gasto 𝛥𝑄 dado por
𝑄𝑚á𝑥
𝛥𝑄 = (45)
10
donde
𝑄𝑚á𝑥 gasto de pico de la avenida de diseño.
3. Se transita la avenida de diseño utilizando las técnicas descritas en el cap A.1.9, suponiendo
que la descarga en cada instante está dada por:
𝑂𝑗 = 𝑚í𝑛{𝐼𝑗∗ , 𝑄𝑑 , 𝑄1 } (46)
donde
𝑂𝑗 gasto de descarga en el instante j
𝐼𝑗∗ gasto máximo de entrada hasta el instante j
𝑄𝑑 gasto de descarga con las compuertas totalmente abiertas
4. Al terminar el tránsito se anotan los valores del volumen máximo almacenado, 𝛥𝑉1; carga
máxima sobre la cresta del vertedor, 𝐻𝑚á𝑥 , y capacidad del vertedor 𝑄1.
5. Los pasos 3 y 4 se repiten hasta que el valor de 𝐻𝑚á𝑥 en dos iteraciones difiera en menos de
5%, suponiendo en cada iteración que
3
𝑄𝑑 = 𝐶𝐻 2 (47)
donde:
𝑄1
𝐶=
(𝐻𝑚á𝑥) 3/2
𝐻 carga sobre la cresta del vertedor.
72
Incertidumbre en la estimación de hidrogramas de entrada al vaso
6. Los valores 𝑄1 y 𝛥𝑉1 constituyen una alternativa que permite manejar la avenida de diseño.
7. Se repite el proceso a partir del paso 3, incrementando la capacidad de descarga en 𝛥𝑄, hasta
obtener varias combinaciones de capacidad de descarga y volumen de almacenamiento requerido.
La política que se propone para generar alternativas que permitan manejar la avenida de diseño,
considera la operación con descarga libre, siempre que el gasto máximo de descarga sea menor que el
de entrada. En cambio, considera que al entrar la avenida de diseño, el nivel inicial en el vaso, es el
máximo de operación (NAMO) y desprecia las posibles descargas por la obra de toma.
El gasto máximo de descarga para avenidas relativamente frecuentes (por ejemplo de 2, 5, 10 y 100
años de periodo de retorno), se puede estimar suponiendo que la operación de las compuertas es tal
que permite descargar un gasto constante durante toda la avenida, y que cuando ésta termina (esto es,
cuando el gasto de descarga es mayor que el de entrada) el nivel del agua alcanza la elevación del
labio superior de las compuertas.
En ocasiones, como se ha hecho en las presas construidas en los últimos años, se diseñan compuertas
altas cuyo labio superior llega al nivel del NAME estando cerradas, lo que permite operarlas con
mayor flexibilidad. En estos casos, para aplicar este método se necesita definir un punto en la
compuerta que no deba ser rebasado al transitar avenidas frecuentes; para fines de evaluación
preliminar se recomienda en esos casos localizarlo a dos tercios de la altura total de la compuerta.
El procedimiento que se describe a continuación, basado en la Figura 32, debe repetirse para cada
periodo de retorno que se quiera analizar.
1. Se conoce
a) La curva elevaciones-volúmenes en el vaso
b) La altura de las compuertas (H)
c) La cota de la cresta del vertedor
d) El nivel inicial o NAMO (Nivel 0)
2. Cuando el gasto de descarga se hace mayor que el de ingreso (punto A de la Figura 32b) y se alcanza
el nivel máximo en el vaso, se supone que dicho nivel es igual a la cota del asiento de la compuerta 𝐻
más 𝑎, donde 𝑎 es la abertura de la compuerta.
73
Incertidumbre en la estimación de hidrogramas de entrada al vaso
3. En la situación anterior, se hace variar a para construir una curva niveles máximos en el vaso contra
descarga por el vertedor (la curva de descarga de un vertedor con compuertas parcialmente abiertas
se discute en el capítulo A.2.9), como la que se muestra en la Figura 32c.
4. Suponiendo gastos de salida de compuerta seleccionados de manera arbitraria entre cero y el gasto
máximo de la avenida, se determinan los volúmenes almacenados si se sostuvieran esos gastos; estos
volúmenes son las áreas (𝛥𝑉 en la figura Figura 32b) comprendidas entre el hidrograma de entrada y
una horizontal igual al gasto en cuestión. Con este criterio se dibuja una gráfica de gastos vertidos 𝑄
contra volúmenes almacenados (Figura 32c).
5. A partir de la cota de control en la que se supone estará el vaso, nivel que se designará como (0),
se define un nuevo nivel, que se llamará (1), con un almacenamiento 𝑉1; el incremento de
almacenamiento será 𝛥𝑉 = 𝑉1 – 𝑉0 .
7. En la gráfica de incrementos de almacenamiento contra gasto descargado (Figura 32c), con los
valores 𝛥𝑉 y 𝑄1 calculados en los pasos 5 y 6, se ve si el punto definido por ellos cae sobre la curva;
de ser así, el tanteo es acertado y el gasto 𝑄1 es el gasto máximo de descarga para la avenida de ingreso
correspondiente al periodo de retorno que se estudia; de otra manera se regresa al paso 5 suponiendo
un nuevo nivel (1).
Con práctica el procedimiento resulta muy expedito y evita grandes esfuerzos de trabajo.
La información que se obtiene, esto es, los gastos máximos de descarga para avenidas frecuentes, se
utiliza para la selección del volumen de regulación y la capacidad del vertedor más adecuado, como
se discute en el capítulo A.2.9. En las Ayudas de diseño se presenta un ejemplo de aplicación de este
procedimiento.
74
Incertidumbre en la estimación de hidrogramas de entrada al vaso
La política propuesta para estimar para cada alternativa el gasto de descarga asociado a avenidas más
frecuentes que la de diseño, está basada en la idea de mover las compuertas de tal manera que se dejen
escapar libremente por el vertedor los gastos inferiores a aquel con el que se desea hacer el control,
cerrando después poco a poco la compuerta, a efecto de lograr que aun cuando suba la carga, no salga
un gasto mayor que el de control. Con este tipo de política se consigue que, como se muestra en la
Figura 33, conforme aumenta el periodo de retorno de la avenida de entrada, aumentan el volumen
∆𝑉 utilizando para regularla y el gasto máximo de descarga ya regularizado.
En la misma figurase muestra cualitativamente que si se aumenta el tamaño de las compuertas, se está
en posibilidad de utilizar una mayor parte del sobrealmacenamiento de la presa y por lo tanto de
reducir el gasto máximo de descarga.
75
Incertidumbre en la estimación de hidrogramas de entrada al vaso
Volumen al NAME
Tm = 50 años
Tm = 5 años
Aun cuando existen ya algunos estudios que permiten abordar con mayor precisión estos casos en que
la compuerta se diseñe muy alta, debido a que con el análisis que se propone únicamente se pretende
tener una idea comparativa de los gastos que se descargarían frecuentemente si se seleccionara una u
otra alternativa de volumen de regulación (sobrealmacenamiento) y capacidad del vertedor, se
propone una regla sencilla, que consiste en realizar el cálculo suponiendo que el labio superior de las
compuertas cerradas alcanza un nivel igual a dos tercios del comprendido entre NAMO y NAME.
Es necesario recalcar que la regla anterior no impide que las compuertas se construyan muy altas,
llegando hasta el NAME, con lo cual se consigue, además de la probabilidad ya mencionada de utilizar
más el sobrealmacenamiento, que en la operación algunas compuertas puedan permanecer cerradas
para realizar trabajos de conservación en algunas partes de la obra de excedencias.
En esta parte se presentan dos procedimientos para diseñar la política de operación de compuertas
en una presa, para la que se conoce su nivel de aguas máximos ordinarios (NAMO), su nivel máximo
76
Incertidumbre en la estimación de hidrogramas de entrada al vaso
de aguas extraordinarias (NAME), las características del vertedor (longitud y nivel de la cresta), las
avenidas de diseño, etc.
Los principales objetivos que debe cumplir una política de operación de compuertas son:
Garantizar la seguridad de la presa evitando que el nivel del agua sobrepase el NAME.
Reducir los gastos de descarga para evitar daños aguas abajo de la presa.
Permitir un almacenamiento adicional una vez que la avenida empieza a descender y termina
el periodo de avenidas.
Estos objetivos se contraponen entre sí ya que una política que minimice el gasto máximo de descarga,
requiere que se almacenen mucho volumen y una política que por garantizar la seguridad de la presa
mantenga bajos niveles del agua durante la avenida, conducirá a grandes descargas.
Debido a lo anterior, y a que en cada presa se presentarán particularidades que implicarán una mayor
o menor importancia relativa a los objetivos mencionados, en lo que sigue se describen procedimientos
generales que, al aplicarse conducirán a varias alternativas de políticas de operación. La mejor
alternativa se puede determinar simulando el tránsito de las mayores avenidas registradas, y de dos o
tres avenidas con periodo de retorno mayor, incluyendo la de diseño.
Las principales restricciones a las que debe estar sujeto el gasto de descarga durante el paso de una
venida son:
Tomando en cuenta estas limitaciones, la política de operación constará de los siguientes pasos:
𝐼1 + 𝐼2 𝑂1 + 𝑂2 𝑉2 − 𝑉1
− = (48)
2 2 𝛥𝑡
donde
77
Incertidumbre en la estimación de hidrogramas de entrada al vaso
2) Se define la altura máxima 𝐻𝑚á𝑥 que se desea que alcance el nivel del agua. La definición de
este nivel dependerá del periodo de retorno estimado en el paso 1, de la confianza que se tenga
en dicha estimación y del miedo al riesgo de que la presa sea rebasada. En general 𝐻𝑚á𝑥 puede
definirse más cerca del NAME conforme se conozca mejor la avenida de entrada (ya sea
porque se cuenta con un sistema de predicción o porque ya paso la mayor parte de la avenida).
4) Los pasos 1,2 y 3 se repiten cada vez que se observa que la avenida de entrada difiere de la
predicha, por lo que se obtendrá finalmente una operación como la que se presenta en forma
esquemática en la Figura 34b. En dicha figura se observa que cuando el pronóstico indica
claramente que los gastos de ingreso van a descender, la descarga que resulta del
procedimiento descrito puede disminuir también; sin embargo, algunas veces se prefiere
mantener el gasto de descarga tomando en cuenta que de esa manera puede recuperarse más
rápidamente la capacidad de almacenamiento en el vaso.
78
Incertidumbre en la estimación de hidrogramas de entrada al vaso
Este subcapítulo está dedicado a describir una metodología para el diseño de políticas de operación
de las compuertas de la obra de excedencias de una presa ya diseñada o construida.
Las recomendaciones no se dan en forma de un proceso paso a paso que pueda seguirse de manera
indiscriminada en todos los casos. Esto se debe a que en cada presa existirán siempre una serie de
79
Incertidumbre en la estimación de hidrogramas de entrada al vaso
peculiaridades que harán que el proceso detallado del diseño de políticas sea diferente de una a otra.
Para ejemplificar lo anterior puede tomarse el caso de la presa el Infiernillo, algunas de cuyas
características especiales son:
El nivel de aguas máximo ordinario (NAMO) es variable con la época del año.
Se prefiere operar el menor número posible de túneles debido al peligro de cavitación.
Por otro lado, si el nivel del agua sobrepasa la elevación 169, es necesario abrir las compuertas
de todos los túneles para evitar que el agua se derrame por arriba de las compuertas.
Aun cuando el nivel de aguas máximo extraordinario (NAME) se ha fijado a la elevación
176.4, y a la elevación 172.0 pueden presentarse problemas de ahogamiento en los túneles.
Las políticas que todavía se utilizan en la mayoría de las presas mexicanas, que consisten
fundamentalmente en proponer una serie de descargas escalonadas en función del nivel del agua del
vaso, son muy sencillas pero tienen el defecto de que no hacen uso de toda la información disponible
(en particular de los gastos ya registrados de la avenida de entrada). Por este motivo se recomienda
elaborar políticas que, aún más complicadas, permitan hacer uso de la información que se llega a
disponer.
La política que se obtiene siguiendo las recomendaciones, puede conducir a que en un momento dado
(por ejemplo cuando se estime que al principio se había hecho una sobre predicción del periodo de
retorno de la avenida de entrada), el gasto de descarga deba disminuirse antes de que termine la
avenida. En estos casos podría considerarse que si ya se ha causado un cierto daño y esté no aumenta
si el gasto de descarga se mantiene constante, no vale la pena disminuir el gasto de descarga y es
preferible bajar más rápidamente el nivel de agua en el vaso.
En lo que sigue se hacen comentarios sobre las fuentes de incertidumbre asociadas a los distintos
métodos presentados en las páginas anteriores.
Sin embargo, la principal fuente de imprecisión en la estimación se deriva de que la cuenca en estudio
no forma parte de la muestra, sobre todo cuando alguna de sus características fisiográficas está fuera
del rango de las de las que se usaron para la calibración.
80
Incertidumbre en la estimación de hidrogramas de entrada al vaso
Adicionalmente, cuando la estimación se hace para periodos de retorno mayores que el número
promedio de años de registro en las estaciones de la muestra, se puede cometer un error derivado de
las extrapolaciones estadísticas, del cual se comenta más adelante.
La estimación del periodo de retorno de los datos medidos, 𝑇̂𝑟 , para lo cual se han propuesto
diferentes fórmulas (Weibull, California, Hazen, Gringorten) que difieren sobre todo en el caso
de los mayores valores de la muestra.
La separación entre el periodo de retorno para el que se quiere hacer la estimación y el periodo
de retorno asociado a la media de los datos (ec. (32) en el caso de la Gumbel).
La desviación estándar de las diferencias entre los datos medidos y los estimados con la
función de distribución ajustada (ec. (35))
La selección de la función de distribución que se ajusta a los datos (si los datos corresponden
a una muestra insesgada de valores máximos anuales tomados de la misma población, se puede
considerar que la población es de tipo Gumbel)
Análisis de frecuencias multivariado (Método del Instituto de Ingeniería basado en gastos medios
diarios y Análisis de frecuencia bivariado)
En estos dos casos, a los posibles errores comentados en el párrafo anterior debe añadirse:
En el caso del método del Instituto, la necesidad de ajustar una función de distribución para
cada duración (aunque, por otro lado, esto ayuda a verificar la congruencia de los resultados).
En ambos casos se tiene la ventaja de que el la presa actúa como un filtro durante el tránsito
de las avenidas.
81
Incertidumbre en la estimación de hidrogramas de entrada al vaso
En particular, respecto a la fórmula racional las fuentes principales de errores son la estimación del
tiempo de concentración y la hipótesis de que, en ese tiempo, la lluvia es uniforme en el tiempo y en
el espacio.
Cuando se cuenta con información que permite obtener un hidrograma unitario calibrado, se puede
considerar la variación de la precipitación en el tiempo, pero no su variación en el espacio.
82
Incertidumbre en la estimación de hidrogramas de salida por ruptura de presas o bordos
Cuando interesa la evolución en el tiempo de los niveles de agua en el embalse durante intervalos de
tiempo mayores del orden de 7 días o más, se emplea una metodología conocida como funcionamiento
de vasos, donde las pérdidas mencionadas se toman en cuenta junto a otros aspectos de interés.
Los hidrogramas de salida en presas con compuertas en su obra de excedencias se les dice que son
descarga controlada y si no cuentan con ellas, se les dice que son de descarga libre, ambos se obtienen
con el tránsito de avenidas en vasos.
En el tránsito de avenidas en vasos se determinan los caudales que salen de una presa a partir de un
hidrograma conocido que entra a la presa así como las elevaciones del agua dentro del vaso
considerando la capacidad de almacenamiento y de descargas de caudales.
El agua almacenada en el embalse puede descargarse en forma libre (Figura 36) o controlada por la
obra de excedencias con vertedores con compuertas y por las obras de toma (los conductos hacia las
turbinas o hacia el río para aprovecharse, entre otros usos en riego o abastecimiento de agua potable).
83
Incertidumbre en la estimación de hidrogramas de salida por ruptura de presas o bordos
El tránsito de una avenida a través de un vaso de almacenamiento se realiza para propósitos como los
siguientes:
Conocer la evolución de los niveles a partir de uno inicial para confirmar si la política de
salidas por las obras de excedencias y de toma es adecuada, de manera que al presentarse la
avenida, no se ponga en peligro de falla a la presa, o aguas abajo no se cause daños a bienes
materiales o inclusive, la pérdida de vidas humanas.
Para realizar el tránsito de avenidas por un vaso de almacenamiento se requiere de esta información:
Hidrograma de entrada
84
Incertidumbre en la estimación de hidrogramas de salida por ruptura de presas o bordos
𝑑𝑉
=𝐼−𝑂 (49)
𝑑𝑡
donde:
𝐼 gasto de entrada al vaso (m3/s).
𝑂 gasto de salida del vaso (m3/s).
𝑑𝑉
variación del volumen de almacenamiento 𝑉 en el tiempo 𝑡 (m3/s).
𝑑𝑡
Como los gastos del hidrograma de entrada al vaso son conocidos, la ecuación (49) no es suficiente para
obtener el hidrograma de salida, ya que en la misma hay dos incógnitas, el gasto de salida y el
almacenamiento.
Para contar con una relación adicional entre las incógnitas citadas, se emplean dos funciones, una que
es la elevaciones del agua y el volumen almacenado correspondiente (con frecuencia se refiere a la curva
elevaciones-capacidades del vaso, definida ya sea con una ecuación o un conjunto de puntos) y la otra
es una regla de asociación entre las elevaciones del agua y el caudal descargado, curva elevaciones-
gastos de descarga.
El valor de las incógnitas, volumen y descarga se obtiene con un método numérico ya que la ecuación
de continuidad no tiene solución analítica para vasos de almacenamiento de la práctica profesional.
85
Incertidumbre en la estimación de hidrogramas de salida por ruptura de presas o bordos
siendo las incógnitas: V i+1 y Oi+1 , que son el volumen almacenado y el gasto de egreso el final de
intervalo de tiempo.
El tiempo t debe ser elegido suficientemente pequeño para obtener una solución con suficiente
precisión. En el planteamiento de esta ecuación se supone que los hidrogramas de entrada y salida están
formados por líneas rectas entre los tiempos 𝑡𝑖 y 𝑡𝑖+1 , lo cual no está alejado de la realidad para t
cercanos a cero.
En particular, si t es grande, es posible que la ordenada máxima del hidrograma de entrada no coincida
con un intervalo de tiempo, por lo que se recomienda tratar de incluir dicha ordenada. Para tener una
adecuada precisión de los cálculos el intervalo de tiempo debe ser pequeño, se sugiere usar t 0.1 𝑡𝑝 ,
donde 𝑡𝑝 es el tiempo de pico del hidrograma de entrada (Figura 35).
Se plantea una función entre el volumen de almacenamiento y la profundidad del agua en el vaso y se
supone que la superficie libre del agua en el vaso es horizontal. Como el gasto de salida también es una
función de la elevación de la superficie de agua sobre la estructura de salida, al combinar estas dos
funciones, el almacenamiento en el embalse y el gasto de salida quedan ligados entre sí, tanto para
estructuras de salida del embalse controladas por compuertas, una vez que se queden fijas en una
posición, como para aquellas que no tienen compuertas.
En los embalses con relación invariable, el gasto de pico del hidrograma de salida ocurre cuando dicho
hidrograma intersecta al hidrograma de entrada. Esto se debe a que el máximo almacenamiento ocurre
𝑑𝑉
cuando la derivada es nula; es decir cuando 𝑑𝑡 = 𝐼 − 𝑂 = 0.
En el gasto de salida se considera lo que egresa por la obra de excedencia y por la de toma.
Q = C L H 3/2 (51)
86
Incertidumbre en la estimación de hidrogramas de salida por ruptura de presas o bordos
Donde 𝐻, 𝐿 y 𝐶 son, la carga sobre la cresta del vertedor, longitud y coeficiente de descarga del
vertedor, respectivamente.
Cuando el vertedor tiene compuertas, el gasto se obtiene tomando en cuenta la elevación del
agua y la abertura disponible una vez fija la posición de las compuertas, dada por la ecuación:
2
Q= 2g C1 L ( H 13/2 - H 3/2
2 ) (52)
3
donde 𝑔, 𝐻1 , 𝐻2 , 𝐿 y 𝐶1 son la aceleración de la gravedad, la carga sobre la cresta del vertedor, carga
con respecto a la parte superior de la abertura de la compuerta, longitud del vertedor y coeficiente de
descarga respectivamente (Figura 38).
Figura 37. Coeficiente de descarga para vertedores libres (U. S. Army Corps of Engineers)
Esta relación elevación-gasto de salida estará dada por las reglas de operación de compuertas de la
obra de excedencias. Al gasto que sale por la obra de excedencias, se agregan los gastos que se extraen
por la obra de toma.
87
Incertidumbre en la estimación de hidrogramas de salida por ruptura de presas o bordos
En el método propuesto, la precisión el gasto de salida 𝑂𝑖+1, depende del máximo error admisible en
su cálculo (diferencia entre dos valores sucesivos en el método, podría ser del orden del 2%) y del
número de iteraciones máximo (se recomienda que sea del orden de 10).
El procedimiento propuesto para resolver la ecuación diferencial ordinaria de continuidad es del tipo
predictor - corrector.
El cálculo para el tiempo 𝑡𝑖+1 , se inicia suponiendo que el gasto de salida 𝑂𝑖+1es igual al del tiempo
anterior; es decir al de 𝑂𝑖 . Así en la ecuación (50) queda solo la incógnita 𝑉𝑖+1, que al resolverse, se
define el valor de 𝑉𝑖+1 . Luego, con 𝑉𝑖+1 y con la curvas elevaciones capacidades, se obtiene la
elevación ℎ + 1. Una vez determinada ℎ + 1, con la curva elevaciones-descargas, se calcula el gasto
de salida 𝑂𝑖+1 .
Cuando son parecidos los valores de 𝑂𝑖+1 de una iteración con los de la inmediata siguiente, se
concluye el cálculo del tiempo 𝑡𝑖+1 y se dispone de los resultados 𝑉𝑖+1 y 𝑂𝑖+1 . De otro modo, con el
valor 𝑂𝑖+1 encontrado, se usa la ecuación (50) para valuar a 𝑉𝑖+1 y con este, se estima 𝑂𝑖+1.
88
Incertidumbre en la estimación de hidrogramas de salida por ruptura de presas o bordos
89
Incertidumbre en la estimación de hidrogramas de salida por ruptura de presas o bordos
Figura 39. Diagrama de flujo del procedimiento propuesto para resolver la ecuación diferencial
ordinaria de continuidad
90
Incertidumbre en la estimación de hidrogramas de salida por ruptura de presas o bordos
4.1.2 Datos necesarios para emplear el método para el tránsito de avenidas por vasos
Para aplicar el método del tránsito de avenidas en vaso se requiere de los siguientes datos:
Hidrograma de entrada
Elevación del nivel de agua en el vaso en el instante 𝑡0
Gasto de salida por el vertedor en el instante 𝑡0
Gasto de salida por la obra de toma en el instante 𝑡0
Curva elevaciones-volúmenes de almacenamiento
Curva elevaciones-gastos de salida de las obras de excedencias y de toma (o su ecuación)
El intervalo de tiempo (en las hojas solo llega hasta f creo que esto es la continuación al
El tiempo 𝑡0 suele considerarse igual al del momento en que empieza a llegar a la presa el hidrograma
de entrada.
91
Incertidumbre en la estimación de hidrogramas de salida por ruptura de presas o bordos
La determinación de las zonas anegadas, sus profundidades, así como las velocidades de las corrientes
en los cauces de los ríos y barrancas a donde llega el agua, contribuyen a estimar los efectos sobre
población asentada, fauna, medioambiente, infraestructura, áreas productivas entre otros. Ello sirve
para establecer planes de seguridad y para la mitigación de daños.
La durante la construcción, el llenado y la operación de presas existe la posibilidad de una falla, por
la magnitud de los volúmenes de agua liberados en forma abrupta, existe un riesgo potencial de daño
a la población, bienes materiales, y medioambientales por lo que se requieren estudios y normas para
disponer planes de seguridad.
Un aspecto fundamental del cálculo del agua que se propaga aguas abajo es el hidrograma de salida
de la rotura presas o bordos, ya que de él dependen la extensión de las regiones que se cubrirían con
agua, las profundidades que alcanzarían y las velocidades de las corrientes.
Para determinar el desplazamiento del agua a lo largo del tiempo del hidrograma de salida por la rotura
de una presa o bordo, en varias partes del mundo, se emplean modelos físicos y matemáticos, de estos
últimos los más utilizados son: DAMBRK, FLDWAV y HEC-RAS que fueron creados por organismos
de los Estados Unidos, los dos primeros por National Weather Service y el tercero, por el US
Department of Defense, Army Corps of Engineers.
Un primer aspecto para determinar el hidrograma de salida por el rompimiento de presas o bordos, a
las presas se les clasifica en varias clases.
92
Incertidumbre en la estimación de hidrogramas de salida por ruptura de presas o bordos
Las presas no clasificadas que no entran al grupo de las presas grandes, se agrupan en las categorías
A, B y C en función de su riesgo de daño potencial.
Categoría A: Afecta gravemente a núcleos urbanos o servicios esenciales o producir daños materiales
o medioambientales importantes.
Cuando la rotura de una presa no afecta a otras ubicadas aguas arriba o aguas abajo, se los escenarios
de roturas posibles se formulan de manera individual, relacionando el volumen de agua almacenado
en el embalse y las los caudales entrantes a la presa en el momento en que se produce la falla.
Dos escenarios típicos que se suelen analizar corresponden al volumen almacenado en el embalse y
con caudales entrantes al mismo, en el momento en que se produce la falla. En el caso más
desfavorable considera que la rotura ocurre con el embalse en su nivel de agua máximo extraordinario
(NAME) y una avenida entrante importante o bien está en su nivel máximo de aguas ordinario
(NAMO) y también se están ingresando caudales grandes. La avenida de ingreso se suele ser la
avenida histórica con mayor volumen.
93
Incertidumbre en la estimación de hidrogramas de salida por ruptura de presas o bordos
Cuando la rotura potencial de una presa podría afectar a presas ubicadas aguas bajo se tendría una
rotura encadenada de presas (efecto dominó). Los efectos sobre la presa de aguas abajo pueden
agruparse en dos casos:
1.- El embalse de aguas abajo puede contener a la onda de rotura en condiciones similares para
las que fue diseñada para la avenida de diseño, y aún hasta la proximidad de la corona si no es
probable que se presenten avenidas de manera simultánea en ambas presas. En este caso no se
produciría la rotura encadenada de la presa de aguas abajo, y cada presa se clasificaría,
atendiendo únicamente a sus propias afecciones potenciales de forma independiente.
2.- El embalse de aguas abajo no puede almacenar la onda de rotura que le llega de la presa de
aguas arriba, vertiendo sobre su corona, por lo que se debe considerar que se produce la rotura
simultánea con el desagüe de la onda de llegada al embalse. Ello da lugar al planteamiento de
otro escenario. En este caso, además de contemplarse los dos escenarios usuales y de manera
independiente de la presencia de las otras presas, la clasificación debe de realizarse con una
visión conjunta y contemplando como otro escenario a la rotura encadenada.
5.2.1 Brecha por donde sale el líquido durante la ruptura de una presa o bordo
En año 2010, el canal del río de La Compañía, al oriente de la Ciudad de México, tuvo una ruptura un
tramo del bordo en la zona urbana de Chalco, debido a que las altas precipitaciones generaron un
incremento importante en un corto tiempo del nivel del agua en el cauce y las condiciones geotécnicas
del bordo (Figura 41).
94
Incertidumbre en la estimación de hidrogramas de salida por ruptura de presas o bordos
Figura 42. Vista frontal de la brecha desarrollada en el sitio del caso de estudio.
En la Figura 43 se muestra el estado final de la brecha de ruptura de una presa de arena en un modelo
físico en laboratorio para analizar el desarrollo de la brecha por parte del Instituto de Hidráulica de la
Universidad nacional Autónoma de México (Fuentes, Cruz et al., 2010) y el modelado matemático
del mismo (Bladé, 2013).
Para definir las características geométricas de brecha de la falla que causa el rompimiento de una
cortina o bordo (Figura 43), así como de su tiempo de formación y el gasto máximo descargado, se
consideran tres enfoques de aproximación:
Métodos experimentales, que utilizan modelos físicos para la verificación de los resultados de
los otros enfoques, o que generan nuevas relaciones empíricas.
95
Incertidumbre en la estimación de hidrogramas de salida por ruptura de presas o bordos
Hc Hw Hb
(56)
0.304 c
H
eB4
tr Hr w
2009 Xu & Zhang Materiales graduados
0.654 1.246
tf H Vw
1/3
(57) C4 c 2009 Xu & Zhang Materiales graduados
tr H
Hr w
En la ecuación (53) de la Tabla 7 se requiere del volumen del material erosionado de la cortina, Ve en
m3. Para cortinas de tierra homogénea y de materiales graduados, Ve H , se obtiene mediante:
96
Incertidumbre en la estimación de hidrogramas de salida por ruptura de presas o bordos
En las ecuaciones (56) y (57) el tiempo de referencia t r es igual a 1 hora. Los factores B4 y C4 tendrán
el valor de la Tabla 9, siendo:
B4 b3 b4 b5
C 4 b5
Materiales térreos,
taludes con/sin
(58) b 3 Hw 1988 USBR
revestimientos, ancho b
de 5 a 170 m
Materiales térreos,
taludes con/sin
(59) b 4.6Hw 5.7 2007 Zagonjolli
revestimientos, ancho b
de 5 a 170 m
Von Thun &
(60) b 2.5 Hw C b 1990
Gillette
0.133 0.652
b H Vw 1 / 3
(63) 0.787 c
Hw
eB3 2009 Xu & Zhang Materiales graduados
Hb Hr
0.739
b V 1/ 3
(64) 5.543 w
Hw
eC 3 2009 Xu & Zhang Materiales graduados
Hb
97
Incertidumbre en la estimación de hidrogramas de salida por ruptura de presas o bordos
Para las ecuaciones (63) y (64), tomar en cuenta los factores de la Tabla 9, considerando:
B3 b3 b4 b5
C3 b4 b5
Altura de la brecha
Las ecuaciones propuestas por Xu & Zhang requieren de la altura de la brecha H b . Para la ecuación
(63) utilizar:
Hb H
0.453 0.025 c B1 (65)
Hc Hr
Hb H
C1 0.025 c (66)
Hc Hr
98
Incertidumbre en la estimación de hidrogramas de salida por ruptura de presas o bordos
B1 b3 b4 b5
C1 b5
En la Tabla 9 aparecen algunos valores de los siguientes parámetros: CI, corazón impermeable; PC,
pantalla de concreto; HM, cortina homogénea o de materiales graduados; Db, falla por
desbordamiento; Tb, falla por tubificación; Alta, media o baja se refieren a la erosionabilidad de la
cortina
5.3 Hidrograma de salida por la brecha formada durante la ruptura de la presa o bordo
5.3.1 Hidrograma obtenido con apoyo del método de tránsito de avenidas en vasos
Con base en el tiempo de formación de la brecha, ancho promedio y altura de la brecha, se considera
que las ecuaciones:
bf t
B (67)
tf
hb t
Hb (68)
tf
Si se considera que le gasto corresponde a de un cimacio con libre el gasto de salida está dado por:
3/2
Q = C B Hb (69)
con un valor promedio de 2 para el coeficiente de descarga. Las expresiones (67) y (68) se consideran
en el tiempo 𝑡 en el proceso numérico del tránsito de avenidas en vasos para obtener el hidrograma de
salida por la ruptura de una presa o bordo.
99
Incertidumbre en la estimación de hidrogramas de salida por ruptura de presas o bordos
5.4 Hidrograma de salida por la ruptura de una presa o bordo obtenido con fórmulas empíricas
El hidrograma de salida durante la ruptura de una presa se obtiene a partir del gasto de pico y tiempo
base. En la Tabla 10 se presenta un resumen de ecuaciones empíricas desarrolladas por diferentes
autores para la determinación del gasto de pico por el rompimiento de una cortina, en m3/s. En las
ecuaciones (78) y (79) de la Tabla 10 se requieren los factores B5 y C5. Estos se obtienen con la
información de la Tabla 5.6, considerando:
B5 b3 b4 b5
C5 b4 b5
Walder y O’Connor realizaron un análisis dimensional de problema del rompimiento de cortinas.
Concluyen que el hidrograma de la brecha depende del parámetro adimensional, definido de la manera
siguiente:
k Vw
1/2 7/2 (70)
g Hw
Qp 0.5404Hc Vw
0.50
(71) 1982 Hagen
Qp 1.154Hw Vw
0.412
(72) 1984 MacDonald & Langridge
Qp 3.85Hw Vw
0.411
(73) 1984 MacDonald & Langridge
Qp 2.634Hc Vw
0.440
(74) 1985 Costa
Qp 0.981Hc Vw
0.420
(75) 1985 Costa
Qp 16.60Hw
1.85
(77) 1981 SCS
0.199 1.274
Qp H Vw1 / 3
(78) 0.175 c
Hw
eB5 2009 Xu & Zhang
gVw
5/3
Hr
100
Incertidumbre en la estimación de hidrogramas de salida por ruptura de presas o bordos
1.276
Qp V 1/3
(79)
5/3
0.133 w
Hw
eC5 2009 Xu & Zhang
gVw
Donde
Hw
k
tf
k variación de la brecha respecto al tiempo, en m/s. Por lo regular, k varía entre 10 y 100 m/h;
t f tiempo de formación de la brecha de falla, en s.
De acuerdo con Walder, si el parámetro 0.6< <5, el gasto de pico Q p puede estimarse a partir de lo
siguiente:
Qp Q*p g1 / 2Hw
5/2
(80)
El parámetro adimensional Q *p se obtiene de la Figura 45, siendo r el cociente del ancho del fondo
de la brecha y la altura de la brecha. Típicamente 1 < 𝑟 < 5.
Walder observó que para <<1 (lenta formación de la brecha o volumen de almacenamiento
pequeño), Q p depende de k y de la forma del embalse (elevaciones-capacidades). Para <0.6 se
tiene:
0.94
Qp 1.51 g1 / 2H5w/ 2 0.06 k
H
Vw
(81)
w
Por el contrario, cuando >>1 (rápida formación de la brecha o volumen de almacenamiento grande),
la influencia de k sobre Qp no es determinante, y el gasto de pico depende de la carga inicial y la
geometría final de la brecha.
10
Gasto de pico adimensional, Q p*
r = 5.0
0.1 r = 2.5
r=0
0.01
0.001
0.001 0.01 0.1 1 10 100
Parámetro adimensional,
Q*p
Figura 45. Relación entre los parámetros adimensionales y .
101
Incertidumbre en la estimación de hidrogramas de salida por ruptura de presas o bordos
3/ 4
Hc
Qp 1.94 g 1/ 2
H 5/ 2
w
(82)
Hw
Walder y O’Connor indican la forma de calcular el tiempo de pico del hidrograma de salida por el
rompimiento de una cortina, t p en s. Para <<1, ec. (82), observaron que en volúmenes de
almacenamiento pequeño o lentas formaciones de la brecha, ocurren escurrimientos importantes antes
de que se presente el tiempo de falla t f , por lo que t p t f . En estas condiciones:
1/3
V
tp 1.24 2 w 1 / 2 (83)
k gH
w
En caso contrario, >>1, la brecha se desarrolla completamente antes que ocurra la onda de ruptura,
y puede considerarse que t p t f . Resulta:
Hw
tp (84)
k
Si el hidrograma producido por la ruptura de una cortina se considera triangular, el tiempo base del
mismo puede calcularse como:
2Vw
tb (85)
Qp
A modo de resumen, la forma y evolución de la brecha por donde egresa el agua dependen del tipo de
presa:
Presas bóveda
Tiempo de rotura: 5 a 10 minutos (instantánea).
Forma de rotura: Completa, siguiendo la forma de la cerrada, admitiéndose la
geometría trapecial, taludes 1 a1.
102
Incertidumbre en la estimación de hidrogramas de salida por ruptura de presas o bordos
Para el análisis del rompimiento de presas se recomienda emplear modelos matemáticos que se basen
en las ecuaciones dinámicas del movimiento y que consideren las características principales del
movimiento en régimen variable de la propagación de la onda de rotura.
El modelado matemático de la propagación de avenidas requiere resolver las ecuaciones del flujo
variable del agua a superficie libre (ecuaciones de Saint Venant) que requiere una discretización
bidimensional del dominio de estudio.
Las características del flujo de agua en cauces naturales y llanuras permiten simplificar estas
ecuaciones, de modo que al integrar en la profundidad, eliminando la dimensión vertical, se obtienen
las ecuaciones de Saint Venant en dos dimensiones, validas cuando el flujo que se quiere analizar
presenta carácter bidimensional, con velocidades verticales pequeñas, pendientes del fondo del cauce
suaves y en general predominio de las dimensiones horizontales sobre la vertical.
Para el análisis de las ecuaciones de Saint Venant en dos dimensiones, se han desarrollado los
esquemas bidimensionales. En estos se hacen diferentes aproximaciones de acuerdo al tipo de
problema a estudiar, es decir de acuerdo al tipo de fuerzas determinantes del movimiento del agua y
a las variables que interese conocer.
103
Comentarios finales
6. Comentarios finales
Para un análisis realista y bien estructurado del riesgo es necesario estimar la relación que existe entre
la cantidad de daño previsible (vulnerabilidad) y la probabilidad de ocurrencia de la amenaza (peligro).
En otras palabras, se deben contestar dos preguntas fundamentales: ¿Cuánto daño podría producirse
y qué tan frecuentemente se produciría? Para responderlas se requiere recopilar información de dos
aspectos diferentes: la amenaza de inundación en el sitio, y la vulnerabilidad del bien evaluado. El
análisis del riesgo tiene como objetivo fundamental determinar las distribuciones de probabilidad de
las pérdidas que pueden sufrir en lapsos dados los bienes expuestos, como consecuencia de la
ocurrencia de amenazas naturales, integrando de manera racional las incertidumbres que existen en
las diferentes partes del proceso.
El procedimiento de cálculo probabilista consiste, en forma resumida, en evaluar las pérdidas que
acontecen durante cada uno de los escenarios que colectivamente describen la amenaza, y luego
integrar probabilísticamente los resultados obtenidos utilizando como factores de peso las frecuencias
de ocurrencia de cada escenario. Idealmente, en el análisis de riesgo se deben considerar todos los
escenarios relevantes de la amenaza, su respectiva probabilidad de ocurrencia y los posibles daños o
consecuencias negativas que se esperan. Además, existen incertidumbres que no pueden despreciarse
y deben propagarse a lo largo del proceso de cálculo en cada una de las etapas Con los avances en la
adquisición de datos y el incremento en la capacidad de las herramientas de cómputo, el análisis
probabilista del riesgo es cada vez más viable y reconocido por los diferentes actores.
El objetivo de este trabajo es elaborar una guía metodológica para generar escenarios de descargas
controladas y no controladas de presas a fin de evaluar probabilísticamente el riesgo por inundación.
Un escenario de descarga se define por una combinación volumen y/o gasto pico, pudiendo ser
descrito en forma de hidrograma asociado a su respectiva frecuencia anual de ocurrencia.
En la Figura 46 se esquematiza el proceso general para la evaluación del riesgo por inundaciones
provocadas por el vertido de presas, resaltando aquellas etapas relacionadas con la generación de los
escenarios de descarga y que son tratadas en este trabajo. Los escenarios de descarga obtenidos
servirán como datos de entrada para estimar, mediante modelos hidráulicos, los diferentes escenarios
de inundación que se pueden presentar en términos de profundidades y/o velocidades de inundación.
104
Comentarios finales
Análisis estadístico de
Análisis lluvia-escurrimiento escurrimientos
Exposición y
Escenarios de inundación
vulnerabilidad
Escenarios de pérdidas
Análisis de riesgo
Figura 46. Proceso general para la evaluación del riesgo por inundaciones debido a la operación y
falla de presas. Se resaltan las etapas incluidas en este trabajo.
105
Comentarios finales
6.2 Incertidumbres
El manejo del riesgo y de las incertidumbres es una parte muy importante en ingeniería. En el contexto
de los modelos en ingeniería, las diferentes incertidumbres descritas en el capítulo 2 pueden resumirse
en dos:
Tabla 11. Fuentes de incertidumbres en el análisis de frecuencia de inundaciones (Merz et al. 2005)
Fuente Ejemplo
Errores en la medición del nivel de la superficie de agua,
Errores de medición
error en las curvas
Métodos gráficos Weibull, Hazen, Gringorten
Aleatoriedad, estacionalidad, homogeneidad,
Consideraciones
independencia, etc.
Periodo representativo de observación, series anuales o
Selección de la muestra
parciales, consideración de eventos históricos , etc.
Lognormal, Pearson tipo 3, Generalizada de valores
Función de probabilidad
extremos, etc.
Método para la estimación de parámetros Momentos, momentos-L, máxima verosimilitud, etc.
106
Comentarios finales
Una forma de medir el grado de incertidumbre es evaluar los diferentes momentos estadísticos. Los
momentos estadísticos más utilizados son la media y la varianza de las variables inciertas. La media,
𝜇𝑋 , es el primer momento central que ilustra el valor esperado de la variable, mientras que la varianza,
𝜎𝑋2 , es el momento de segundo orden y representa la dispersión de la variable. El coeficiente de
variación se define como el cociente de la desviación estándar entre la media y se utiliza para medir
el nivel de incertidumbre. Este coeficiente se utiliza como una medida normalizada de la
incertidumbre y permite la comparación entre diferentes condiciones y la combinación de diferentes
variables aleatorias (Tung et al. 2005). Sin embargo, la metodología más completa para medir la
incertidumbre consiste en utilizar la función de densidad de probabilidad de las variables deseadas. A
partir de esto se puede concluir que la estimación de los momentos estadísticos y de la función de
densidad de probabilidad son las partes más importantes del análisis de incertidumbre.
Los métodos para la propagación de la incertidumbre, descritos con detalle en el capítulo 2, son los
siguientes:
Representaciones difusas.
Filtro de Kalman.
Filtro de ensamble de Kalman.
Métodos de tipo Monte-Carlo
Regresión no-lineal.
Métodos Bayesianos.
Análisis de sensibilidad
Métodos emuladores.
Estimación de Incertidumbre con Máxima Verosimilitud Generalizada (GLUE).
La premisa fundamental de esta sección estriba en reconocer que el conocimiento científico formal,
está construido sobre hipótesis y juicios; y que tiene asociado una gran cantidad de incertidumbre, la
cual no es posible expresar por medio de un análisis de sensibilidad o bandas de confianza, y que
además ésta no necesariamente se reduce en función del volumen de información disponible. En este
caso, de acuerdo con Stirling (2007), la precaución deberá incluirse como parte de la evaluación del
107
Comentarios finales
riesgo y no hasta la etapa de gestión del mismo. Recomendaciones finales ante la presencia de
incertidumbre son:
Usar modelos cuantitativos que permitan expresar a las incertidumbres epistémica y aleatoria,
de preferencia por medio de distribuciones de probabilidad Bayesianas.
Realizar un análisis de sensibilidad para formas alternativas de los modelos, y evaluar la
evidencia para la generación de nuevas estructuras, sin colocar probabilidades a los modelos.
Proveer una lista de limitaciones conocidas de los modelos y un juicio cualitativo o
cuantitativo de su influencia en el resultado.
Proveer una expresión cualitativa del grado (o falta) de confianza, en cualquier análisis que
tenga como base la calidad de la información o evidencia (ej. IPCC 2010).
En situaciones de bajo nivel de confianza, utilizar de forma deliberada expresiones imprecisas
de la incertidumbre en la cantidades, como el orden de magnitud, sean estos positivos o
negativos, o incluso negarse a dar cualquier tipo de juicio.
Durante la exploración de posibles acciones, buscar la robustez del error, la resiliencia ante lo
imprevisto, y el potencial de adaptación a la luz de lo inesperado (Morgan et al. 2009).
Buscar la transparencia y la facilidad de cuestionamiento de los modelos, con una clara
manifestación del origen de las hipótesis.
Comunicar la estimación o resultado con humildad, y comunicar la incertidumbre con
seguridad.
Reconocer por completo el rol del juicio, aceptando la participación constructiva de todos los
interesados (Kadvany, 1996).
108
Comentarios finales
Tabla 12. Fuentes de incertidumbre asociadas a las distintas etapas del proceso de generación de
descargas.
Error humano
Políticas de descarga
Error en las mediciones
109
Comentarios finales
El siguiente paso consiste en determinar los hidrogramas de entrada, ℎ𝑒, a través de cualquiera de los
métodos conocidos y los descritos en el capítulo 3. Como consecuencia de los diferentes
métodos existentes, podremos obtener diferentes hidrogramas asociados a los gastos de
entrada, teniendo cada uno de ellos diferente forma y/o duración. Si además, para una misma
metodología, consideramos que puede existir incertidumbre en alguno de sus parámetros, el
número de conjuntos de resultados diferentes se incrementará.
Cada una de estas combinaciones de metodología y parámetros diferentes, incorpora los efectos de
esas incertidumbres en el proceso, y se representan por un subíndice, siendo ℎ𝑒𝑖,𝑗 el vector de
hidrogramas de entrada asociados a los gastos 𝑞𝑖 con la 𝑗 − é𝑠𝑖𝑚𝑎 combinación de metodología y
parámetros.
Este procedimiento se propaga hacia las siguientes etapas del proceso. Cuando los hidrogramas de
entrada escurren hacia al vaso, el nivel de agua almacenada puede tener diferentes valores
dependiendo, por ejemplo, de la época del año. Esto origina que el volumen total que almacenaría la
presa varíe.
Como se ha mencionado anteriormente, en cada etapa, los escenarios de resultados deberán tener
asociado un valor de frecuencia de ocurrencia, que debe ser afectada por la probabilidad de que una
metodología sea más precisa que otra y por la probabilidad de que los parámetros aleatorios adquieran
el valor utilizado.
110
Comentarios finales
111
Referencias
7. Referencias
Alcamo, J. and Bartnicki, J. 1987. A Framework for Error Analysis of a Long-Range Transport Model
with Emphasis on Parameter Uncertainty. Atmospheric Environment 21(10) (1987), pp. 2121–2131.
Aparicio, M. F.J. Fundamentos de hidrología de suprficie. Limusa 1996, México. 303 pp.
Arganis, J. M. L., Domínguez, M. R..,González V. F., Fuentes M. O., Franco VCarrizosa, E. E.,
Esquivel, G. G., Reyes M. H., Guzmán ,G. H. Manual De Cfe, Hidrología. Capítulo A.1.8. Avenidas
de Diseño. Para CFE. Diciembre, 2012. Informe Final.
Ávila García, Patricia (2007), “Las cuencas hidrológicas de México y su vulnerabilidad socio
ambiental por el agua” en José Luis Calva (Coord.), Sustentabilidad y desarrollo ambiental; UNAM,
Editorial Miguel Ángel Porrúa, México, D.F.
Baecher, G.B. and Christian, J.T. 2000. Natural Variation, Limited Knowledge, and the Nature of
Uncertainty in Risk Analysis. Presented at "Risk-based Decision-making in Water Resources IX",
Oct. 15–20, Santa Barbara. http://www.glue.umd.edu/~gbaecher/papers.d/Baecher_&_Christian
StaBarbara 2000.pdf
Bammer, G. and Smithson, M. 2008 Uncertainty and risk: multidisciplinary perspectives, illustrated
edn. London, UK: Earthscan Publications Ltd.
Basso, E., 1972. "Some methods for estimation of floods in a tropical area", 2nd, Proceeding
International Symposium in Hydrology, Fort Collins, Colorado. September 11-13.
Beck, M.B. 1987. Water Quality Modelling: A Review of the Analysis of Uncertainty. Water Resour.
Res. 23(8), pp. 1393–1442.
Beck, Ulrich (1998). La sociedad del riesgo. Hacia una nueva modernidad. Barcelona: Paidós
Dewar, J.A., 2002. Assumption-Based Planning: A Tool for Reducing Avoidable Surprises.
Cambridge University Press, Cambridge.
Domínguez, R., “Red hidrológica, Elementos básicos”, Documento No. 3, Comisión del Plan
Nacional Hidráulico, S.A.R.H., México 1976.
112
Referencias
Dunn, W.N. 2001. Using the Method of Context Validation to Mitigate Type III Errors in
Environmental Policy Analysis. In: M. Hisschemoller, R. Hoppe, W.N. Dunn, J. Ravetz (eds.):
Knowledge, Power and Participation in Environmental Policy. Policy Studies Review Annual, Vol.
12.
Escalante Sandoval, C. (2007). Application of bivariate extreme value distribution to flood frequency
analysis: A case study of northwestern Mexico. Nat Hazards 42: 37–46
Funtowicz, S.O., Ravetz, J.R. 1990. Uncertainty and Quality in Science for Policy. Kluwer Academic
Publishers, Dordrecht.
Hill, L.J. Sparks, R.S.J. Rougier, J.C., 2013. Risk assessment and uncertainty in natural hazards, in
Rougier, J.C., and Sparks, R.S.J., and Hill L.J., Risk and Uncertainty assessment for Natural hazards.
Cambridge University Press, London, UK.
Hume, D. 1748 An enquiry concerning human understanding. Oxford, UK: Oxford University Press
(2008).
IPCC Cross-Working Group Meeting on Consistent Treatment of Uncertainties. 2010 Guidance note
for lead authors of the IPCC fifth assessment report on consistent treatment of uncertainties. See
http://www.ipcc-wg2.gov/meetings/CGCs/Uncertainties-GN_IPCCbrochure_lo.pdf
Kadvany, J. 1996 Taming chance: risk and the quantification of uncertainty. Policy Sci. 29, 1–27.
(doi:10.1007/BF00141477).
Mikkelsen, P.S., Madsen, H., Arnbjerg-Nielsen, K., Rosbjerg, D. and Harremöes, P. 1999 On the
Selection of Historical Rainfall Series for Simulation of Urban Drainage. In: I.B. Joliffe, J.E. Ball
(eds.): Proceedings of the 8th International Conference on Urban Storm Drainage, Sydney, Australia,
August 30–September 3, Vol. 2, pp. 982–989. The Institution of Engineers Australia, Sydney.
Morgan, G., Dowlatabadi, H., Henrion, M., Keith, D., Lempert, R., McBride, S., Small, M. &
Wilbanks, T. 2009 Best practice approaches for characterizing, communicating, and incorporating
scientific uncertainty in decision-making. US Climate Change Science Program. See
http://www.climatescience.gov/Library/sap/sap5-2/final-report/ default.htm.
Morgan, M.G. and Henrion, M. 1990. Uncertainty: A Guide to Dealing With Uncertainty in
Quantitative Risk and Policy Analysis. Cambridge University Press, Cambridge.
van Asselt, M. & Rotmans, J. 2002 Uncertainty in integrated assessment modelling: from Positivism
to Pluralism. Clim. Change 54, 75–105. (doi:10.1023/A:1015783803445)
113
Referencias
Obersteiner, M., Azar, C., Kossmeier, S., Mechler, R., Möllersten, K., Nilsson, S., Read, P.,
Yamagata, Y. & Yan, J. 2001 Managing climate risk. Interim report, International Institute for Applied
System Analysis Schlossplatz 1, A-2361, Laxenberg Austria.
Paté-Cornell, M. E. 1996 Uncertainties in risk analysis: six levels of treatment. Reliab. Eng. Syst.
Safety, 54, 95–111. (doi:10.1016/S0951-8320(96)00067-1)
Raftery, A. E. & Volinsky, C. T. 1999 Bayesian model averaging: a tutorial. Statist. Sci. 14, 382–417.
(doi:10.1214/ss/1009212519)
Ramírez, A.I. and Aldama, A. (2000). Análisis de frecuencias conjunto para la estimación de avenidas
de diseño. Avances en Hidráulica - 7. IMTA, México
Rowe, W.D. 1994. Understanding Uncertainty. Risk Anal. 14(5), pp. 743–750.
Schön, D. and Rein, M. 1995. Frame Reflection: Toward the Resolution of Intractable Policy
Controversies. Basic Books, New York.
Spiegelhalter, D. J., Riesch, H., 2011. Review article: Don't know, can't know: embracing deeper
uncertainties when analysing risks Phil. Trans. R. Soc. A, 369, 4730-4750;
doi:10.1098/rsta.2011.0163
van Asselt, M. & Rotmans, J. 2002 Uncertainty in integrated assessment modelling. Clim. Change 54,
75–105. (doi:10.1023/A:1015783803445)
Van der Sluis, J.P. 1997. Anchoring Amid Uncertainty: On the Management of Uncertainties in Risk
Assessment of Anthropogenic Climate Change, Ph.D. dissertation, University of Utrecht,
Netherlands.
Walker, W. E., Harremoës, P., Rotmans, J., Van der Sluijs, J. P., Van Asselt, M. B. A., Janssen, P. &
Krayer von Krauss, M. P. 2003 Defining uncertainty: a conceptual basis for uncertainty management
in model-based decision support. See http://resolver.tudelft.nl/uuid:fdc0105c-e601-402a-8f16-
ca97e9963592.
Williams,G.R. 1949. "Hydrology", Capítulo IV. En : Engineering Hydraulics editado por Rouse, H.
Proceedihng of the Fourth Hydraulic Conference, Institute of Hydraulic Research, June 12-15, 1949
IOWA, EUA.
Wilson, E. M., 1990, "Engineering Hydrology", 4 ed., Palgrave Macmillan, pp. 438, EUA.
Wynne, B. 1992 Uncertainty and environmental learning: reconceiving science and policy in the
preventive paradigm. Global Environ. Change 2, 111–127. (doi:10.1016/0959-3780(92)90017-2)
114
Apéndice A
Sea 𝜈(𝑦)la tasa de excedencia de las pérdidas; es decir, el número medio de eventos por unidad de
tiempo en que se produce una pérdida mayor que el valor 𝑦. En general, 𝜈(𝑦) se calcula como sigue:
N
( y ) Pr(Y y | ocurrió el evento i ) Pai (A-1)
i 1
donde 𝑃𝑟(𝑌 > 𝑦| 𝑜𝑐𝑢𝑟𝑟𝑖ó 𝑒𝑙 𝑒𝑣𝑒𝑛𝑡𝑜 𝑖) es la probabilidad de que las pérdidas sean mayores que 𝑦
dado que ocurrió el evento 𝑖 y 𝑃𝑎𝑖 es la probabilidad anual de ocurrencia del evento 𝑖.
El período de retorno de la pérdida 𝑦, 𝑇𝑟 (𝑦) se define como el tiempo medio entre eventos que
producen pérdidas iguales o mayores a 𝑦. El período de retorno de esta pérdida es el inverso de su
tasa de excedencia:
1
Tr ( y ) (A-2)
( y)
( y)
P( y ) Pr(Y y) 1 (A-3)
(0)
donde 𝜈(0) es el número medio de eventos, de cualquier intensidad, por unidad de tiempo. Por
definición, 𝜈(∞) = 0. La función de densidad de probabilidades de la pérdida durante el próximo
evento puede ser obtenida derivando la ecuación A-4:
1 d ( y )
p( y ) (A-4)
(0) dy
Si el proceso de ocurrencia del evento es del tipo de Poisson, entonces la probabilidad de que la
máxima pérdida en un año sea mayor a un valor dado, 𝑧, es la siguiente:
También bajo el supuesto de un proceso Poissoniano, la probabilidad de tener al menos un evento que
produzca pérdidas iguales o mayores a 𝑦 en los próximos 𝑇𝐸 años, 𝑃0 , está dada por:
P0 1 e v ( y )TE (A-6)
115
Apéndice A
pt (t ) ( y)e ( y )t (A-7)
La pérdida anual esperada está definida como el valor medio de la suma de las pérdidas que se tienen
en un año. Esta puede calcularse de la siguiente manera:
y (0) yp ( y )dy (A-8)
0
donde p(y) está dado en la ecuación A-5. Reemplazando A-5 en A-9 obtenemos que:
d ( y )
y y dy yd ( y ) (A-9)
0
dy 0
La ecuación A-9 muestra que la pérdida anual esperada puede ser calculada mediante la integración
de la curva de tasas de excedencia de pérdidas.
La pérdida anual esperada en el campo de los seguros se conoce como la prima pura o prima técnica.
Es el valor esperado de la pérdida que se tendría en un año cualquiera, suponiendo que el proceso de
ocurrencia de los eventos es estacionario y que a las estructuras dañadas se les restituye su resistencia
inmediatamente después del evento (Esteva, 1970).
116
Apéndice B
Antecedentes
El 19 de septiembre de 1985, un sismo de magnitud 8.01 ocurrió cerca de la costa del Pacífico en la
brecha de Michoacán de la zona de subducción en la costa del Pacífico mexicano. Ocurrieron severos
daños a lo largo del territorio nacional así como en el Distrito Federal y el Área Metropolitana a una
distancia de 300 km al área de ruptura causados principalmente por la amplificación dinámica de los
depósitos que conforman el suelo de la Ciudad de México.
A partir de esta experiencia, es evidente que los sistemas de protección civil, así como dependencias
del gobierno federal que controlan la operación y mantenimiento de diversos tipos de infraestructura,
se vean sujetas a la necesidad de contar con metodologías y herramientas que permitan evaluar el
efecto de eventos sísmicos intensos y decidir rápidamente las acciones a seguir en un plan de
respuesta, esto con el fin de otorgar una asistencia adecuada como contramedida a los efectos de dicho
fenómeno.
Por cerca de tres años, se ha desarrollado y puesto en marcha un sistema de estimación de intensidades
y generación de mapas de intensidades en tiempo real, el cual consiste en un sistema de monitoreo
autónomo desde diversas estaciones, recibiendo el conjunto de señales en el Puesto Central de
Registro (PCR), el cual se localiza en el Instituto de Ingeniería de la UNAM.
117
Apéndice B
La recuperación de las señales sísmicas de las estaciones acelerográficas distribuidas a lo largo del
territorio nacional, se realiza a través del sistema de adquisición de datos y procesamiento sísmico
denominado como Earthworm, el cual fue desarrollado originalmente por el Servicio Geológico de
los Estados Unidos bajo la filosofía de software de código abierto (ISTI, INC., 2011).
Figura B1. Red de estaciones acelerográficas utilizadas para la generación del mapa
118
Apéndice B
El sistema Earthworm se ha implementado para generar eventos por disparo (trigger) bajo un mismo
esquema de almacenamiento en formato Seisan.
Adicionalmente este sistema involucra una lógica por subredes, lo que flexibiliza la configuración
para garantizar la adquisición del registro, la identificación de la región y el nivel de intensidad del
evento. De ahí que, las subredes se configuran con estaciones que forman parte de dos o tres subredes
tal que, si una estación de ruido bajo se incluye en una subred más de una vez, tendrá una influencia
mayor en la generación de un disparo y por el contrario, si el ruido es común en varias estaciones, es
conveniente tratar de separarlas entre las distintas subredes para que la probabilidad de disparo por
picos de naturaleza extraña sea menor.
Con base en su ubicación geográfica y al comportamiento observado, el total de las estaciones que
operan en tiempo real se han agrupado en cuatro subredes, la red Oeste, la red Guerrero, la red Sur, y
la como Norte. Adicionalmente otro grupo de estaciones, principalmente las que se ubican al centro
del país, ha sido designado comodín, y sus señales se incluyen en el archivo almacenado sin importar
qué subred genera el disparo.
La siguiente figura muestra la distribución de estaciones por subredes. Cabe mencionar que el sistema
se ha configurado para que en caso de presentarse un sismo cuyo nivel de intensidad sea detectado
por dos o más subredes, el archivo generado incluirá todas las estaciones.
Figura B2. Distribución de estaciones por subredes para generación de eventos por disparo.
119
Apéndice B
Estos eventos son evaluados por el sistema GenMaps, y en su caso, se producen un conjunto de
archivos de naturaleza diversa con información tanto gráfica como numérica del evento registrado.
Para la elaboración de este tipo de mapas, se consideran solamente las estaciones acelerográficas que
se ubican en roca (Figura B1) y las componentes horizontales de los registros cuya aceleración
máxima sobrepase un valor predeterminado.
Estimación
simplificada Esquema de Generación del
Procesamiento
Inicial. de magnitud interpolación. reporte y del
y localización mapa.
del evento.
1 3 4
2
Figura B3. Procedimiento desarrollado para la generación del reporte y del mapa de aceleración
En esta etapa los acelerogramas recibidos son corregidos por línea base, se selecciona la componente
horizontal con la máxima aceleración del terreno y se eliminan los registros que pudieran contener
datos erróneos conforme a los siguientes criterios.
120
Apéndice B
1) En temblores de pequeña magnitud y en estaciones alejadas del foco del evento sísmico, se
vuelve complicado separar la señal sísmica del ruido ambiental existente en el sitio; por lo que,
se definió un valor de aceleración mínimo para el cual el acelerograma sea procesado. Este
valor de aceleración, después de calibraciones realizadas se definió en 2 gals, aunque puede
ser elegido por el usuario.
Figura B4. Ejemplo de registro que presenta contaminación debida al ruido ambiental.
2) Algunas señales presentan saltos bruscos debido a fallas en los aparatos de registro y/o huecos
de información (glitches) durante la transmisión de datos al PCR. Para tratar de eliminar este
tipo de problemas, durante el proceso se descartan los registros en los que el máximo absoluto
del acelerograma sea mayor a 4 veces el máximo observado en dirección contraria al máximo
absoluto (ver Figura B5).
Figura B5. Ejemplo de registro que presenta relación entre máximos excesiva.
El método utilizado en este proyecto, está inspirado en el trabajo de Kanamori (1993) quien a partir
de aceleraciones máximas observadas y un modelo de atenuación mostró que es posible estimar la
ubicación del epicentro de un evento sísmico. Kanamori observó que, ajustando el modelo de
atenuación con la magnitud y la localización como parámetros libres a los datos observados es posible
121
Apéndice B
determinar, de manera aproximada, la ubicación del epicentro. Además, observó que en este contexto
el valor de la magnitud debería verse como una constante de escala y por lo tanto no necesariamente
debería corresponder al valor de la magnitud real del evento.
A diferencia del procedimiento propuesto por Kanamori, con el método utilizado en el presente trabajo
es posible tener estimaciones de la magnitud, la cual se relaciona principalmente con el intervalo de
frecuencias bajas de los espectros de Fourier registrados, mientras que la posición del epicentro es una
función principalmente de frecuencias altas. Como parámetros del espectro teórico se utilizaron los
datos reportados en Singh et al. (1989) para la zona de subducción mexicana con un parámetro de
esfuerzo (∆𝜎) de 150 bar.
Dado que el número de estaciones de la Red Sísmica Mexicana es limitado para obtener el mapa de
intensidades espectrales, se requiere estimar el valor de la aceleración máxima del terreno en otros
122
Apéndice B
sitios con base en los valores observados en las estaciones consideradas, el valor de la magnitud y la
localización del epicentro calculadas en la Etapa 2.
Nótese que el número de puntos de la malla de interpolación es mucho mayor que el número de
estaciones disponibles y que la distribución de las estaciones no es uniforme respecto a los puntos de
la malla de interpolación. Por lo tanto, el problema de interpolación se vuelve complicado debido a lo
limitado de los datos observados.
30
25
TEPI
PUVA
20 COMA URUA XALA
MANZ PHPU
OZST
THEZ
CALE
UNIO HMTT MIHL VHSA
PET2
ATYC OXBJ
OXLC
ACAR
ACP2
VIGA TGBT
SCRU
PANG PIJI
15
-115 -110 -105 -100 -95 -90
Figura B7. Ejemplo descriptivo de la malla para la cual se estiman los valores del parámetro que se
procesa.
En algunas aplicaciones realizadas en las etapas de prueba se contaba en ocasiones con sólo 4
estaciones que proporcionaban datos confiables. Como esquema de interpolación se utilizó la técnica
conocida como kriging Bayesiano propuesta por Kitanidis (1986). Dicho procedimiento fue adaptado
para la aplicación aquí presentada. Mediante esta técnica es posible estabilizar la interpolación
mediante información previa.
La información necesaria para ejecutar el proceso de interpolación se divide en dos partes principales,
la primera se denomina como función drift (la cual guía a la interpolación) y una estructura de
covarianza entre las intensidades en los diferentes sitios de la malla de interpolación. La primera parte
de la estructura de la función drift corresponde a un modelo de atenuación, el cual se selecciona de
acuerdo con el mecanismo de generación y el parámetro a estimar.
Para los valores de aceleración máxima (PGA) y seudoaceleración para distintos valores de período
estructural (SA (T)) se utilizan los modelos atenuación propuestos por Arroyo et al. (2010) para
eventos sísmicos inter-placa (subducción), y el de García (2005) para los eventos intraplaca. Las
estimaciones de velocidades máximas del terreno (PGV) y desplazamientos máximos del terreno
(PGD) son estimados por medio de dos modelos de atenuación desarrollados específicamente para el
presente proyecto por Arroyo y Quiroz (2011). Para el esquema de covarianza entre las observaciones
para diferentes localizaciones geográficas se utilizó un variograma exponencial isótropo, cuyos
parámetros se ajustaron a datos registrados durante diversos eventos sísmicos.
123
Apéndice B
Cabe aclarar que el esquema de interpolación es exacto, esto quiere decir que para un punto de la
malla que coincida con una estación el método de interpolación conduce al valor observado en la
estación y que los contornos de aceleración obtenidos no son necesariamente circulares. En otras
palabras, cuando se estima un valor de intensidad en una locación con alta densidad de estaciones, la
estructura de interpolación es dominada por la los valores medidos de la intensidad. En cambio, para
calcular un valor alejado de estaciones de registro, el peso de la interpolación depende mayormente
de la estimación obtenida con el modelo de atenuación aplicado según sea un evento interface o intra-
placa.
Con los datos calculados para la malla de interpolación se dibujan los mapas de intensidades. El
programa genera archivos en formatos .jpeg, .grd, Shape, .txt y reportes igualmente en formato texto,
como se muestra en las Figuras 8a y 9b.
Figura B8a. Ejemplo de mapa de intensidad en formato JPEG. Evento de 8 de febrero de 1988.
124
Apéndice B
Finalmente, con los datos de aceleraciones máximas del terreno estimadas por medio del proceso de
interpolación, se obtiene mediante un listado pre-establecido de obras de infraestructura, una
superposición y se obtienen de forma indirecta los valores de intensidad a las que están sujetas dichas
obras. El umbral mínimo para considerar colocar en el listado de exposición alguna obra de
infraestructura ha sido establecido como el 5% de la aceleración de la gravedad, por lo que los listados
de infraestructura solo presentan obras en la que el valor de intensidad es igual o mayor a 49 gals
(cm/s2).
125
Apéndice B
Una vez que GenMaps ha terminado el proceso de interpolación se inicia un módulo desarrollado en
la plataforma .NET® , por medio del cual con un proceso cíclico se estima de forma indirecta el nivel
de intensidad al que se encuentran asociadas las distintas obras que son consideradas para el análisis.
Cuando existe alguna obra de infraestructura que se encuentra sometida a un umbral igual o superior
a 5% de la aceleración de la gravedad, esta es incluida al listado que será agregado al contenido de las
notificaciones de correo electrónico, así como en el archivo en formato .pdf que se encuentra adjunto
al mismo correo electrónico.
Posterior a la generación de un listado completo de destinatarios, se realiza una depuración para hacer
que el envío no se haga en más de una ocasión a un mismo destinatario, en caso de que exista más de
una obra expuesta que respondan a la misma localidad y/u Organismo de cuenca.
Cuando este listado ha sido depurado, por medio de otro módulo de programación desarrollado en
.NET®, se procede con la construcción automatizada de un archivo script (archivo en formato .bat o
archivo de ejecución por lotes) a la cual se asigna un nombre que corresponde a la fecha y tiempo
epicentral en formato GMT; dicho archivo .bat se dispara de forma automática para realizar el envío
de notificaciones.
El sistema de notificaciones sólo es útil si permite identificar rápidamente cuáles son las obras con
daños probables y así estar en posibilidad de emitir notificaciones personalizadas sólo a los
funcionarios responsables de estas obras potencialmente afectadas. Para ello, el sistema incluirá en
sus reportes y notificaciones de correo electrónico sólo a las obras cuya aceleración estimada sea
mayor que 5% de la aceleración de la gravedad.
126
Apéndice B
Este valor umbral inicial se escogió porque una investigación del grupo de trabajo de este proyecto
reveló que ninguna de las grandes presas de México ha sido diseñada, o tiene resistencia real, menor
que la que corresponde a un coeficiente de cortante basal de 5%, coeficiente que es producido, en
sistemas dinámicos sencillos de periodo corto, con aceleraciones del suelo del orden de 0.05g.
Consideramos, sin embargo, que este valor umbral es preliminar y que deberemos irlo ajustando en
vista del comportamiento del sistema. Si el umbral es demasiado bajo, el sistema de notificaciones
emitirá muchas “falsas alarmas”, es decir, incluirá en los reportes muchas obras que no resultaron
dañadas. Por otro lado, si el umbral es demasiado alto, existirá una alta probabilidad de no incluir en
el reporte una obra que sí resultó dañada. Existe también la posibilidad, para desarrollo futuro, de fijar
umbrales de aceleración presa por presa, o umbrales asociados a tipos de presas. Este aspecto podría
ser motivo de futura investigación.
En vista de esto, será necesario que una vez que el sistema empiece a operar, exista retroalimentación
por parte de la CONAGUA en lo que respecta a los daños realmente observados en las obras.
A continuación, se presenta un listado de las obras de infraestructura que se consideran dentro del
análisis de exposición, donde se cuenta con un total de 844 presas con alturas de cortina que varían
entre 15 y 261 metros, que representan un almacenaje de más de 120,000 millones de metros cúbicos
de agua en condiciones normales de operación.
Es preciso aclarar que durante el proceso de asociación de las obras con sus correspondientes
Organismos de Cuenca y Direcciones Locales, el organismo de cuenca de Yucatán no pudo ser
asociado a ninguna obra de infraestructura en el listado proporcionado por CONAGUA.
127
Apéndice B
128
Apéndice B
129
Apéndice B
130
Apéndice B
131
Apéndice B
132
Apéndice B
133
Apéndice B
134
Apéndice B
135
Apéndice B
136
Apéndice B
El siguiente listado corresponde a las 20 direcciones locales, estas localizadas en las restantes
entidades federativas donde no existe la sede de algún Organismo de cuenca.
137
Apéndice B
A continuación se presenta un grupo de imágenes que muestran los archivos generados para el
funcionamiento del sistema de notificaciones.
138
Apéndice B
139
Apéndice B
Figura B14. Reporte en formato PDF. Mapa de intensidades y listado de infraestructura expuesta
que se entrega adjunto al correo electrónico.
140
Apéndice B
Referencias
Arroyo, D., Garcia, D., Ordaz, M., Mora, A. y Singh, S.K., (2010), “Strong ground-motion relations for
Mexican interplate earthquakes”, Journal of Seismology, DOI 10.1007/s10950-010-9200-0.
BLAT (v3.1.1), “Software para envío de correos electrónicos vía SMTP y NNTP”.
http://www.blat.net/Blat, build: Feb 27 2013 20:04:23.
García, D., (2001) “Atenuación sísmica. Aplicación a terremotos intraplaca en México Central”, Tesis
para obtener el grado de doctor en ingeniería, Programa de Doctorado en Geodesia, Geofísica y Meteorología,
Universidad Complutense de Madrid.
Havskov, J., (2006). “A seismic data acquisition system for Windows9X/NT/2000/XP”, Departamento de
Ciencias de la Tierra, Universidad de Bergen, Noruega, http://www.geo.uib.no/seismo/software/software.html.
ISTI, Inc., (2009), “Earthworm Documentation”, Programa de adquisición y manejo de datos sísmicos en
tiempo real, Manual de usuario y de referencia, Instrumental Software Technologies, Inc.,
http://folkworm.ceri.memphis.edu/ew-doc/#autoew
Jaimes, M.A., Reinoso, E. y Ordaz, M., (2006), “Comparison of methods to predict response spectra at
instrumented sites given the magnitude and distance of an earthquake”, Journal of Earthquake Engineering
10(6), 887-902.
Johnson, C.E., A. Bittenbinder, B. Bogaert, L. Dietz y W. Kohler (1995). “Earthworm: A flexible approach
to seismic network processing”. IRIS Newsletter 14(2), 1-4.
Kanamori, H., (1993), “Locating earthquakes with amplitude: application to real-time seismology”,
Bulletin of the Seismological Society of America, 83(1), 264-268.
Kitanidis, P., (1986), “Parameter uncertainty in estimation of spatial functions: Bayesian analysis”, Water
Resources Research, 22(4), 499-507.
Ordaz, M. y Jaimes, M.A., (2012), “Herramienta para la generación de mapas en tiempo real:
MapasTR.net”, Instituto de Ingeniería UNAM, México.
Pérez, R., (1999), “Respuesta sísmica estructural: efectos de sitio e interacción suelo-estructura”, Tesis
Doctoral para obtener el grado de Doctor en ingeniería, UNAM.
Pérez, R., Ordaz, M. y Reinoso, E., (2009), “Interpolación espacial de las amplificaciones dinámicas del
terreno en el valle de México”, Revista de Ingeniería Sísmica 80, 85-112.
Reinoso, E. y Ordaz, M. (1999), “Spectral ratio for Mexico city from free-field recordings”, Earthquake
Spectra, Vol, 15, No. 2, pp. 273-295.
Rosenblueth, E. y Arciniega, A., (1992), “Response spectral ratios”, Earthquake Engineering and Structural
Dynamics 21, 483-492.
141
Apéndice B
Singh, S. K., Ordaz, M., Anderson, J. G., Rodríguez, M., Quaas, R., Mena, E., Ottaviani, M. y Almora, D.,
(1989), “Analysis of near-source strong-motion recordings along the Mexican subduction zone”, Bulletin
of the Seismological Society of America, 79, 6, 1697-1717.
Wald, D. J., Worden B. C., Quitoriano, V. y Pankow, K. L., (2006), “ShakeMap: Technical Manual, User
guide and software guide”, USGS.
142