Sei sulla pagina 1di 85

UNIVERSIDAD NACIONAL

SANTIAGO ANTÚNEZ DE MAYOLO


FACULTAD DE CIENCIAS AGRARIAS

ESCUELA ACADÉMICO PROFESIONAL DE INGENIERÍA


AGRÍCOLA

“GENERACIÓN DE CAUDALES MENSUALES MEDIANTE REDES


NEURONALES ARTIFICIALES A PARTIR DE PRECIPITACIONES
MENSUALES EN LA SUB CUENCA QUEROCOCHA, RECUAY -2017”

PRESENTADO POR:
Bach. PINEDA PARIAMACHI, Alex Hessler

TESIS PARA OPTAR EL TÍTULO PROFESIONAL DE

INGENIERO AGRÍCOLA

HUARAZ, PERÚ
UNIVERSIDAD NACIONAL
SANTIAGO ANTÚNEZ DE MAYOLO
FACULTAD DE CIENCIAS AGRARIAS

ESCUELA ACADÉMICO PROFESIONAL DE INGENIERÍA


AGRÍCOLA

“GENERACIÓN DE CAUDALES MENSUALES MEDIANTE REDES


NEURONALES ARTIFICIALES A PARTIR DE PRECIPITACIONES
MENSUALES EN LA SUB CUENCA QUEROCOCHA, RECUAY -2017”

TESIS PARA OPTAR EL TÍTULO PROFESIONAL DE

INGENIERO AGRÍCOLA

PRESENTADO POR:
Bach. PINEDA PARIAMACHI, Alex Hessler

Sustentada y aprobada ante el siguiente Jurado:

Dr. Fidel Gregorio Aparicio Roque Ing. M.Sc. Luis Alberto, Orbegoso Navarro
Presidente del Jurado Secretario del Jurado

Ing. M.Sc. Abelardo Manrique, Salas Díaz


Ing. Remo Crisanto, Bayona Antúnez
Vocal del Jurado Asesor de Tesis

HUARAZ, PERÚ
INDICE

DEDICATORIA 1

AGRADECIMIENTO 2

ÍNDICE DE TABLAS 3

ÍNDICE DE FIGURAS 4

INDICE DE ANEXOS 5

RESUMEN 6

I. INTRODUCCION 8

1.1 Generalidades 8
1.2 Objetivo General 9
1.2.1 Objetivo general 9
1.2.2 Objetivos específicos 9
II. REVISION BIBLIOGRAFICO 10

2.1 Antecedentes 10
2.1.1 Antecedentes bibliográficos internacionales 10
2.1.2 Antecedentes bibliográficos nacionales 11
2.2 Marco Teórico 12
2.2.1 Precipitación 12
2.2.2 Caudal 13
2.2.3 Análisis de consistencia 13
A. Análisis de saltos 13
B. Análisis de tendencias 17
2.2.4 Red neuronal 20
2.2.4.1 Estructura de una red neuronal 21
A. Niveles o capas de neuronas 22
B. Estado de activación y función de activación 23
C. Función de Salida o transferencia 24
D. Regla de aprendizaje 26
2.2.4.2 La red backpropagation 26
A. Ejecución del modelo backpropagation 28
2.2.5 Tipos de redes neuronales a probarse 31
A. Cascade forward – backpropagation 31
B. Elman backpropagation 33
C. Feed forward backpropagation 36
2.2.6 Modelos estadísticos para la validación de la simulación 37
A. Raíz del error cuadrático medio (RMSE) 37
B. Eficiencia de Nash-Sutcliffe (NSE) 38
C. Error cuadrático medio normalizado (ECMN) 39
D. Coeficiente de determinación (R2) 40
E. Coeficientes de análisis provenientes del Excel 2016 40
III. MATERIALES Y METODOS 42

3.1 Tipo de investigación 42


3.2 Descripción de la zona de estudio 42
Información básica 43
3.2.1 Información cartográfica 43
3.2.2 Información hidrológica 43
3.2.3 Parámetros morfométricos de la cuenca 43
3.3 Materiales 44
3.4 Métodos 44
3.4.1 Trabajo en campo 44
3.4.1.1 Recopilación de información 44
3.4.2 Trabajo en gabinete 45
3.4.2.1 Completación de datos y análisis de consistencia. 46
3.4.2.2 Selección del tipo de red. 46
A. Agrupación 46
B. Proceso I. Iteración, verificación y selección de red. 48
3.4.2.3 Aplicación de una estructura funcional para el tipo de red elegida. 50
A. Proceso II. Generación de caudales. 51
3.4.2.4 Verificación de la relación que existe entre caudales mensuales generado y los
caudales mensuales reales analizando la validez de la generación 51
IV. RESULTADOS Y DISCUSIONES 53
4.1 Selección del tipo de red que se adecue a los datos generados 53
4.2 Aplicar una estructura funcional para el tipo de red elegida. 53
4.2.1 Elman backpropagation, Precipitaciones mensuales 54
A. Precipitaciones mensuales grupo A. 54
B. Precipitaciones mensuales grupo B. 56
4.2.2 Elman backpropagation, Caudales mensuales 58
A. Caudales mensuales grupo A. 58
B. Generación de caudales mensuales Grupo B 60
C. Generación de caudales mensuales grupo C. 63
4.3 Análisis de la validez de las generaciones 64
4.3.1 Elman backpropagation, Precipitaciones mensuales. 65
A. Verificación de Precipitaciones mensuales Grupo A 65
B. Verificación de precipitaciones mensuales Grupo B 65
4.3.2 Elman backpropagation, Caudales mensuales. 66
A. Verificación de Caudales mensuales Grupo A 66
B. Validación de caudales mensuales Grupo B 67
C. Validación de caudales mensuales Grupo C 68
V. CONCLUSIONES 69

VI. RECOMENDACIONES 70

VII. BIBLIOGRAFIA 71

VIII. ANEXOS 74
DEDICATORIA

Para Clarita, a quien Dios me dio la bendición de poder


llamar madre.

1
AGRADECIMIENTO
Quiero agradecer a Dios por bendecirme con el regalo de la vida, por guiarme a lo largo de mi
existencia, ser el apoyo y fortaleza en aquellos momentos de dificultad y de debilidad.

Gracias a mi madre Clarita Luisa Pariamachi García y mi padre Alex Feliz Pineda Pariamachi,
por ser los principales promotores de mis sueños, por confiar y creer en mis expectativas, por
los consejos, valores y principios que me han inculcado.

Agradecer también a mis docentes de la Escuela de Ingeniería Agrícola de la Universidad


Nacional de Santiago Antúnez de Mayolo, por haber compartido sus conocimientos a lo largo
de la preparación de mi profesión, de manera especial, al master Abelardo Manrique, Salas Díaz
tutor de mi proyecto de investigación quien ha guiado con su paciencia, y su rectitud como
docente, al doctor Fidel Gregorio Aparicio Roque por el apoyo tanto en la carrera como a nivel
personal, a los ingenieros y personal administrativo de la Unidad de Glaciología del ANA por
la información y direccionamiento brindado.

2
ÍNDICE DE TABLAS
Tabla 1. Características geomorfométricas de la cuenca 43

Tabla 2. Registro de datos de acuerdo a los años 46

Tabla 3. Matrices de agrupación de datos de acuerdo al tipo de red 47

Tabla 4. Distribución de datos respecto a los años. 47

Tabla 5. Distribución de datos para la selección del tipo de función de entrenamiento. 49

Tabla 6. Estructura inicial para cada entrenamiento. Grupo A 49

Tabla 7. Periodo de años para la fase de validación 52

Tabla 8. Datos generados por la RNA N°02. Precipitaciones mensuales 55

Tabla 9. Estructura de las redes neuronales, Elman backpropagation generación de

precipitaciones Grupo B. 56

Tabla 10. Datos generados por la RNA N°02_4. Precipitaciones mensuales 57

Tabla 11. Datos generados por la RNA N°Q7. Caudales mensuales 59

Tabla 12. Estructura de las redes neuronales, Elman backpropagation generación de caudales

Grupo B. 61

Tabla 13. Datos generados por la RNA N°Q7_1. Caudales mensuales 61

Tabla 14. Estructura de generación de precipitación mensual, Elman backpropagation 63

Tabla 15. Estructura de generación de precipitación mensual, Elman backpropagation 63

Tabla 16. Resumen de los coeficientes de validación. Elman backpropagation precipitaciones

mensuales Grupo A. 65

Tabla 17. Resumen de los coeficientes de validación. Elman backpropagation precipitaciones

mensuales Grupo B. 66

Tabla 18. Resumen de los coeficientes de validación. Elman backpropagation, caudales

mensuales Grupo A 67

Tabla 19. Resumen de los coeficientes de validación para caudales mensuales Grupo B 68

3
Tabla 20. Resumen de los coeficientes de validación. Grupo C 68

ÍNDICE DE FIGURAS
Figura 1. Ejemplo de una red Neuronal totalmente conectada 23

Figura 2. Funcionamiento general backpropagation. 29

Figura 3. Red Cascade forward backpropagation. 32

Figura 4. Red básica de Elman. 35

Figura 5. Diagrama de flujo de la metodología aplicada 45

Figura 6. Iteración de las estructuras para el Grupo B. 50

Figura 7. Diagrama de flujo para el proceso II 52

Figura 8. Distribución de grupos para cada tipo de red 53

Figura 9. Generación de datos de precipitaciones mensuales modelo Elman backpropagation,

Grupo A. 54

Figura 10. Generación de precipitaciones Red Neuronal Artificial N° 02. 55

Figura 11. Generación de datos de precipitaciones mensuales modelo Elman

backpropagation, Grupo B. 57

Figura 12. Generación de precipitaciones Red Neuronal Artificial N° 02_4. 58

Figura 13. Generación de datos de caudales mensuales con el modelo Elman

backpropagation, Grupo A. 59

Figura 14. Generación de caudales mensuales Red Neuronal Artificial N° Q7. 60

Figura 15. Generación de datos de caudales mensuales con el modelo Elman

backpropagation, Grupo B. 61

Figura 16. Generación de caudales mensuales Grupo B por la Red Neurona Artificial N° 7_1

62

4
Figura 17. Generación de datos de caudales mensuales con el modelo Elman

backpropagation, Grupo C 64

INDICE DE ANEXOS
Anexo 1. Carta Nacional Recuay 20-i 74

Anexo 2. Delimitación de la sub cuenca Querococha. 74

Anexo 3. Precipitaciones mensuales estación Querococha. 75

Anexo 4. Caudales mensuales estación Querococha. 76

Anexo 5. Precipitaciones mensuales estación Querococha datos para generación. 77

Anexo 6. Caudales mensuales estación Querococha datos para generación. 77

Anexo 7. Diagrama de flujo del proceso I 78

Anexo 8. Mejor validación para generación de datos de precipitación mensual por el modelo

Elman backpropagation. 79

Anexo 9. Mejor validación para la generación de datos de caudales mensuales por el modelo

Elman backpropagation. 79

5
RESUMEN
El objetivo principal de la investigación fue generar caudales mensuales a partir de
precipitaciones mensuales en la sub cuenca Querococha ubicada en la provincia de Recuay. La
tipificación del estudio es aplicada de nivel predictivo, según el diseño de la investigación es
no experimental y según la naturaleza de los datos manejados es cuantitativo. El método
consistió en la aplicación de redes neuronales artificiales, específicamente, del modelo
backpropagation, de este se probaron tres tipos de red neuronal artificial: Cascade forward
backpropagation, Elman backpropagation y Feed forward backpropagation. Para definir la
estructura más eficiente, se realizaron iteraciones en las funciones fundamentales basados en
tres procesos principales: entrenamiento, validación y generación para cada tipo de red, se
priorizo la generación de caudales mensuales, analizando previamente estos procesos en las
precipitaciones mensuales; estos procesos se especifican en el contenido de la investigación.

Se obtuvo un resultado satisfactorio en el uso de los tres tipos de red, resaltando de los tres el
tipo Elman backpropagation, el cual presenta un coeficiente de correlación de 0.90 y un error
máximo de 0.60 m3/seg. Desde esta perspectiva una de las conclusiones más importantes es la
viabilidad de la generación de caudales mensuales mediante la aplicación de las redes
neuronales artificiales solo con una variable de apoyo en este caso las precipitaciones
mensuales.

Palabras claves. Redes Neuronales, Elman backpropagation, caudales mensuales


6
SUMMARY

The main objective of the research was to generate monthly flows from monthly rainfall in the
Querococha sub-basin located in the province of Recuay. The typification of the study is applied
at the predictive level, according to the design of the research it is non-experimental and
according to the nature of the data handled, it is quantitative. The method consisted of the
application of artificial neural networks, specifically, of the backpropagation model, of which
three types of artificial neural network were tested: Cascade forward backpropagation, Elman
backpropagation and Feed forward backpropagation. To define the most efficient structure,
iterations were made in the fundamental functions based on three main processes: training,
validation and generation for each type of network, the generation of monthly flows was
prioritized, previously analyzing these processes in the monthly rainfall; these processes are
specified in the content of the investigation.

A satisfactory result was obtained in the use of the three types of network, highlighting of the
three the Elman backpropagation type, which has a correlation coefficient of 0.90 and a
maximum error of 0.60 m3 / sec. From this perspective, one of the most important conclusions
is the feasibility of generating monthly flows through the application of artificial neural
networks with only one supporting variable in this case, monthly rainfall.

Key Words: Neural Networks, Elman backpropagation, monthly flows

7
I. INTRODUCCION

1.1 Generalidades

A diferencia de la Cordillera Negra, la Cordillera Blanca tradicionalmente ha tenido agua

suficiente en sus lagos, lagunas, bojedales y manantiales gracias a los glaciares, sin embargo,

parece que la abundancia de agua tendrá un fin cercano al ritmo de retroceso de los glaciares.

Desde el pueblo vecino de Cátac han ido surgiendo historias de escasez de agua por varios años

durante la temporada seca. Son noticias que incluso han llegado a la prensa limeña (Borg, 2011,

pág. 6).

Los reportes de una crisis de agua venidera también han llegado a la puna, y aquí tenemos una

interacción interesante entre las experiencias propias de los pobladores y la información que

llega desde afuera. Entre otras cosas, ha significado una mayor politización del agua. A medida

que se incrementa la presión sobre el abastecimiento de agua irán surgiendo conexiones

parciales entre los usuarios individuales y la organización mayor del agua. Estas conexiones

son las que influyen en el hecho de que “menos agua” lleva una experiencia de escasez de agua.

El agua en el río viene de la laguna Querococha. Aparte del Canal Querococha 3 Bases, el río

también es inicio de tres canales más que van para los comuneros de Catac, el caserío Buenos

Aires y la Mina Toma la Mano. Significa que es necesario coordinar a mayor escala entre

quienes tienen derecho a cuál agua.

Puntualizando tenemos un problema de escases de recurso hídrico, el cual es necesario para

abastecer cuatro sectores principales, agricultura, ganadería, consumo humano y minería. La

tendencia de escasez es notoria y cíclica cada año, y muestra un aumento debido al incremento

en su uso por el crecimiento poblacional

Centrados en el problema que afecta mi sector de estudio se puede ver la necesidad de una

distribución correcta de caudales para los cuatro sectores mencionados teniendo este problema
8
una justificación académica por el uso de un modelo novedoso, una implicancia social ya que

se tiene un uso humano y principalmente, económica al dotar de agua a medios productivos

como la agricultura ganadería y minería.

“El análisis y la predicción de series de tiempo permiten obtener información básica para la

planeación, diseño, y evaluación de hidrosistemas, con base en la optimización del manejo de

los recursos hídricos para el bienestar social” (Alvarez, Gomez, & Obregon, 2012).

Entonces podemos mencionar que la creciente escasez de agua conjuntamente con un sistema

de distribución con poco control, la necesidad de un manejo más estable y basado en estudios

de caudales que favorezcan el planeamiento y repartición de los mismos, son los problemas

principales en mi sector de estudio.

1.2 Objetivo General

1.2.1 Objetivo general

Generar caudales mensuales aplicando redes neuronales artificiales mediante

precipitaciones mensuales en la sub cuenca Querococha, Recuay.

1.2.2 Objetivos específicos

a. Encontrar el tipo de red que se adecue a los datos generados.

b. Aplicar una estructura funcional para el tipo de red elegida.

c. Verificar la relación que existe entre los caudales mensuales y la precipitación mensual

analizando la validez de la generación.

9
II. REVISION BIBLIOGRAFICO

2.1 Antecedentes

2.1.1 Antecedentes bibliográficos internacionales

Pujol (2009) Presenta en su tesis doctoral una comparación entre un modelo

autorregresivo de media móvil con variable exógena ARMAX, una red neuronal

artificial tipo perceptrón multicapa y un modelo modular con una red neuronal auto-

organizada para la predicción de caudales horarios en diferentes secciones del rio

Paraná, cambiando las estructuras de las redes neuronales, midiendo su asertividad y

analizando el desfase, finalmente concluye considerando la capa de entrada y la

cantidad de datos como fundamental en el proceso de predicción, menciona también

que las redes utilizadas presentan un menor desfase respecto al modelo autor

regresivo, dándoles una mayor proximidad de predicción.

Campozano (2011). Estudia en su tesis de maestría la implementación de tres tipos

de redes MLP con diferentes estructuras variando principalmente en el número de

capas ocultas y tipo de salida esto para la predicción de caudales y el análisis posterior

de la robustez de sus modelos. Concluye con resultados satisfactorios para los tres

modelos de las redes neuronales considerando el mejor a la red tipo MLP con 25

neuronas, función de activación sigmoidal, una capa de salida con activación lineal

y entrenada mediante algoritmo Levenberg-Marquardt.

Álvarez, et al. (2012). Muestran en su artículo científico la comparación en la

predicción de caudales medios mensuales implementando de un modelo neurodifuso

ANFIS y las redes neuronales tipo perceptrón multicapa utilizando para estos

métodos el programa Matlab, concluye con correlaciones promedio moderadamente

aceptables para ambos métodos siendo superior por mayor flexibilidad en este caso

10
el modelo ANFIS, además recomienda utilizar estructuras y topologías sencillas al

implementar la red.

Talento (2011). Realiza en su tesis para maestría una comparación de predicción de

caudales de aporte utilizando métodos estadísticos, una red neuronal simple

backpropagation y un clustering, llegando a concluir la red neuronal como un modelo

de predicción eficiente en los meses que se presentan mayor cantidad de datos y a los

modelos estadísticos tanto como el clustering cuando existen pocos datos esto solo

referido a la relación de caudales de aporte.

2.1.2 Antecedentes bibliográficos nacionales

Herrera , Luque , Tupac, & Yari, (2013). Basan su artículo científico en la generación

de caudales mensuales utilizando una red neuronal feedforward backpropagation

con funciones de salida sigmoidales esto en dos estructuras similares utilizando el

programa Network Neural 4.0, ello llegan a una conclusión satisfactoria respecto a

la semejanza de los caudales en la serie temporal histórica esto en el sentido

estadístico dejando claro que no se puede definir las características que deben ser

reproducidas por el modelo o la interpretación de las mismas ya que sus muestras son

anuales y no poseen otro indicador. (pág. 47)

Laqui (2010). Menciona en su artículo científico la aplicación de modelos de redes

neuronales artificiales del tipo retropropagación para la previsión y modelación de

caudales medios mensuales a partir de precipitaciones, caudales y evaporación,

compara los resultados con un modelo de serie temporal estocástico PAR(1),

concluyendo que los modelos de redes neuronales artificiales presentan un porcentaje

de ajuste superior al modelo autor regresivo volviéndolos eficientes en la previsión

de caudales medios mensuales. (pág. 43)

11
Laqui & Sanchez (2009). Prueban en su artículo científico la predicción de caudales

medios mensuales a través de 10 modelos de redes neuronales del tipo Perceptrón

multicapa tomando un periodo de tiempo de 1964 a 1996 para realizar el

entrenamiento y datos de 1997 al 2002 para su validación, se compara el modelo

optimo con un modelo autorregresivo de primer orden PAR(1), el grupo concluye

como positiva la predicción de caudales medios mensuales utilizando precipitación

y evaporación al evaluar los errores de predicción en comparación con el modelo

autorregresivo. (pág. 205)

Lujano, Lujano, Lujano, & Quispe (2010). Manifiestan en su artículo científico el

uso de 06 modelos de redes neuronales artificiales del tipo perceptrón multicapa los

caudales son evaluados estadísticamente en su error llegando a la conclusión de que

las redes muestran un buen desempeño en la estimación de fenómenos de

comportamiento no lineal como los caudales. (pág. 99)

2.2 Marco Teórico

2.2.1 Precipitación

Es toda forma de humedad que se origina en las nubes para llegar a la superficie

terrestre en forma de lluvia, granizo, nieve y otros.

Desde el punto de vista de la ingeniería hidrológica la precipitación es la fuente

primaria de agua en la superficie terrestre y su medición es el punto de partida para

estudios relacionados al uso y control del agua. (Ledesma , 2006, pág. 26).

Se puede decir entonces que la precipitación es toda forma hidrometeorológica que

se precipita de la atmósfera hacia la superficie terrestre. Se puede incluir en esto la

lluvia, llovizna, nieve, aguanieve, granizo. Para nuestro caso he tomado datos de

12
precipitación mensual la cual se puede describir como la suma de las alturas de

precipitaciones diarias ocurridas durante un mes.

2.2.2 Caudal

También conocido como gasto o escurrimiento, el cual es otro elemento del ciclo

hidrológico, básicamente es el agua que proveniente de la precipitación que avanza

sobre la superficie terrestre y que es transportada por una corriente hasta un

determinado punto de aforo.

El exceso de precipitación o precipitación efectiva es la precipitación que no ser

retiene en la superficie terrestre y tampoco se infiltra en el suelo. Después de fluir a

traces de la superficie de la cuenca, el exceso de precipitación se convierte en

escorrentía directa a la salida de la cuenca bajo la suposición de flujo superficial

hortoniano. (Chow, Maidment, & Mays, 1994, pág. 138).

2.2.3 Análisis de consistencia

Las referencias a continuación se han tomado del libro del Hidrología Estadística del

Ingeniero Máximo Villón Béjar.

A. Análisis de saltos

A.1 Análisis de consistencia de la media

Consiste en probar mediante la prueba t (prueba de hipótesis) si los valores medios

de las submuestras son estadísticamente iguales o diferentes con una probabilidad

del 95 % o con 5% de nivel de significancia, de la siguiente manera:

Calcula de la media y de la desviación estándar para las submuestras, según:

1
𝑛1 𝑛1 2
1 1
𝑥1 =
̅̅̅ ∑ 𝑥𝑖 ; 𝑆1 (𝑥) = [ 𝑥1 2 ]
∑(𝑥𝑖 − ̅̅̅) ( 1)
𝑛1 𝑛1 − 1
𝑖=1 𝑖=1

13
1
𝑛2 𝑛1 2
1 1
𝑥2 =
̅̅̅ ∑ 𝑥𝑖 ; 𝑆2 (𝑥) = [ 𝑥2 2 ]
∑(𝑥𝑗 − ̅̅̅) ( 2)
𝑛2 𝑛2 − 1
𝑗=1 𝑗=1

Donde:

𝑥𝑖 = valores de la serie del periodo 1

𝑥𝑖 = valores de la serie del periodo 2

𝑥1 ̅̅̅
̅̅̅, 𝑥2 = media de los periodos 1 y 2 respectivamente

𝑆1 (𝑥), 𝑆2 (𝑥) = desviación estándar de los periodos 1 y 2 respectivamente.

𝑛 = tamaño de la muestra

𝑛1 , 𝑛2 = tamaño de las submuestras

𝑛 = 𝑛1 + 𝑛2

Calculo del t calculado (𝑡𝑐 ) según:

(𝑥
̅̅̅1 − ̅̅̅)
𝑥2 − (𝜇1 − 𝜇2 )
𝑡𝑐 = ( 3)
𝑆𝑑̅
Donde: 𝜇1 − 𝜇2 = 0 (por hipótesis, la hipótesis es que las medias son iguales)

Quedando:

𝑥1 − ̅̅̅
̅̅̅ 𝑥2
𝑡𝑐 = ( 4)
𝑆𝑑̅
Además:

1
1 1 2
𝑆𝑑̅ = 𝑆𝑝 [ + ] ( 5)
𝑛1 𝑛2

1
(𝑛1 − 1)𝑆12 + (𝑛2 − 1)𝑆22 2
𝑆𝑝 = [ ] ( 6)
𝑛1 + 𝑛2 − 2

14
Siendo:

𝑆𝑑̅ = desviación de las diferencias de los promedios

𝑆𝑝 = desviación estándar de la ponderada

Calculo del t tabular 𝑡𝑡 :

El valor critico de t se obtiene de la tabla t de Student, con una probabilidad del

95% o con un nivel de significación del 5%, es decir con /2 = 0.025 y con grados

de libertad v= 𝑛1 + 𝑛2 − 2.

Comparación del 𝑡𝑐 con el 𝑡𝑡 :

Si |𝑡𝑐 | ≤ 𝑡𝑡 (95%) → ̅̅̅


𝑥1 = 𝑥
̅̅̅2 (estadísticamente)

En este caso, siendo las medias ̅̅̅


𝑥1 = 𝑥
̅̅̅2 estadísticamente, no se debe realizar

proceso de corrección.

Si |𝑡𝑐 | > 𝑡𝑡 (95%) → ̅̅̅


𝑥1 ≠ 𝑥
̅̅̅2 (estadísticamente)

En este caso, siendo las medias ̅̅̅


𝑥1 ≠ 𝑥
̅̅̅2 estadísticamente, se debe realizar proceso

de corrección.

A.2 Análisis de consistencia de la desviación estándar

El análisis estadístico consiste en probar, mediante la prueba F, si los valores de

las desviaciones estándar de las submuestras son estadísticamente iguales o

diferentes, con un 95% de probabilidad o con un 5% de nivel de significación, de

la siguiente forma:

Calculo de las varianzas de ambos periodos:

15
𝑛1
1
𝑆12 (𝑥) = 𝑥1 2
∑(𝑥𝑖 − ̅̅̅) ( 7)
𝑛1 − 1
𝑖=1

𝑛1
1 2
𝑆22 (𝑥) = ∑(𝑥𝑗 − ̅̅̅)
𝑥2 ( 8)
𝑛2 − 1
𝑗=1

Calculo del F calculado (𝐹𝑐 ), según:

𝑆12 (𝑥)
𝐹𝑐 = , 𝑠𝑖 𝑆12 (𝑥) > 𝑆22 (𝑥) ( 9)
𝑆22 (𝑥)

𝑆22 (𝑥)
𝐹𝑐 = , 𝑠𝑖 𝑆22 (𝑥) > 𝑆12 (𝑥) ( 10)
𝑆12 (𝑥)

Calculo del F tabular (valor critico de F o 𝐹𝑡 ), se obtiene de las tablas F para una

probabilidad del 95%, es decir, con un nivel de significancia =0.05 y grados de

libertad:

𝐺. 𝐿. 𝑁 = 𝑛1 − 1
} , 𝑠𝑖 𝑆12 (𝑥) > 𝑆22 (𝑥)
𝐺. 𝐿. 𝐷 = 𝑛2 − 1

𝐺. 𝐿. 𝑁 = 𝑛2 − 1
} , 𝑠𝑖 𝑆22 (𝑥) > 𝑆12 (𝑥)
𝐺. 𝐿. 𝐷 = 𝑛1 − 1

Donde:

G.L.N = grados de libertad del numerador

G.L.D = grados de libertad del denominador

Comparación del Fc con el Ft:

Si 𝐹𝑐 ≤ Ft (95%) → 𝑆1 (𝑥) = 𝑆2 (𝑥) (estadísticamente)

Si 𝐹𝑐 > Ft (95%) → 𝑆1 (𝑥) = 𝑆2 (𝑥) (estadísticamente), por lo que se debe

corregir.
16
A.3 Corrección de los datos

En los casos en que los parámetros media y desviación estándar de las submuestras

de las series de tiempo, resultan estadísticamente iguales, la información original

no se corrige, por ser consistente con un 95 % de probabilidad, aun cuando en la

doble masa se observe quiebres. En caso contrario, se corrigen los valores de las

submuestras mediante las ecuaciones (11) y (12):

𝑥𝑡 − ̅̅̅
𝑥1
𝑋′(𝑡) = . 𝑆 (𝑥) + ̅̅̅
𝑥2 ( 11)
𝑆1 (𝑥) 2

𝑥𝑡 − ̅̅̅
𝑥1
𝑋′(𝑡) = . 𝑆 (𝑥) + ̅̅̅
𝑥1 ( 12)
𝑆2 (𝑥) 1

Donde:

𝑋′(𝑡) = valor corregido de saltos

𝑥𝑡 = valor a ser corregido

La ecuación (11), se utiliza cuando se deben corregir los valores de la submuestra

de tamaño 𝑛1 , y la ecuación (12), si se debe corregir la submuestra de tamaño 𝑛2 .

B. Análisis de tendencias

Antes de realizar el análisis de tendencias, se realiza el análisis de saltos y con la

serie libre de saltos, se procede a analizar las tendencias en la media y en la y en la

desviación estándar.

B.1 Tendencia en la media

La tendencia en la media Tm, puede ser expresada en forma general por la

ecuación polinómica:
𝑇𝑚 = 𝐴𝑚 + 𝐵𝑚 𝑡 + 𝐶𝑚 𝑡 2 + 𝐷𝑚 𝑡 3 + ⋯ ( 13)

17
Y en forma particular por la ecuación de regresión lineal simple:

𝑇𝑚 = 𝐴𝑚 + 𝐵𝑚 𝑡 ( 14)

Donde:

t= tiempo en años, tomado como la variable independiente de la tendencia.

T=1,2,3, …, n

Tm= tendencia en la media, para este caso:

Tm= 𝑋′(𝑡) valor corregido de saltos, es decir, datos a usarse para el cálculo de los

parámetros.

𝐴𝑚 , 𝐵𝑚 , 𝐶𝑚 , 𝐷𝑚 , = coeficientes del polinomio de regresión, que deben ser

estimados con los datos.

Los parámetros de regresión de estas ecuaciones, pueden ser estimados por el

método de mínimos cuadrados, o por el método de regresión lineal múltiple.

Evaluación de la tendencia Tm

Para averigua si la tendencia es significativa, se analiza el coeficiente de regresión

Bm o también el coeficiente de correlación R.

El análisis de R según el estadístico t, es como sigue:

Calculo estadístico tc según:

𝑅√𝑛 − 2
𝑡𝑐 = ( 15)
√1 − 𝑅 2
Donde:

𝑡𝑐 = valor estadístico t calculado.

N= número total de datos


18
R= coeficiente de correlación.

Calculo de 𝑡𝑡 :

El valor critico de t, se obtiene de la tabla t de Student, con 95% de probabilidad o

con un nivel de significación del 5%, es decir:

/2 = 0.025

G.L = n-2

3. Comparación del 𝑡𝑐 con el 𝑡𝑡 :

Si |𝑡𝑐 | ≤ 𝑡𝑡 (95%) → 𝑅 = no es significativo

En este caso, la tendencia no es significativa y no hay que corregir.

Si |𝑡𝑐 | > 𝑡𝑡 (95%) → 𝑅 = si es significativo

En este caso, la tendencia es significativa y hay necesidad de corregir la

información de tendencia en la media.

B.2 Corrección de la información:

La tendencia es la media se elimina haciendo uso de la ecuación:

𝑌𝑡 = 𝑋′(𝑡) − 𝑇𝑚 ( 16)

𝑌𝑡 = 𝑋′(𝑡) − (𝐴𝑚 + 𝐵𝑚 𝑡) ( 17)

Donde:

𝑋′(𝑡)= Serie corregida de saltos

𝑇𝑚 = tendencias en la media, obtenida de la ecuación (14)

𝑌𝑡 = serie sin tendencia en la media.

19
Para que el proceso 𝑋𝑡 preserve la media constante, se devuelve el promedio de

̅̅̅̅
las 𝑋′(𝑡) o 𝑇 𝑚 , luego las ecuaciones (16) y (17) toman la forma :

̅̅̅̅
𝑌𝑡 = 𝑋′(𝑡) − 𝑇𝑚 + 𝑇 𝑚 ( 18)

̅̅̅̅
𝑌𝑡 = 𝑋′(𝑡) − (𝐴𝑚 + 𝐵𝑚 𝑡) + 𝑇 𝑚 ( 19)

̅̅̅̅
Donde 𝑇 𝑚 es el promedio de la tendencia en la media o promedio de los valores

corregidos de saltos.

2.2.4 Red neuronal

Se puede definir de muchas formas lo que son las redes neuronales, desde las formas

generales y abreviadas hasta las que se basan en explicar al detalle lo que significa

red neural. Podemos mencionar algunos ejemplos de ambos casos:

Las redes neuronales son más que otra forma de emular ciertas características propias

de los humanos, como la capacidad de memorizar y de asociar hechos. Si se

examinan con atención aquellos problemas que no pueden expresarse a través de un

algoritmo, se observará que todos ellos tienen una característica en común: la

experiencia. (Matich, 2011).

Las Redes Neuronales Artificiales (RNA) son sistemas de procesamiento de la

información cuya estructura y funcionamiento están inspirados en las redes

neuronales biológicas (Mercado, Pedraza, & Martinez, 2015).

Una red neuronal artificial es un proceso sólido y paralelamente distribuido con la

propensión natural a acumular procedimientos experimentales y hacerlos disponibles

para su uso. Se parece al cerebro en dos aspectos, por una parte, la red adquiere

conocimientos a través de un proceso de aprendizaje, y por otra las conexiones

20
interneuronales, conocidas como cargas sinápticas presentan una gran solidez de se

encargan de almacenar los conocimientos. (Castellano, 2009).

Podemos definir utilizando estas perspectivas a una red neuronal como un sistema

de computación inspirada en modelos biológicos compuesto por un gran número de

elementos procesales organizados en niveles siguiendo un modelo matemático de

procesos interconectados que procesan información mediante estados dinámicos

como respuesta a entradas externas.

2.2.4.1 Estructura de una red neuronal

Las redes neuronales artificiales son modelos que tratan de emular el

comportamiento humano del cerebro, en tal caso realiza una simplificación,

averiguando cuáles son los elementos de los que se pude prescindir en el

sistema ya sea porque la cantidad de datos disponibles es demasiada o porque

es redundante. La elección optima de sus características, sumado a una

estructura eficiente es el proceso convencional para construir una red capaz de

realizar una tarea en particular.

En todos los modelos de redes existe una parte elemental la cual es generadora

de los procesos, en este caso las neuronas, por lo que ya vimos lleva ese nombre

debido a que trata de emular el funcionamiento de las mismas

Entonces, se puede considerar que una neurona artificial, es un procesador

elemental que recibe una serie de entradas con ponderaciones diferentes que al

agregarse producen el nivel de excitación S. La activación de la neurona

artificial se produce mediante la aplicación de una función de activación F,

generalmente no lineal, a cada nivel de excitación, proporcionando una salida

(Correa, 2009, pág. 10).

En general podemos encontrar tres tipos de neuronas:


21
Aquellas que reciben estímulos externos. La que tomara la información de

entrada; (Correa, 2009) afirma que “Las entradas pueden ser binarias o

continuas y se suelen representar con un vector de entrada: 𝑋 =

(𝑤1 , 𝑤2 , … … … , 𝑤𝑛 )” .

Luego está el procesamiento de estos elementos la cual se da por trasmisión.

Emulando la forma biológica del cerebro y en comparación con la sinapsis y

neuronas es donde se genera la representación interna de la información inicial,

a pesar de ello no se da una relación directa con la información de entrada ni

de salida, estos elementos se denominan capas ocultas.

La empresa IBM menciona que “Las capas ocultas de una red neuronal

contienen unidades no observables. El valor de cada unidad oculta es alguna

función de los predictores; la forma exacta de la función depende en parte del

tipo de red.”

Finalizando el proceso se encuentras las unidades de salida las cuales dan la

respuesta del sistema.

A. Niveles o capas de neuronas

Las neuronas dentro de la red se distribuyen formando niveles o capas de

un número determinado de neuronas cada una. A partir de su situación

dentro de la red, se puede distinguir tres tipos de capas:

 De entrada: La que recibe la información de la parte externa de la red.

 Ocultas: Son internas a la red y no tienen contacto directo con el entorno

exterior, pueden estar entre cero y un número elevado.

22
 De salida: Transfieren información de la red hacia el exterior.

Figura 1. Ejemplo de una red Neuronal totalmente conectada


Fuente. Matich, 2001, p.12.

B. Estado de activación y función de activación

Adicionalmente al conjunto de unidades, la representación necesita los

estados del sistema en un tiempo t, (Bojorquez, 2011), menciona que

proporciona el estado de activación actual, 𝑎𝑖 (𝑡) de la neurona i en función

de su estado anterior, 𝑎𝑖 (𝑡 − 1) y de su potencial pos sináptico actual. Es

decir:

𝑎𝑖 (𝑡) = 𝑓𝑖 (𝑎𝑖 (𝑡 − 1), 𝑛𝑖 (𝑡)) ( 20)

Donde:

𝑎𝑖 (𝑡) = 𝑒𝑠𝑡𝑎𝑑𝑜 𝑎𝑐𝑡𝑢𝑎𝑙 𝑑𝑒 𝑙𝑎 𝑛𝑒𝑟𝑢𝑜𝑛𝑎

𝑎𝑖 (𝑡 − 1) = 𝑒𝑠𝑡𝑎𝑑𝑜 𝑎𝑛𝑡𝑒𝑟𝑖𝑜𝑟 𝑑𝑒 𝑙𝑎 𝑛𝑒𝑢𝑟𝑜𝑛𝑎

𝑛𝑖 (𝑡) = 𝑝𝑜𝑡𝑒𝑛𝑐𝑖𝑎𝑙 𝑠𝑖𝑛𝑎𝑝𝑡𝑖𝑐𝑜 𝑎𝑐𝑡𝑢𝑎𝑙

23
En muchos modelos de Redes neuronales artificiales se considera que el

estado actual de la neurona no depende de su estado anterior, sino

únicamente del actual, es decir:

𝑎𝑖 (𝑡) = 𝑓𝑖 (𝑛𝑖 (𝑡)) ( 21)


Donde:

𝑎𝑖 (𝑡) = 𝑒𝑠𝑡𝑎𝑑𝑜 𝑎𝑐𝑡𝑢𝑎𝑙 𝑑𝑒 𝑙𝑎 𝑛𝑒𝑟𝑢𝑜𝑛𝑎

𝑛𝑖 (𝑡) = 𝑝𝑜𝑡𝑒𝑛𝑐𝑖𝑎𝑙 𝑠𝑖𝑛𝑎𝑝𝑡𝑖𝑐𝑜 𝑎𝑐𝑡𝑢𝑎𝑙

La función de activación f () se suele considerar determinista, y en la mayor

parte de los modelos es monótona creciente y continua. Las formas y = f(x)

de las funciones de activación más empleadas se puede ver que x representa

el potencial pos sináptico, y el estado de activación.

En ocasiones los algoritmos de aprendizaje requieren que la función de

activación cumpla con la condición de ser derivable.

Podemos mencionar las funciones de activación utilizadas con mayor

frecuencia, entre estas tenemos

Función de activación escalón.

Función de activación lineal o identidad.

Función de activación lineal-mixta.

Función de activación sigmoidal.

C. Función de Salida o transferencia

El componente final que una neurona necesita es la función de salida. El

valor total de esta función es la salida de la neurona i (𝑜𝑢𝑡𝑖 ); por lo tanto, la

24
función de salida determina qué valor se transfiere a las neuronas

vinculadas. Entonces si la función de activación está por debajo de un

umbral determinado, ninguna salida se pasa a la neurona subsiguiente. Se

debe considerar que de acuerdo al modelo esta puede ser binaria, el cual es

el caso más sencillo, para nuestros modelos utilizaremos redes de una

función identidad diferente.

Tenemos que recordar que las neuronas que forman una red neural artificial

se da un grupo de conexiones que unen unas con otras. Cada unidad

transmite señales a aquellas que están conectadas con su salida. Desde una

perspectiva matemática, asociada con cada unidad 𝑈𝑖 hay una función de

salida 𝑓𝑖 (𝑎𝑖 (𝑡)), que trasforma el estado que tenga la neurona en una señal

de salida, podemos describir esto así:

𝑦𝑖 (𝑡) = 𝑓𝑖 (𝑎𝑖 (𝑡)) ( 22)


Donde:

𝑦𝑖 (𝑡) = 𝑒𝑠𝑡𝑎𝑑𝑜 𝑎𝑐𝑡𝑢𝑎𝑙 𝑑𝑒 𝑙𝑎 𝑛𝑒𝑟𝑢𝑜𝑛𝑎

𝑓𝑖 (𝑎𝑖 (𝑡)) = 𝑓𝑢𝑛𝑐𝑖𝑜𝑛 𝑑𝑒 𝑠𝑎𝑙𝑖𝑑𝑎 𝑒𝑛 𝑟𝑒𝑙𝑎𝑐𝑖𝑜𝑛 𝑎𝑙 𝑒𝑠𝑡𝑎𝑑𝑜 𝑑𝑒 𝑙𝑎 𝑛𝑒𝑢𝑟𝑜𝑛𝑎

Existen cuatro funciones de transferencia que son de uso común las cuales

determinan diversos tipos de neuronas:

 Función Escalón

 Función Lineal y Mixta

 Sigmoidal

 Función Gaussiana

25
De estas podemos decir que la función escalón se utiliza cuando las salidas

son binarias, es decir cuando son dos posibles valores. La función lineal

equivale a no aplicar una función, esto para comandos que se necesiten

puros en la trasmisión de datos, en nuestro caso no será utilizado. Las

funciones mixtas y sigmoidales son las más adecuadas cuando se requiere

una salida de información una serie analógica. (Hilera & Victor, 2000)

D. Regla de aprendizaje

Biológicamente, se suele aceptar la información memorizada en el cerebro

está más relacionada con los valores sinápticos de las conexiones entre las

neuronas que con ellas mismas; es decir, el conocimiento se encuentra en

las sinapsis. En el caso de las redes neuronales artificiales, se puede

considerar que el conocimiento se encuentra representado en los pesos de

las conexiones entre neuronas. Todo proceso de aprendizaje implica cierto

número de cambios en estas conexiones. En realidad, puede decirse que se

aprende modificando los valores de los pesos de la red.

Al igual que el funcionamiento de una red depende del número de neuronas

de las que disponga y de cómo estén conectadas entre sí, cada modelo

dispone de su o sus propias técnicas de aprendizaje. (Hilera & Victor, 2000).

2.2.4.2 La red backpropagation

Es un método muy utilizado para la formación de redes neuronales artificiales

complementado con un método de optimización, tales como descenso de

gradiente. El algoritmo se repite en un ciclo de actualización de dos fases,

propagación y consideración de los pesos. Cuando un vector de entrada es

presentado se propaga hacia adelante a través de la red, capa por capa, hasta

26
que llega a la capa de salida. Los datos de salida se comparan entonces con la

salida deseada, esto se da usando una función de pérdida, el valor de error se

calcula para cada una de las neuronas en la capa de salida. Los valores de error

se propagan entonces hacia atrás, a partir de la salida, EL método de

retropropagación utiliza estos valores de error para calcular el gradiente de la

función de pérdida con respecto a los pesos de la red.

En la segunda fase, este gradiente alimenta a la red a través de un método de

optimización, que a su vez lo utiliza para actualizar los pesos, en un intento de

minimizar la función de pérdida.

Se desarrolla el algoritmo Backpropagation como un mecanismo de

aprendizaje para perceptrónes multicapas. De alta popularidad para la solución

de problemas de clasificación y pronóstico.

Es un método de entrenamiento general para redes multicapas, requiriendo ser

diferente en la capa de salida. Es decir, la función debe ser diferenciable

(sigmoidal). (Colmenares, s.f)

La importancia de este proceso se basa en que las neuronas de las capas

intermedias se organizan de tal manera que las diferentes neuronas aprenden a

reconocer diferentes características del espacio de entrada total. Después del

entrenamiento, cuando un patrón de entrada arbitraria está presente, que

contenga ruido o sea incompleta, las neuronas en la capa oculta de la red

responderán con una salida activa, esto claro si la nueva entrada contiene un

patrón que se asemeja a una característica que las neuronas individuales han

aprendido a reconocer durante su formación.

Este modelo requiere una salida conocida deseado para cada valor de entrada

con el fin de calcular el gradiente de la función de pérdida - por lo tanto,

27
generalmente se considera que es un aprendizaje supervisado; Sin embargo,

también se utiliza en algunos sin supervisión de redes tales como el modelo de

Autoencoders; este es una generalización de la regla delta de capas múltiples

redes de alimentación hacia adelante , hecha posible mediante el uso de la regla

de la cadena para calcular iterativamente gradientes para cada capa.

A. Ejecución del modelo backpropagation

Hay que recalcar que a diferencia del Perceptrón, la técnica

Backpropagation o generalización de la regla delta requiere el uso de

neuronas cuya función de activación sea continua, y por tanto diferenciable,

esta función en general es del tipo sigmoidal, el recorrido se basa

íntegramente en el error y su adecuación a los datos de salida, como ya se

mencionó antes la red corre de atrás hacia adelante.

Para comprender el proceso de generación se planteará un esquema pequeño

utilizando las variables de aplicación.

Inicialización de los pesos

Se debe iniciar con un patrón de entrada de pesos aleatorios pequeños

preferentemente; 𝑊𝑖𝑗 = 𝑊𝑖𝑗1 , 𝑊𝑖𝑗2 , … 𝑊𝑖𝑗𝑚 , luego se requiere una

especificación de la salida deseada: 𝑄1 , 𝑄2 , 𝑄𝑚 esto de acuerdo al patrón de

salida requerida, en nuestro caso no será binario serán caudales por lo que

la nomenclatura será Q.

28
Figura 2. Funcionamiento general backpropagation.
Fuente. Elaboración propia.

Calcular la salida actual de la red

Para esto se presentan las entradas a la red que serán 𝑃𝑝1 , 𝑃𝑝2 , 𝑃𝑝𝑚 y se

van calculando las salidas que presenta cada capa hasta llegar a la capa de

salida esta será la salida de la red 𝑄𝑔1 , 𝑄𝑔2 , … 𝑄𝑔𝑚 .

Retropropagación hasta la capa de entrada.

Se genera un error de salida, considerando la Figura 2 el error se encuentra

en las flechas amarillas de la capa de salida (output) este sería:

𝐸𝑘1 = (𝑄1 − 𝑄𝑔1 ) × 𝐹𝑚 ( 23)

Donde:

𝐸𝑘1 = 𝐸𝑟𝑟𝑜𝑟 𝑒𝑛 𝑙𝑎 𝑐𝑎𝑝𝑎 𝑑𝑒 𝑠𝑎𝑙𝑖𝑑𝑎 𝑘1

𝑄1 = 𝐶𝑎𝑢𝑑𝑎𝑙 𝑟𝑒𝑎𝑙

𝑄𝑞1 = 𝐶𝑎𝑢𝑑𝑎𝑙 𝑔𝑒𝑛𝑒𝑟𝑎𝑑𝑜

𝐹𝑚 = 𝑓𝑢𝑛𝑐𝑖𝑜𝑛 𝑑𝑒𝑙 𝑚𝑜𝑑𝑒𝑙𝑜

29
Ahora el peso para ese error el cual no brinda la importancia del dato

generado, este sería:

𝑊𝑗𝑘 = 𝑊𝑗𝑘 + 𝐿 × 𝐸𝑘1 × 𝑄𝑗1 ( 24)

Donde:

𝑊𝑗𝑘 = 𝑃𝑒𝑠𝑜 𝑑𝑒 𝑒𝑟𝑟𝑜𝑟𝑒𝑠 𝑑𝑒 𝑐𝑎𝑝𝑎 𝑜𝑐𝑢𝑙𝑡𝑎 𝑎 𝑠𝑎𝑙𝑖𝑑𝑎

𝐿 = 𝐶𝑜𝑒𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑒 𝑑𝑒 𝑎𝑝𝑟𝑒𝑛𝑑𝑖𝑧𝑎𝑗𝑒

𝐸𝑘1 = 𝐸𝑟𝑟𝑜𝑟 𝑑𝑒 𝑙𝑎 𝑐𝑎𝑝𝑎 𝑑𝑒 𝑠𝑎𝑙𝑖𝑑𝑎 𝑘1

𝑄𝑗1 = 𝐶𝑎𝑢𝑑𝑎𝑙 𝑔𝑒𝑛𝑒𝑟𝑎𝑑𝑜 𝑑𝑒 𝑙𝑎 𝑐𝑎𝑝𝑎 𝑜𝑐𝑢𝑙𝑡𝑎

Es en la capa oculta J donde se hace la variación de Precipitaciones

mensuales a caudales mensuales, para esta capa tenemos

𝐸𝑗 = 𝐹𝑚 × ∑ 𝐸𝑘𝑛 × 𝑊𝑗𝑘𝑛 ( 25)


Donde:

𝐸𝑗 = 𝐸𝑟𝑟𝑜𝑟 𝑑𝑒 𝑙𝑎 𝑐𝑎𝑝𝑎 𝑜𝑐𝑢𝑙𝑡𝑎

𝐹𝑚 = 𝐹𝑢𝑛𝑐𝑖𝑜𝑛 𝑑𝑒𝑙 𝑚𝑜𝑑𝑒𝑙𝑜

𝐸𝑘𝑛 = 𝐸𝑟𝑟𝑜𝑟𝑒𝑠 𝑑𝑒 𝑙𝑎𝑠 𝑐𝑎𝑝𝑎𝑠 𝑘

𝑊𝑗𝑘𝑛 = 𝑃𝑒𝑠𝑜𝑠 𝑑𝑒 𝑙𝑎 𝑐𝑎𝑝𝑎 𝑜𝑐𝑢𝑙𝑡𝑎 𝑎 𝑙𝑎 𝑐𝑎𝑝𝑎 𝑑𝑒 𝑠𝑎𝑙𝑖𝑑𝑎

Y para finalizar los pesos para los errores de la capa oculta

𝑊𝑖𝑗 = 𝑊𝑖𝑗 + 𝐿 × 𝐸𝑗 × 𝑃𝑝𝑖 ( 26)

Donde:

30
𝑊𝑖𝑗 = 𝑃𝑒𝑠𝑜 𝑑𝑒 𝑙𝑎 𝑐𝑎𝑝𝑎 𝑑𝑒 𝑖𝑛𝑔𝑟𝑒𝑠𝑜 𝑎 𝑙𝑎 𝑐𝑎𝑝𝑎 𝑜𝑐𝑢𝑙𝑡𝑎

𝐹𝑚 = 𝐹𝑢𝑛𝑐𝑖𝑜𝑛 𝑑𝑒𝑙 𝑚𝑜𝑑𝑒𝑙𝑜

𝑃𝑝𝑖 = 𝑃𝑟𝑒𝑐𝑖𝑝𝑖𝑡𝑎𝑐𝑖𝑜𝑛 𝑑𝑒 𝑖𝑛𝑔𝑟𝑒𝑠𝑜

Este proceso se realiza para cada entrada para todas las capas ocultas para

cada caudal de salida en una relación matricial.

2.2.5 Tipos de redes neuronales a probarse

Se han considerado aquellos que se probarán en la generación de caudales, tanto en

su uso para proyecciones como en su eficiencia para la relación de variables para

generar datos.

A. Cascade forward – backpropagation

El modelo de propagación en retroceso en cascada mostrado en la Figura 3 es

similar a las redes de avance directo, pero incluyen una conexión de peso

desde la entrada a cada capa y desde cada capa a las capas sucesivas. Mientras

las redes de alimentación de dos capas pueden aprender virtualmente cualquier

relación de salida y entrada, feed-forward, las redes con más capas pueden

aprender relaciones complejas más rápidamente, a esto se le llama

propagación trasera en cascada (Dheeraj, Anil, & Vinayak, 2013, pág. 2).

Podemos también mencionar que la alimentación de esta red es similar a la

red neural de propagación posterior, Backpropagation, la actualización de los

pesos se puede hacer utilizando un algoritmo de este, recalcando que la

principal característica de este método es la relación de cada capa con las

anteriores capas de neuronas.

31
Las redes de conexión en cascada son similares a las redes de feed-forward,

pero incluyen una conexión desde la entrada y cada capa anterior a las capas

siguientes.

Figura 3. Red Cascade forward backpropagation.


Fuente. Dheeraj, Anil y Vinayak, 2013, p.3.

“Al igual que con las redes feed-forward, una red en cascada de dos o más

capas puede aprender cualquier relación de entrada-salida finita

arbitrariamente bien dada con suficientes neuronas ocultas” (MathWorks,

1994-2018).

Podemos describir para el modelo usado que cumple con las características

principales del backpropagation considerando la proyección en cascada

basada en la siguiente ecuación para la función modelo

𝐹𝑚 = ∑𝑄𝑗=1 𝑊𝑖𝑗 × 𝑄𝑗 − 𝑏 ( 27)

… (16)

𝐹𝑚 = 𝑊 𝑡 × 𝐷𝑔 − 𝑏 ( 28)

Donde:

𝑊𝑖𝑗 = 𝑃𝑒𝑠𝑜 𝑑𝑒 𝑙𝑎 𝑐𝑎𝑝𝑎 𝑑𝑒 𝑖𝑛𝑔𝑟𝑒𝑠𝑜 𝑎 𝑙𝑎 𝑐𝑎𝑝𝑎 𝑜𝑐𝑢𝑙𝑡𝑎

32
𝐹𝑚 = 𝐹𝑢𝑛𝑐𝑖𝑜𝑛 𝑑𝑒𝑙 𝑚𝑜𝑑𝑒𝑙𝑜

𝑄𝑗 = 𝐶𝑎𝑢𝑑𝑎𝑙 𝑔𝑒𝑛𝑒𝑟𝑎𝑑𝑜 𝑒𝑛 𝑙𝑎 𝑐𝑎𝑝𝑎 𝑜𝑐𝑢𝑙𝑡𝑎

𝑊 𝑡 = 𝑃𝑒𝑠𝑜𝑠 𝑡𝑜𝑡𝑎𝑙𝑒𝑠

𝐷𝑔 = 𝐷𝑎𝑡𝑎 𝑔𝑒𝑛𝑒𝑟𝑎𝑑𝑎

𝑏 = 𝑐𝑜𝑒𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑒 𝑑𝑒 𝑠𝑒𝑠𝑔𝑜

Para el coeficiente de sesgo este se alterna en la capa oculta considerando el

algoritmo de cascada en el que se trabaja la matriz como un conjunto con

intromisión directa a la capa oculta, este coeficiente depende de la función en

si por esta relación, por comparación podemos mencionar que si la función se

vuelve cero o negativo la activación vuelve al sesgo superior o positivo.

B. Elman backpropagation

La Red Neural Elman (ENN) es un tipo de la recurrencia parcial de redes

neuronales, que consiste en una red de propagación posterior de dos capas con

conexión de realimentación adicional desde la salida de la capa oculta a su

entrada.

La ventaja de esta vía de retroalimentación es que permite a la ENN reconocer

y generar patrones temporales y patrones espaciales. Esto significa que

después del entrenamiento, las interrelaciones entre la entrada actual y los

estados internos se procesan para producir la salida y representan la

información pasada relevante en los estados internos. Como resultado, la ENN

ha sido ampliamente utilizado en diversos campos que incluye la clasificación,

predicción e identificación del sistema, etc. Sin embargo, dado que el ENN

usualmente utiliza los algoritmos basados en la propagación las diversas

33
señales, se ha demostrado que sufre frecuentemente de una solución problema

al mismo tiempo, la eficiencia de la ENN es limitada a un sistema de orden

inferior debido a la insuficiente capacidad de memoria cuando la propagación

trasera al algoritmo se emplea. Así, han sugerido varios enfoques en la

literatura para mejorar el desempeño de la ENN entrenada por BP con simples

modificaciones en la estructura de la red, pero no en los algoritmos. Estas

modificaciones mejoradas intentan agregar conexiones de retroalimentación

al modelo que aumenten la capacidad de la memoria y así acelerar la

convergencia y escapar de los mínimos locales. Sin embargo, en la ENN es

difícil superar la debilidad o características inherentes de los algoritmos

basados en BP la cual sufre de la lentitud de convergencia y se queda

fácilmente pegado en resultados locales. (Zhiqiang, Shangce, Gang, Fangjia,

& Zheng, 2009, pág. 2997).

Las redes Elman son redes de feedforward con la adición de conexiones

recurrentes de capa con retardos de derivación. Con la disponibilidad de

cálculos completos de derivativos dinámicos; La red Elman ya no se

recomienda excepto con fines históricos y de investigación.

Se debe mencionar que el servidor no considera la inclusión del modelo

Backpropagation, esto con la suposición de no librarse de la memoria corta. O

las alteraciones de similitudes grandes respecto a los resultados de entrada y

salida. (MathWorks, 1994-2018)

34
Figura 4. Red básica de Elman.
Fuente. Phamt y Liut, 1196, p.221

Para este modelo podemos considerar la función modelo como:

𝐹𝑚 = 𝑊𝑗𝑛 × (𝑄𝑗 × (1 − 𝑄𝑗 )) × 𝑏 ( 29)

Donde:

𝑊𝑗𝑛 = 𝑃𝑒𝑠𝑜 𝑑𝑒 𝑙𝑎 𝑐𝑎𝑝𝑎 𝑑𝑒 𝑖𝑛𝑔𝑟𝑒𝑠𝑜 𝑎 𝑙𝑎 𝑐𝑎𝑝𝑎 𝑜𝑐𝑢𝑙𝑡𝑎

𝐹𝑚 = 𝐹𝑢𝑛𝑐𝑖𝑜𝑛 𝑑𝑒𝑙 𝑚𝑜𝑑𝑒𝑙𝑜

𝑄𝑗 = 𝐶𝑎𝑢𝑑𝑎𝑙 𝑔𝑒𝑛𝑒𝑟𝑎𝑑𝑜 𝑒𝑛 𝑙𝑎 𝑐𝑎𝑝𝑎 𝑜𝑐𝑢𝑙𝑡𝑎

𝑏 = 𝑐𝑜𝑒𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑒 𝑑𝑒 𝑠𝑒𝑠𝑔𝑜

A diferencia del modelo de cascada la salida tiene relación individual con cada

entrada priorizando el orden de ingreso para su análisis, es por tal fin que la

proyección es ideal para series históricas, en este caso el valor de sesgo se

relaciona con filas anteriores que mejoren el resultado ajustando el peso desde

35
la capa oculta con el coeficiente de aprendizaje, este sesgo es ajustable y se

presenta como una constante igual a 1.

C. Feed forward backpropagation

Es un tipo de arquitectura de Red Neural donde las conexiones son

"alimentadas hacia delante", es decir, no forman ciclos (como en redes

periódicas). El término "forward" también se utiliza cuando se introduce algo

en la capa de entrada y se desplaza de la entrada a la ocultada y de la capa

oculta a la salida. Los valores son "avanzados".

Ambos usos de la frase "feed forward" se encuentran en un contexto que no

tiene nada que ver con la formación en sí de la red.

Backpropagation es un algoritmo de entrenamiento que consta de dos pasos

básicamente: Avanzar, los valores, corriéndolos en la red y calcular el error y

propagarlo de nuevo a las capas anteriores. Así que, para ser exactos, forward-

propagation es parte del algoritmo backpropagation, pero viene antes de

propagarse de nuevo.

Debemos entender el modelo Feed forward como un ajuste individual que

sumado a las redes Backpropagation crean un sistema nuevo, tenemos

entonces un modelo de red neuronal que sintetiza sistemas que realizan una

determinada asociación de datos entrada/salida. Los pesos sinápticos de las

neuronas se ajustan de tal manera que ante cada entrada la red responda de una

manera preestablecida.

Esta red posee también funciones de asociación con el problema de

aproximación de funciones, referido a datos de entrada y salida que se asimilan

con vectores multidimensionales; Pretende que el valor real de la salida


36
generada por la red cuando se estimule con un cierto dato de entrada, se

parezca lo más posible al correspondiente dato de salida. La ventaja de usar

redes neuronales para este problema de aproximación de funciones es las

aproximaciones que nos ofrecen esta serie de modelos, en este caso ligado a

otro.

Para este modelo tenemos que la función modelo para una salida seria la

siguiente:

𝑄
1
𝐹𝑚 = ∑ 𝑊𝑖𝑗 × ( 30)
− ∑𝑖𝑗=0 𝑊𝑖𝑗 ×𝑋𝑗
𝑗=1 1+𝑒

Donde:

𝑊𝑖𝑗 = 𝑃𝑒𝑠𝑜 𝑑𝑒 𝑙𝑎 𝑐𝑎𝑝𝑎 𝑑𝑒 𝑖𝑛𝑔𝑟𝑒𝑠𝑜 𝑎 𝑙𝑎 𝑐𝑎𝑝𝑎 𝑜𝑐𝑢𝑙𝑡𝑎

𝐹𝑚 = 𝐹𝑢𝑛𝑐𝑖𝑜𝑛 𝑑𝑒𝑙 𝑚𝑜𝑑𝑒𝑙𝑜

𝑋𝑗 = 𝐷𝑎𝑡𝑜𝑠 𝑑𝑒 𝑖𝑛𝑔𝑟𝑒𝑠𝑜 𝑝𝑜𝑟 𝑛𝑒𝑢𝑟𝑜𝑛𝑎

2.2.6 Modelos estadísticos para la validación de la simulación

Para la saber si la generación o simulaciones están trabajando cerca de los parámetros

establecidos se aplican modelos estadísticos, la mayoría de programas presenta sus

propios modelos, el Matlab no es la excepción aun así se plantean los siguientes

modelos estadísticos para el análisis de los datos generados en todas las etapas de

trabajo.

A. Raíz del error cuadrático medio (RMSE)

En este modelo se presentan los valores observados frente a los calculados

ilustrando así el grado con el que los puntos se distribuyen sobre la recta 1:1

37
o de ajuste perfecto, para este caso se trabajaron generando datos de

verificación en periodos que se muestran en la Tabla 05. El error en las

predicciones del modelo se cuantifico de acuerdo a las unidades de la variable

calculada es decir en milímetros o metros cúbicos por segundo. Para este se

utilizó la ecuación (14).

∑𝑁 ̂𝑖 )2
𝑖=1(𝑦𝑖 − 𝑦
𝑅𝑀𝑆𝐸 = √ ( 31)
𝑁

Donde:

N= Número de observaciones

𝑦𝑖 = Valor observado

𝑦̂𝑖 = Valor generado

B. Eficiencia de Nash-Sutcliffe (NSE)

Es un indicador adimensional de la bondad de ajuste, que relaciones las

variables de verificación con las variables generadas por la red neuronal

artificial, este es usado comúnmente para la evaluación de modelos

hidrológicos.

Caracterizado por su flexibilidad para ser aplicado a diversos tipos de modelos

matemáticos. Lujano, et al.(2010)

Este criterio mide cuanto de la variabilidad de las observaciones es explicada

por la simulación. Si la simulación es perfecta NSE = 1; si se intentase ajustar

las observaciones con el valor promedio entonces NSE = 0. Para este criterio

numérico se utilizó la ecuación (15)

38
∑𝑁 ̂𝑖 )2
𝑖=1(𝑦𝑖 − 𝑦
𝑁𝑆𝐸 = ( 32)
∑𝑁 ̅𝑖 )2
𝑖=1(𝑦𝑖 − 𝑦

Donde:

N= Número de observaciones

𝑦𝑖 = Valor observado

𝑦̂𝑖 = Valor generado

𝑦̅𝑖 = Promedio de los datos observados

C. Error cuadrático medio normalizado (ECMN)

Este es el error cuadrático medio pero normalizado por la varianza de los

datos. Si el resultado es cercano a 0, el ajuste a los valores reales es mayor y

en consecuencia el modelo de generación es mejor, contrario a esto mientras

el valor se aleje a 0 menos representativo es de los datos analizados.

La ecuación que define este método está dada por:

𝑛 − 1 ∑𝑁 ̂𝑖 )2
𝑖=1(𝑦𝑖 − 𝑦
𝑁𝑆𝐸 = 𝑁
( 33)
𝑛 ∑𝑖=1(𝑦𝑖 − 𝑦̅𝑖 )2

Donde:

N, n = Número de observaciones

𝑦𝑖 = Valor observado

𝑦̂𝑖 = Valor generado

𝑦̅𝑖 = Promedio de los datos observados

39
D. Coeficiente de determinación (R2)

Este índice de desempeño, representa la fracción de variación de la variable

dependiente explicada por el modelo.

𝑅 2 = 1 − 𝐸𝐶𝑀𝑁 ( 34)
En el caso de un predictor perfecto el coeficiente debiera ser 1. Si se obtiene

valores cercanos a la unidad se tiene un modelo adecuado. Lujano, et al.

(2010)

E. Coeficientes de análisis provenientes del Excel 2016

Se utilizaron dos fórmulas propias del Excel en su versión 2016, las

explicaciones a continuación han sido extraídas de la página soporte de

Microsoft.

E.1 COEF.DE.CORREL (función COEF.DE.CORREL)

Devuelve el coeficiente de correlación entre dos rangos de celdas definidos

por los argumentos matriz1 y matriz2. Use el coeficiente de correlación

para determinar la relación entre dos propiedades. Por ejemplo, para

examinar la relación entre la temperatura promedio de una localidad y el

uso de aire acondicionado.

Se deben mencionar algunas observaciones respecto a esta formula

 Si el argumento matricial o de referencia contiene texto, valores lógicos

o celdas vacías, estos valores se pasan por alto; sin embargo, se

incluirán las celdas con el valor cero.

 Si los argumentos matriz1 y matriz2 tienen un número diferente de

puntos de datos, COEF.DE.CORREL devuelve el valor de error #N/A.

40
 Si el argumento matriz1 o matriz2 está vacío, o si s (la desviación

estándar) o sus valores son cero, COEF.DE.CORREL devuelve el valor

de error # ¡DIV/0!

 La ecuación para el coeficiente de correlación es:

∑(𝑥 − 𝑥̅ )(𝑦 − 𝑦̅)


𝐶𝑜𝑟𝑟𝑒𝑙(𝑋, 𝑌) = ( 35)
√∑(𝑥 − 𝑥̅ )2 ∑(𝑦 − 𝑦̅)2

Donde

𝑥̅ , 𝑦̅ = son las medias de muestra PROMEDIO(matriz1) y

PROMEDIO(matriz2).

41
III. MATERIALES Y METODOS

3.1 Tipo de investigación

La tipificación del estudio de investigación de acuerdo al objetivo es aplicada, así lo

menciona Tamayo-Tamayo (2000) señalando que la misma depende de los

descubrimientos y aportes de la investigación básica. Se dirige a su aplicación inmediata

y no desarrolla teorías.

El diseño de investigación del presente estudio es no experimental de series de tiempo,

puesto que no se van a ver afectadas las variables de la investigación, se utilizan los

instrumentos o técnicas utilizadas para la realización del mismo, como las Redes

Neuronales Artificiales. Así lo menciona Hernández R, et al, 2010. Es aquella

investigación en la cual no se manipulan intencionalmente las variables, observando

fenómenos tal como se dan en su contexto Población y muestra

3.2 Descripción de la zona de estudio

La investigación se realizó entre las localidades Querococha, pertenecientes al Distrito de

Ticapampa, Provincia Recuay, Departamento de Ancash; hidrográficamente es el Río

Querococha en la salida de la laguna que posteriormente toma el nombre de Yanayacu,

perteneciente a la Sub cuenca Querococha y a la vez a la cuenca del Río Santa.

El área de estudio está localizada entre las longitudes de Greenwich 77°20'45.9" -

77°20'44.3" O y latitudes 9°38'46.53" - 9°38'48.89"

42
Información básica

3.2.1 Información cartográfica

Como información cartográfica se empleó la carta nacional a escala 1:100,000, hoja

20-i (Recuay), descargada del portal del MINEDUM. En el Anexo 01 se muestra la

carta nacional empleada.

3.2.2 Información hidrológica

Los datos precipitaciones y caudales mensuales de los años del 1953 a 1996 se

tomaron de los registros del SENAMHI.

De la base de datos de la Autoridad Nacional del Agua se obtuvo información de las

precipitaciones y caudales mensuales, esto referido a la estación Querococha, desde

el 2006 a 2015.

En el Anexo 03, 04, 05 y 06, se muestran los datos hidrológicos obtenidos y aplicados

en la tesis.

3.2.3 Parámetros morfométricos de la cuenca

Se han enunciado parámetros morfométricos básicos ya que estos en general influyen

en la precipitación escorrentía, pero para los fines de la tesis no representan un factor

influyente en la variación al solo considerarse la relación precipitación – caudal.

Tabla 1. Características geomorfométricas de la cuenca

DESCRIPCION UNIDAD VALOR


Superficie
Área km2 68.21
Perímetro km 39.11
Ancho promedio km 7.81
Longitud promedio km 12.95

43
Cotas
Cota Mínima msnm 3950
Cota Máxima msnm 5300
Centroide
X centroide m 2480008.036
Y centroide m 8927374.282
Z centroide msnm 4723
Índices representativos
Factor de forma 0.603088803
Índice de Compacidad 1.325933742

3.3 Materiales

 Hojas Bond A4

 Datos hidrológicos de la estación Querococha

 Útiles de escritorio.

 Cámara fotográfica

 Computadora e impresora

 Software (Word, Excel, Matlab, entre otros)

 Plotter.

3.4 Métodos

3.4.1 Trabajo en campo

El trabajo en campo consistió en la visita a la localidad y la inspección de los sectores

afectados con la generación de los caudales.

3.4.1.1 Recopilación de información

Consistió en recopilar información básica y necesaria relacionada con los

parámetros necesarios para la generación de caudales mensuales esta

44
información se obtuvo de libros de hidrología e hidráulica, tesis, manuales

relacionadas al tema e información proveniente del internet.

3.4.2 Trabajo en gabinete

Completado el proceso de recopilación de datos se prosiguió con el diagrama de flujo

mostrado en la Figura 5.

Figura 5. Diagrama de flujo de la metodología aplicada


Fuente: Elaboración Propia

45
3.4.2.1 Completación de datos y análisis de consistencia.

Para poder empezar con la selección del tipo de red los datos primarios del

SENAMI se procesaron, completándolos por correlación lineal simple entre

estaciones, esto de manera mensual, posteriormente se realizó el análisis de

consistencia y tendencia utilizando el análisis estadístico que se menciona en

el inciso 2.2.3; se aplicó el mismo proceso para el segundo grupo de datos de

la Unidad de Glaciología.

Con los datos completos y corregidos tanto de precipitación mensual como de

caudales mensuales se realizó la agrupación considerando el vacío temporal

entre los datos del Senamhi y los datos brindados por la Unidad de Glaciología.

Tabla 2. Registro de datos de acuerdo a los años


Precipitación Caudal

ENCARGADO mensual mensual

Senamhi 1953-1996 1953-1996

Unidad de glaciología 2005-2016 2008-2016

Este vacío se completó por correlación con la estación de Recuay para las

precipitaciones mensuales y para los caudales mensuales. Los datos se pueden

ver en el Anexo 05 y Anexo 06.

3.4.2.2 Selección del tipo de red.

A. Agrupación

Para la agrupación de datos se tomó distribuciones de manera aleatoria para

precipitación mensual y caudal mensual, esto considerando el espacio

completado por correlación, es decir se tomó este vacío de generación real

como un parámetro delimitante entre periodos.

46
Para incluir los valores en el programa de acuerdo al tipo de red, se

consideraron matrices con igual número de filas, ya que son 12 meses, pero

diferentes en el número de columnas y número de años, la distribución se

ve en la Tabla 2.

Tabla 3. Matrices de agrupación de datos de acuerdo al tipo de red

Tipo de Red Cascade forward Elman Feed forward


Grupos
Precipitación Caudal Precipitación Caudal Precipitación Caudal
de Data
mensual mensual mensual mensual mensual mensual
análisis
Imput 12x15 12x33 12x15 12x33 12x15 12x33
Grupo
Tarjet 12x15 12x33 12x15 12x33 12x15 12x33
A
Sample 12x7 12x11 12x7 12x11 12x7 12x11
Imput 12x15 12x33 12x15 12x33 12x15 12x33
Grupo
Tarjet 12x15 12x33 12x15 12x33 12x15 12x33
B
Sample 12x7 12x11 12x7 12x11 12x7 12x11
Imput 12x54 12x54 12x54
Grupo
Tarjet 12x54 12x54 12x54
C
Sample 12x10 12x10 12x10

Se utilizó el modelo backpropagation tomando tres tipos de red: Cascade-forward

backpropagation, Elman backpropagation y Feed-forward backpropagation.

Tabla 4. Distribución de datos respecto a los años.

Grupo
Proceso Tipo de datos Años Variable
general
Precipitación 1953-1967 Imput
Precipitación Precipitación 1968-1982 Tarjet
I
Precipitación 1983-1989 Sample
Precipitación 1990-1996 Verificación

47
Precipitación 1953-1985 Imput
Caudal 1953-1985 Tarjet
I
Precipitación 1986-1996 Sample
Caudal
Caudal 1986-1996 Verificación
Precipitación 1953-2006 Imput
Caudal 1953-2006 Tarjet
II
Precipitación 2006-2016 Sample
Caudal
Caudal generado 2006-2016 Verificación

B. Proceso I. Iteración, verificación y selección de red.

En este proceso se usaron la distribución de datos del Grupo A y el Grupo

B mostrados en la Tabla 3 siguiendo la secuencia mostrada en el Anexo 7

en correlación con los años y tipo de variable de ingreso mencionados en la

Tabla 4.

Considerando el tipo de datos las estructuras de iteración se armaron en dos

grupos principales, precipitaciones mensuales y caudales mensuales, estos

a su vez en dos grupos más, A y B, el primero para probar el tipo de

entrenamiento más eficiente y el segundo para hacer variaciones en la

función de adaptación de aprendizaje, la función de rendimiento y la función

de trasferencia, de los 2 tipos de entrenamiento que presentaban una mayor

calidad en los coeficientes del análisis estadístico. La estructura base para

el grupo A se puede ver en la Tabla 6 así como las estructuras de prueba

para la selección de la función de entrenamiento se muestran en la Tabla 5,

las iteraciones respecto a la estructura para el grupo B se pueden ver en la

Figura 5, considerando que se optó la estructura que se ajustó más en el

48
periodo de validación respecto a los coeficientes de los modelos de

validación que se mencionaron el inciso 2.2.6.

Tabla 5. Distribución de datos para la selección del tipo de función de


entrenamiento.

Función de
Nominación Función de adaptación Función de Función de
de la red entrenamiento de rendimiento Transferencia
aprendizaje
RNA01 TRAINBFG LEARNGD MSE LOGSIG
RNA02 TRAINBR LEARNGD MSE LOGSIG
RNA03 TRAINCGB LEARNGD MSE LOGSIG
RNA04 TRAINCGF LEARNGD MSE LOGSIG
RNA05 TRAINCGP LEARNGD MSE LOGSIG
RNA06 TRAINGD LEARNGD MSE LOGSIG
RNA07 TRAINGDM LEARNGD MSE LOGSIG
RNA08 TRAINGDA LEARNGD MSE LOGSIG
RNA09 TRAINGDX LEARNGD MSE LOGSIG
RNA10 TRAINLM LEARNGD MSE LOGSIG
RNA11 TRAINOSS LEARNGD MSE LOGSIG
RNA12 TRAINR LEARNGD MSE LOGSIG
RNA13 TRAINRP LEARNGD MSE LOGSIG
RNA14 TRAINSCG LEARNGD MSE LOGSIG

Tabla 6. Estructura inicial para cada entrenamiento. Grupo A

Funciones Descripción
Función de adaptación de aprendizaje LEARNGD

Función de rendimiento MSE

Numero de Capas 2

Numero de Neuronas 12

Función de Transferencia LOGSIG

49
Para la fase de iteración del Grupo B se partió de las dos funciones de

entrenamiento que pasaron con coeficientes aceptables los modelos

estadísticos mencionados en el inciso 2.2.6, de estos se formaron siete

estructuras individuales por cada función de entrenamiento siguiendo el

diagrama de flujo del Anexo 7 así como las iteraciones de la Figura 5

optando siempre por la combinación que afine la salida de datos.

Finalmente, se escogió la estructura de red neuronal que presentó

coeficientes adecuados respecto a los modelos de estadísticos de validación.

Figura 6. Iteración de las estructuras para el Grupo B.


Fuente. Elaboración propia

3.4.2.3 Aplicación de una estructura funcional para el tipo de red elegida.

La estructura de la red neuronal artificial para los tres tipos de red a probar,

consta básicamente por una función de entrenamiento (FE), una función de

adaptación de aprendizaje (FA) una función de rendimiento (FR) un numero

de capas las cuales para todos los modelos serán 2 un numero de neuronas (NN)

y una función de transferencia. Con respecto a la cantidad de neuronas se usó

50
una variación entre 12 y 24 analizando el progreso de acuerdo al periodo de

evaluación.

Para que la estructura de una red neuronal sea funcional se debe saber cuál es

la organización de estos componentes para genera datos con mayor cercanía a

los reales, esta organización ya la tenemos así que pasamos al proceso de

aplicación.

A. Proceso II. Generación de caudales.

En este proceso ya se tiene la estructura de red que se adecua a los datos

brindados para la generación de caudales primero se cambió la agrupación de

ingreso de datos al Grupo C como se muestra en la Tabla 3, y se asoció a la

secuencia mostrada en la Figura 6 en correlación con los años y tipo de variable

de ingreso mencionados en la Tabla 4.

3.4.2.4 Verificación de la relación que existe entre caudales mensuales generado

y los caudales mensuales reales analizando la validez de la generación

Se verificaron los datos generados utilizado una evaluación estadística de los

modelos, en los métodos para tal fin tenemos la raíz del error cuadrático medio

(RMSE), la Eficiencia de Nash – Sutcliffe (NSE), el error cuadrático medio

normalizado (ECMN), el coeficiente de determinación, así como el coeficiente

de relación y el R² provenientes del Excel, el programa nos brinda también un

coeficiente de relación respecto a la función de rendimiento.

Para la fase de verificación en el proceso I, los periodos de verificación fueron

desde los años de 1990 a 1996 para las precipitaciones mensuales y desde 1986

a 1996 para los caudales mensuales, tal como se muestran en la Tabla 7.

51
Figura 7. Diagrama de flujo para el proceso II
Fuente. Elaboración propia

Para la fase de verificación en el proceso II, los periodos de verificación fueron

desde los años de 2006 a 2016 para la generación de caudales mensuales.

Tabla 7. Periodo de años para la fase de validación

Procesos Tipo de datos Años Variable

Precipitación 1990-1996 Verificación


Proceso I
Caudal 1986-1996 Verificación

Proceso II Caudales 2006-2016 Verificación

52
IV. RESULTADOS Y DISCUSIONES

4.1 Selección del tipo de red que se adecue a los datos generados

La selección del tipo de red se dio luego de haber optado por la mejor estructura y haber

obtenido coeficientes altos en la verificación de la validez de la generación de caudales

mensuales totales.

4.2 Aplicar una estructura funcional para el tipo de red elegida.

Para este fin se realizó una agrupación de los datos referida en la Tabla 03, en la cual se

pueden ver 3 grupos de análisis, el grupo A que se presenta en la etapa inicial para evaluar

el tipo de entrenamiento más eficiente, el grupo B para evaluar la función de adaptación de

aprendizaje, la función de rendimiento, el número de neuronas y la función de trasferencia.

Por ultimo está el grupo C, en el cual se generó los datos de caudales mensuales.

Se realizó este proceso para las precipitaciones y así ver el efecto de la generación y el tipo

de estructura.

Se considera la generación del modelo más importante siguiendo el esquema de la Figura

8, para la presentación de los resultados.

Figura 8. Distribución de grupos para cada tipo de red


Fuente. Elaboración propia

53
4.2.1 Elman backpropagation, Precipitaciones mensuales

A. Precipitaciones mensuales grupo A.

Los procesos de iteración se encuentran explicados en el inciso 3.5.2.2 Los

entrenamientos utilizados están en el orden mostrado en la Tabla 5. La estructura

inicial utilizada se muestra en la Tabla 6, y la generación se dio siguiendo el

Diagrama de flujo adjuntado en el Anexo 7. Los datos generados para cada red

están representados en la Figura 9, los datos específicos de la red más eficiente se

presentan en la Tabla 8 y se grafican en la Figura 10.

350.00

300.00
REAL
RNA01
250.00 RNA02
Precipitaciones (m3/seg)

RNA03

200.00 RNA04
RNA05
RNA06
150.00
RNA07
RNA08

100.00 RNA09
RNA10
RNA11
50.00
RNA12
RNA13
0.00 RNA14
1990:01
1990:05
1990:09
1991:01
1991:05
1991:09
1992:01
1992:05
1992:09
1993:01
1993:05
1993:09
1994:01
1994:05
1994:09
1995:01
1995:05
1995:09
1996:01
1996:05
1996:09

Periodo (años)

Figura 9. Generación de datos de precipitaciones mensuales modelo Elman


backpropagation, Grupo A.
Fuente. Elaboración propia

54
Tabla 8. Datos generados por la RNA N°02. Precipitaciones mensuales
1990 1991 1992 1993 1994 1995 1996
167.9287 167.9292 167.9227 167.9267 167.9332 167.9281 167.9329
186.7906 186.7907 186.7896 186.7903 186.7914 186.7905 186.7913
175.2679 175.2681 175.2655 175.2671 175.2697 175.2677 175.2695
84.6121 84.6121 84.6123 84.6122 84.6120 84.6122 84.6120
43.5363 43.5364 43.5353 43.5360 43.5371 43.5362 43.5370
14.4877 14.4877 14.4876 14.4877 14.4878 14.4877 14.4878
11.0715 11.0715 11.0714 11.0715 11.0715 11.0715 11.0715
25.2155 25.2155 25.2150 25.2153 25.2158 25.2154 25.2158
53.4423 53.4426 53.4392 53.4413 53.4448 53.4421 53.4446
88.5864 88.5868 88.5821 88.5850 88.5897 88.5860 88.5895
125.6705 125.6712 125.6630 125.6681 125.6763 125.6698 125.6759
145.4658 145.4662 145.4608 145.4642 145.4695 145.4653 145.4692

350.00
REAL RNA02

300.00

250.00
Precipitaciones (mm)

200.00

150.00

100.00

50.00

0.00
1990:01
1990:04
1990:07
1990:10
1991:01
1991:04
1991:07
1991:10
1992:01
1992:04
1992:07
1992:10
1993:01
1993:04
1993:07
1993:10
1994:01
1994:04
1994:07
1994:10
1995:01
1995:04
1995:07
1995:10
1996:01
1996:04
1996:07
1996:10

Años:meses

Figura 10. Generación de precipitaciones Red Neuronal Artificial N° 02.


Fuente. Elaboración propia

55
B. Precipitaciones mensuales grupo B.

Los procesos de iteración se encuentran explicados en el inciso 3.5.2.2 Los

entrenamientos utilizados están en el orden mostrado en la Tabla 5. La estructura

inicial utilizada para cada red se muestra en la Tabla 9, y la generación se dio

siguiendo el Diagrama de flujo adjuntado en el Anexo 7. Los datos generados para

cada red están representados en la Figura 11, los datos específicos de la red más

eficiente se presentan en la Tabla 10 y se grafican en la Figura 12.

Tabla 9. Estructura de las redes neuronales, Elman backpropagation generación de

precipitaciones Grupo B.

Nominación Función de Función de Función de Numero Función de


de la red entrenamiento adaptación de rendimiento de Transferencia
aprendizaje Neuronas

RNA02_1 LEARNGDM MSE 12 LOGSIG

RNA02_2 LEARNGDM MSEREG 12 LOGSIG

RNA02_3 LEARNGDM MSEREG 24 LOGSIG


TRAINBR

RNA02_4 LEARNGDM MSEREG 24 PURELIN

RNA02_5 LEARNGDM MSEREG 24 TANSIG

RNA02_6 LEARNGDM SSE 24 PURELIN

RNA02_7 LEARNGDM SSE 24 LOGSIG

RNA14_1 LEARNGDM MSE 12 LOGSIG

RNA14_2 LEARNGDM MSEREG 12 LOGSIG

RNA14_3 LEARNGDM MSE 24 LOGSIG


TRAINSCG

RNA14_4 LEARNGDM MSE 12 PURELIN

RNA14_5 LEARNGDM MSE 12 TANSIG

RNA14_6 LEARNGDM SSE 12 PURELIN

RNA14_7 LEARNGDM SSE 12 LOGSIG

56
350.00

REAL
300.00
RNA02_1
RNA02_2
250.00
RNA02_3
Precipitaciones (mm)

RNA02_4
200.00
RNA02_5
RNA02_6
150.00
RNA02_7
RNA14_1
100.00
RNA14_2
RNA14_3
50.00
RNA14_4
RNA14_5
0.00
RNA14_6
1990:01
1990:05
1990:09
1991:01
1991:05
1991:09
1992:01
1992:05
1992:09
1993:01
1993:05
1993:09
1994:01
1994:05
1994:09
1995:01
1995:05
1995:09
1996:01
1996:05
1996:09

RNA14_7

Periodo (años)

Figura 11. Generación de datos de precipitaciones mensuales modelo Elman


backpropagation, Grupo B.
Fuente. Elaboración Propia

Tabla 10. Datos generados por la RNA N°02_4. Precipitaciones mensuales

1990 1991 1992 1993 1994 1995 1996


168.2471 160.3297 152.4418 158.5216 165.0297 157.8029 159.5848
178.1574 180.4010 190.4406 179.5985 179.7237 180.8665 180.8187
158.3391 176.7887 215.2746 176.3195 171.2844 188.0736 204.2581
93.7601 87.3194 67.4943 87.7840 89.3425 85.1511 88.3476
38.8261 38.0125 35.2150 38.0590 38.0234 37.4532 37.5019
14.4296 14.7925 15.2198 14.8229 14.4978 14.8337 14.9765
10.5728 10.3813 10.0860 10.3642 10.4994 10.3282 10.2815
23.1416 23.4077 25.0231 23.2921 23.7640 23.9186 24.3567
48.1179 46.6991 40.0856 46.8543 45.5532 44.6774 44.5463
100.5789 90.2723 80.9209 88.6501 102.4139 93.4737 99.0952
155.2655 103.0872 58.2988 98.9051 142.9919 97.0571 88.2388
154.2720 134.3536 101.8545 134.1361 148.4185 133.3664 138.9297

57
350.00
REAL RNA02_4
300.00

250.00
Precipitaciones (mm)

200.00

150.00

100.00

50.00

0.00
1990:01
1990:04
1990:07
1990:10
1991:01
1991:04
1991:07
1991:10
1992:01
1992:04
1992:07
1992:10
1993:01
1993:04
1993:07
1993:10
1994:01
1994:04
1994:07
1994:10
1995:01
1995:04
1995:07
1995:10
1996:01
1996:04
1996:07
1996:10
Año:meses

Figura 12. Generación de precipitaciones Red Neuronal Artificial N° 02_4.


Fuente. Elaboración propia

4.2.2 Elman backpropagation, Caudales mensuales

A. Caudales mensuales grupo A.

Los procesos de iteración se encuentran explicados en el inciso 3.5.2.2 Los

entrenamientos utilizados están en el orden mostrado en la Tabla 5. La estructura

inicial utilizada se muestra en la Tabla 6, y la generación se dio siguiendo el

Diagrama de flujo adjuntado en el Anexo 7. Los datos generados para cada red

están representados en la Figura 13, los datos específicos de la red más eficiente se

presentan en la Tabla 11 y se grafican en la Figura 14. Esta generación se dio

utilizando la estructura de red neuronal artificial número 7, siguiendo la secuencia

de generación utilizada para las precipitaciones, el modelo inicial aplicado a esta

nos permite ver la variación en la generación desde una variable relacionada

directamente

58
8.00

REAL
7.00
RNAQ1

6.00 RNAQ2
RNAQ3
Caudales (m3/seg)

5.00 RNAQ4
RNAQ5
4.00
RNAQ6
RNAQ7
3.00
RNAQ8
2.00 RNAQ9
RNAQ10
1.00 RNAQ11
RNAQ12
0.00
RNAQ13
1986:1
1986:7
1987:1
1987:7
1988:1
1988:7
1989:1
1989:7
1990:1
1990:7
1991:1
1991:7
1992:1
1992:7
1993:1
1993:7
1994:1
1994:7
1995:1
1995:7
1996:1
1996:7

RNAQ14
Periodo (años)

Figura 13. Generación de datos de caudales mensuales con el modelo Elman


backpropagation, Grupo A.
Fuente. Elaboración propia

Tabla 11. Datos generados por la RNA N°Q7. Caudales mensuales

1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1996
3.0554 2.7791 3.7556 2.7703 3.4710 1.5003 1.6177 3.5118 3.7116 2.0094 2.9850
2.9242 3.2249 4.9673 4.1506 3.4807 2.2575 2.7159 3.9233 5.2411 2.2758 4.6631
3.7428 2.8363 2.3728 3.1142 2.7449 3.1081 3.0358 3.7238 5.1084 4.2076 4.5466
2.6604 2.4436 1.6338 2.4881 3.0337 2.5932 3.2894 3.2863 2.3754 2.6217 2.7502
0.8880 0.9180 1.4255 1.7588 2.0660 0.8891 1.7765 1.6395 1.5882 1.2754 1.2279
0.6506 0.5732 0.4575 0.5136 0.7304 0.7437 0.8021 0.7919 0.5754 0.9131 0.6072
0.3327 0.4155 0.5058 0.3418 0.2721 0.3275 0.3014 0.3624 0.3533 0.2940 0.4325
0.4109 0.4481 0.4142 0.2798 0.3131 0.3695 0.2887 0.6285 0.4390 0.5202 0.4318
0.5206 0.5517 0.8577 0.7691 0.4664 0.4764 0.4594 0.5699 0.8316 0.5248 0.7531
1.4424 1.3906 1.3545 1.4860 1.4977 1.2579 1.2589 0.8766 1.0352 1.3038 1.2854
1.6680 1.8426 1.5487 1.3956 2.4258 1.7148 2.3220 2.9389 1.1976 1.3246 1.1758
2.2493 1.8977 1.6318 1.4366 1.9822 1.8041 1.2996 3.5673 2.7754 2.7084 1.9610

59
8.00

REAL
7.00
RNAQ7

6.00
Caudales mensuales (m3/s)

5.00

4.00

3.00

2.00

1.00

0.00
1986:1
1986:6

1987:4
1987:9
1988:2
1988:7

1989:5

1990:3
1990:8
1991:1
1991:6

1992:4
1992:9
1993:2
1993:7

1994:5

1995:3
1995:8
1996:1
1996:6
1986:11

1988:12

1989:10

1991:11

1993:12

1994:10

1996:11

Año:mes

Figura 14. Generación de caudales mensuales Red Neuronal Artificial N° Q7.


Fuente. Elaboración propia

B. Generación de caudales mensuales Grupo B

Los procesos de iteración se encuentran explicados en el inciso 3.5.2.2 Los

entrenamientos utilizados están en el orden mostrado en la Tabla 5. La estructura

inicial utilizada para cada red se muestra en la Tabla 12, y la generación se dio

siguiendo el Diagrama de flujo mostrado en la Figura 7. Los datos generados para

cada red están representados en la Figura 15, los datos específicos de la red más

eficiente se presentan en la Tabla 13 y se grafican en la Figura 16.

60
Tabla 12. Estructura de las redes neuronales, Elman backpropagation generación de
caudales Grupo B.

Función de Numero
Nominación Función de Función de Función de
adaptación de de
de la red entrenamiento rendimiento Transferencia
aprendizaje Neuronas
RNA07_1 LEARNGDM MSE 12 LOGSIG
RNA07_2 LEARNGDM MSEREG 12 LOGSIG
TRAINGDM

RNA07_3 LEARNGDM MSE 24 LOGSIG


RNA07_4 LEARNGDM MSE 12 PURELIN
RNA07_5 LEARNGDM MSE 12 TANSIG
RNA07_6 LEARNGDM MSE 12 PURELIN
RNA07_7 LEARNGDM SSE 12 LOGSIG
RNA09_1 LEARNGDM MSE 12 LOGSIG
RNA09_2 LEARNGDM MSEREG 12 LOGSIG
TRAINGDX

RNA09_3 LEARNGDM MSE 24 LOGSIG


RNA09_4 LEARNGDM MSE 12 PURELIN
RNA09_5 LEARNGDM MSE 12 TANSIG
RNA09_6 LEARNGDM SSE 12 TANSIG
RNA09_7 LEARNGDM SSE 24 TANSIG

8.00
REAL
7.00
RNAQ7_1
6.00 RNAQ7_2
Caudal (m3/seg)

5.00 RNAQ7_3
RNAQ7_4
4.00
RNAQ7_5
3.00 RNAQ7_6
RNAQ7_7
2.00
RNAQ09_1
1.00
RNAQ09_2
0.00 RNAQ09_3
1986:1
1986:7
1987:1
1987:7
1988:1
1988:7
1989:1
1989:7
1990:1
1990:7
1991:1
1991:7
1992:1
1992:7
1993:1
1993:7
1994:1
1994:7
1995:1
1995:7
1996:1
1996:7

RNAQ09_4
RNAQ09_5
Periodo (años)

Figura 15. Generación de datos de caudales mensuales con el modelo Elman


backpropagation, Grupo B.
Fuente. Elaboración propia

61
Tabla 13. Datos generados por la RNA N°Q7_1. Caudales mensuales

1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1996
2.784 2.734 3.711 2.771 3.235 1.512 1.625 3.294 3.652 2.006 3.150
2.740 3.197 5.208 4.752 3.551 2.185 2.785 3.513 5.331 2.242 5.090
3.572 2.952 2.460 2.974 2.369 3.020 2.540 4.436 5.387 4.403 4.842
2.541 2.430 1.703 2.478 2.647 2.467 2.846 3.453 2.667 2.523 2.841
0.909 0.934 1.440 1.794 2.010 0.881 1.787 1.515 1.595 1.305 1.291
0.628 0.557 0.456 0.496 0.607 0.713 0.644 0.831 0.582 0.836 0.572
0.356 0.450 0.561 0.396 0.296 0.336 0.338 0.389 0.395 0.323 0.488
0.415 0.443 0.416 0.282 0.311 0.354 0.286 0.648 0.445 0.522 0.419
0.512 0.548 0.833 0.767 0.491 0.479 0.509 0.525 0.798 0.541 0.764
1.267 1.229 1.153 1.289 1.385 1.206 1.183 0.833 0.890 1.141 1.113
1.742 1.904 1.750 1.505 2.381 1.603 2.120 2.872 1.277 1.371 1.260
2.446 2.061 1.675 1.429 2.140 1.953 1.326 3.618 2.521 2.477 1.892

8.00

7.00
REAL RNAQ7_1
6.00
Caudales mensuales (m3/s)

5.00

4.00

3.00

2.00

1.00

0.00
1986:1
1986:6

1987:4
1987:9
1988:2
1988:7

1989:5

1990:3
1990:8
1991:1
1991:6

1992:4
1992:9
1993:2
1993:7

1994:5

1995:3
1995:8
1996:1
1996:6
1986:11

1988:12

1989:10

1991:11

1993:12

1994:10

1996:11

Año : mes

Figura 16. Generación de caudales mensuales Grupo B por la Red Neurona


Artificial N° 7_1
Fuente. Elaboración propia

62
C. Generación de caudales mensuales grupo C.

El proceso de aplicación de la estructura se encuentra explicado en el inciso 3.5.2.3

La estructura usada se muestra en la Tabla 14. y la generación se dio siguiendo el

Diagrama de flujo mostrado en la Figura 7. Los datos generados para la red están

representados en la Figura 17, los datos de caudales mensuales generados se

presentan en la Tabla 15.

Tabla 14. Estructura de generación de precipitación mensual, Elman


backpropagation

Función Descripción
Función de entrenamiento TRAINGDM
Función de adaptación de aprendizaje LEARNGDM
Función de rendimiento MSE
Numero de Capas 2
Numero de Neuronas 12
Función de Transferencia LOGSIG

Tabla 15. Estructura de generación de precipitación mensual, Elman


backpropagation

2007 2008 2009 2010 2011 2012 2013 2014 2015 2016
2.858 3.115 3.848 1.736 4.150 1.228 1.242 3.639 2.865 1.104
2.127 4.385 5.382 1.520 5.797 1.503 1.536 4.827 3.303 1.656
3.267 2.175 2.160 3.213 3.569 4.409 4.314 4.134 4.351 4.405
2.054 1.741 1.409 3.169 1.642 3.315 3.589 2.313 2.242 3.228
2.076 1.815 1.814 1.443 1.318 1.184 1.354 1.494 2.154 1.627
0.912 0.397 0.273 1.133 0.235 0.939 1.169 0.507 0.370 1.033
0.182 0.357 0.382 0.163 0.417 0.136 0.181 0.330 0.345 0.175
0.532 0.459 0.330 0.472 0.253 0.153 0.256 0.438 0.198 0.278
0.455 0.596 0.881 0.411 1.165 0.464 0.470 0.711 1.323 0.411
0.983 0.990 1.074 1.630 1.421 1.922 1.423 1.066 1.416 1.145
2.599 2.618 1.963 2.204 1.070 1.220 1.850 1.625 1.136 1.655

63
3.068 2.403 2.171 3.802 1.706 1.196 2.341 2.512 0.933 1.564

9.00
REAL
8.00
RNAGC
7.00

6.00
Caudales (m3/s)

5.00

4.00

3.00

2.00

1.00

0.00
2007:01
2007:06
2007:11
2008:04
2008:09
2009:02
2009:07
2009:12
2010:05
2010:10
2011:03
2011:08
2012:01
2012:06
2012:11
2013:04
2013:09
2014:02
2014:07
2014:12
2015:05
2015:10
2016:03
2016:08

Año : mes

Figura 17. Generación de datos de caudales mensuales con el modelo Elman


backpropagation, Grupo C
Fuente. Elaboración propia

V.4.3 Análisis de la validez de las generaciones Formatted: Heading 2, Justified, Indent: Left: 0", Line
spacing: single

Para este fin se aplicaron los modelos definidos en la sección 3.6.2.4 Verificación de la

relación que existe entre caudales mensuales y la precipitación mensual analizando la

validez de la generación, los cuales se mostraran en cuadros agrupados de acuerdo al

Esquema 02 siguiendo la secuencia antes mencionada en el grupo A se verifico la etapa

inicial con la que se evaluó el tipo de entrenamiento más eficiente, en el grupo B se verifico

la evaluación a las funciones de adaptación de aprendizaje, la función de rendimiento, el

número de neuronas y la función de trasferencia.

64
5.1.14.3.1 Elman backpropagation, Precipitaciones mensuales.

A. Verificación de Precipitaciones mensuales Grupo A

La verificación para la selección del mejor entrenamiento se realizó utilizando la

generación que presento los mayores coeficientes respecto a lo mencionado en el

inciso 3.5.2.4. Los resultados se presentan en la Tabla 16 y se oscureció la celda de

la red que presenta los mejores coeficientes.

Tabla 16. Resumen de los coeficientes de validación. Elman backpropagation


precipitaciones mensuales Grupo A.

REDES DESV ECMN R2 RMSE NSE R2 R


RNA01 NO 0.92 0.08 72.353 0.070 0.363 0.603
RNA02 SI 0.47 0.53 51.881 0.522 0.534 0.731
RNA03 NO 0.77 0.23 66.162 0.223 0.412 0.642
RNA04 NO 0.98 0.02 74.906 0.004 0.286 0.534
RNA05 SI 0.69 0.31 62.816 0.299 0.404 0.636
RNA06 NO 1.18 -0.18 82.173 -0.199 0.222 0.471
RNA07 SI 0.80 0.20 67.480 0.191 0.358 0.598
RNA08 SI 0.75 0.25 65.259 0.244 0.350 0.592
RNA09 NO 0.71 0.29 63.552 0.283 0.419 0.648
RNA10 SI 0.65 0.35 60.780 0.344 0.420 0.648
RNA11 SI 0.83 0.17 68.836 0.159 0.273 0.523
RNA12 SI 0.90 0.10 71.808 0.084 0.283 0.532
RNA13 NO 0.77 0.23 66.231 0.221 0.391 0.626
RNA14 SI 0.61 0.39 59.018 0.381 0.467 0.683

B. Verificación de precipitaciones mensuales Grupo B

La verificación para la selección de la mejor estructura se realizó utilizando la

generación que presento los mayores coeficientes respecto a lo mencionado en el

inciso 3.5.2.4. Los resultados se presentan en la Tabla 17 y se oscureció la celda de

la Red que presenta los mejores coeficientes.


65
Tabla 17. Resumen de los coeficientes de validación. Elman backpropagation

precipitaciones mensuales Grupo B.

REDES DESV ECMN R2 RMSE NSE R2 R

RNA02_1 SI 0.66 0.34 61.494 0.328 0.425 0.652

RNA02_2 SI 0.48 0.52 52.564 0.509 0.535 0.732

RNA02_3 SI 0.47 0.53 51.780 0.524 0.540 0.735

RNA02_4 SI 0.45 0.55 50.571 0.546 0.554 0.745

RNA02_5 SI 0.58 0.42 57.328 0.416 0.464 0.682

RNA02_6 SI 0.51 0.49 53.819 0.486 0.520 0.721

RNA02_7 SI 0.69 0.31 62.923 0.297 0.407 0.638

RNA14_1 SI 0.63 0.37 59.875 0.363 0.459 0.678

RNA14_2 SI 0.67 0.33 61.608 0.326 0.429 0.655

RNA14_3 SI 0.64 0.36 60.263 0.355 0.432 0.657

RNA14_4 NO 1.05 -0.05 77.366 -0.063 0.320 0.566

RNA14_5 NO 0.96 0.04 74.139 0.024 0.281 0.530

RNA14_6 NO 1.07 -0.07 78.139 -0.084 0.248 0.498

RNA14_7 NO 0.70 0.30 63.384 0.287 0.432 0.657

5.1.24.3.2 Elman backpropagation, Caudales mensuales.

A. Verificación de Caudales mensuales Grupo A

La verificación para la selección del mejor entrenamiento se realizó utilizando la

generación que presento los mayores coeficientes respecto a lo mencionado en el

inciso 3.5.2.4. Los resultados se presentan en la Tabla 18 y se oscureció la celda de

la Red que presenta los mejores coeficientes.

66
Tabla 18. Resumen de los coeficientes de validación. Elman backpropagation,

caudales mensuales Grupo A

REDES DESV ECMN R2 RMSE NSE R2 R

RNAQ1 NO 0.52 0.48 0.970 0.475 0.638 0.799

RNAQ2 SI 0.45 0.55 0.901 0.547 0.626 0.791

RNAQ3 SI 0.56 0.44 1.005 0.435 0.488 0.699

RNAQ4 NO 0.88 0.12 1.258 0.116 0.609 0.780

RNAQ5 NO 1.10 -0.10 1.406 -0.104 0.361 0.601

RNAQ6 SI 0.33 0.67 0.773 0.666 0.702 0.838

RNAQ7 SI 0.24 0.76 0.657 0.759 0.781 0.884

RNAQ8 NO 0.38 0.62 0.826 0.619 0.699 0.836

RNAQ9 SI 0.26 0.74 0.689 0.734 0.776 0.881

RNAQ10 NO 0.37 0.63 0.817 0.627 0.748 0.865

RNAQ11 SI 0.31 0.69 0.752 0.684 0.724 0.851

RNAQ12 SI 0.37 0.63 0.818 0.626 0.669 0.818

RNAQ13 NO 0.38 0.62 0.833 0.612 0.675 0.822

RNAQ14 NO 0.39 0.61 0.838 0.608 0.724 0.851

B. Validación de caudales mensuales Grupo B

La verificación para la selección del mejor entrenamiento se realizó utilizando la

generación que presento los mayores coeficientes respecto a lo mencionado en el

inciso 3.5.2.4. Los resultados se presentan en la Tabla 19 y se oscureció la celda de

la Red que presenta los mejores coeficientes.

67
Tabla 19. Resumen de los coeficientes de validación para caudales mensuales

Grupo B

REDES DESV ECMN R2 RMSE NSE R2 R


RNAQ7_1 SI 0.20 0.80 0.603 0.797 0.817 0.904
RNAQ7_2 SI 0.36 0.64 0.801 0.641 0.699 0.836
RNAQ7_3 SI 0.26 0.74 0.686 0.737 0.780 0.883
RNAQ7_4 NO 0.27 0.73 0.692 0.733 0.779 0.883
RNAQ7_5 SI 0.31 0.69 0.745 0.690 0.738 0.859
RNAQ7_6 NO 0.27 0.73 0.699 0.727 0.775 0.881
RNAQ7_7 SI 0.55 0.45 0.995 0.447 0.450 0.671
RNAQ09_1 NO 0.31 0.69 0.751 0.685 0.746 0.864
RNAQ09_2 NO 0.49 0.51 0.943 0.503 0.671 0.819
RNAQ09_3 NO 0.35 0.65 0.797 0.645 0.712 0.844
RNAQ09_4 NO 0.51 0.49 0.956 0.490 0.673 0.821
RNAQ09_5 SI 0.24 0.76 0.664 0.754 0.806 0.898
RNAQ09_6 NO 0.29 0.71 0.724 0.707 0.765 0.874
RNAQ09_7 SI 0.64 0.36 1.077 0.352 0.561 0.749

C. Validación de caudales mensuales Grupo C

La verificación para la selección del mejor entrenamiento se realizó utilizando la

generación que presento los mayores coeficientes respecto a lo mencionado en el

inciso 3.5.2.4. Los resultados se presentan en la Tabla 20.

Tabla 20. Resumen de los coeficientes de validación. Grupo C

RED DESV ECMN R2 RMSE NSE R2 R

RNAGC SI 0.55 0.45 1.02 0.45 0.55 0.74

68
VI.V. CONCLUSIONES

6.15.1 Se tomaron en prueba tres tipos de red Cascade forward backpropagation, Elman

backpropagation y Feed forward backpropagation de las cuales se obtuvo mejores

resultados del tipo de red Elman backpropagation con un coeficiente de correlación de

0.904 y un error máximo de 0.60 m3/seg, en la etapa de selección de estructura, y un

coeficiente de correlación de 0.74 con un error máximo de 1.02 m3/seg para la generación

final.

6.25.2 La estructura de red que presento un mayor ajuste en la etapa de entrenamiento y por

ende en la etapa de generación es aquella que posee la función de entrenamiento de

descenso de gradiente con retroceso de impulso o Traingdm (gradient descent with

momentum backpropagation) , la función de adaptación de aprendizaje de descenso del

gradiente con el peso de momento y la función de aprendizaje de sesgo o Learngdm (

gradient descent with momentum weight and bias learning function), la función de

rendimiento cuadratica de rendimiento del error normalizado o Mse (mean squared

normalized error performance function) con dos capas, 12 neuronas y función de

trasferencia sigmoidea o Logsig.

6.35.3 En la etapa de validación se verifico la validez de la mayor parte de las redes haciendo

análisis del coeficiente de relación tanto lineal como el brindado por el Matlab, por lo tanto,

las redes neuronales artificiales son un método viable para la generación y adaptación de

modelos hidrológicos, específicamente para la generación de caudales mensuales en la

zona de estudio.

6.45.4 Se concluye entonces que es factible la generación de caudales mensuales mediante

redes neuronales artificiales a través de una data de precipitación mensual.

69
VII.VI. RECOMENDACIONES

7.16.1 Se debería realizar el análisis con los tipos de redes considerados aislando las estructuras

más eficientes y profundizando en el coeficiente de aprendizaje para cada una

7.26.2 La aplicación de este método de análisis podría aplicarse en otras estaciones, llevar una

generación de datos y previsión de los mismos para abastecimiento y control de sequias,

esto no solo podría generar una predicción de los mismos también podría alternarse con la

ubicación o planos con otras variables relativas a la cuenca y así crear una red neuronal

artificial que se extienda en la misma.

7.36.3 Para completar el análisis estadístico se podría estudiar los modelos de validación del

mismo programa y llevar este análisis en comparación con otros como los generados por

el programa Spss o el Eviews así se vería las cualidades del modelo para plantear

coeficientes de mejora no solo en su promedio lineal si no en su algoritmo.

70
VIII.VII. BIBLIOGRAFIA

Alvarez, L., Gomez, E., & Obregon, N. (2012). Predicción De Caudales De Ríos Aplicando El

Modelo Neurodifuso Anfis Y Redes Neuronales. Sistemas, Cibernética E Informática,

9(1).

Borg, M. (2011). La Historia de un Canal: Cambio Climático y. Lima: Corporación Gráfica

Andina.

Campozano, L. (2011). Análisis de la Robustez de un Modelo de Redes Neuronales para la

Predicción de Caudales en la cuenca alta del río Paute. (tesis de maestria), Universidad

Politécnica Salesiana, Cuenca, Ecuador.

Castellano, M. (2009). Modelización estadística con Redes Neuronales. (tesis doctoral),

Universidad Da Coruña, Departamento de Matemáticas, Barcelona, España.

Chow, V., Maidment, D., & Mays, L. (1994). Hidrologia Aplicada. Santafe de Bogota:

McGram - Hill.

Correa, R. (2009). Redes Neuronales Artificiales en Ingeniería y Física Nuclear.

Caracterización de Espectros PIXE. (tesis doctoral), Universidad de Granada, Granada,

España.

Dheeraj, B., Anil, G., & Vinayak, P. (2013). Cascade and Feed Forward Back propagation

Artificial Neural Network Models for Prediction of Compressive Strength of Ready Mix

Concrete. Journal of Mechanical and Civil Engineering, 10(1), 01-06.

Herrera , J., Luque , E., Tupac, J., & Yari, Y. (2013). Red Neuronal aplicada a la generación de

caudales mensuales estocasticos. Proceedings del XII Congreso de la Sociedad Peruana

de Computacion, 41-48.
71
Laqui, W. (2010). plicación de Redes Neuronales Artificiales a la Modelización y Previsión de

Caudales Medios Mensuales del Río Huancané. Revista Peruana Geo-Atmosférica

RPGA, 2(1), 30-44.

Laqui, W., & Sanchez, M. (2009). Predicción de caudales medios mensuales del Río Huancané

utilizando modelos de redes neuronales. Anales científicos UNALM, 70(2), 196-206.

Ledesma , S. (2006). Las redes neuronales,implementacion y consideraciones practicas.

Mexico: MICAI.

Lujano, A., Lujano, E., Lujano, R., & Quispe, J. (2010). Pronostico de Caudales Medios

Mensuales del Rio Ilave usando Modelos de Redes Neuronales Artificiales. Revista de

Investigación Alto andina, 16(1), 89-100.

MathWorks. (1994-2018). Mathworks Docimentation. Obtenido de Elman neural network:

https://la.mathworks.com/help/nnet/ref/elmannet.html

MathWorks. (2017). MathWorks Documentation. Obtenido de Train Network:

https://la.mathworks.com

MathWorks, T. (1994-2018). Mathworks Documentation. Obtenido de Cascade Forward net:

https://la.mathworks.com/help/nnet/ref/cascadeforwardnet.html

Matich, J. (2011). Redes Neuronales: Conceptos basicos y aplicaciones. Informática Aplicada

a la Ingeniería de Procesos – Orientación I (pág. 25). Rosario: Universidad

Tecnológica Nacional – Facultad Regional Rosario.

Mercado, D., Pedraza, L., & Martinez, E. (2015). Comparison of Neural Network applied to

prediction of times Series. Prospect, 13 (2), 88-95.

72
Pujol, L. (2009). Predicción De Caudales En Tiempo Real En Grandes Cuencas Utilizando

Redes Neuronales Artificiales. (tesis doctoral), Universidad Politécnica de Valencia,

Valencia, España.

Talento, S. (2011). Bases para un sistema de predicción de caudales de aporte a rincón del

Bonete y Salto Grande. (tesis de maestria), Universidad de la Republica, Montevideo,

Uruguay.

Zhiqiang, Z., Shangce, G., Gang, Y., Fangjia, L., & Zheng, T. (2009). An algorithm of

supervised learning for elman neural network. International journal of innovative

Computing. Information and Control, 5(10), 2997-3011.

73
IX.VIII. ANEXOS
Anexo 1. Carta Nacional Recuay 20-i

Anexo 2. Delimitación de la sub cuenca Querococha.

74
Anexo 3. Precipitaciones mensuales estación Querococha.
AÑO/MES ENE FEB MAR APR MAY JUN JUL AUG SEP OCT NOV DIC
1953 175.69 229.55 139.19 115.69 56.54 12.19 6.82 6.32 57.44 171.05 229.29 100.83
1954 214.77 147.33 207.22 130.82 40.64 9.44 5.69 7.40 38.69 78.97 88.11 162.78
1955 157.40 194.95 287.45 105.47 62.48 9.44 5.69 13.12 27.09 61.98 55.88 137.43
1956 166.37 174.28 186.34 101.46 35.62 9.44 5.69 14.95 44.94 62.70 42.66 85.08
1957 159.99 186.17 205.71 97.45 27.49 9.44 5.69 17.97 50.30 97.62 37.83 127.09
1958 158.91 158.04 194.13 110.82 47.86 9.44 5.69 10.64 40.99 104.56 45.78 107.69
1959 119.19 198.99 215.71 89.44 48.50 14.28 5.69 21.64 52.72 118.91 72.22 165.89
1960 151.95 141.80 165.82 118.35 40.28 9.44 5.69 31.67 54.12 86.86 94.72 115.83
1961 218.64 175.34 135.56 124.61 70.15 10.26 5.69 9.99 50.30 61.98 149.90 155.28
1962 192.32 133.33 254.72 107.68 40.00 9.44 5.69 8.05 27.09 69.76 76.60 129.38
1963 217.71 141.05 189.53 140.11 30.77 9.44 5.69 6.32 27.09 64.26 104.37 167.27
1964 115.39 168.74 194.21 105.06 64.85 31.24 10.21 20.45 49.53 94.87 112.47 99.64
1965 90.90 123.10 227.70 96.80 24.00 8.80 22.90 19.40 59.40 107.20 81.10 150.80
1966 196.00 125.00 86.50 78.50 42.30 9.44 0.00 10.30 41.00 179.80 89.45 123.25
1967 174.40 188.66 250.83 94.57 56.36 6.40 38.80 20.10 32.00 149.70 66.50 96.98
1968 104.30 164.90 167.32 33.20 48.32 9.44 1.00 25.00 43.40 106.90 72.66 80.70
1969 125.20 134.60 116.30 133.20 15.00 6.80 5.00 15.27 41.75 80.90 113.80 221.50
1970 197.20 129.50 105.20 135.30 72.60 16.37 12.50 7.50 109.10 123.50 108.00 191.40
1971 149.80 170.90 240.00 87.00 31.20 27.00 6.70 49.60 38.80 97.70 74.40 174.20
1972 161.40 164.40 252.40 102.32 54.80 16.70 0.50 14.80 28.00 49.30 46.90 109.00
1973 145.20 189.00 176.40 135.50 28.50 20.40 3.10 18.50 67.40 174.30 100.90 184.40
1974 206.30 247.10 200.30 109.70 13.90 29.30 4.10 8.20 60.60 69.30 66.80 86.70
1975 160.30 154.68 236.00 118.20 87.80 15.50 5.90 20.02 59.10 70.40 67.80 165.90
1976 185.90 202.60 179.50 69.70 27.50 20.20 3.40 9.20 29.60 15.90 36.90 73.60
1977 160.20 193.76 107.30 114.30 46.70 8.40 10.30 2.30 35.40 49.60 237.30 141.40
1978 142.13 229.40 108.40 53.60 38.30 0.00 22.20 4.20 73.64 69.04 95.04 73.30
1979 96.00 211.20 196.10 131.30 38.70 0.50 0.10 7.80 51.80 33.50 62.40 93.30
1980 143.90 138.50 147.70 66.30 25.50 3.70 4.20 27.70 15.20 146.20 170.00 153.60
1981 187.80 200.00 217.60 52.40 18.40 2.60 3.00 30.80 7.40 118.30 202.90 151.20
1982 257.80 222.30 141.90 65.00 2.40 9.10 9.70 4.80 37.30 142.50 175.10 232.50
1983 213.10 47.50 181.12 98.76 56.80 29.20 2.80 16.00 42.20 74.80 72.70 181.10
1984 146.30 242.40 299.20 85.70 74.00 26.60 15.60 0.20 55.80 102.80 100.60 99.70
1985 116.41 133.50 168.23 94.12 84.06 8.54 5.51 18.28 119.76 62.75 112.08 143.35
1986 159.36 168.67 120.74 132.21 29.42 3.78 12.00 22.39 51.38 43.81 116.52 183.71
1987 177.76 112.41 160.34 75.62 15.90 10.49 22.17 22.28 43.05 88.50 143.67 159.15
1988 250.79 168.99 118.68 127.77 42.62 13.08 3.13 21.09 46.84 106.13 118.25 98.45
1989 174.51 218.55 226.88 140.21 26.72 16.98 4.32 54.20 39.92 121.93 48.79 71.62
1990 227.31 100.07 104.83 103.32 18.82 52.25 14.27 3.89 28.99 147.89 111.22 85.03
1991 71.94 97.91 122.79 74.75 39.48 6.05 7.03 4.75 23.25 147.25 95.96 96.83
1992 75.94 76.16 112.28 77.24 23.58 38.40 4.32 19.47 38.51 124.52 74.21 28.01
1993 209.24 182.95 236.51 162.39 81.79 18.49 14.27 12.54 127.66 153.84 209.89 270.48
1994 203.61 212.92 290.49 175.92 93.47 10.38 6.05 4.10 32.34 100.61 74.43 148.44
1995 135.45 42.95 218.87 100.51 70.21 10.60 11.89 9.08 28.56 71.83 134.48 156.33
1996 188.58 168.67 303.69 31.69 31.15 14.92 3.78 24.01 24.23 71.51 65.99 112.84
Fuente. Unidad de Glaciología, y SENAMHI

75
Anexo 4. Caudales mensuales estación Querococha.
AÑO/MES ENE FEB MAR APR MAY JUN JUL AUG SEP OCT NOV DIC
1953 2.49 4.72 3.80 3.01 0.98 0.45 0.26 0.43 0.38 0.83 1.88 1.75
1954 3.74 2.83 3.61 1.85 1.28 0.44 0.24 0.28 0.50 0.77 0.98 1.58
1955 3.25 5.12 5.44 2.95 1.21 0.51 0.32 0.26 0.43 0.77 1.05 2.01
1956 2.16 3.36 3.17 2.40 0.94 0.44 0.33 0.34 0.52 1.09 0.93 1.16
1957 1.25 2.56 2.80 2.29 1.28 0.68 0.52 0.50 0.67 1.31 1.72 1.26
1958 1.76 2.31 3.33 1.82 1.10 0.65 0.43 0.58 0.71 1.07 0.99 1.21
1959 1.70 3.37 4.23 2.49 1.42 0.65 0.45 0.54 0.51 1.34 1.41 3.80
1960 3.15 4.27 2.01 2.55 1.65 0.66 0.44 0.46 0.52 0.98 1.29 1.48
1961 3.51 2.79 4.08 3.07 1.30 0.81 0.50 0.38 0.48 0.65 2.13 3.06
1962 4.45 4.29 5.09 2.64 1.10 0.53 0.31 0.34 0.44 0.64 0.99 1.25
1963 3.30 4.03 4.72 3.56 1.05 0.62 0.33 0.38 0.59 1.25 2.38 3.47
1964 2.96 3.95 3.54 2.90 1.58 0.71 0.57 0.48 0.57 1.21 1.83 1.63
1965 2.08 2.06 5.12 2.44 1.04 0.45 0.44 0.43 0.91 1.79 1.88 2.88
1966 3.48 3.42 2.35 1.98 1.69 0.77 0.62 0.62 0.78 1.70 1.87 2.20
1967 2.68 6.75 4.22 2.10 1.25 0.62 0.50 0.45 0.56 1.81 1.63 1.76
1968 1.88 2.34 3.19 1.35 0.69 0.46 0.32 0.41 0.60 1.36 1.56 1.23
1969 1.72 2.03 2.12 2.43 1.04 0.70 0.38 0.48 0.55 0.95 1.72 3.43
1970 4.25 3.39 3.00 2.61 2.31 1.26 0.78 0.62 0.94 1.42 2.15 3.12
1971 2.69 3.95 4.78 2.46 1.09 0.62 0.48 0.52 0.56 1.15 0.94 1.79
1972 2.53 2.61 5.72 3.22 1.39 0.74 0.45 0.46 0.49 0.77 0.94 1.60
1973 2.36 3.53 3.64 3.64 1.24 0.78 0.53 0.54 0.63 1.89 2.64 3.35
1974 4.32 5.39 4.90 3.43 1.04 0.78 0.44 0.39 0.66 0.67 0.98 1.07
1975 2.36 2.98 5.11 2.48 2.15 1.00 0.58 0.61 0.79 1.32 1.40 1.86
1976 2.93 4.69 3.06 1.94 0.87 0.63 0.41 0.37 0.42 0.66 0.82 1.20
1977 1.94 2.73 2.89 2.02 1.25 0.68 0.57 0.57 0.73 1.04 2.55 2.29
1978 1.84 4.12 3.61 1.90 1.38 0.82 0.50 0.45 1.04 1.08 1.46 2.22
1979 1.95 3.83 5.67 3.83 1.49 0.75 0.62 0.72 0.86 0.97 1.08 1.56
1980 1.93 2.24 1.94 1.83 1.01 0.66 0.40 0.58 0.79 1.38 1.94 2.78
1981 2.50 5.65 4.14 2.32 1.13 0.63 0.52 0.49 0.51 1.41 3.52 3.65
1982 3.51 5.14 3.26 2.59 1.23 0.72 0.44 0.39 0.61 1.85 3.08 4.11
1983 4.14 2.54 3.96 3.52 2.11 1.17 0.79 0.74 0.94 1.34 1.70 3.35
1984 2.36 5.11 5.64 3.27 1.96 1.06 0.78 0.52 0.51 1.59 1.36 2.39
1985 2.36 2.71 3.48 2.92 1.43 0.66 0.37 0.37 0.98 0.94 1.21 2.25
1986 2.38 2.57 3.32 2.58 1.42 0.56 0.40 0.37 0.58 0.76 1.18 2.42
1987 3.30 3.08 2.89 1.52 1.06 0.46 0.39 0.36 0.52 1.08 1.25 2.60
1988 3.90 3.71 2.33 2.21 1.20 0.60 0.39 0.39 0.57 0.83 0.95 1.42
1989 2.37 3.80 3.95 3.07 1.00 0.50 0.32 0.36 0.40 0.86 1.66 0.78
1990 1.82 1.41 1.48 1.10 0.66 0.68 0.42 0.32 0.42 1.41 1.83 1.49
1991 1.81 2.04 3.02 1.84 1.13 0.56 0.38 0.37 0.39 1.16 1.18 1.19
1992 1.67 1.33 1.34 1.44 1.04 0.70 0.40 0.46 0.43 0.76 0.85 1.52
1993 2.01 3.92 4.42 3.28 1.44 0.69 0.45 0.40 0.98 1.09 3.14 4.51
1994 4.93 7.26 4.91 3.90 0.85 0.45 0.25 0.25 0.31 0.68 1.11 1.42
1995 2.37 1.82 5.12 2.55 0.97 0.43 0.30 0.28 0.65 0.81 1.55 1.54
1996 3.31 4.74 4.63 3.54 1.53 0.64 0.43 0.38 0.75 1.08 0.86 1.19
Fuente. Unidad de Glaciología, y SENAMHI

76
Anexo 5. Precipitaciones mensuales estación Querococha datos para generación.
AÑO/MES ENE FEB MAR ABR MAY JUN JUL AGO SET OCT NOV DIC
1997 179.09 187.31 95.21 71.73 47.15 15.15 15.28 32.66 63.82 90.33 117.41 251.33
1998 248.10 227.13 226.90 130.34 42.31 37.80 10.38 21.85 34.54 122.75 63.63 128.31
1999 213.26 309.37 232.53 97.45 47.43 46.50 13.28 19.80 108.82 79.71 114.77 149.05
2000 174.72 216.00 245.95 70.40 110.68 20.39 12.20 30.42 76.48 91.07 56.51 202.26
2001 235.17 186.74 248.31 59.43 59.49 21.51 15.31 12.69 88.25 113.89 200.73 150.33
2002 147.11 246.23 312.44 101.46 46.60 24.86 12.02 16.19 55.51 172.69 172.35 169.71
2003 187.85 174.01 218.61 158.40 58.31 23.86 9.57 21.02 41.78 95.23 81.04 199.87
2004 183.75 167.40 167.17 156.94 106.01 10.97 4.83 44.73 73.46 162.59 257.32 215.90
2005 225.70 189.14 353.55 143.03 55.60 10.97 4.83 47.42 66.61 139.59 147.09 277.68
2006 56.13 202.61 278.95 242.77 53.30 10.97 4.83 12.61 88.95 123.65 195.38 297.82
2007 224.21 142.90 81.19 196.74 82.45 31.90 4.83 42.39 29.91 123.65 195.38 285.24
2008 253.89 251.58 159.41 117.89 62.94 41.55 4.83 12.61 66.30 188.77 165.91 152.60
2009 301.70 260.86 163.19 199.57 93.35 36.83 4.83 12.61 48.05 177.97 203.14 198.94
2010 176.89 29.60 211.42 149.03 47.74 31.49 4.83 33.37 60.22 106.98 223.27 245.29
2011 301.70 241.72 232.71 164.13 43.96 10.97 4.83 12.61 62.00 34.95 162.67 136.11
2012 29.60 30.23 90.41 242.46 29.60 10.97 4.83 37.36 29.60 92.77 102.06 182.63
2013 29.60 29.60 288.07 127.85 91.46 10.97 4.83 50.36 66.51 150.60 173.88 229.14
2014 209.85 285.92 261.96 138.23 83.07 10.97 4.83 33.37 85.28 103.21 126.59 239.31
2015 215.82 92.93 159.31 107.82 99.85 43.54 4.83 48.47 65.19 29.70 114.33 29.70
2016 29.60 109.39 131.73 107.82 96.60 33.27 4.83 12.93 45.11 97.78 102.06 136.11
Fuente. Unidad de Glaciología, y SENAMHI. Elaboración propia
Anexo 6. Caudales mensuales estación Querococha datos para generación.
AÑO/MES
ENE FEB MAR ABR MAY JUN JUL AGO SET OCT NOV DIC
1997 2.13 2.47 1.13 0.88 0.56 0.19 0.18 0.39 0.78 1.07 1.44 2.99
1998 3.16 3.20 2.89 1.71 0.54 0.50 0.13 0.28 0.45 1.56 0.84 1.63
1999 3.07 4.93 3.35 1.45 0.68 0.69 0.19 0.28 1.62 1.15 1.71 2.14
2000 2.32 3.18 3.27 0.97 1.47 0.28 0.16 0.40 1.05 1.21 0.78 2.69
2001 3.21 2.82 3.39 0.84 0.81 0.30 0.21 0.17 1.24 1.55 2.83 2.05
2002 2.08 3.85 4.41 1.48 0.66 0.36 0.17 0.23 0.81 2.44 2.52 2.40
2003 2.38 2.44 2.77 2.07 0.74 0.31 0.12 0.27 0.55 1.21 1.06 2.53
2004 2.82 2.84 2.56 2.49 1.63 0.17 0.07 0.69 1.16 2.49 4.08 3.31
2005 3.45 3.20 5.41 2.26 0.85 0.17 0.07 0.73 1.05 2.14 2.33 4.25
2006 0.82 3.29 4.09 3.68 0.78 0.17 0.07 0.18 1.35 1.81 2.96 4.37
2007 3.15 2.23 1.14 2.86 1.16 0.46 0.07 0.60 0.43 1.74 2.84 4.01
2008 3.65 4.01 2.29 1.75 0.91 0.62 0.36 0.34 0.42 1.40 2.34 2.41
2009 6.13 7.69 8.27 6.51 4.25 1.99 0.52 0.20 0.77 2.75 3.25 3.08
2010 2.32 0.43 2.77 2.02 0.63 0.43 0.38 0.32 0.38 0.67 1.75 3.44
2011 4.94 7.27 5.35 5.33 1.18 0.46 0.36 0.18 0.90 0.49 2.35 1.91
2012 0.27 0.30 0.82 2.27 0.27 0.10 0.04 0.34 0.28 0.84 0.96 1.66
2013 0.37 0.41 3.64 1.67 1.15 0.14 0.06 0.64 0.87 1.90 2.27 2.89
2014 3.52 5.71 8.04 2.51 1.87 0.47 0.28 0.20 0.37 0.75 1.79 2.43
2015 5.42 3.93 4.01 3.29 3.91 1.68 0.76 0.57 0.30 0.02 0.16 2.79
2016 2.84 3.76 6.11 2.58 1.24 0.86 0.60 0.52 0.34 0.56 1.08 1.99
Fuente. Unidad de Glaciología, y SENAMHI. Elaboración propia

77
Anexo 7. Diagrama de flujo del proceso I

78
Anexo 8. Mejor validación para generación de datos de precipitación mensual por el modelo

Elman backpropagation.

Grupo A. Precipitaciones mensuales Grupo B. Precipitaciones mensuales

Anexo 9. Mejor validación para la generación de datos de caudales mensuales por el modelo
Elman backpropagation.

Grupo A. Caudales mensuales Grupo B. Caudales mensuales

79
Grupo C. Caudales mensuales

80

Potrebbero piacerti anche