Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
i
c
f
j
s
f
M
N
hormign acero
deformaciones
tensiones
Mecnica Computacional Vol XXV, pp. 2145-2162 (2006) 2147
Copyright 2006 Asociacin Argentina de Mecnica Computacional http://www.amcaonline.org.ar
Las ecuaciones de equilibrio son:
= =
+ = =
n
i
m
i
si si ci ci ext
f A f A N N
1 1
int
= =
+ = =
n
i
i
m
i
si si i ci ci ext
y f A y f A M M
1 1
int
(4)
donde el significado de los trminos se puede ver en la fig.1.
Las relaciones constitutivas tensin-deformacin del hormign confinado y del acero
siguen los modelos utilizados por Mander et al.(1984).
En forma incremental resulta
int
int
22 21
12 11
N
M
S S
S S
(5)
con
2
11 i i i
y A E S
= ;
i i i
y A E S S
= =
21 12
;
=
i i
A E S
22
, siendo
i
E el mdulo
tangente en correspondencia con
i
.
En el proceso incremental la curvatura es llevada sucesivamente hasta +
u
y -
u
en 1 ciclo
y en 4 ciclos. El caso de 1 ciclo es apropiado para anlisis dinmico no lineal paso a paso
donde el dao por disipacin de energa es considerado durante el proceso dinmico. El caso
de 4 ciclos es apropiado para anlisis tipo push-over, donde la degradacin con los ciclos ya se
considera en el valor de
u
.
En cada caso la curvatura ltima se define cuando al final del proceso cclico se alcanza
justo algn estado lmite: (i) Degradacin del momento resistente en un 20%; (ii)
Agotamiento de la capacidad de absorber energa por parte de la armadura transversal, sto
determina la deformacin ltima a compresin del hormign; (iii) Deformacin ltima de la
armadura longitudinal, a traccin o a compresin.
2.2 Modelo de comportamiento histertico
Figura 2: Modelo de comportamiento histertico momento curvatura
M
+
m
M
+
y
M
y
M
m
M
EI h
+
EI s
+
EI h
EI s
EI EI
cte N=
+
u
) (
p
j
p
j
h H = (6)
0 k
p
j
J
j
kj
p
k
w H w + =
) (
p
k
p
k
h Y = (7)
donde w
ji
son los factores de peso que conectan la i-sima neurona de la capa de entrada en
la j-sima neurona de la capa oculta, w
kj
son los factores de peso que conectan las neuronas j-
sima con la k-sima y h(.) es la funcin de transferencia dada por:
)) exp( 1 (
0 . 1
) (
x
x h
+
= (8)
La red es entonces entrenada presentndole una base de datos y resultados disponibles,
optimizando los factores de peso w
ji
, w
kj
. De acuerdo al principio de minimizacin del riesgo
emprico logra minimizar la diferencia entre los resultados obtenidos con anlisis estructural y
los obtenidos con la red. Luego de ser entrenada, con los factores de peso ya optimizados, la
red puede ser usada para predicciones.
3.2 Entrenamiento de la red
El primer paso es definir la arquitectura de la red, es decir el nmero de capas ocultas y el
nmero de neuronas por capa. En este trabajo se utiliza una sola capa intermedia y una capa
de salida con una nica neurona, es decir que cada red slo se utiliza para obtener un nico
resultado a partir de la informacin de entrada. El nmero de neuronas de la capa de entrada
resulta de la cantidad de variables de entrada ms una neurona, y puede tener un valor mximo
de 50.
Para seleccionar las combinaciones de los valores de las variables de entrada que se
utilizarn para entrenar la red, se aplica la teora de diseo de experimentos, ver punto 4.
Existen relaciones empricas entre el nmero ptimo de neuronas de la capa intermedia u
oculta y el nmero de variables de entrada, pero en general debe determinarse de acuerdo a
cada problema en particular.
En general una red con pocas neuronas en la capa intermedia no logra capturar las
relaciones entre los datos y los resultados, mientras que una con muchas neuronas tiende a no
poder generalizar para datos distintos a los de entrenamiento.
El nmero mximo de neuronas, para poder realizar el clculo de los factores de peso, est
en funcin del nmero de variables de entrada NINT y del nmero de conjunto de datos NDAT
2
1 8 . 0
+
=
NINT
NDAT
NEUMAX (9)
El proceso para encontrar el nmero ptimo de neuronas de la capa intermedia consiste en
evaluar el error generalizado para diferente cantidad de neuronas desde 1 a NEUMAX, y
adoptar la de menor error.
En cada arquitectura, el total de la muestra de datos y resultados se divide en 5 conjuntos,
O. MOLLER, R.O. FOSCHI, M. RUBINSTEIN, L.M. QUIROZ 2150
Copyright 2006 Asociacin Argentina de Mecnica Computacional http://www.amcaonline.org.ar
de los cuales 4 se utilizan para entrenar la red, es decir el 80%, y el restante, 20%, para la
validacin de los resultados obtenidos. Se realizan 5 pruebas en las que se combinan los
grupos de entrenamiento y de validacin de a uno por vez, es decir para el primer caso el
primer grupo para validacin y los dems para entrenamiento, y as sucesivamente para los 5
grupos. En cada una de estas pruebas se determina el error generalizado (total), el cual se
minimiza utilizando un algoritmo iterativo de retropropagacin de errores. Es un mtodo de
gradiente descendente en el cual los factores de peso w se van optimizando iterativamente
(aprendizaje) en forma proporcional a la diferencia entre los valores objetivos T
k
(resultados
disponibles) y las predicciones de la red Y
k
.
Este error generalizado, sobre las muestras de entrenamiento y de validacin, se calcula:
=
p k
p
k
p
k
T Y E
2
) (
2
1
(10)
Luego para minimizarlo se debe cumplir para los coeficientes de peso que conectan la capa
oculta con la capa de salida:
kj
kj kj kj kj
w
E
g w g w g w g w
= + = + ) ( ) ( ) ( ) 1 ( (11)
donde g es el nmero de la iteracin y es la tasa de entrenamiento.
Usando la regla de derivacin en cadena, se puede escribir:
p
j
p
k
p
p
k
p
k kj
H h T Y w ) ( ' ) ( =
(12)
Llamando:
) ( ' ) (
p
k
p
k
p
k
p
k
h T Y = (13)
Entonces (12) resulta:
p
j
p
p
k kj
H w
= (14)
Para las neuronas de la capa oculta, para las cuales no hay valores objetivos de salida, se
propaga el error hacia atrs segn el mismo criterio.
ji
ji ji ji ji
w
E
g w g w g w g w
= + = + ) ( ) ( ) ( ) 1 ( (15)
Usando la regla de derivacin en cadena
= =
p
p
i
p
j
p
i
p
j kj
p
k
p k
p
k
p
k ji
X X h w h T Y w ) ( ' ) ( ' ) ( (16)
donde:
=
k
kj
p
k
p
j
p
j
w h ) ( ' (17)
La tasa de entrenamiento depende de cada problema, en general si es demasiado alta la
red podr no converger nunca al resultado para algunas muestras, si en cambio es demasiado
baja la convergencia ser muy lenta. En este trabajo se utiliz =0.01.
En este mtodo de retropropagacin el entrenamiento es rpido al principio pero luego se
Mecnica Computacional Vol XXV, pp. 2145-2162 (2006) 2151
Copyright 2006 Asociacin Argentina de Mecnica Computacional http://www.amcaonline.org.ar
hace lento en una regin plana de la superficie del error. Para mejorar esta situacin se fijan
inicialmente los coeficientes de peso a valores pequeos y se agrega un segundo trmino de
momento.
) 1 ( ) ( ) ( + = g w g E g w (18)
donde g es el nmero de la iteracin y es el denominado momento. En este trabajo se
utiliz =0.05.
El nmero de iteraciones lmite g
lim
para determinar el mnimo error generalizado en la
seleccin del nmero ptimo de neuronas de la capa oculta es:
NHID NITET g =
lim
(19)
siendo NITET una constante y NHID el nmero de neuronas de la capa intermedia. En este
trabajo se utiliz NITET =5000.
Una vez determinada la arquitectura ptima se procede al entrenamiento de la red. En
primer lugar se divide de la misma forma la muestra en 5 subconjuntos y se utiliza el mismo
algoritmo de retropropagacin del error para actualizar los coeficientes de peso w. Se calcula
el error relativo de entrenamiento y de validacin para cada elemento de la muestra y se
obtiene el mayor de todos.
p
k
p
k
p
k rel
T T Y E / ) ( max max = (20)
En caso que este error mximo no sea inferior a un error lmite de 10% se reordenan los
grupos que se utilizaban para entrenar y para validar, ubicando a las muestras con mayores
errores relativos en el conjunto de entrenamiento y a las que tenan errores menores en el de
validacin. Se vuelven a actualizar los coeficientes de peso w hasta que se cumpla la
condicin del error mximo del 10% o hasta un nmero de ciclos lmite, igual a 50 para este
trabajo.
4 DISEO DE EXPERIMENTOS
Desde que la red aprende de las muestras presentadas a la misma, es necesario generar un
nmero suficiente de muestras de entrenamiento.
Estas muestras deben cubrir todo el espacio de diseo desde el lmite inferior al superior de
cada variable. El problema de seleccionar aleatoriamente las muestras de las variables de
diseo puede ser tratado con la teora de diseo de experimentos, Zhang (2003).
Uno de los mtodos de diseo es el de diseo ptimo basado en una grilla. Se comienza por
escalar las variables a combinar al espacio [0;1] de la siguiente manera:
) (
l
i
u
i
l
i ki
ki
X X
X X
x
= (21)
donde x
ki
es la k-sima muestra de la i-sima variable en el espacio [0;1], X
i
l
es el lmite
inferior de la i-sima variable, X
i
u
es el lmite superior de la i-sima variable, y X
k
i
es la k-
sima muestra de la. i-sima variable en el espacio de diseo.
Para cada variable se define un lmite inferior y un lmite superior de acuerdo al dominio
que se pretenda abarcar con la red neuronal. La distancia entre el lmite inferior y superior se
divide en sectores, por lo que se van generando hipercubos de caras rectangulares en el
O. MOLLER, R.O. FOSCHI, M. RUBINSTEIN, L.M. QUIROZ 2152
Copyright 2006 Asociacin Argentina de Mecnica Computacional http://www.amcaonline.org.ar
espacio normalizado. Adems se define el nmero de muestras en cada hipercubo. En caso de
que alguna variable sea de mayor importancia que otras, se le asigna mayor cantidad de
sectores.
Resulta as un nmero total de combinaciones dado por el nmero de variables, de sectores
por variable y de muestras en cada hipercubo.
Con una secuencia de nmeros aleatorios con distribucin uniforme se generan las
combinaciones de valores de las variables cubriendo los diferentes hipercubos. Este proceso
se repite varias veces, calculndose en cada caso la mnima distancia entre todas las muestras
generadas. Se elige finalmente el caso con distancia mnima mayor, evitando as el
aglutinamiento de muestras.
Por ltimo las variables son escaladas al espacio de diseo. Estas transformaciones de
variables se deben fundamentalmente a que las variables pueden tener distintas dimensiones, y
calcular las distancias en el espacio original puede distorsionar la distribucin de las muestras.
5 APLICACIONES
5.1 Secciones rectangulares de vigas
Para el entrenamiento de las redes se utilizan bases de datos y resultados del anlisis no
lineal cclico momento-curvatura descripto en el punto 2.
Empleando la tcnica de diseo de experimentos, ver punto 4, se generan en total 320
combinaciones de las siguientes variables: base de la seccin b
v
, altura de la seccin h
v
,
tensin caracterstica de rotura por compresin del hormign
c
f , tensin caracterstica de
fluencia del acero
y
f , cuanta de la armadura traccionada
s
, cuanta de armadura
comprimida
s
, y presin de confinamiento normalizada
0
/
c r
f f , ver fig.4.
Figura 4: Secciones rectangulares de vigas
Los lmites de las variables y los sectores considerados para cada una de ellas se indican en
la tabla 1. Se trabaja con un nico tipo de acero de MPa f
y
420 = . Los valores de la
resistencia del hormign son MPa f
c
40 , 35 , 30 , 25 , 20 = , luego para cada tipo de hormign
se generan 64 muestras de las otras variables, colocando 2 muestras en cada hipercubo. De
acuerdo a prescripciones reglamentarias se tiene en cuenta la relacin
s s
5 . 0 .
h
v
b
v
) /(
v v s s
h b A =
) /(
v v s s
h b A =
) (x f
X
s
f
y
f
07 . 0 cov =
s
f
acero
) (x f
X
c
f
c
f
15 . 0 cov =
c
f
hormign
c c
f f = 85 . 0
0
Mecnica Computacional Vol XXV, pp. 2145-2162 (2006) 2153
Copyright 2006 Asociacin Argentina de Mecnica Computacional http://www.amcaonline.org.ar
Descripcin Lmite inferior Lmite superior
Nro. de
sectores
b
v
: ancho seccin
15 cm 30 cm 2
h
v
: altura seccin
30 cm 70 cm 2
c
f : tensin caract. del hormign
20 MPa 40 MPa 1
s
: cuanta traccionada
) 4 ( /
y c
f f
) 6 /( ) 10 (
y c
f f +
2
s
: cuanta comprimida
) 4 ( /
y c
f f
) 6 /( ) 10 (
y c
f f +
2
0
/
c r
f f : confinamiento
0.00 0.15 2
Tabla 1: Datos de las variables
En la tabla 2 se muestran, a modo de ejemplo, algunas de las combinaciones obtenidas.
Comb.N b
v
(mm) h
v
(mm)
c
f (MPa)
s
s
0
/
c r
f f
1 162 500 20 0.00501 0.00644 0.02520
2 213 600 25 0.00743 0.00528 0.01385
3 287 575 25 0.00982 0.00599 0.07707
4 198 416 30 0.01260 0.00842 0.11773
320 267 345 30 0.00804 0.01514 0.03596
Tabla 2: Combinaciones de las variables
Para cada una de las 320 combinaciones (64 x 5 valores de
c
f ) se obtienen 10
subcombinaciones (j) considerando la aleatoriedad de las variables
c
f y
y
f , con distribucin
lognormal y coeficiente de variacin 0.07 para el acero y 0.15 para el hormign.
Cada una de ellas es procesada con anlisis cclico momento-curvatura y los resultados son
rectificados de acuerdo al modelo descripto en 2.2, obtenindose los parmetros R
i
=
j
y
M ,
j
EI ,
j
m
M ,
j
u
,
j
h ,
j
s para la rama positiva y para la rama negativa.
Luego, para N =10, se calculan los valores medios y desvos standard con:
2
1 1
) (
1
1 1
= =
= =
N
k
i
i
k
i
R
N
k
i
k
i R R
N
R
N
R (22)
Los valores medios de los parmetros estn correlacionados con:
) ( ) (
1
1
1
j
j
k
N
k
i
i
k
j
R
i
R
j
R
i
R
j
R
i
R
j
R
i
R
R R R R
N
con
= =
=
(23)
O. MOLLER, R.O. FOSCHI, M. RUBINSTEIN, L.M. QUIROZ 2154
Copyright 2006 Asociacin Argentina de Mecnica Computacional http://www.amcaonline.org.ar
resultando:
+
EI
+
y
M
+
m
M
+
h
+
s
+
u
EI
y
M
m
M
u
+
EI
1 0.967 0.972 0.001 0.016 -0.655 0.919 -0.839 -0.855 0.231 0.041 0.678
+
y
M 1 0.998 0.000 0.015 -0.553 0.845 -0.783 -0.804 0.230 0.052 0.581
+
m
M 1 -0.008 0.015 -0.554 0.861 -0.804 -0.825 0.224 0.057 0.585
+
h 1 0.031 -0.335 0.115 -0.157 -0.126 -0.148 -0.355 0.119
+
s 1 -0.020 0.046 -0.071 -0.067 0.017 -0.031 0.007
+
u
1 -0.687 0.601 0.595 -0.206 0.093 -0.894
EI
1 -0.962 -0.969 0.142 -0.009 0.670
y
M 1 0.998 -0.144 0.045 -0.572
m
M 1 -0.134 0.012 -0.564
h
1 0.012 0.438
s
1 -0.086
u
1
Tabla 3: Coeficientes de correlacin
En la fig.5, como ejemplo, se representa la regresin lineal entre M
y
- h y entre M
y
- M
m
.
Llamando a la pendiente de esta recta, el coeficiente de correlacin en cada caso resulta
i
R
j
R
j
R
i
R
j
R
i
R
= (24)
Figura 5: Correlacin entre
+ +
h M y y
+ +
m y M M
Siguiendo el procedimiento descripto en el punto 3 se entrenaron las redes neuronales que
representan los valores medios y los desvos standard de los parmetros que caracterizan la
relacin momento-curvatura.
Se observ que el error generalizado se estabilizaba para ms de 25 neuronas de la capa
intermedia, eligindose en consecuencia NHID
max
=25. Dentro de ese lmite el nmero
ptimo NHID result entre 20 y 25 neuronas.
My-h
0
200
400
600
800
1000
1200
0.015 0.0175 0.02 0.0225 0.025
My-Mm
0
200
400
600
800
1000
1200
0 500 1000 1500
=0.7147
=0.998
=0.00
=0.00
Mecnica Computacional Vol XXV, pp. 2145-2162 (2006) 2155
Copyright 2006 Asociacin Argentina de Mecnica Computacional http://www.amcaonline.org.ar
En las figs. 6 a 8 se presentan algunas de las redes neuronales entrenadas, mostrndose los
valores de los parmetros calculados con el anlisis no lineal momento-curvatura y los
calculados con la red.
Figura 6: Resultados para
+
y M y
+
y
M
Figura 7: Resultados para
+
u
y
+
u
Se observa una muy buena representacin de los valores de los parmetros con las redes
neuronales, con menor dispersin en los valores medios que en los desvos standard. Esa
dispersin con respecto a los valores obtenidos del anlisis momento-curvatura se puede
cuantificar con el desvo standard del error relativo, que es un coeficiente de variacin
promedio, dado por:
2
1
) (
1
1
=
E
N
k k
k k
E
r
T
T Y
N
(25)
Valor medio de My
0
200
400
600
800
1000
1200
0 200 400 600 800 1000 1200
Con momento-curvatura
C
o
n
r
e
d
n
e
u
r
o
n
a
l
Desvo standard de My
0
20
40
60
80
100
0 20 40 60 80 100
Con momento-curvatura
C
o
n
r
e
d
n
e
u
r
o
n
a
l
Valor medio de
u
0
0.1
0.2
0.3
0.4
0 0.1 0.2 0.3 0.4
Con momento-curvatura
C
o
n
r
e
d
n
e
u
r
o
n
a
l
Desvo standard de
u
0
0.01
0.02
0.03
0.04
0 0.01 0.02 0.03 0.04
Con momento-curvatura
C
o
n
r
e
d
n
e
u
r
o
n
a
l
O. MOLLER, R.O. FOSCHI, M. RUBINSTEIN, L.M. QUIROZ 2156
Copyright 2006 Asociacin Argentina de Mecnica Computacional http://www.amcaonline.org.ar
donde Y
k
es el valor calculado con la red, T
k
es el valor obtenido con momento-curvatura y
N
E
=320 el nmero de casos analizados.
Figura 8: Resultados para
+
h y
+
h
Como se observa en las figs.6 a 8 los resultados Y
k
se distribuyen sin preferencias hacia un
lado y otro de T
k
, de forma tal que puede adoptarse una distribucin normal. Luego el valor
medio y el desvo standard de los parmetros resulta:
) . 1 ( ) . 1 (
N
r i
Y
i
R N
r
i i X X Y R
+ = + = (26)
donde
i
Y
i Y , son el valor medio y desvo standard del parmetro i calculado con la red
neuronal correspondiente,
r
EI
y
M
m
M
u
+
EI
1 0.975 0.958 -0.203 0.054 -0.522 1.000 -0.975 -0.958 -0.203 0.049 0.522
+
y
M 1 0.984 -0.260 0.078 -0.510 0.975 -1.000 -0.984 -0.259 0.074 0.510
+
m
M 1 -0.205 0.129 -0.439 0.958 -0.984 -1.000 -0.205 0.125 0.439
+
h 1 -0.104 0.026 -0.203 0.259 0.205 1.000 -0.114 -0.026
+
s 1 0.343 0.054 -0.078 -0.129 -0.104 0.992 -0.343
+
u
1 -0.522 0.510 0.439 0.026 0.353 -1.000
EI
1 -0.975 -0.958 -0.203 0.049 0.522
y
M 1 0.984 0.259 -0.074 -0.510
m
M 1 0.205 -0.125 -0.439
h 1 -0.114 -0.026
s 1 -0.353
u
1
Tabla 6: Coeficientes de correlacin
En la fig.10, como ejemplo, se representa la regresin lineal entre EI - M
y
y entre
u
- h.
Figura 10: Correlacin entre
+ +
y M EI y
+ +
h
u
Siguiendo el procedimiento descripto en el punto 3 se entrenaron las redes neuronales que
representan los valores medios y los desvos standard de los parmetros que caracterizan la
relacin momento-curvatura.
Al igual que en el caso de vigas, tambin se observ que el error generalizado se
estabilizaba para ms de 25 neuronas de la capa intermedia, eligindose en consecuencia
NHID
max
=25. Dentro de ese lmite el nmero ptimo NHID result entre 20 y 25 neuronas.
En las figs. 11 a 13 se presentan algunas de las redes neuronales entrenadas, mostrndose
EI-My
0
1500
3000
4500
0 300000 600000 900000
u
-h
0
0.1
0.2
0.3
0.4
0.5
0 0.01 0.02 0.03 0.04
=0.2929
=0.026
=0.0048
=0.975
Mecnica Computacional Vol XXV, pp. 2145-2162 (2006) 2159
Copyright 2006 Asociacin Argentina de Mecnica Computacional http://www.amcaonline.org.ar
los valores de los parmetros calculados con el anlisis no lineal momento-curvatura y los
calculados con la red.
Figura 11: Resultados para
+
y M y
+
y
M
Figura 12: Resultados para
+
u
y
+
u
Se observa una muy buena representacin con las redes neuronales de los valores medios
de los parmetros. Para los desvos standard se obtuvo buena concordancia en M
y
y EI,
presentndose mayor dispersin para la curvatura ltima
u
, donde evidentemente algunos
casos no estn bien representados por la red neuronal. De todas maneras esta dispersin con
respecto a los valores obtenidos del anlisis momento-curvatura se considera con el desvo
standard del error relativo dado por la ecuacin (25) y utilizada luego en la ecuacin (26).
Finalmente el valor de cada parmetro Ri se calcula con (27).
Valor medio de My
0
1000
2000
3000
4000
0 1000 2000 3000 4000
Con momento-curvatura
C
o
n
r
e
d
n
e
u
r
o
n
a
l
Desvo standard de My
0
50
100
150
200
250
0 50 100 150 200 250
Con momento-curvatura
C
o
n
r
e
d
n
e
u
r
o
n
a
l
Valor medio de
u
0
0.1
0.2
0.3
0.4
0.5
0 0.1 0.2 0.3 0.4 0.5
Con momento-curvatura
C
o
n
r
e
d
n
e
u
r
o
n
a
l
Desvo standard de
u
0
0.01
0.02
0.03
0.04
0 0.01 0.02 0.03 0.04
Con momento-curvatura
C
o
n
r
e
d
n
e
u
r
o
n
a
l
O. MOLLER, R.O. FOSCHI, M. RUBINSTEIN, L.M. QUIROZ 2160
Copyright 2006 Asociacin Argentina de Mecnica Computacional http://www.amcaonline.org.ar
Figura 13: Resultados para
+
EI y
+
EI
6 CONCLUSIONES
En el anlisis de la confiabilidad estructural es muy conveniente aproximar la respuesta no
lineal del sistema con un sustituto del anlisis completo por elementos finitos. Se describe la
aplicacin de teoras de aprendizaje estadstico y en particular el algoritmo de redes
neuronales.
Esta tcnica permite establecer la relacin funcional no lineal entre la respuesta del
sistema y las variables de entrada (datos) mediante simples operaciones matemticas. Para
ello se optimiza la arquitectura de la red y los valores de ciertos factores de peso a travs de
mtodos iterativos basados en el descenso del gradiente, que minimizan la diferencia entre los
resultados del anlisis no lineal y los obtenidos con la red.
Se aplic a los parmetros que representan la relacin no lineal cclica momento-curvatura
de secciones de hormign armado sismorresistente para vigas y columnas, con amplios lmites
en las variables de dimensiones, cuantas de armadura, confinamiento, caractersticas de los
materiales, y nivel de esfuerzo normal.
Se realiz el anlisis cclico momento-curvatura para 320 combinaciones de las variables,
utilizando para ello tcnicas numricas de diseo de experimentos, con subcombinaciones
para tener en cuenta la aleatoriedad en las propiedades de los materiales. Entonces para cada
combinacin se encontr el valor medio y el desvo standard de los parmetros.
Se entrenaron las redes neuronales para representar el valor medio y desvo standard de
cada parmetro, obtenindose una muy buena aproximacin entre los resultados del anlisis
momento-curvatura y los calculados con la red neuronal. De todas maneras, la dispersin de
los resultados de la red se tiene en cuenta con el desvo standard del error relativo, o
coeficiente de variacin promedio, que luego es considerado en la valoracin del valor medio
y desvo standard de cada parmetro.
Tambin se analiz la correlacin entre los parmetros, calculndose la matriz de
coeficientes de correlacin, necesaria para llevar adelante procesos de simulacin de la
relacin momento-curvatura de secciones de vigas y columnas.
Todos estos resultados tienen aplicacin directa en anlisis de la confiabilidad de planos y
Valor medio de EI
0
150000
300000
450000
600000
750000
900000
0 300000 600000 900000
Con momento-curvatura
C
o
n
r
e
d
n
e
u
r
o
n
a
l
Desvo standard de EI
0
5000
10000
15000
20000
25000
0 5000 10000 15000 20000 25000
Con momento-curvatura
C
o
n
r
e
d
n
e
u
r
o
n
a
l
Mecnica Computacional Vol XXV, pp. 2145-2162 (2006) 2161
Copyright 2006 Asociacin Argentina de Mecnica Computacional http://www.amcaonline.org.ar
sistemas sismorresistentes formados por elementos de barra, donde en cada simulacin los
parmetros de las relaciones momento-curvatura se calculan utilizando estas redes neuronales,
sin prcticamente consumo de tiempo.
REFERENCIAS
FEMA NEHRP Guidelines for the seismic rehabilitation of buildings, Report 273,
Buildings Seismic Safety Council ,1997.
Foschi, R., Li, H., Zhang, J . Reliability and performance-based design: a computational
approach and applications, Structural safety, 24, 205-218, 2002.
Hurtado, J ., Structural Reliability Statistical Learning Perspectives, Lecture Notes in
Applied and Computational Mechanics, Vol.17, Springer Verlag, 2004.
Mander, J .B., Priestley, M.J .N. and Park, R. Seismic design of bridge piers. Research
Report 84-2, Department of Civil Engineering, University of Canterbury, New Zealand,
1984.
Melchers,R.E., Structural Reliability - Analysis and Prediction, J ohn Wiley and Sons, 1987.
Mller, O., Metodologa para evaluacin de la probabilidad de falla de estructuras
sismorresistentes y calibracin de cdigos, Tesis de Doctorado en Ingeniera, Universidad
Nacional de Rosario, 2001.
Mller, O., Foschi, R. Reliability evaluation in seismic design: a response surface
methodology, Earthquake Spectra, 19 (3), 579-603, 2003.
Mller, O., Rubinstein, M. Confiabilidad de sistemas estructurales bajo acciones ssmicas,
Mecnica Computacional, AMCA, Vol. XXIII, 499-514, 2004.
Mller, O., Luchesi,L., Foschi,R.O., Rubinstein, M. Redes neuronales aplicadas a dinmica
de estructuras, Mecnica Computacional, AMCA, Vol. XXIV, 797-812, 2005.
Mller, O., Foschi,R.O., Rubinstein,M., Luchesi,L. Comparacin de mtodos numricos para
aproximar la respuesta estructural en la evaluacin de la confiabilidad de sistemas
estructurales sismorresistentes, Memorias Congreso Chileno de Sismologa e Ingeniera
Antissmica, IX J ornadas, ACHISINA, CD. A10-06, 2005.
SEAOC Vision 2000 Committee, Performance based seismic engineering of buildings.
Structural Engineers Association of California, Sacramento, California, U.S.A., 1995.
Thoft Christensen,P., Baker,M.J ., Structural Reliability - Theory and Applications, Springer
Verlag, 1982.
Zhang, J . Performance-based seismic design using designed experiments and neural
networks, PhD. Thesis, Department of Civil Engineering, University of British Columbia,
Canada, 2003.
Zhang, J ., Foschi, R.O., Performance-based design and seismic reliability analysis using
designed experiment and neural networks, Probabilistic Engineering Mechanics, 19, 259-
267, 2004.
AGRADECIMIENTOS
Este trabajo fue realizado con los aportes de los Proyectos de Investigacin Confiabilidad
de sistemas estructurales bajo solicitaciones dinmicas, 1ING142, de la Universidad
Nacional de Rosario, Argentina, y Natural networks for reliability and performance-based
design in earthquake engineering, Natural Science Engineering Research Council: RGPIN
5882-04, University of British Columbia, Vancouver, Canada.
O. MOLLER, R.O. FOSCHI, M. RUBINSTEIN, L.M. QUIROZ 2162
Copyright 2006 Asociacin Argentina de Mecnica Computacional http://www.amcaonline.org.ar