Sei sulla pagina 1di 3

Series numéricas

1- ¿Qué es una serie numérica?

Una serie numérica es una secuencia de números ordenados, llamados términos, entre los
cuales hay una relación que hay que descubrir, para completar la serie.

Por ejemplo, en la serie 0 - 7 - 14 - 21 existe una relación: el número 7. Esto quiere decir
que para seguir la secuencia, solo debemos sumar el número 7 al último valor presentado,
el 21.

Serie numérica: se trata de una seguidilla de números. Puede entenderse, por lo tanto,
como un conjunto ordenado de números.

Serie divergente
En el ámbito de las matemáticas se denomina serie divergente a una serie infinita que no
es convergente, o sea que la secuencia infinita de las sumas parciales de la serie no tiene
un límite.
Si una serie converge, los términos individuales de la serie deben aproximarse a cero. Así,
una serie en la que los términos individuales no se aproximan a cero, es una serie divergente.
Sin embargo, la convergencia es una condición más fuerte, no todas las series cuyos términos
tienden a cero son convergentes. El contraejemplo más simple es la serie armónica:

Serie convergente
En matemáticas, una serie (suma de los términos de una secuencia de números),
resulta convergente si la sucesión de sumas parciales tiene un límite en el espacio
considerado. De otro modo, constituiría lo que se denomina serie divergente.

Criterios de convergencia[editar]
Series de reales positivos[editar]

 Criterio de d'Alembert (Criterio del cociente o Criterio de la razón): sea una serie
de términos estrictamente positivos; si
,

entonces el Criterio de D'Alembert establece que si

, la serie converge,
, la serie no converge,
el criterio no establece nada respecto a su convergencia.

 Criterio de la raíz: si los términos son estrictamente positivos y si existe una

constante tal que , entonces es convergente.

Definición[editar]
El criterio de D'Alembert se utiliza para clasificar las series numéricas. Podemos enunciarlo de
la siguiente manera:

Sea:

Tal que:

 (o sea una sucesión de términos positivos) y


 tienda a cero cuando tiende a infinito (condición necesaria de convergencia)

Se procede de la siguiente manera:

con tendiendo a infinito.

Así obtenemos y se clasifica de la siguiente manera:

 la serie converge
 la serie diverge
 el criterio no sirve hay que aplicar otro criterio.
Criterio de la raíz
En matemática, el criterio de la raíz o criterio de Cauchy es un método para determinar la
convergencia de una serie usando la cantidad

donde son los términos de la serie. El criterio dice que la serie converge
absolutamente si esta cantidad es menor que la unidad y que diverge si es mayor que la
unidad. Es particularmente útil en relación con las series de potencias.
Sea C el límite de arriba, entonces el criterio de la raíz establece que:

 Si C < 1, entonces la serie converge absolutamente


 Si C > 1, entonces la serie diverge,
 Si C = 1 y de cierto en adelante, entonces la serie diverge.
 En otros caso el criterio no lleva a ninguna conclusión.

Hay algunas series en que C= 1 y la serie converge, por ejemplo, , y hay otros
para los que C= 1 y la serie diverge, por ejemplo,

Potrebbero piacerti anche