Sei sulla pagina 1di 10

Estructura de la clase

1. Consensos (Estricto, Componente combinables & Mayoría)

2. Optimización de caracteres (sinapomorfias) sobre Árboles


Consenso

3. Soporte (Evidencia-Longitud de Ramas / Remuestreo)

- Goodman-Bremer
- Boostrap
- Jackknife

1. Consensos

¿Preguntas? Incapacidade computacional


1- ¿Qué hacemos cuando al analizar una matriz obtenemos
más de un árbol más óptimo? ¿Cómo “ver” todos los árboles?
2- ¿*Cómo evaluamos los resultados obtenidos? ¿Qué hacer cuando encontramos mas de uno?
¿Los resultados que obtuvimos están “fuertemente/
marginalmente” apoyados por los datos?
¿Qué clados están resueltos de manera más “robusta, y cuáles
son más endebles”?

En nuestras búsquedas obtenemos más de un árbol más


óptimo (árboles fundamentales)
1. Consensos 1. Consensos

Consenso Consenso
• Varios métodos En general el árbol consenso de un conjunto de árboles es menos
1. Estricto resolutivo, de mayor longitud que los árboles fundamentales y menos
informativo. Debe destacarse que ningún árbol consenso es la
2. Componentes Combinables
hipótesis filogenética mas idónea para el conjunto de evidencia usada,
3. Mayoría (Majority Rule) sino que debe interpretarse como el grado de acuerdo o desacuerdo
Otros entre varios árboles obtenidos después de una búsqueda.

- Combinan en un solo árbol (consenso) los clados comúnes en los


diferentes árboles más cortos (Árboles Fundamentales)
- La diferencia está en el criterio para combinar

1. Consensos

Árbol Consenso Consenso Estricto


Que hacer cuando encontramos mas de un árbol igualmente • Sokal & Rohlf 1981. Es el método más estricto, más restrictivo. Árbol
parsimonioso (con mismo número de pasos) de consenso irá contener apenas los grupos que aparecen en todos
los árboles fundamentales posibles. Más aceptado y el más utilizado!
Ventajas: Interpretación simple y clara, Conservativo. Desventajas: Muy
A B C D E F A B C D E F conservativo

A C B D E F

a c

b Concepto: Árboles Fundamentales


1. Consensos 1. Consensos

Consenso de Componentes Combinables Ejercicio I


• Incluye todos los componentes que NO entren en conflicto con • Calcule los árboles Consenso Estricto de:
alguno de los árboles más cortos.

1. Consensos 1. Consensos

Ejercicio I Consenso de Mayoría


• El consenso incluye los grupos monofiléticos que aparecen en al
• Calcule los árboles Consenso: Estricto
menos el 50 % de los árboles más cortos (Margush & McMorris 1981).
1. Consensos 1. Consensos

Ejercicio II Ejercicio II
• Calcule los árboles Consenso: Estricto y de Mayoría
• Calcule los árboles Consenso: Estricto y de Mayoría

1. Consensos 1. Consensos

Problemas con los Árboles Consenso Problemas con los Árboles Consenso
• Son un *Resumen de los árboles Fundamentales = más óptimos • Son un *Resumen de los árboles Fundamentales = más óptimos
• En general son una representación Gráfica • En general son una representación Gráfica
• Los consensos implican (en la mayoría de los casos) politomías. Éstas • Los consensos implican (en la mayoría de los casos) politomías. Éstas
indican que distintas relaciones son posibles. indican que distintas relaciones son posibles.
Algunas de las cuales no son necesariamente apoyadas por los datos Algunas de las cuales no son necesariamente apoyadas por los datos
• Es lo mismo un árbol consenso de + 10.000 árboles igualmente
parsimoniosos que una selección de 21 árboles, es decir, ambas
producen el mismo resultado.

2. Optimización de Caracteres Árboles Consenso 2. Optimización de Caracteres Árboles Consenso

Caracteres en los Árboles Consenso Caracteres en los Árboles Consenso


1. Al optimizar este consenso parece que hubiera una sinapomorfía
• Ejemplo Trivial. Supongamos el siguiente caso: Dos resoluciones que no está en ninguno de los árboles fundamentales.
óptimas, cuyo consenso tiene una politomía de cinco terminales
2. En el consenso, este caracter tiene 3 pasos, mientras que en los
árboles fundamentales tiene 1 o 2.
- Los consensos tienen igual o mayor longitud que los árboles
fundamentales (Nixon & Carpenter 1996).

2. Optimización de Caracteres Árboles Consenso 2. Optimización de Caracteres Árboles Consenso

¿Cómo listamos las sinapomorfías en los ¿Cómo listamos las sinapomorfías en los
Árboles Consenso? Árboles Consenso?
1.

Método conservativo (implementado en TNT). Mostrar solamente las


sinapomorfías comunes a todas las resoluciones óptimas (árboles)
1. Generar todas las resoluciones dicotómicas óptimas
2. Para cada rama, para cada resolución, calcular las listas de
sinapomorfías (no ambiguas)
3. Para cada rama del consenso estricto, la intersección de lo
obtenido en (2) contiene las sinapomorfías comunes a todas las
resoluciones.
2. Optimización de Caracteres Árboles Consenso 2. Optimización de Caracteres Árboles Consenso

Sinapomorfías en los Árboles Consenso Sinapomorfías en los Árboles Consenso

Matriz & Comandos


Ambiguos TNT

Supongamos que hubiera 2 árboles óptimos (determinados por el


resto de la matriz):
• a0  x (A (B (C (D E)))) 


• a1  x (A (B (D (C E)))) 


Vamos a calcular la lista de sinapomorfías de cada grupo del consenso:

3. Soporte de Grupos 3. Soporte de Grupos

Medidas de Soporte Medidas de Soporte


¿Los resultados que obtuvimos están “fuertemente / marginalmente” Soporte de grupos. Se trata de evaluar el soporte para cada grupo
apoyados por los datos? (rama) individual.
¿Qué clados están resueltos de manera más “robusta”, y cuáles son más
“endebles”?
Medidas muy usadas, prácticamente obligatorias en muchas revistas.
Recuerde: Ésta información se utiliza para tomar decisiones,
Taxonómicas / nomenclatoriales
 Evidencia / Remuestreo: Las medidas más comunes son Goodman-
Bremer; Bootstrap y Jackknife.
3. Soporte de Grupos 3. Soporte de Grupos

Longitud de las Ramas


Longitud de las Ramas
¿Qué tal como medida de apoyo?
Bremer (1988). Misma rama, distinta longitud
según:
Bremer 1988 No le puso nombre.
 • Resolución (puede haber
“Bremer support” (Källersjö et al. 1992)
 múltiples árboles óptimos)

También conocido como “índice de
decaimiento” (decay index), métrica de
diferencia patrística o Goodman-Bremer
Ramas colapsadas en el consenso (no
(Grant & Kluge 2008)
apoyadas) pueden ser más largas que
ramas con apoyo

3. Soporte de Grupos 3. Soporte de Grupos

Goodman-Bremer Goodman-Bremer
¿Cuanto cuesta NO tener el grupo ABC? Soporte de G-Bremer
Grupos Colapsados en el consenso: BS = 0

Matrices sin homoplasia: BS = Largo de rama

Matrices con homoplasia: BS impredecible, interacciones complejas
Búsqueda del mejor Árbol
donde
ABC NO sea monofilético
Cálculo del soporte de Bremer: Estrategias
• Árboles subóptimos

• Restricciones de no-monofilia (negative constraints). 



L=Largo Óptimo=32 L’ = Largo NO está ABC= 37
BSABC =L’–L =37–32 = 5

El soporte de Bremer de un grupo es el costo adicional que se genera al


contradecirlo. Cuanto más soporte de Bremer, más apoyado está el grupo
3. Soporte de Grupos 3. Soporte de Grupos

Goodman-Bremer Goodman-Bremer
Cálculo del soporte de G-Bremer: Estrategias Cálculo del soporte de G-Bremer: Estrategias
A. Cálculo de BS buscando árboles subóptimos B. Cálculo de BS mediante restricciones de no-monofilia
Matriz original: Calcular largo óptimo y consenso estricto. Matriz original: Calcular largo óptimo (LO)y consenso estricto.
1. Si el grupo X no aparece en el consenso, BSX = 0 1. Si el grupo X no aparece en el consenso, BSX = 0
2. S = 1 2. Para cada grupo Y del consenso, hacer: 

• Retener árboles subóptimos en S pasos
a. Búsqueda del mejor árbol donde Y no sea monofilético. Calcular el
• Calcular el consenso. Si se perdió el grupo Y, BSY = S largo (Lno-Y). BSY = Lno-Y - LO

• Si ya no hay grupos resueltos, FIN 
 b. Volver a (a) hasta terminar con todos los grupos

3. Soporte de Grupos 3. Soporte de Grupos

Goodman-Bremer Medidas de remuestreo


Efron 1979
Es una técnica estadística general para estimar variabilidad en el caso de
Ventajas del Cálculo del Soporte de G-Bremer distribuciones desconocidas
• Los cálculos son heurísticos. Suele ser “difícil” operacionalmente de
calcular los BS, porque hay muchos árboles subóptimos
• Simple, intuitivo, “fácil” de interpretar
• Tiene una relación directa con la optimización del análisis
• Medido en unidades de optimización (pesos iguales: pasos; pesos
implicados: ajuste o distorsión).
3. Soporte de Grupos 3. Soporte de Grupos

Bootstrap Bootstrap
¿Qué pasaría con el grupo ABC si se obtuvieran nuevas muestras de Secuencia de pasos
datos con la misma distribución? Felsenstein 1985 1. Matriz original

a. Matriz remuestreada = Pseudorréplica. Seleccionar caracteres
al azar, con reposición, hasta completar una matriz del mismo
tamaño que la original.
• Analizarla y guardar el consenso estricto. 

Repetir desde (a), n veces.

2. Calcular el consenso de mayoría de los n consensos estrictos obtenidos


en las pseudorréplicas.
B = frecuencia del grupo ABC en las matrices remuestreadas
 Consenso de mayoría: Solamente grupos con F>50%
Los grupos bien apoyados serán robustos ante el remuestreo y tendrán frecuencias Es sencillo medir las frecuencias (p.ej., menores al 50%), sin recurrir al
de Bootstrap altas
 consenso de mayoría.

3. Soporte de Grupos 3. Soporte de Grupos

Bootstrap Bootstrap
Precisión: El grado en que las proporciones de bootstrap obtenidas a partir de una
cantidad limitada de pseudorréplicas se acercan a los valores que se obtendrían
con una cantidad infinita de pseudorréplicas.
*Certeza: El grado en que las proporciones de bootstrap reflejan la probabilidad
de que un grupo esté en la filogenia “verdadera”.

Bootstrap alto en una matriz dada: ¿El grupo será real?
Repetibilidad: El grado en que las proporciones de bootstrap reflejan la
probabilidad de que un grupo aparezca en un análisis a partir de una muestra
independiente de caracteres.
Boostrap alto en una matriz dada: ¿El grupo aparecerá en otras matrices?

Según Hillis y Bull 1993,



Precisión: OK, depende del número de pseudorréplicas

Hillis y Bull 1993, “True” Phylogeny Certeza (Accuracy): OK, conservativo, pero sesgo muy variable (entre ramas, entre
estudios) Repetibilidad: No
3. Soporte de Grupos 3. Soporte de Grupos

Jackknife Jackknife
Similar a bootstrap, pero muestreo sin reposición.
Frecuencias: ¿Probabilidades o de grado de apoyo?
Hay varios modos: Por ejemplo, eliminar de a uno, la mitad, el 36%, etc.

El más usado es el de eliminar con un valor p = 0,368, porque da valores Interpretación probabilística. Las frecuencias se interpretan como
equivalentes a boostrap en el caso de matrices sin conflicto (Farris et al. probabilidades de que los grupos sean “verdaderos”. Asume que la
1996). matriz es representativa del universo de caracteres (o de algún
universo de caracteres).
Secuencia de pasos 1. Matriz original
Esta interpretación es muy criticada (p.ej., Carpenter 1992, Hillis y Bull
a. Matriz remuestreada = Pseudorréplica. Una matriz reducida donde 1993; Sanderson 1995; Goloboff et al. 2003)
cada carácter tiene p = 0,368 de ser eliminado, al azar. La matriz
remuestreada será menor que la original.
b. Analizarla y guardar el consenso estricto.
c. Repetir desde (a), n veces.

2. Calcular el consenso de mayoría de los n consensos estrictos
obtenidos en las pseudorréplicas.

3. Soporte de Grupos

Jackknife Lecturas Sugeridas


Frecuencias: ¿Probabilidades o de grado de apoyo?
Interpretación como grado de soporte. Las frecuencias se interpretan como Bremer 1990 (Soporte Patristico)
el grado en que los datos observados (la matriz de datos) apoyan a cada
grupo. Un estimador de cantidad y proporción de evidencia a favor de la Bremer, K. 1990. Combinable component consensus. Cladistics, 6: 369-372.
monofilia del grupo.
Esta interpretación es menos ambiciosa. Ha sido criticada desde dos puntos Goodman et al.,1982. Goodman, M., Olson, C.B., Beeber, J.E., Czelusniak, J.,1982.
New perspectives in the molecular biological analysis of mammalian phylogeny.
de vista:
 Acta Zoologica Fennica 169, 19–35.

1. Técnico. Bajo ciertas condiciones, los métodos tienen sesgos importantes


Hillis & Bull 1993 (Soporte por remuestreo)

(resumen en Goloboff et al. 2003 y Kopuchian y Ramírez 2009).
 Hillis, DM & JJ Bull. 1993. An empirical test of bootstrapping as a method for
assessing confidence in phylogenetic analysis. Systematic Biology, 42: 182-192.
2. Teórico. No hay una relación directa entre frecuencias de remuestreo y
optimalidad (como sí hay en el soporte de Bremer). Resumen en Grant y Grant & Kluge 2008. Clade support measures and their adequacy. Cladistics 24.
Kluge 2008. 1051-1064.

Potrebbero piacerti anche