Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
MATERIAL ACADÉMICO
ÁREA:
CIENCIA
TECNOLOGÍA Y
AMBIENTE
Grupo A
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011
http://pronafcapunsa.50webs.com/
pronafcapunsa@hotmail.com
pronafcapsecundaria@hotmail.com
RESUMEN
Los seres humanos desarrollan durante toda su vida actividades de investigación como una
acción cotidiana utilizando un conjunto amplio de conocimientos de los que dispone. Pero este
conocimiento debe ser encontrado por medio de un trabajo indagatorio sobre los objetos que
se intenta conocer.
Desde que la especie humana comenzó a crear cultura, es decir, a modificar y remodelar el
ambiente que le rodeaba para sobrevivir y desarrollarse, fue necesario también que
comprendiera la naturaleza y las mutaciones de los objetos que constituían su entorno. Tareas
que hoy resultan sencillas, como edificar una vivienda precaria, domesticar animales o trabajar
la tierra, sólo pudieron ser emprendidas después de cuidadosas observaciones de todo tipo: el
ciclo de los días y las noches, el de las estaciones del año, la reproducción de los animales y
vegetales, el estudio del clima y de las tierras, el conocimiento elemental de las cosas etc.
Todo un proceso de investigación basado en un planteamiento y metodología adecuados.
Objetivo:
Dominan en forma teórica y práctica los conocimientos del área de ciencia, tecnología y
ambiente, aplicados al contexto del ámbito de su escuela y comunidad.
Logro de aprendizaje:
Maneja el sustento teórico y práctico de los componentes temáticos del área curricular de
ciencia tecnología y ambiente en el nivel de secundaria de menores.
APRENDIZAJES ESPERADOS
EL CONOCIMIENTO
ELCONOCIMIENTO
descriptivo, explicativo o ciencia, sobre la realidad,
Uno de los grandes temas
predictivo, parte de los y estos conocimientos
de la filosofía de todos los
hechos y vuelve a ellos, es nuevos van a constituir
tiempos es clarificar en
legal, útil y eficaz, es aportes nuevos aportes
que consiste el acto de
verificable, comunicable para la Ciencia; se puede
conocer, ¿cuál es la
además de claro y preciso. afirmar que parte de los
esencia del
hechos y vuelve a ellos.
conocimiento?, ¿cual es
a) Especializado. Se h) Es legal. Porque busca,
la relación cognoscitiva
prioriza y selecciona un dentro del cambio, las
entre el hombre y las
problema por vez, el constantes de ese cambio
cosas que lo rodean?. A
resultado el conocimiento en la realidad; y, sus
pesar de que es una
obtenido estará explicaciones que se
operación cotidiana no hay
especialmente referido a convierten en leyes
un acuerdo acerca de lo
este problema de una científicas, leyes
que sucede cuando
parte de la realidad. propiamente dichas,
conocemos algo. La
b) Analítico. El problema axiomas o principios; las
definición más sencilla nos
se debe tratar de que usa para orientar la
dice que conocer consiste
descomponer en sus búsqueda de nuevos
en obtener una
partes para analizarlas. conocimientos.
información acerca de un
c) Sintético. Las partes i) Útil y eficaz. Porque, en
objeto. Conocer es
analizadas del problema tanto los datos e
conseguir un dato o una
se deben volver a unir, informaciones sobre la
información sobre algo. El
integrar o recomponer. realidad sean confiables y
conocimiento es esa
d). Metódico. Un válidos, tienen utilidad
información acerca de ése
conocimiento nuevo nos para esa realidad; y,
objeto.
ayuda a encontrar otros. pueden ser empleados,
Los docentes utilizamos, e) Sistemático. Un eficazmente, en ella.
para desarrollar nuestras conocimiento científico es j) Verificable. Es decir que
actividades educativas, un sistemático en tanto el conocimiento científico
conjunto amplio de constituye resultado es comprobable por otros
conocimientos, que han exitoso de un método. investigadores y se puede
sido encontrados por f) Descriptivo, explicativo o demostrar, repitiendo el
medio de un trabajo predictivo. Porque proceso.
indagatorio sobre los constituye respuesta a k) Comunicable. ¿Cómo
objetos, con los cuales alguna pregunta sobre el podríamos demostrar lo
interactuamos y ¿cómo? (descripción); o el que no podemos
pretendemos conocer. ¿por qué? (explicación); o comunicar?
la integración de ¿cómo y i) Claro y preciso. Los
El conocer es un proceso por qué será así en el enunciados
continuo cuyo resultado o futuro? (predicción). Que proposicionales de los
producto es el es aplicable también al conocimientos científicos
conocimiento. pasado. no deben dejar duda sobre
g) Parte de los hechos y lo que enuncia y debe ser
EL CONOCIMIENTO vuelve a ellos. Dado que la categórico hasta donde
CIENTÍFICO investigación científica sea posible.
parte de revisar el
El conocimiento científico conjunto de conocimientos
es Especializado, provisoriamente
analítico, sintético, establecidos y
metódico, sistemático, sistematizados por la
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011
CIENCIA Y TECNOLOGÍA
Investigación científica
INVESTIGACION
TIPOS DE INVESTIGACION
METODO CIENTIFICO
Es el conjunto de estrategias que usan los científicos para desarrollar su función, es decir,
hacer ciencia.
El método científico implica una combinación de inducción y deducción que se
retroalimentan. En la realidad del método suele ser difícil saber dónde ha empezado el
proceso.
Inducción: de información particular que captamos a través de nuestros sentidos hacemos
afirmaciones generales. De que es difícil. Ejemplo: como las esmeraldas que he observado
hasta ahora son verdes infiero que todas las esmeraldas son verdes, como las veces que he
tocado el fuego me he quemado infiero que el fuego es demasiado caliente para tocarlo.
Deducción: tomar un principio general del mundo e inferir que ocurrirá algo particular.
Ejemplo: del principio general de que el fuego está demasiado caliente para tocarlo, infiero
que si lo toco me quemaré.
Todo este proceso tiene que implicar a mucha gente, expertos en su área, que cooperen de
forma independiente para realizar las contrastaciones o pruebas (experimentos u
observaciones) que puedan confirmar progresivamente las hipótesis hasta convertirlas en
teorías científicas o rechazarlas definitivamente. Si alguien obtiene resultados positivos es
necesario saberlo para que otros expertos puedan replicar o duplicar las pruebas o
experimentos durante un tiempo. Otras veces se sugieren pruebas, experimentos o
contrastaciones similares o variantes.
En el caso de que NO hayamos obtenido resultados positivos con nuestra hipótesis,
podemos establecer hipótesis adicionales por las que hayamos fallado siendo verdadera la
hipótesis original. Estas hipótesis adicionales pueden ser fallos en la deducción de
predicciones o en la realización del experimento. En este caso, estas hipótesis adicionales
tendríamos a su vez que contrastarlas (probarlas). Como se puede ver, siempre es el mismo
método científico repetido una y otra vez a diferentes niveles y de diferentes maneras. Todo
el proceso sigue unos pasos ordenados, pero es interactivo. Puede fallar al contrastar
hipótesis, pero esta puede dar nuevos datos e información para refinar la hipótesis o para
replantear el problema de otra manera y repetir el proceso. Como se puede ver, la
interacción implica usar el método científico también en subproblemas que se puedan ir
planteando siendo muy complejo el proceso global.
Todos estos pasos y estrategias dan lugar a un avance progresivo de la ciencia y, a veces, a
saltos bruscos, pero los pasos aproximados siempre son los descritos.
Destacar, una vez más, que no se pretende que las leyes y teorías científicas sean
infalibles. Todo lo contrario. La consecuencia lógica de que las afirmaciones científicas
tengan que ser falsables (Popper) implica que son falibles. Es por eso decimos que las
teorías y las leyes científicas son PROVISIONALES. Aunque haya casos en que nuestro
nivel de duda sea infinitesimal, siempre podemos mejorarlas porque el proceso anterior se
repite una y otra vez: aparecen y se recogen nuevos datos, nuevas observaciones y nuevos
experimentos, nuevas interpretaciones que someten a nuevas pruebas, etc.
Constantemente las antiguas teorías y leyes se superan por otras con más capacidad
explicativa o descriptiva. En realidad, incluso los hechos científicos no son necesariamente
certezas infalibles o absolutas. Los hechos, no implican sólo elementos perceptuales
fácilmente comprobables, sino que con frecuencia tienen también un componente de
interpretación.
Por supuesto, este proceso es general y se concretará de diferentes maneras en las
diversas ciencias y según los problemas concretos que se planteen. Es por esto que
muchos afirman que no hay un método científico, sino muchos métodos científicos.
En realidad, los pasos que se ha descrito anteriormente son una versión ideal del método
científico. En la práctica no se pasa por todos los pasos como si fueran reglas rígidas. El
conocer estos pasos no te convierte en científico. Es necesaria una buena dosis de
creatividad o incluso de arte para concretar todo esto. La intuición, sagacidad, suerte, etc
juegan un papel adicional. Hay historias abundantes de científicos con ideas brillantes en
base a datos insuficientes o poca o ninguna experimentación. F.A.Kekule descubrió la
estructura del benceno mientras soñaba dormido en un autobús. Oto Lewi despertó por la
noche con la solución de la conducción sináptica.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011
Si unimos estos aspectos intuitivos-casuales, con el carácter imaginativo que tienen los
modelos y teorías científico, ¿podríamos decir que la ciencia es una pura construcción
humana...? ¡NO! Las intuiciones afortunadas se dan en gente muy preparada, formada y
que ha profundizado mucho en su área...y la ciencia obtiene su éxito porque somete la
enorme capacidad de imaginación y fantasía del ser humano a los hechos observados, las
pruebas empíricas y las reglas de la razón y la lógica.
Ciertamente la ciencia se basa en la fuerte creencia de que existen unas entidades teóricas
que no se pueden observar directamente; pero sólo se creen tras disponer de una extensa
evidencia desde la cual se infieren.
Aunque la lógica deductiva simple se usa en ciencia, las teorías y leyes que se descubren y
abarcan la globalidad del método científico en un momento dado están basadas en
inferencias estadísticas (explicitas o implícitas), empleando el razonamiento inductivo para
llegar a las interpretaciones más plausibles y probables acerca de lo que observamos en el
laboratorio y la vida diaria. Recuerda que la síntesis del método científico es: (observación-
hipótesis-predicción-verificación-replicación).
En términos generales, los científicos debemos seguir una sistematización para obtener una
deducción válida acerca de algo. Esta sistematización se resume en los pasos del Método
Científico.
Pasos del Método Científico: Esta explicación es una descripción general del método
científico. El procedimiento no tiene qué seguir exactamente un arreglo como el descrito
aquí.
Hipótesis es una declaración que puede ser falsa o verdadera, y que debe ser sometida a
comprobación (experimentación). Cada hipótesis debe ser sometida a una prueba
exhaustiva llamada experimentación. Los resultados de la experimentación determinarán el
carácter final (falso o verdadero) de la hipótesis. Por ejemplo, "Probablemente durante la
fotosíntesis las plantas crean su propio alimento".
TEORÍA- Teoría es una declaración parcial o totalmente verdadera, verificada por medio de
la experimentación o de las evidencias y que sólo es válida para un tiempo y un lugar
dererminados. Por ejemplo, "las plantas con clorofila fabrican su propio alimento durante la
fotosíntesis".
Si la teoría se verificara como verdadera en todo tiempo y lugar, entonces es considerada
como LEY.
LEY- Una teoría está sujeta a cambios, una ley es permanente e immutable. Una ley es
comprobable en cualquier tiempo y espacio en el Cosmos. Sin embargo, una teoría es
verdadera sólo para un lugar y un tiempo dados.
Por ejemplo, la Evolución es una teoría que se perfecciona de acuerdo a nuevos
descubrimientos, mientras que lo relacionado con la Gravitación es una ley, pues ocurre en
todo tiempo y lugar del universo conocido.
Para hacer una apropiada selección de las técnicas y una adecuada preparación de los
instrumentos, debemos tener en cuenta la naturaleza de las variables, las hipótesis
formuladas y los objetivos de la investigación. Las condiciones en que se emplean y la forma
cómo se aplica y responden fundamentalmente al nivel y tipo de investigación que hemos
establecido y, por ende al marco conceptual.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011
Las técnicas de investigación científica son los procedimientos, las vías, que ponen en
relación al investigador con las fuentes de datos relevantes para indagar sobre el objeto de
estudio.
Estos procedimientos científicos, tienen que ser aplicados sistemáticamente; por tanto, lo
que de debemos aquí es planificar cuidadosamente la pertinencia de su elección y las
condiciones y forma en que se emplearan para garantizar la consistencia en los resultados.
e) Las técnicas de análisis de contenido. También llamada técnica documental. Sirven para
analizar, sistemática y objetivamente las comunicaciones producidas. Se aproximan al
objeto de estudio a través de las fuentes primarias y secundarias: archivos de actas,
expedientes, informes, vestigios y restos materiales.
Los Instrumentos son los medios auxiliares o mecanismos para recoger y registrar los datos
obtenidos a través de los métodos y técnicas.
• Indagar sobre el objeto de estudio y registrar los datos en forma fidedigna, sin omitir
información.
• Registrar los datos con rapidez al pre-clasificarlos sobre la base de criterios.
• Lograr mayor uniformidad en el tipo de datos que se van a obtener.
• Tabular los datos, procesarlos y hacer los análisis descriptivos, comparativos e
inferenciales más fácilmente.
Se preparan los instrumentos para organizar y sistematizar el registro de los datos, que
recogemos al emplear las estrategias de selección y muestreo, las técnicas de observación,
entrevista, encuesta, de evaluación y el análisis de contenido o análisis documental.
Los equipos que más suelen utilizarse son las grabadoras de audio, las videos filmadoras y
las cámaras fotográficas.
Notas de campo: son instrumentos en los que se registran lo que dicen y hacen los
individuos estudiados y pueden ser descriptores estrictamente de las interacciones o
actividades y del tipo en el que el investigador hace comentarios e interpretaciones.
Hojas de control o listas de chequeo: contienen ítems precisos que permiten registra la
presencia o ausencia de una característica, fenómeno, hecho, su frecuencia de aparición y
otos datos con sólo el registro de un símbolo.
PROYECTO DE INVESTIGACIÓN
BIBLIOGRAFÍA
http://www.monografias.com/trabajos7/inci/inci.shtml
http://www.lafacu.com/apuntes/educacion/Metodologiadeinvestigacion/default.htm
http://www.oei.org.co/fpciencia/art07.htm
http://www.ucla.edu.ve/dac/compendium/
http://www.cicy.mx/
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011
RESUMEN
Si observamos el mundo donde vivimos observaremos que todo está formado de materia la
que puede cambiar de estado y está distribuida en todo el planeta, a su vez esta se puede
convertir en energía y viceversa como lo indica la ley de la conservación de la materia. La
estructura de la materia dependerá del tipo de moléculas que la conformen así como de sus
características como composición interna, estado físico y su forma de distribución y
organización. Hoy se ha llegado a la conclusión que todo lo que existe en la naturaleza está
formado de materia y energía, también sabemos que la materia está constituida por
partículas subatómicas como protones, neutrones, electrones, mesones, positrones y
antiprotones. La materia se puede clasificar en sustancias y mezclas, luego el conociendo
de la naturaleza de la materia nos permitirá crear materiales artificiales.
Como otro aspecto relacionado a materia y energía tendremos que referirnos a las
magnitudes que, como lo manifestó el Lord Kelvin, un científico inglés, quien decía con
mucha convicción refiriéndose a los fenómenos físicos: "sólo se puede hablar con propiedad
de aquello que se mide". Medir es comparar cantidades de la misma magnitud. Por ejemplo
cuando medimos una longitud comparamos la distancia desconocida con otra que ya
conocemos, y que ha surgido de una cantidad convenida de longitud denominada patrón. Un
patrón se adopta por convención, esto significa que un grupo de personas con
conocimientos y experiencia resuelve acordar que: una cierta cantidad a la que llamamos
patrón y cuyo nombre (por ejemplo el "metro") origina la unidad de referencia, será con
quien deberá ser comparada cualquier otra porción de magnitud que queramos cuantificar.
Objetivo:
Domina en forma teórica y práctica los conocimientos de ciencia, tecnología y ambiente
aplicados al contexto del ámbito de su escuela y comunidad.
Logro de aprendizaje:
Maneja el sustento teórico y práctico de los componentes temáticos del área curricular de
ciencia tecnología y ambiente en el nivel de secundaria de menores.
APRENDIZAJES ESPERADOS
LA MATERIA
La materia es aquello de lo que están hechos los objetos que constituyen el Universo
observable. En el contexto de la física moderna se entiende por materia cualquier campo,
entidad o discontinuidad que se propaga a través del espacio-tiempo a una velocidad inferior
a la de la luz y a la que se pueda asociar energía. Así todas las formas de materia tienen
asociadas una cierta energía pero sólo algunas formas de materia tienen masa. Una
definición moderna dice que la materia es energía sumamente condensada.
Existe una materia llamada másica y se organiza jerárquicamente en varios niveles. El nivel
más complejo es la agrupación en moléculas y éstas a su vez son agrupaciones de átomos.
Los constituyentes de los átomos, que sería el siguiente nivel son las partículas
subatómicas.A partir de aquí hay todo un conjunto de partículas subatómicas que acaban
finalmente en los constituyentes últimos de la materia como los quarks.
Otra forma de materia es la no másica así Una gran parte de la energía del universo
corresponde a formas de materia formada por partículas o campos que no presentan masa,
como la luz y la radiación electromagnética, las dos formadas por fotones sin masa.
Otro tipo de partículas de las que no sabemos con seguridad si es másica son los neutrinos
que inundan todo el universo y son responsables de una parte importante de toda la energía
del universo. Junto con estas partículas no másicas, se postula la existencia de otras
partículas como el gravitón, el fotino y el gravitino, que serían todas ellas partículas sin masa
aunque contribuyen a la energía total del universo.
CLASIFICACIÓN DE LA MATERIA
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011
SUSTANCIAS MEZCLAS
Sustancia pura: Es una materia cuya Es la unión de dos o más sustancias simples o
composición química es invariable y compuestas en cantidades variables, que
poseen propiedades idénticas en conservan sus propiedades pudiendo separarse
cualquiera de sus partes estando por medios físicos.
constituidas por una sola especie química
ya sea un solo elemento o compuesto.
Elemento: Sustancia conformada por una Mezclas Homogéneas: Constituido por una sola
sola clase de átomos que tienen el mismo sustancia o por varias que se encuentran en una
número atómico y no se puede separar en sola fase. Hay una disgregación total de sus
sustancias más simples. EJEMPLO: componentes. También se les llama
nitrógeno, plata. SOLUCIONES. Ejemplo: Mezcla de sal y agua.
La IUPAC reconoce a la fecha 111 Solución: Es un material homogéneo constituido
elementos químicos de los cuales 92 son por más de una sustancia. Son transparentes,
naturales y a partir del E.Q. 84 son estables y no producen precipitaciones. Una
radiactivos. característica muy importante es la composición, la
Los elementos se representan por cual es igual en todas sus partes. Sin embargo,
símbolos, ejemplo: N, Ag. con los mismos componentes es posible preparar
muchas otras soluciones con solo variar la
proporción de aquellos. EJEMPLO: las gaseosas.
Compuestos: Sustancia conformada por Mezclas Heterogéneas: Es una mezcla de
varias clases de átomos unidos por un sustancias en más de una fase o que son
enlace químico y en proporciones físicamente distinguibles. La disgregación no es
definidas. total y se puede ver las diferentes sustancias de
Los compuestos se representan mediante las que está compuesta. Ejemplo: Mezcla de agua
fórmulas químicas. EJEMPLO: dióxido de y aceite.
carbono (CO2)
Propiedades de la materia
De acuerdo con la teoría cinética molecular la materia se encuentra formada por moléculas y
éstas se encuentran animadas de movimiento, el cual cambia constantemente de dirección y
velocidad cuando chocan o bajo el influjo de otras interacciones físicas. Debido a este
movimiento presentan energía cinética que tiende a separarlas, pero también tienen una
energía potencial que tiende a juntarlas. Por lo tanto el estado físico de una sustancia puede
ser:
• Sólido: si la energía cinética es menor que la potencial.
• Líquido: si la energía cinética y potencial son aproximadamente iguales.
• Gaseoso: si la energía cinética es mayor que la potencial.
• Plasma: si la energía cinética es tal que los electrones tienen una energía total positiva.
Los sólidos se forman cuando fuerzas de atracción entre moléculas individuales son
mayores que la energía que causa que se separen. Las moléculas individuales se encierran
en su posición y se quedan en su lugar sin poder moverse. Aunque los átomos y moléculas
de los sólidos se mantienen en movimiento, el movimiento se limita a una energía
vibracional y las moléculas individuales se mantienen fijas en su lugar y vibran unas al lado
de otras. A medida que la temperatura de un sólido aumenta, la cantidad de vibración
aumenta, pero el sólido mantiene su forma y volumen ya que las moléculas están
encerradas en su lugar y no interactúan entre sí. Para ver un ejemplo de esto, pulsar en la
siguiente animación que muestra la estructura molecular de los cristales de hielo.
Los gases se forman cuando la energía de un sistema excede todas las fuerzas de
atracción entre moléculas. Así, las moléculas de gas interactúan poco, ocasionalmente
chocándose. En el estado gaseoso, las moléculas se mueven rápidamente y son libres de
circular en cualquier dirección, extendiéndose en largas distancias. A medida que la
temperatura aumenta, la cantidad de movimiento de las moléculas individuales aumenta.
Los gases se expanden para llenar sus contenedores y tienen una densidad baja. Debido a
que las moléculas individuales están ampliamente separadas y pueden circular libremente
en el estado gaseoso, los gases pueden ser fácilmente comprimidos y pueden tener una
forma indefinida.
Los plasmas son gases calientes e ionizados. Los plasmas se forman bajo condiciones de
extremadamente alta energía, tan alta, en realidad, que las moléculas se separan
violentamente y sólo existen átomos sueltos. Más sorprendente aún, los plasmas tienen
tanta energía que los electrones exteriores son violentamente separados de los átomos
individuales, formando así un gas de iones altamente cargados y energéticos. Debido a que
los átomos en los plasma existen como iones cargados, los plasmas se comportan de
manera diferente que los gases y forman el cuarto estado de la materia. Los plasmas
pueden ser percibidos simplemente al mirar para arriba; las condiciones de alta energía que
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011
existen en las estrellas, tales como el sol, empujan a los átomos individuales al estado de
plasma.
En 1920, S. N. Bose (físico hindú) desarrolló una estadística mediante la cual se estudiaba
cuándo dos fotones debían ser considerados como iguales o diferentes. A efectos de lograr
su apoyo ante la Comunidad científica, le envió sus investigaciones a A. Einstein, quien,
además de apoyarle, aplicó lo desarrollado por Bose a los átomos.
En 1995, un equipo dirigido por los físicos estadounidenses Eric Cornell y Carl Wieman
atrapan una nube de 2 mil átomos metálicos congelados a menos de una millonésima de
grado sobre el cero absoluto, produciendo el condensado de Bose-Einstein o "burbuja
mecánica cuántica".
No todos los átomos siguen las reglas de la estadística de Bose-Einstein. Sin embargo, los
que lo hacen, a muy bajas temperaturas, se encuentran todos en el mismo nivel de energía
Los científicos enfrían unas partículas llamadas bosones hasta alcanzar temperaturas muy
bajas.
Los bosones fríos se unen para formar una única súper-partícula que es más parecida a una
onda que a un ordinario trocito de materia. Los BECs son frágiles, y la luz viaja muy
lentamente a través de ellos.
Este logro permite la construcción del láser atómico en 1997 y el desarrollo de la medición
de alta precisión y la nanotecnología.
Este condensado fue producido por primera vez a fines de 2003. La experiencia, financiada
por la NASA, estuvo a cargo de un grupo de científicos encabezados por la doctora
Deborah Jin, de la Universidad de Colorado.
Para crearlo, los científicos enfriaron gas de potasio hasta una millonésima de grado por
encima del cero absoluto, que es la temperatura en la que la materia para de moverse.
La diferencia de esta nueva clase de materia con los condensados Bose Einstein radica en
que la primera está formada por fermiones y la segunda, por bosones.
Los bosones son átomos cuyos electrones, protones y neutrones se encuentran en pares
mientras que los fermiones los poseen en número impar.
Los investigadores confinaron el gas en una cámara al vacío y utilizaron campos magnéticos
y luz láser para manipular los átomos de potasio. El campo hace que los átomos solitarios
se emparejen y su unión pueda ser controlada ajustando el campo magnético.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011
Cada par puede unirse a otro par, y al seguir la cadena, formar el condensado fermiónico.
Este gas súper congelado es considerado como el paso inmediato anterior para lograr un
superconductor (que permitiría conducir electricidad sin perder parte de la energía, como
sucede con los conductores tradicionales).
Con los superconductores basados en esta nueva materia, será posible fabricar trenes
levitados magnéticamente, computadoras ultra-rápidas y el abaratamiento de la electricidad.
ESTRUCTURA DE LA MATERIA
Antes de 1800, se pensaba que la materia era continua, es decir que podía ser dividida en
infinitas partes más pequeñas sin cambiar la naturaleza del elemento. Sin embargo,
alrededor de 1803 ganó aceptación la teoría de un científico inglés llamado Jhon Dalton. La
naturaleza de la materia y la forma en que los elementos se combinaban, sugería la
existencia de un límite a lo que un elemento podía subdividirse. Ahora sabemos que la
materia se puede dividir en trozos cada vez más pequeños, y finalmente se encuentra una
unidad básica que no puede ser dividida sin cambiar la naturaleza del elemento. Esta unidad
básica se llama Átomo. Un átomo es la partícula más pequeña que puede existir de un
elemento conservando las propiedades de dicho elemento.
Átomo Molécula
Es la unidad de sustancia química y es la Es la partícula más pequeña de un
porción más pequeña de materia que compuesto o elemento que tiene
tiene todas las propiedades que identifican existencia estable o independiente. Es la
a un elemento químico y están unidad estructural de las sustancias,
representa como están unidos los átomos
constituidos por un núcleo donde se para formar las sustancias, ya sean
encuentran los neutrones y protones y elementos o compuestos. Ejemplo: H2.,
reúne la carga positiva y la nube CI2.
electrónica constituida por los electrones En términos estrictos sólo existen
que son de carga negativa. El átomo en moléculas para los elementos o
su conjunto es de carga neutra. compuestos unidos covalentemente como
Cl2, H2O, CH4, etc., más no para las
formas iónicas como NaCI, KI, etc.
El Protón:
Partícula nuclear con carga positiva igual en magnitud a la carga negativa del electrón;
junto con el neutrón, está presente en todos los núcleos atómicos. Al protón y al
neutrón se les denomina también nucleones. El núcleo del átomo de hidrógeno está
formado por un único protón. La masa de un protón es de 1,6726 × 10-27 Kg.,
aproximadamente 1.836 veces la del electrón. Por tanto, la masa de un átomo está
concentrada casi exclusivamente en su núcleo. El protón tiene un momento angular
intrínseco, o espín, y por tanto un momento magnético. Por otra parte, el protón
cumple el principio de exclusión.
El Neutrón:
El Neutrón es una partícula eléctricamente neutra, de masa 1.838,4 veces mayor que
la del electrón y 1,00014 veces la del protón; juntamente con los protones, los
neutrones son los constitutivos fundamentales del núcleo atómico y se les considera
como dos formas de una misma partícula: el nucleón.
La existencia de los neutrones fue descubierta en 1932 por Chadwick; estudiando la
radiación emitida por el berilio bombardeado con partículas, demostró que estaba
formada por partículas neutras de gran poder de penetración, las cuales tenían una
masa algo superior a la del protón.
Mesones:
Descubiertos por Anderson siendo su presencia premeditada por Yukawa. Tiene igual
carga que el electrón pero su masa es 200 veces mayor con un tiempo de vida media
de 200 millonésimas de segundo. El mesón muestra gran afinidad con protones y
neutrones trasladándose constantemente de una partícula a otra cambiando su carga
y evitando la repulsión de protones.
Modelos atómicos
Núcleo atómico:
Parte central del átomo que almacena la masa del átomo, se encuentran principalmente
protones y neutrones. Las propiedades que dependen del núcleo son:
• Número atómico: Z= p+ y e- • Número másico: A= p+ + nº
• Isótopos: = Z y ≠ A • Isóbaros: ≠ Z e = A
• Isótonos:= Número de nº • Radiactividad
Corona o envoltura:
Por ejemplo cuando medimos una longitud comparamos la distancia desconocida con otra
que ya conocemos, y que ha surgido de una cantidad convenida de longitud denominada
patrón. Un patrón se adopta por convención, esto significa que un grupo de personas con
conocimientos y experiencia resuelve acordar que: una cierta cantidad a la que llamamos
patrón y cuyo nombre (por ejemplo el "metro") origina la unidad de referencia, será con
quien deberá ser comparada cualquier otra porción de magnitud que queramos cuantificar.
En el caso de la longitud, el patrón es una cantidad que todos conocemos denominada
metro.
• Magnitudes vectoriales, son magnitudes que cuentan con: cantidad, dirección y sentido
como, por ejemplo, la velocidad, la fuerza, la aceleración, etc. Además, al considerar otro
sistema de coordenadas asociado a un observador con diferente estado de movimiento
o de orientación, las magnitudes vectoriales no presentan invariancia de cada una de las
componentes del vector y, por tanto, para relacionar las medidas de diferentes
observadores se necesitan relaciones de transformación vectorial. En mecánica clásica
también el campo electrostático se considera un vector; sin embargo, de acuerdo con la
teoría de la relatividad esta magnitud, al igual que el campo magnético, debe ser tratada
como parte de una magnitud tensorial.
• Longitud: metro (m). El metro es la distancia recorrida por la luz en el vacío en 1/299
792 458 segundos. Este patrón fue establecido en año de 1983.
• Tiempo: segundo (s). El segundo es la duración de 9 192 631 770 períodos de la
radiación correspondiente a la transición entre los dos niveles hiperfinos del estado
fundamental del cesio-133. Este patrón fue establecido en el año de 1967.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011
Múltiplos y submúltiplos
Múltiplos Es frecuente que las unidades del S.I. resulten unas veces
excesivamente grandes para medir determinadas
Prefijos Símbolo Equivalencia
magnitudes y otras , por el contrario , demasiado
exa E 1018 pequeñas . De ahí la necesidad de los múltiplos y los
peta P 1015 submúltiplos.
tera T 1012
giga G 109 La Notación Científica es la forma de agrupar cifras
medibles utilizando las siguientes reglas:
mega M 106 • El número que procede al punto decimal debe ser de
Kilo K 103 un solo digito y que se encuentre entre 1 y 9.
hecto h 102 • Los números posteriores al punto decimal deben ser de
deca da 10 dos dígitos entre 00 y 99.
• Se deben utilizar para notaciones científicas las
Submúltiplos
magnitudes fundamentales o las que corresponden al
deci d 10-1 sistema internacional de medidas.
centi c 10-2
mili m 10-3 ¿Que es la Notación Científica?
micro µ 10-6 En la ciencia, es común trabajar con números muy grandes
y muy pequeños. Por ejemplo, el diámetro de una glóbulo
nano n 10-9 rojo es 0.0065 cm, la distancia de la tierra al sol es
pico p 10-12 150,000,000 Km, y el número de moléculas en 1 g de agua
femto f 10-15 es 33,400,000,000,000,000,000,000. Es engorroso trabajar
atto A 10-18 con números tan largos, así que medidas como estas son
generalmente escritas usando la abreviación llamada la
notación científica.
Cada cero en los números de arriba representa un múltiplo de 10. Por ejemplo, el número
100 representa 2 múltiplos de 10 (10.x 10 = 100. En la notación científica, 100 puede ser
escrito como 1 por 2 múltiplos de 10:
La notación científica es una manera simple de representar los números grandes ya que el
exponente sobre el 10 (2 en el ejemplo de arriba) le dice cuántos lugares hay que mover el
decimal del coeficiente (el 1 en el ejemplo de arriba) para obtener el número original. En
nuestro ejemplo, el exponente 2 nos dice que hay que mover el decimal a la derecha dos
lugares para generar el número original.
La notación científica puede aún ser usada hasta cuando el coeficiente es otro número que
el 1. Por ejemplo:
Esta abreviación también puede ser usada con números muy pequeños. Cuando la notación
científica se usa con números menores a uno, el exponente sobre el 10 es negativo, y el
decimal se mueve hacia la izquierda, en vez de hacia la derecha. Por ejemplo:
-3
Por consiguiente, usando la notación científica, el diámetro de un glóbulo rojo es 6.5.x 10
cm, la distancia de la tierra al sol es 1.5 x 108km y el número de moléculas en 1 g de agua
es 3.34 x 1022.
BIBLIOGRAFÍA
Whitten K./ Gailey K./ Davis R.; Química General; 3 ra Ed.; Mc Graw-Hill; México; 1992
Molone L.; Introducción a La Química; 3 ra Ed.; Editorial Limusa; México; 1992
BOLÍVAR, R. y OTROS (1986) Investiguemos 8, Introducción a la Ciencias. Ed., Voluntad,
Bogotá, Colombia.
CÁRDENAS, F. A., y OTRAS (1996). Ciencia Interactiva 6, 7. McGraw-Hill, Editorial Rocío
Cárdenas R. Santafé de Bogotá.
CARRASCOSA, J. Unidades Didácticas elaboradas sobre propiedades de la materia.
GANERO, S. (1997). Los materiales en la vida cotidiana: Sus propiedades y usos.
Forciencias.
MONCAYO GUIDO, A., TALERO y OTROS (1980). Ciencia en acción 1, 2, 3 Editorial
McGraw-Hill, Latinoamérica, S.A. Bogotá, Colombia
PARGA L., D. (1997).Cosmo 8. Ciencia Integrada. Educ. Básica. Editorial Voluntad, S.A.
WALTON, E. Q. DE (1997).La Ciencia Nos Ayuda I. Editorial M. Fernández. Madrid, España.
ENLACES WEB
ABSTRACT
La Ecología es la rama de la Biología que se encarga del estudio de la relación entre los
seres vivos y su medio ambiente o de la distribución y abundancia de los seres vivos, y
cómo esas propiedades son afectadas por la interacción entre los organismos y su medio
ambiente. El medio ambiente incluye las propiedades físicas que pueden ser descritas como
la suma de factores abióticos locales, como el clima y la geología, y los demás organismos
que comparten ese hábitat (factores bióticos), en los que se incluye la biodiversidad que a
su vez comprende la variedad de ecosistemas y las diferencias genéticas dentro de cada
especie que permiten la combinación de múltiples formas de vida, y cuyas mutuas
interacciones y con el resto del entorno, fundamentan el sustento de la vida sobre el planeta.
Una molécula necesaria para la vida de un organismo, se llama nutrimento. Los organismos
vivos necesitan de 30 a 40 elementos químicos, donde el número y tipos de estos elementos
varía en cada especie. Los elementos requeridos por los organismos en grandes cantidades
se denominan Macronutrientes y Micronutrientes, que son proporcionados como resultado
de los ciclos biogeoquímicos.
La biotecnología ha sido una herramienta importante en el desarrollo científico de nuestros
tiempos. En el último cuarto del siglo XX, el estudio de los mecanismos de funcionamiento
de la célula, en las áreas de microbiología, fisiología celular y bioquímica se consolidaron
aceleradamente gracias al progreso de una nueva disciplina: la biología molecular. La
explotación del potencial industrial del cultivo de células alcanza un nivel imprevisto cuando
las herramientas de la biología molecular se incorporan a los procesos biotecnológicos.
Surge así la biotecnología moderna, cuyo ámbito de aplicación se ha extendido rápidamente
a células de seres de todo tipo, incluyendo las de organismos pluricelulares como las
plantas, los animales y el ser humano mismo. Finalmente llegamos al estudio del genoma
humano que nos permite analizar y reflexionar sobre la importancia que tiene éste sobre la
humanidad.
Objetivo:
Domina en forma teórica y práctica los conocimientos de ciencia, tecnología y ambiente
aplicados al contexto del ámbito de su escuela y comunidad.
Logro de aprendizaje:
Maneja el sustento teórico y práctico de los componentes temáticos del área curricular de
ciencia tecnología y ambiente en el nivel de secundaria de menores.
APRENDIZAJES ESPERADOS
ECOLOGÍA
Históricamente el término Ökologie fue introducido en 1866 por el prusiano Ernst Haeckel en
su trabajo Morfología General del Organismo; está compuesto por las palabras griegas oikos
(casa, vivienda, hogar) y logos (estudio), por ello Ecología significa "el estudio de los
hogares".
En un principio, Haeckel entendía por ecología a la ciencia que estudia las relaciones de los
seres vivos con su ambiente, pero más tarde amplió esta definición al estudio de las
características del medio, que también incluye el transporte de materia y energía y su
transformación por las comunidades biológicas.
Según el biólogo alemán Ernst Haeckel entendemos por ecología al conjunto de
conocimientos referentes a la economía de la naturaleza, la investigación de todas las
relaciones del animal tanto con su medio
inorgánico como orgánico, incluyendo sobre
todo su relación amistosa y hostil con aquellos
animales y plantas con los que se relaciona
directa o indirectamente.
La Ecología es una rama de la biología que
estudia la relación entre los seres vivos y su
ambiente o de la distribución y abundancia de
los seres vivos, y cómo esas propiedades son
afectadas por la interacción entre los
organismos y su ambiente. El ambiente
incluye las propiedades físicas que pueden
ser descritas como la suma de factores abióticos locales, como el clima y la geología, y los
demás organismos que comparten ese hábitat (factores bióticos). En una palabra la ecología
es el estudio de todas las complejas interrelaciones a las que Darwin se refería como las
condiciones de la lucha por la existencia.
La ecología se ocupa de las interrelaciones que existen entre los organismos vivos,
vegetales o animales, y sus ambientes, y éstos se estudian con la idea de descubrir los
principios que regulan estas relaciones. Su campo de investigación abarca todos los
aspectos vitales de las plantas y animales que están bajo observación, su posición
sistemática, sus reacciones frente al ambiente y entre sí y la naturaleza física y química de
su entorno inanimado.
Los ecólogos tienen básicamente dos métodos de estudio:
Autoecología, el estudio de especies individuales en sus múltiples relaciones con el
ambiente; y
Sinecología, el estudio de comunidades, es decir ambientes individuales y las
relaciones entre las especies que viven allí.
La ecología como la rama de la Biología que estudia los seres vivos, su medio y las
relaciones que establecen entre ellos a nivel de las poblaciones, comunidades,
ecosistemas y la biosfera.
Dado que se focaliza en los más altos niveles de organización de la vida en la Tierra y en la
interacción entre los individuos y su ambiente, la ecología es una ciencia multidisciplinaria
que utiliza herramientas de otras ramas de la ciencia, especialmente Geología,
Meteorología, Geografía, Física, Química y Matemática.
Los trabajos de investigación en esta disciplina se diferencian con respecto de la mayoría de
los trabajos en las demás ramas de la Biología por su mayor uso de herramientas
matemáticas, como la estadística y los modelos matemáticos.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011
FACTORES ABIÓTICOS
FACTORES ABIÓTICOS
Un ecosistema siempre involucra a más de una especie vegetal que interactúa con factores
abióticos. Invariablemente la comunidad vegetal está compuesta por un número de especies
que pueden competir unas con otras, pero que también pueden ser de ayuda mutua.
Pero también existen otros organismos en la comunidad vegetal: animales, hongos,
bacterias y otros microorganismos. Así que cada especie no solamente interactúa con los
factores abióticos sino que está constantemente interactuando igualmente con otras
especies para conseguir alimento, cobijo u otros beneficios mientras que compite con otras
(e incluso pueden ser comidas). Todas las interacciones con otras especies se clasifican
como factores bióticos; algunos factores bióticos son positivos, otros son negativos y
algunos son neutros.
ECOSISTEMA
Hacia 1950 los ecólogos elaboraron la noción científica de ecosistema, definiéndolo como la
unidad de estudio de la ecología. De acuerdo con tal definición, el ecosistema es una unidad
delimitada espacial y temporalmente, integrada por un lado, por los organismos vivos y el
medio en que éstos se desarrollan, y por otro, por las interacciones de los organismos entre
sí y con el medio. En otras palabras, el ecosistema es una unidad formada por factores
bióticos (o integrantes vivos como los vegetales y los animales) y abióticos (componentes
que carecen de vida, como por ejemplo los minerales y el agua), en la que existen
interacciones vitales, fluye la energía y circula la materia.
Un ejemplo de ecosistema en el que pueden verse claramente los elementos comprendidos
en la definición es la selva tropical. Allí coinciden millares de especies vegetales, animales y
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011
LA CADENA ALIMENTICIA
otra vez por los productores, y reciclado en la producción de materia orgánica. De esa forma
se reanuda el ciclo cerrado de la materia, estrechamente vinculado con el flujo de energía.
Esta organización de los ecosistemas es válida tanto para los ambientes terrestres como
para los acuáticos. En ambos se encuentran productores y consumidores. Sin embargo, los
ecosistemas terrestres poseen mayor diversidad biológica que los acuáticos. Precisamente
por esa riqueza biológica, y por su mayor variabilidad, los ecosistemas terrestres ofrecen
más cantidad de hábitats distintos y más nichos.
SUCESIÓN ECOLÓGICA
MEDIO AMBIENTE
CICLOS BIOGEOQUIMICOS
Una molécula y/o elemento necesaria Los elementos requeridos por los
para la vida de un organismo, se llama organismos en grandes cantidades se
nutriente. Los organismos vivos necesitan denominan
de 30 a 40 elementos químicos, donde el 1. Macronutrientes: carbono, oxígeno,
número y tipos de estos elementos varía hidrógeno, nitrógeno, fósforo, azufre,
en cada especie. calcio, magnesio y potasio. Estos
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011
Este ciclo es de vital importancia para los seres vivos por permitir la realización del
metabolismo y ayudar a movilizar los nutrientes dentro y fuera de los ecosistemas.
de sus hojas u otras partes, para
La energía solar y la gravedad convierten evaporarse luego en la atmósfera),
continuamente al agua de un estado físico precipitación (rocío, lluvia, agua, nieve,
a otro, y la desplaza entre el océano, el granizo) y escurrimiento de regreso al mar
aire, la tierra y los organismos vivos. Los para empezar el nuevo ciclo.
procesos principales en este reciclamiento Importancia: Como gran disolvente, el
y ciclo purificado del agua son la agua, cumple un rol fundamental en los
evaporación (conversión de agua en vapor procesos metabólicos. Recuerda, las
acuoso), condensación (conversión del reacciones químicas en los organismos
vapor de agua en gotículas de agua requieren un medio acuoso, que disuelva y
liquida), transpiración (proceso en el cual active muchos compuestos; estos no se
la absorbida por los sistemas de raíces de podrían llevar a cabo en medios secos.
las plantas y pasa a través de los estomas “No hay vida sino hay agua”.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011
Fuera de la materia orgánica, el carbono que mueren las plantas y los animales o
se encuentra en forma de bióxido de sus partes (por ejemplo, las hojas). Las
carbono (CO2) y en las rocas bacterias y los hongos desempeñan el
carbonatadas (calizas, coral). Los papel vital de liberar el carbono de los
organismos autótrofos -especialmente las cadáveres o de los fragmentos que ya no
plantas verdes- toman el bióxido de podrán utilizarse como alimento para otros
carbono y lo reducen a compuestos niveles tróficos. Mediante el metabolismo
orgánicos: carbohidratos, proteínas, de los animales y de las plantas se libera
lípidos y otros. Los productores terrestres el bióxido de carbono y el ciclo del
obtienen el bióxido de carbono de la carbono puede volver a comenzar.
atmósfera y los productores acuáticos lo
utilizan disuelto en el agua (en forma de
bicarbonato, HCO3-). Las redes
alimentarias dependen del carbono, no
solamente en lo que se refiere a su
estructura sino también a su energía.
El fósforo, al igual que el nitrógeno y el azufre, participa en un ciclo interno, como también
en un ciclo global, geológico. En el ciclo menor, la materia orgánica que contiene fósforo
(por ejemplo: restos de vegetales, excrementos animales) es descompuesta y el fósforo
queda disponible para ser absorbido por las raíces de la planta, en donde se unirá a
compuestos orgánicos. Después de atravesar las cadenas alimentarias, vuelve otra vez a
los descomponedores, con lo cual se cierra el ciclo. Hay algunos vacíos entre el ciclo interno
y el ciclo externo. El agua lava el fósforo no solamente de las rocas que contienen fosfato
sino también del suelo. Parte de este fósforo es interceptado por los organismos acuáticos,
pero finalmente sale hacia el mar.
El ciclaje global del fósforo difiere con respecto de los del carbón, del nitrógeno y del azufre
en un aspecto principal. El fósforo no forma compuestos volátiles que le permitan pasar de
los océanos a la atmósfera y desde allí retornar a tierra firme. Una vez en el mar, solo
existen dos mecanismos para el reciclaje del fósforo desde el océano hacia los ecosistemas
terrestres. El uno es mediante las aves marinas que recogen el fósforo que pasa a través de
las cadenas alimentarias marinas y que pueden devolverlo a la tierra firme en sus
excrementos. Además de la actividad de estos animales, hay la posibilidad del
levantamiento geológico lento de los sedimentos del océano para formar tierra firme, un
proceso medido en millones de años.
El hombre moviliza el ciclaje del fósforo cuando explota rocas que contienen fosfato.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011
BIOTECNOLOGÍA
Otras definiciones son: "la utilización de organismos vivos, o partes de los mismos, para
obtener o modificar productos, mejorar plantas o animales o desarrollar microorganismos
para objetivos específicos".
Fuente: Sociedad Española de Biotecnología.
HISTORIA DE LA BIOTECNOLOGÍA
Lo que hoy se conoce como ingeniería genética o ADN recombinante, parte del hallazgo en
1970 por Hamilton Smith y Daniel Nathans de la enzima (restrictasa) capaz de reconocer y
cortar el ADN en secuencias específicas, hallazgo que les valió el Premio Nobel de fisiología
y medicina, compartido con Werner Arber, en 1978. Este descubrimiento (consecuencia de
un hallazgo accidental - Serendipia) dio origen al desarrollo de lo que hoy se conoce como
Ingeniería genética o Biotecnología, que permite clonar cualquier gen en un virus,
microorganismo, célula de animal o de plantas.
Hoy en día, la moderna biotecnología es frecuentemente asociada con el uso de
microorganismos alterados genéticamente como el E. coli o levaduras para producir
sustancias parecidas a la insulina o antibióticos.
El lanzamiento comercial de insulina recombinada para humanos en 1982 marcó el
nacimiento de la biotecnología.
La biotecnología encuentra sus raíces en la biología molecular, un campo de estudios que
evoluciona rápidamente en los años 70s, dando origen a la primera compañía de
biotecnología, Genentech, en 1976.
Desde los 70s hasta la actualidad, la lista de compañías biotecnológicas ha aumentado y ha
tenido importantes logros en desarrollar nuevas drogas. En la actualidad existen unas 4.000
compañías que se concentran en Europa, Norteamérica y Asia-Pacífico. Pese a que la
biotecnología nace en Norteamérica a fines de los 70s, Europa rápidamente se ha
incorporado a su desarrollo en los 90s.
Tradicionalmente las biotecnológicas han debido asociarse con farmacéuticas para obtener
fondos de financiamiento, credibilidad y posición estratégica, sin embargo, en los últimos
años se ha intensificado la búsqueda de su propio rumbo. Una prueba de ello es el
aumento de asociaciones biotec-biotec, al punto que hoy exceden a las biotec-farma.
TENDENCIAS DE LA BIOTECNOLOGÍA
BIOTECNOLOGÍA HUMANA
Puesto que cada criatura es única, cada una posee una composición única de ADN.
Cualquier individuo puede ser identificado por pequeñas diferencias en su secuencia de
ADN, este pequeño fragmento puede ser utilizado para determinar relaciones familiares en
litigios de paternidad, para confrontar donantes de órganos con receptores en programas de
trasplante, unir sospechosos con la evidencia de ADN en la escena del crimen
(biotecnología forense).
El desarrollo de técnicas para el diagnóstico de enfermedades infecciosas o de desordenes
genéticos es una de las aplicaciones de mayor impacto de la tecnología de ADN. Al utilizar
las técnicas de secuenciación de ADN los científicos pueden diagnosticar infecciones
víricas, bacterianas o mapear la localización específica de los genes a lo largo de la
molécula de ADN en las células.
El primer tratamiento exitoso en terapia génica fue en 1990, cuando se trató una
enfermedad del sistema inmune de niños llamada "Deficiencia de ADA". Células sanguíneas
con los genes correctos de ADA fueron inyectadas al cuerpo del paciente donde produjeron
suficientes células normales que permitieron mejorar el sistema inmune. Hoy, la terapia
génica esta tratando enfermedades tales como tumores cerebrales malignos, fibrosis
quística y HIV. Con esta técnica se pretende también reparar órganos, como por ejemplo un
hígado cirrótico a partir de las pocas células sanas que le quedan, un par de ventrículos
nuevos para reemplazar los efectos devastadores de un infarto, la regeneración de una
mano amputada o disponer de una fuente inagotable de neuronas para corregir los efectos
de enfermedades tan graves como el Alzheimer o el Parkinson.
En estos momentos existen tres líneas de investigación:
• La clonación de células madre.: James Thonson, de la Universidad de Wisconsin
(EEUU) descubrió en 1998 cómo obtener células madre a partir de un embrión
humano. En el embrión esas células son las destinadas a formar todos los órganos
del cuerpo, y estimuladas adecuadamente pueden reparar órganos dañados.
El inconveniente de este método, es que el embrión de partida debe ser un clon del
paciente. La clonación humana suscita un gran rechazo y mas aún en este caso
cuando un embrión de pocos días, que nunca va a ser implantado en un útero, es
utilizado únicamente para este fin y después se destruye. Esto plantea grandes
problemas éticos y religiosos.
• La reprogramación de células adultas sin necesidad de clonar. La empresa británica
PPL Therapeutics está a la cabeza de esta técnica, que les salva de todos los
escollos morales y legales que existen al respecto.
• El esclarecimiento y manipulación del mecanismo genético que dispara la formación
de órganos y extremidades en el embrión. En esta técnica nos encontramos con un
español, Juan Carlos Izpisúa, que dirige un laboratorio en el Instituto Salk de La Jolla
(California). El mecanismo consiste en determinar la relación existente entre dos
familias de proteínas (llamadas Wnt y FGF) cuya unión en forma de parejas dispara
la formación de un determinado miembro. Una pareja concreta formada por un
miembro de Wnt y un miembro de FGF dispara la formación de un brazo, otra pareja
distinta dispara la de una pierna, otra la del hígado, etc.
El ser humano sólo tiene activas estas parejas cuando es un embrión, pero anfibios como el
axolote mexicano las tiene activas toda la vida, por ello pueden regenerar sus miembros
amputados. La investigación de Izpisúa está encaminada a encontrar la forma de reactivar
estas parejas en los humanos adultos.
Cáncer: Existe un conocimiento bastante profundo del mecanismo de acción de toda una
serie de genes implicados en el cáncer, sin embargo aun no se ha encontrado la solución al
mismo, pero se prevé que se alcance pronto.
Farmacogenética: La medicina del futuro será aquella que, en primer lugar, sea capaz de
prevenir la aparición de enfermedades y que, en caso contrario, permita un tratamiento
individualizado. La farmacogenómica es una nueva disciplina que estudia la relación entre
las diferencias genéticas individuales y los efectos de los fármacos, debido a que los seres
humanos no responden igual a ellos. Conociendo las características particulares de cada
uno se podrá determinar si lo productos disponibles son adecuados, y en caso de no serlos,
desarrollar terapias específicas para cada trastorno.
De esta manera las compañías farmacéuticas pueden seleccionar sólo a aquellas
poblaciones que se puedan beneficiar del tratamiento, evitando así exponer a los pacientes
a un fármaco que no le van a ser eficaces y que pueden provocarles alguna reacción
adversa.
Predicción: Muchas de las 4.000 enfermedades hereditarias conocidas podrán ser
detectadas a tiempo mediante un test de ADN, lo que facilitará la curación definitiva antes,
incluso, de que se produzcan los primeros síntomas.
Niños a la carta: Será posible hacer que los hijos nazcan con las características al gusto de
los padres, aportándole al bebé los genes que determinan el tono del pelo, la estatura, el
color de los ojos, etc.
Revolución en la psiquiatría y la psicología: Aunque no existe un único gen que
determine un tipo de comportamiento humano, el conocimiento del genoma humano va a
ayudar en esta labor.
Se sabe que más del 99´9% del mapa genético de cada individuo es idéntico, que no hay un
código que diferencie a los blancos y a los negros, ni a los criminales de los que no lo son,
por ello la diferencia entre la conducta de uno y otro reside en los estímulos que recibe del
exterior y en su capacidad de elegir por una opción u otra en la vida.
• Rendimiento superior. Mediante los OGM el rendimiento de los cultivos aumenta, dando
más alimento por menos recursos, disminuyendo las cosechas perdidas por enfermedad o
plagas así como por factores ambientales.
• Reducción de pesticidas. Cada vez que un OGM es modificado para resistir una
determinada plaga se está contribuyendo a reducir el uso de los pesticidas asociados a la
misma que suelen ser causantes de grandes daños ambientales y a la salud, es una lucha
la reducción de pesticidas.
• Mejora en la nutrición. Se puede llegar a introducir vitaminas y proteínas adicionales en
alimentos así como reducir los alergenos y toxinas naturales. También se puede intentar
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011
cultivar en condiciones extremas lo que auxiliaría a los países que tienen menos
disposición de alimentos.
• Mejora en el desarrollo nuevos componentes para materiales.
GENOMA HUMANO
Cuando faltan sólo tres años (2003) Si desenrollamos las hebras y las
para el cincuentenario del adosamos medirían más de 5 pies, sin
descubrimiento de la estructura de la embargo su ancho sería ínfimo, cerca
doble hélice por parte de Watson & de 50 trillonesimos de pulgada.
Crick (1953), se ha producido el El DNA que conforma el genoma,
mapeo casi completo del mismo. contiene toda la información necesaria
para construir y mantener la vida
Los objetivos del Proyecto son: desde una simple bacteria hasta el
• Identificar los aproximadamente organismo humano. Comprender
25.000 a 30.000 genes humanos en el como el DNA realiza la función
DNA. requiere de conocimiento de su
• Determinar la secuencia de 3 estructura y organización.
billones de bases químicas que La molécula de DNA consiste de dos
conforman el DNA. hebras arrolladas helicoidalmente, una
• Acumular la información en bases alrededor de la otra como escaleras
de datos. que giran sobre un eje, cuyos lados
• Desarrollar de modo rápido y hechos de azúcar y moléculas de
eficiente tecnologías de fosfato se conectan por sus bases
secuenciación. nitrogenadas.
• Desarrollar herramientas para
análisis de datos. Cada hebra es un acomodamiento
• Dirigir las cuestiones éticas, linear de unidades similares repetidas
legales y sociales que se derivan del llamadas nucleótidos, los que se
proyecto. componen de un azúcar, un fosfato y
Este proyecto ha suscitado análisis una base nitrogenada. Cuatro bases
éticos, legales, sociales y humanos diferentes están presentes en la
que han ido más allá de la molécula de DNA y son:
investigación científica propiamente • Adenina (A)
dicha. (Declaración sobre Dignidad y • Timina (T)
Genoma Humanos, UNESCO) • Citosina (C)
El propósito inicial fue el de dotar al • Guanina (G)
mundo de herramientas El orden particular de las mismas es
trascendentales e innovadoras para el llamado secuencia de DNA, la cual
tratamiento y prevención de especifica la exacta instrucción
enfermedades. genética requerida para crear un
Como se expresó, el genoma es el organismo particular con
conjunto de instrucciones completas características que le son propias. La
para construir un organismo, humano adenina y la guanina son bases
o cualquiera. El genoma contiene el púricas, en cambio la citosina y la
diseño de las estructuras celulares y timina son bases pirimidínicas.
las actividades de las células del Las dos hebras de DNA son
organismo. El núcleo de cada célula mantenidas juntas por uniones entre
contiene el genoma que está bases que forman los pares de bases.
conformado por 24 cromosomas (22 El tamaño del genoma es usualmente
autosomas + 2 sexuales), los que a su basado en el total de pares de bases.
vez contienen alrededor de 25.000 a En la especie humana, contiene
30.000 genes, los que están formados aproximadamente 3 billones de pares
por 3 billones de pares de bases, cuya de bases. Otros organismos
secuencia hace la diferencia entre los estudiados con motivo de éste estudio
organismos. fueron la bacteria Escherichia coli, la
Se localiza en el núcleo de las células. mosca de la fruta, y las ratas de
Consiste en hebras de DNA laboratorio.
estrechamente arrolladas y moléculas Cada vez que la célula se divide en
de proteínas asociadas, organizadas células hijas, el genoma total se
en estructuras llamadas cromosomas. duplica, en el caso del genoma
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011
humano esta duplicación tiene lugar Cada hebra dirige la síntesis de una
en el núcleo celular. Durante la nueva hebra complementaria con
división, el DNA se desenrolla y rompe nucleótidos libres que coinciden con
las uniones entre pares de base sus bases complementarias de cada
permitiendo a las hebras separarse. hebra separada.
Existe una forma estricta de unión de bases, así se forman pares de adenina - timina
(AT) y citosina - guanina (CG). Cada célula hija recibe una hebra vieja y una nueva.
Cada molécula de DNA contiene muchos genes, la base física y funcional de la herencia.
Un gen es una secuencia específica de nucleótidos base, los cuales llevan la
información requerida para la construcción de proteínas que proveerán de los
componentes estructurales a las células y tejidos como también a las enzimas para una
esencial reacción bioquímica.
El genoma humano comprende aproximadamente entre 25.000 y 30.000 genes. Sólo el
10% del genoma incluye la secuencia de codificación proteica de los genes.
Entremezclado con muchos genes hay secuencias sin función de codificación, de
función desconocida hasta el momento.
Los tres billones de pares de bases del genoma humano están organizados en 24
unidades distintas y físicamente separadas, llamadas cromosomas. Todos los genes
están dispuestos linealmente a lo largo de los cromosomas. EL núcleo de muchas
células humanas contiene dos tipos de cromosomas, uno por cada padre. Cada set,
tiene 23 cromosomas simples, 22 de tipo autosómicos y uno que puede ser X o Y que es
el cromosoma sexual. Una mujer normal tendrá un par de cromosomas X (XX), y un
hombre normal tendrá un cromosoma X y otro Y (XY). Los cromosomas contienen
aproximadamente igual cantidad de partes de proteína y DNA. El DNA cromosómico
contiene un promedio de 150 millones de bases.
Los cromosomas pueden ser evidenciables mediante microscopio óptico y cuando son
teñidos revelan patrones de luz y bandas oscuras con variaciones regionales. Las
diferencias en tamaño y de patrón de bandas permite que se distingan los 24
cromosomas uno de otro, el análisis se llama cariotipo.
Las anomalías cromosómicas mayores incluyen la pérdida o copias extra, o pérdidas
importantes, fusiones, translocaciones detectables microscópicamente. Así, en el
Síndrome de Down se detecta una tercer copia del par 21 o trisomía 21.
Otros cambios son tan sutiles que solo pueden ser detectados por análisis molecular, se
llaman mutaciones. Muchas mutaciones están involucradas en enfermedades como la
fibrosis quística, anemias de células falciformes, predisposiciones a ciertos cánceres, o a
enfermedades psiquiátricas mayores, entre otras.
Toda persona posee en sus cromosomas frente a cada gen paterno su correspondiente
gen materno. Cuando ese par de genes materno-paterno (grupo alemorfo) son
determinantes de igual función o rasgo hereditario, se dice que el individuo es
homocigótico para tal rasgo, por el contrario se dice que es heterocigótico. Como
ejemplo podemos citar que un gen transmita el rasgo hereditario del color de ojos verde
y el otro el color de ojos marrón. Se trata de heterocigotas para el rasgo color de ojos. Si
a su vez, uno de esos genes domina en la expresión del rasgo al otro gen enfrentado, se
dice que es un gen heredado dominante, de lo contrario se dice que es recesivo.
Las instrucciones de los genes son transmitidas indirectamente a través del ARN
mensajero (ARNm), el cual es un intermediario transitorio. Para que la información de un
gen sea expresada, un RNA complementario produce un proceso llamado transcripción,
desde la plantilla del DNA del núcleo. Este RNAm, se mueve desde el núcleo hasta el
citoplasma celular, donde sirve como plantilla para la síntesis proteica.
La maquinaria celular que sintetiza proteínas traduce los códigos en cadenas de
aminoácidos que constituyen la proteína molecular. En el laboratorio se puede aislar el
ARNm y ser utilizado como plantilla para sintetizar un DNA complementario (DNAc), el
cual puede ser usado para ubicar los genes correspondientes en el mapa cromosómico.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011
Desde un punto de vista no científico, el mapa del genoma humano es una herramienta
genética que permite estudiar la evolución del hombre y que cambiará drásticamente la
medicina actual tal como la conocemos. Será un cambio de paradigma. Permitirá el
tratamiento de enfermedades hasta ahora sin cura. Las investigaciones estuvieron a
cargo fundamentalmente de Estados Unidos (Instituto Nacional de Investigación del
Genoma Humano -NHGRI- de Maryland) y Gran Bretaña (Centro Sanger en Cambridge),
pero también acompañaron Francia, Alemania, Japón y China.
Hoy el mapa del genoma está casi completado. Se abre también el camino para la
manipulación genética, motivo por el cual se han dictado documentos tendientes a
acotar ese aspecto. La empresa privada Celera Genomics de Rockville (EEUU), es la
que lidera los procesos. La investigación duró diez años e insumió cerca de 2.000
millones de costo.
El mito del ser humano inmortal y perfecto se asocia a la aplicación práctica de los
conocimientos del mapa del genoma humano. Como se puede apreciar, la búsqueda de
la raza perfecta buscada hace años por Hitler resulta ser una aspiración de la raza
humana ahora encarnada en el proyecto del genoma humano.
El conocimiento del genoma permitirá que se creen nuevas drogas terapéuticas que
desplazarán a las anteriores en la medida que los presupuestos permitan comprarlas. De
este modo se podrá polarizar la industria farmacéutica. Las nuevas drogas prometen
tener menores efectos colaterales que las actuales.
La equidad en el uso de las tecnologías génicas, plantea quién tendrá acceso a la misma
y quien pagará por su uso.
Los estudios clínicos incluyen educación de proveedores de servicios de salud,
pacientes y público, acerca de cómo se implementarán los testeos genéticos.
En 1992, Craig Venter, investigador del NHI (National Health Institute) solicitó patentes
por 2750 fragmentos de ADN. El original pedido de patentamiento fue rechazado por no
cumplir con los requisitos técnicos de las patentes ya que las funciones de dichos
fragmentos no estaban definidas todavía, al menos públicamente. Sin embargo el hecho
devino en una furia de patentamientos similares. Actualmente Venter y su socio
Hunkapiller, experto en bioinformática, trabajan en Celera Genomics y su meta es
descifrar el genoma en su totalidad en el 2001.
BIBLIOGRAFIA
ENLACES WEB
FUERZA Y MOVIMIENTO
RESUMEN
En la naturaleza y en los hechos del entorno del hombre existen diversidad de fenómenos
por los que estamos preocupados en encontrar explicaciones, así por ejemplo, las
explicaciones antiguas de la luminosidad del sol, los rayos y truenos, el vuelo de las aves, el
movimiento ágil de algunos animales, etc; que le dieron una explicación mitológica y
contribuyeron también para el desarrollo del estudio de los fenómenos; actualmente el
estudio moderno de estos fenómenos permiten superar o facilitar las necesidades del
hombre, muchas veces utilizadas para el bien común, y otras que merece nuestra reflexión
por el uso inadecuado de las leyes y principios que rigen la naturaleza.
Parte de estos fenómenos son estudiados por la física, a través de teorías que han sido fruto
de una secuencia investigativa a través del tiempo, las teorías físicas cada vez son
desarrolladas y perfeccionadas. Y son utilizadas en las nuevas tecnologías que facilitan el
quehacer diario del hombre.
Logro de aprendizaje:
Maneja el sustento teórico y práctico de los componentes temáticos del área curricular de
ciencia tecnología y ambiente en el nivel de secundaria de menores.
CINEMÁTICA
RECORDEMOS:
La parte de la física que se encarga del estudio del movimiento sin estudiar sus causas es la
cinemática. La parte de la física que se encarga del estudio de las causas del movimiento es
la dinámica.
• Son escalares las magnitudes que se describen con un valor y una unidad.
• Son vectoriales las magnitudes que se describen usando un valor, una unidad y
una dirección.
Esta es una situación ideal, ya que siempre existen fuerzas que tienden a alterar el
movimiento de las partículas. El movimiento es inherente que va relacionado y podemos
decir que forma parte de la materia misma.
Ya que en realidad no podemos afirmar que algún objeto se encuentre en reposo total.
Fórmulas:
Si se toma como condición inicial que para t0=0, la posición inicial es x0, se obtiene la
ecuación:
En resumen, las ecuaciones cinemáticas que definen el movimiento rectilíneo uniforme son:
PROBLEMAS DESARROLLADOS
Resolver:
1) ¿A cuántos m/s equivale la velocidad de un móvil que se desplaza a 72 km/h?
Desarrollo:
Datos:
v = 72 km/h
2) Un móvil viaja en línea recta con una velocidad media de 1.200 cm/s durante 9 s, y luego
con velocidad media de 480 cm/s durante 7 s, siendo ambas velocidades del mismo sentido:
a) ¿cuál es el desplazamiento total en el viaje de 16 s?.
b) ¿cuál es la velocidad media del viaje completo?.
Desarrollo:
Datos:
v1 = 1.200 cm/s t1 = 9 s v2 = 480 cm/s t2 = 7 s
a) El desplazamiento es:
e = v.t
Para cada lapso de tiempo:
e1 = (1200 cm/s).9 s e1 = 10800 cm
e2 = (480 cm/s).7 s e2 = 3360 cm
El desplazamiento total es:
et = e1 + e2 et = 10800 cm + 3360 cm et = 14160 cm = 141,6 m
3) Resolver el problema anterior, suponiendo que las velocidades son de distinto sentido.
Desarrollo:
a) Si son de distinto sentido:
et = e1 - e2
et = 10800 cm - 3360 cm et = 7440 cm = 74,4 m
b)
∆v = et/tt ∆v = 74,4 m/16 s ∆ v = 4,65 m/s
Desarrollo:
Datos: v = 4 m/s t=4s
Se dirá que un móvil tiene un movimiento uniformemente variado cuando tenga una
aceleración constante, es decir, recorra espacios diferentes en tiempos iguales. Las
ecuaciones cinemáticas que describen este movimiento son:
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011
Si se toma como condición inicial que para t0=0, la posición inicial es x0, operando
con las ecuaciones 1 y 2 se obtiene la ecuación:
PROBLEMAS DESARROLLADOS
1) Un cohete parte del reposo con aceleración constante y logra alcanzar en 30 s una velocidad
de 588 m/s. Calcular:
a) Aceleración.
b) ¿Qué espacio recorrió en esos 30 s?.
Datos: v0 = 0 m/s vf = 588 m/s t = 30 s
Ecuaciones:
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011
2) Un móvil que se desplaza con velocidad constante aplica los frenos durante 25 s y recorre
400 m hasta detenerse. Calcular:
a) ¿Qué velocidad tenia el móvil antes de aplicar los frenos?.
b) ¿Qué desaceleración produjeron los frenos?.
Datos: t = 25 s e = 400 m vf = 0 m/s
Ecuaciones:
(1) vf = v0 + a.t (2) x = v0.t + a.t ²/2
a) De la ecuación (1):
vf = v0 + a.t 0 = v0 + a.t a = -v0/t (3)
Reemplazando (3) en (2):
e = v0.t + a.t ²/2 e = v0.t + (-v0/t).t ²/2 e = v0.t - v0.t/2 e= v0.t/2 v0 = 2.e/t
reemplazando: v0 = (2.400 m)/(25 s) v0 = 32 m/s
b) De la ecuación (3):
a = (-32 m/s)/(25 s) Þ a = -1,28 m/s ²
3. CAIDA LIBRE
Para entender el concepto de caída libre de los cuerpos, veremos el siguiente ejemplo: Si
dejamos caer una pelota de hule macizo y una hoja de papel, al mismo tiempo y de la
misma altura, observaremos que la pelota llega primero al suelo. Pero, si arrugamos la hoja
de papel y realizamos de nuevo el experimento observaremos que los tiempos de caída son
casi iguales. El movimiento vertical de cualquier objeto en movimiento libre, para el que se
pueda pasar por ello la resistencia del aire.
Trayectoria. Es la sucesión de puntos por los que pasó el móvil en su recorrido y su valor
en el Sistema Internacional es esa distancia, medida sobre la trayectoria, en metro. Es el
recorrido total.
Posición. Supuestos unos ejes de coordenadas en el punto de lanzamiento, se llama
posición a la ordenada (coordenada en el eje y) que ocupa en cada instante el móvil.
Desplazamiento. Restando de la ordenada de la posición la ordenada del origen tenemos el
desplazamiento. Se representa por un vector con todas las características del mismo:
modulo, dirección, sentido, punto de aplicación.
Aceleración de la gravedad
La fuerza de atracción gravitacional hace dos condiciones, g varía ligeramente de
que un objeto en caída libre sobre un cuerpo un lugar a otro.
celeste se mueva, prescindiendo de En el ecuador, la aceleración de la
eventuales resistencias atmosféricas, de modo gravedad es de 9,7799 metros por
acelerado, o sea, con un aumento constante segundo cada segundo, mientras que en
de su velocidad por unidad de tiempo, y que los polos es superior a 9,83 metros por
se dirija hacia el centro del cuerpo celeste. segundo cada segundo.
En la superficie de la Tierra el valor de esta El valor que suele aceptarse
aceleración, que se indica con la letra g, sería internacionalmente para la aceleración de
igual en cualquier punto si nuestro globo fuese la gravedad a la hora de hacer cálculos es
perfectamente esférico y si la fuerza centrífuga de 9,80665 metros por segundo cada
debida a la rotación terrestre, que tiene como segundo.
efecto una disminución de la fuerza de Antiguamente se creía que los cuerpos
atracción gravitacional, tuviera en cualquier más densos caían con mayor aceleración,
parte el mismo valor. Al no verificarse estas pero Galileo y, después, Isaac Newton se
encargaron de demostrar lo contrario. Un
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011
Ecuaciones:
Ecuación Información brindada por la ecuación
v = vo - gt Velocidad como función del tiempo.
y-yo = ½(v + vo)t Desplazamiento como una función de la velocidad y el tiempo.
y-yo = vot - ½gt2 Desplazamiento como una función del tiempo.
2 2
v = vo - 2g(y-yo) Velocidad como una función del desplazamiento.
PROBLEMA DESARROLLADO
1) Se lanza un cuerpo verticalmente hacia abajo con una velocidad inicial de 7 m/s.
a) ¿Cuál será su velocidad luego de haber descendido 3 s?.
b) ¿Qué distancia habrá descendido en esos 3 s?.
c) ¿Cuál será su velocidad después de haber descendido 14 m?.
d) Si el cuerpo se lanzó desde una altura de 200 m, ¿en cuánto tiempo alcanzará el suelo?.
e) ¿Con qué velocidad lo hará?.
Desarrollo:
1) Datos: v0 = 7 m/s t=3s y = 200 m h = 14 m
Ecuaciones:
(1) vf = v0 + g.t (2) y = v0.t + g.t ²/2 (3) vf ² - v0 ² = 2.g.h
a) De la ecuación (1):
vf = (7 m/s) + (10 m/s ²).(3 s) vf = 37 m/s
b) De la ecuación (2):
∆h = (7 m/s).(3 s) + (10 m/s ²).(3 s) ²/2 ∆ h = 66 m
c) De la ecuación (3):
vf = 18,14 m/s
d) De la ecuación (2):
0 = v0.t + g.t ²/2 - y Aplicamos la ecuación cuadrática que dará dos resultados:
4. MOVIMIENTO COMPUESTO
Se denomina movimiento parabólico al realizado por un objeto cuya trayectoria describe
una parábola. Se corresponde con la trayectoria ideal de un proyectil que se mueve en
un medio que no ofrece resistencia al avance y que está sujeto a un campo gravitatorio
uniforme. También es posible demostrar que puede ser analizado como la composición
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011
La velocidad resultante en
cualquier punto de su trayectoria:
Vx + Vy
2 2
V =
Vx = velocidad horizontal-----MRU
Vy = velocidad vertical -------MRUV
ECUACIONES:
La distancia horizontal: D = Vx . T 2VSenα
El módulo del desplazamiento vertical se Tiempo de vuelo: t=
expresa de la siguiente manera: g
2 Alcance horizontal:
y = V .senα .t −
gt 2 2
2
4H
Relación entre H y T: H = T
g Relación entre H y D: Tgα =
8 D
El máximo alcance horizontal se logra con un ángulo de 45º
RESUELVA:
1) Se lanza un proyectil con una velocidad inicial de 200 m/s y una inclinación, sobre la horizontal, de
30°. Suponiendo despreciable la pérdida de velocidad con el aire, calcular:
a) ¿Cuál es la altura máxima que alcanza la c) ¿A qué distancia del lanzamiento cae el
bala? proyectil?
b) ¿A qué distancia del lanzamiento alcanza Respuesta: a) 39,36 m
la altura máxima? b) 1732,05 m
c) 3464,1 m
2) Se dispone de un cañón que forma un ángulo de 60° con la horizontal. El objetivo se encuentra en
lo alto de una torre de 26 m de altura y a 200 m del cañón. Determinar:
a) ¿Con qué velocidad debe salir el Respuesta: a) 49,46 m/s
proyectil? b) 17 m
b) Con la misma velocidad inicial ¿desde
que otra posición se podría haber
disparado?
3) Un chico patea una pelota contra un arco con una velocidad inicial de 13 m/s y con un ángulo de
45° respecto del campo, el arco se encuentra a 13 m. Determinar:
a) ¿Qué tiempo transcurre desde que patea Respuesta: a) 1,41 s
hasta que la pelota llega al arco? b) No
b) ¿Convierte el gol?, ¿por qué? c) 17,18 m
c) ¿A qué distancia del arco picaría por
primera vez?
Hasta este momento hemos descrito al movimiento de una partícula sin preguntarnos que lo
causa. Este problema fue un tema central para la denominada Filosofía Natural que sostenía
la necesaria influencia externa (una fuerza) para mantener un cuerpo en movimiento.
Cuando esta fuerza se acababa creían que el cuerpo se detenía volviendo a lo que
consideraban su estado natural. De esta suposición se desprendía que un cuerpo más
pesado (mayor fuerza interior) debía caer más de prisa que un cuerpo liviano. Fue Galileo
Galilei (1564 - 1642) el primero en darse cuenta de lo falso de esta hipótesis. Desde lo alto
de la Torre de Pisa dejó caer, desde la misma altura, dos esferas de igual tamaño pero de
diferente peso, ambas cayeron el mismo tiempo. (Si no lo crees toma dos objetos de
diferente peso y déjalos caer desde una misma altura)
Galileo estudió las causas del movimiento pero fue Newton (1641 – 1727) quién les dio
forma y las compiló en tres principios a los que hoy llamamos principios de Newton.
Principios de Newton
Si para mantener un cuerpo en movimiento En esta situación, luego de impulsarnos,
no hace falta una fuerza, entonces, ¿qué se nada nos detendría, seguiríamos a velocidad
necesita? La respuesta es: nada. constante y en línea recta.
Si mueves el pié sobre el piso vas a sentir Si no aplicamos una fuerza exterior a un
como "algo" se opone a ese deslizamiento. cuerpo este permanece quieto o
Si el piso está encerado ese "algo" moviéndose a velocidad constante y en línea
disminuye en intensidad, hasta podríamos recta. (M. R. U.)
imaginar una superficie tan encerada que
esa resistencia desaparecería por completo.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011
Echemos un vistazo a las ideas que ya tenemos sobre el trabajo, la potencia y la energía.
El Sol es una fuente inagotable de energía. Sin él, no podría existir la vida en la
Tierra.
El origen de parte de la energía eléctrica que consumimos tiene su origen en la
energía almacenada en los embalses
El montacargas de gran potencia necesita energía (combustible) para seguir
trabajando
TRABAJO
Entendemos por trabajar a cualquier acción que supone un esfuerzo. En Física el concepto
de trabajo se aplica exclusivamente a aquellas acciones cuyo efecto inmediato es un
movimiento.
“Trabajo es la magnitud física que relaciona una fuerza con el desplazamiento que origina”.
“Para conseguir que una fuerza realice el máximo trabajo es necesario que la dirección de
la fuerza se parezca lo más posible a la dirección del movimiento producido. Esto no
siempre es posible en la vida cotidiana. ¡Para arrastrar un carrito pequeño con una cuerda
nos resultaría muy incómodo agacharnos hasta la altura del carrito y tirar. Trabajo es la
magnitud física que relaciona una fuerza con el desplazamiento que origina”.
Cuando una fuerza origina un movimiento sólo realiza trabajo la componente de la fuerza en
la dirección del desplazamiento.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011
“La fuerza de rozamiento no realiza ningún trabajo útil. Sin embargo la expresión
matemática del trabajo no distingue entre tipos de fuerzas. Podemos calcular el "trabajo
perdido por rozamiento":
ENERGIA
“llamamos energía cinética a la energía que posee un cuerpo por el hecho de moverse. La
energía cinética de un cuerpo depende de su masa y de su velocidad según la relación”:
“La velocidad de un cuerpo proporciona una capacidad al móvil de transformar el medio que
le rodea. Esta capacidad es su energía cinética que depende del cuadrado de la velocidad y
de la masa”.
El hecho de estar bajo la influencia del campo gravitatorio proporciona a los objetos la
capacidad de caer. Recordemos el aprovechamiento de los saltos de agua en la generación
de energía eléctrica.
“La energía potencial gravitatoria es debida la capacidad que tienen los objetos de caer”.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011
Transformación de la energía
¿Qué significa que una magnitud física se conserva, en este caso la Energía Mecánica?
A lo largo de estas páginas hemos destacado que hay muchos tipos de energía. Nos hemos
centrado en la energía potencial gravitatoria y la energía cinética. Ambas son características
de un cuerpo en caída libre. Hemos comprobado que la suma de sus valores permanece
constante. ¿Qué quiere decir esto exactamente? Pues que una magnitud física como la
energía tiene la propiedad de transformarse, de unas formas en otras, de manera que la
disminución de una supone el aumento de otra u otras.
ENERGÍA Y TRABAJO
POTENCIA
Si nos fijamos en aquellos aparatos que como una nevera, un secador, una bombilla que
consumen energía eléctrica y la transforman para enfriar, calentar, iluminar...,la magnitud
física que relaciona la energía eléctrica consumida en una unidad de tiempo se llama
potencia.
Auto Evaluación
• ¿Sabes qué es el trabajo desde el punto de vista científico y qué fuerzas son las
que pueden realizar trabajo y cuáles no?
• ¿Conoces el papel que desempeña la fuerza de rozamiento cuando se realiza un
trabajo?
• ¿Sabes utilizar el concepto de energía y el principio de su conservación?
• ¿Conoces qué relación existe entre el trabajo y la energía?
• ¿Entiendes el significado del término potencia?
3) Calcular el peso de un cuerpo al que se le aplica una fuerza de 5400N y produce una
aceleración de 0,72 m/seg2. Rta.: 7,5 . 104 N
4) ¿Qué fuerza será necesaria para que un cuerpo de 500N de peso alcance una velocidad
de 30m/s en 10 seg. partiendo del reposo ? Rta.: 150 N
5) ¿por qué un cuerpo cae si se encuentra sobre un plano inclinado? (recomendación, hacer
el dibujo y descomponer la fuerza) Rta.: P. Sen a
6) Siendo la constante de rozamiento estático 0,25 ¿Cuánta fuerza se debería hacer para
arrancar un auto de 1500 Kg. (masa)? Rta.: F < 375 N
7) Un cuerpo de 500 N de peso recorre 150 m en 15 seg. partiendo del reposo; siendo la
fuerza de rozamiento de 50 N determinar el valor de la constante de rozamiento y el valor de
la fuerza aplicada. Rta: m = 0,1; F = 216,7 N
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011
Rta.: a) 4 m/seg. b) 50 N c) 90 N
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011
ESTATICA
la condición de equilibrio.
• Existen métodos de resolución de este tipo de problemas estáticos mediante
gráficos, heredados de los tiempos en que la complejidad de la resolución de
sistemas de ecuaciones se evitaba mediante la geometría, si bien actualmente se
tiende al cálculo por ordenador.
Existen varios métodos clásicos basados en la mecánica de sólidos deformables, como los
teoremas de Castigliano o las fórmulas de Navier-Bresse, que permiten resolver un buen
número de problemas hiperestáticos de modo simple y elegante.
Aplicaciones
La estática abarca el estudio del equilibrio tanto del conjunto como de sus partes
constituyentes, incluyendo las porciones elementales de material.
Su importancia reside en que una vez trazados los diagramas y obtenidas sus ecuaciones,
se puede decidir el material con el que se construirá, las dimensiones que deberá tener,
límites para un uso seguro, etc., mediante un análisis de materiales. Por tanto, resulta de
aplicación en ingeniería estructural, ingeniería mecánica, construcción, siempre que se
quiera construir una estructura fija. Para el análisis de una estructura en movimiento es
necesario considerar la aceleración de las partes y las fuerzas resultantes.
El estudio de la Estática suele ser el primero dentro del área de la ingeniería mecánica,
debido a que los procedimientos que se realizan suelen usarse a lo largo de los demás
cursos de ingeniería mecánica.
BIBLIOGRAFÍA
• Física general con experimentos sencillos. Beatriz Alvarenga, Antonio Máximo. Editorial
Harla, México. 1979, 1980, 1981
• Mauricio, Ramírez Ricardo, investiguemos 10, Voluntad, Bogota 1989.
• R. A. Serway, FÍSICA, Tomo I, 4ª. Edición. McGraw Hill, 1997.
• M. Alonso y E. J. Finh (1992). Física, ed. Pearson Educación.
ENLACES WEB
http://shibiz.tripod.com/id9.html
http://www.fisicanet.com.ar
http://docentes.uacj.mx/agarcia/Cursos/Dinamica/Capitulo2/2TirPara.HTM
http://www.her.itesm.mx/academia/profesional/cursos/fisica_2000/Fisica1/F%C3%ADsica/fte
ma3_cl.html
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011
MAGNETISMO Y ELECTRICIDAD
RESUMEN
En realidad ahora se sabe que todo fenómeno magnético es un efecto relativista, esto es, su
origen puede explicarse mediante la teoría de la relatividad de Einstein.
APRENDIZAJES ESPERADOS
Ecuación matemática que recoge la ley de Coulomb, y que nos permite conocer la fuerza con
que se atraen o repelen dos cargas eléctricas en cualquier punto del espacio.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011
ELECTRICIDAD
Se conocían desde muy antiguo los efectos tapón atravesado por una varilla metálica
de electrización producidos por frotación que había sido enganchada al conductor de
entre diversos cuerpos, incluso se conocía la una máquina eléctrica. Cuando al ser
conductividad eléctrica. En efecto, en 1729 descolgada por un ayudante, éste sufrió una
Stephen Gray (1666-1736), anunció tras gran sacudida, se demostró que en la botella
experimentar en Cambridge, que la "virtud se había acumulado electricidad. Había
atractiva" era transportable a distancia por nacido así la botella de Leyden, que pronto
ciertos metales. Más sistemático y se hizo popular entre los interesados por
racionalista que Gray, el francés Charles estos fenómenos y que sucesivamente
François de Cisternay Du Fay, explota el perfeccionarían hasta quedar configurada
fenómeno de la conductividad hasta sus como un vidrio delgado revestido de una
límites experimentales y va más allá, al lámina de estaño de la que salía una varilla
proponer la existencia de dos tipos de metálica terminada en una esfera. Se
electricidad, una "vítrea" y otra "resinosa". trataba sencillamente de un condensador
Ante la necesidad de explicar los fenómenos eléctrico.
eléctricos, se recorre de nuevo, como se Tras estos primeros pasos, ya a mediados
hizo en otras ramas de la ciencia, a la del siglo XVIII, los intentos de medir la
suposición existencial de dos fluidos "virtud eléctrica" condujeron a los
eléctricos, responsables de los dos tipos de electrómetros. Con ellos comenzó la teoría
electricidad conocidos. En este contexto de matemática de la electricidad. Los primeros
teorías fluidistas, va a producirse un pasos fueron dados por un americano,
descubrimiento que, de alguna forma, Benjamín Franklin (1706-1790), descubridor
justificaría la existencia de los fluidos del pararrayos en 1752, y autor de una
eléctricos. En 1745, el holandés Pedro Van nueva teoría, la del fluido único, que en
Musschenbroeck (1692-1761) exceso o en defecto de su valor normal en
experimentaba en la ciudad de Leyden con los cuerpos, producía los efectos eléctricos.
una botella llena de agua y cerrada con un
En buena lógica newtoniana, faltaba determinar con precisión la fuerza con que se atraían
las diferentes cargas. A ello se dedica, entre otras cosas, el francés Charles Augustin
Coulomb (1736-1806) quien establece la ley que lleva su nombre. La ley de atracción y
repulsión entre cargas permitió aplicar inmediatamente a la electricidad los potentes medios
que el análisis matemático había desarrollado para la mecánica.
Electricidad Estática
De todas formas, cualquiera que sean las distintas formas de receptividad humana, las
reacciones son de impotencia. La electricidad, en todas sus infinitas manifestaciones sigue
siendo uno de los más impenetrables secretos del universo. Además, en este caso, ni
siquiera la palabra "electricidad estática" induce a facilitar la comprensión o averiguar el
significado: Evoca la noción de electricidad "en reposo", contradicción obvia con el brote de
chispas cortitas que pueden verse algunas veces de noche, y que recuerdan las chispitas
que apreciamos en ciertas prendas de fibras plásticas.
Ante esta serie de hechos que rebasan la lógica y sentido común, los más precavidos,
prudentes y/o afectados compran cintitas que incorporan generalmente hilos conductores
metálicos y las colocan en la parte trasera del vehículo, como que para que por ahí se
pueda desprender esa maldita electricidad estática.
En términos despejados de todo cientifismo, hemos de decir en primer lugar que "grosso
modo" la electricidad estática es más bien "tribo-electricidad", o sea, electricidad
producida por contacto, roce, fricción, y/o frotadura (del griego "tribein", frotar). Su
existencia es conocida desde la más lejana antigüedad y la medicina la utiliza desde hace
de dos siglos para cuidar el sistema nervioso.
Descrita y utilizada en experimentos de laboratorios a partir del siglo XVII, hoy en día forma
parte de la enseñanza, comprobándose que ciertos materiales se cargan de electricidad por
simple frotadura y atraen, por ejemplo, pedacitos de papel.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011
Conductores y aislantes
Corriente eléctrica
La corriente eléctrica consiste en el flujo de cargas eléctricas a través de un conductor.
En el caso de los conductores metálicos (por ejemplo un alambre de cobre), la
corriente eléctrica está constituida por un flujo de electrones. En los conductores
líquidos (por ejemplo una solución de cloruro de sodio o sal común en agua) la
corriente eléctrica está constituida por el movimiento de iones positivos (cationes) e
iones negativos (aniones). En el caso de los gases (por ejemplo en las lámparas de
vapor de mercurio) la corriente está constituida por el movimiento de cationes, de
aniones, y también de electrones libres.
Es decir, si en un conductor circula una corriente de 1 A, ello significa que por dicho
conductor está circulando una carga de 1 C en cada segundo.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011
Tipos de corriente
Hay dos tipos de corriente eléctrica: corriente directa o continua (CD ó CC) y corriente
alterna (CA).
Fuerza electromotriz
La fuerza que impulsa a la
corriente a lo largo de un
conductor es denominada
fuerza electromotriz (FEM), su
unidad en el SIU es el volt (V) y
normalmente se usa el término
"voltaje" en lugar de FEM. Se
suele representar por las letras
o . Sin embargo, es
sumamente útil tener en mente
la expresión "fuerza
electromotriz", ya que ésta
fortalece la idea de una fuerza
que empuja o jala las cargas alrededor del circuito para hacer que fluya corriente.
Esta fuerza eléctrica o voltaje, siempre aparece entre dos puntos, y se dice que es la
"diferencia de potencial" entre dichos puntos (figura Nº 8).
Resistencia
Resistividad de un material
Silicio 640
Vidrio 1010 – 1014
Caucho duro ≈1013
Azufre 1015
Cuarzo fundido 75 × 1016
Si se tienen varios alambres de la misma longitud y del mismo grosor, pero hechos de
diferente material, el de menor resistividad será el de menor resistencia. Es decir, que
cuanto menor sea la resistividad de un material, tanto menor será la oposición que
este material ofrezca al paso de la corriente a través de él.
Ley de Ohm
Potencia eléctrica
La potencia eléctrica, representada por la letra , es la tasa (velocidad) de producción
o consumo de energía, como la potencia de un generador o la potencia disipada en
una lámpara. La energía en el SIU se expresa en joules (J) y la potencia se mide en
watts (W) o con frecuencia en kilowatts (kW), donde:
1W=1J/s
1 kW = 1000 W
El consumo de energía eléctrica por lo general se suele medir en kilowatts–hora
(kWh), el cual se define como el consumo de un artefacto de 1000 W de potencia
durante una hora.
Sin embargo, es práctica común en la industria utilizar otras unidades para expresar la
potencia eléctrica, como son los caballos fuerza (hp) y la Unidad Térmica Británica
(BTU). Las equivalencias de estas unidades con el watt son:
1 hp = 746 W
1 W = 3.41 BTU/h
Ley de Watt
Referencias:
4- Escala o rango para medir tensión en continua (puede indicarse DC en vez de una
línea continua y otra punteada).
6- Borne o “jack” de conexión para la punta roja, cuando se quiere medir tensión,
resistencia y frecuencia (si tuviera), tanto en corriente alterna como en continua.
9- Borne de conexión o “jack” para la punta roja cuando se elija el rango de 20A
máximo, tanto en alterna como en continua.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011
10-Escala o rango para medir corriente en alterna (puede venir indicado AC en lugar
de la línea ondeada).
11-Escala o rango para medir corriente en continua (puede venir DC en lugar de una
línea continua y otra punteada).
Tal cual como está posicionada la llave selectora, nos indica que podemos medir
continuidad mediante el sonar de un timbre o “buzzer”, por ejemplo cuando en un
mazo de cables se busca con las puntas de prueba un extremo y el correspondiente
desde el otro lado. Se activa un zumbido si la resistencia es menor de 30 Ohms
(aproximadamente). Si la resistencia es despreciable (como debería ocurrir en un
conductor), no solo sonará el buzzersino que además el displey indicará 000. Cuando
encuentra una resistencia, la indicación son los mil volts de caída de tensión, por la
resistencia detectada, a mayor resistencia, mayor serán los mV indicados.
Por esto cuando se prueba diodos, en un sentido (el inverso a su polaridad), indica el
número “1” a la izquierda del display. Esto significa que está bloqueando la corriente
(con una resistencia muy elevada) y por lo tanto no se encuentra en corto circuito. En
cambio en la polaridad correcta, el display indica unos milivolts que dependen del tipo
de diodo que se está probando, ya que si bien el diodo conduce conectando las puntas
en la polaridad correcta, lo hace con resistencia apreciable. El instrumento fija una
corriente de prueba de 1mA.
Tensión en DC
Donde indica 200m el máximo es 200 milivolts (0,2 V), el resto se comprende tal cual
están expresados por sus cifras. Por lo tanto para medir tensiones de batería del
automóvil debemos elegir la de 20V. Si se está buscando caídas de tensión en
terminales o conductores, podemos elegir una escala con un máximo más pequeño,
luego de arrancar con un rango más elevado y así tener una lectura aproximada.
Siempre hay que empezar por un rango alto, para ir bajando y así obtener mayor
precisión. Cuando el valor a medir supere el máximo elegido, también indicará “1”en el
lado izquierdo del display.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011
Corriente en DC
Para medir esta magnitud, hay que tener mucha precaución porque como
amperímetro el tester se conecta en serie. Por lo tanto toda la corriente a medir se
conducirá por su interior, con el riesgo de quemarlo. En el manual de uso el fabricante
aconseja no solo el máximo de corriente que puede soportar sino además el tiempo en
segundos (por ejemplo 15seg.).
La escala a utilizar es:
Donde la escala indica el rango: 2m es 2mA (0,002 A); 20m es 20mA (0,02 A); 200m
es 200mA (0,2 A) y por lo tanto 20 es 20 A.
Capacitancia o capacitores:
Utilizamos la escala indicada como CX y su zócalo:
CX quiere decir “capacidad por”, según el rango seleccionado con la llave (3):
· 20 u es 20 uf resultando uf la unidad microfaradio (1uf= 1f x 10-6), es decir el uf es
la millonésima parte del faradio (20uf son 0,00002 faradios). Por lo tanto el rango
20u es el máximo, es decir la mayor capacidad que puede medir este tester.
· 2u es 2uf (2f x 10-6 = 0,000002 f). Además en otros multímetros podemos
encontrar:
· 200n es 200 nanofaradios (1nf= 1f x 10-9 f) o sea 200nf = 0,0000002 f.
· 20n es 20 nanofaradios o sea 20nf= 0,00000002 f.
· 2000 p es 2000 pf (2000 picofaradios), teniendo en cuenta que 1pf= 1 f x 10-12
entonces 2000pf = 0,000000002 f.
Consideraciones importantes:
Para los automóviles con encendido por platinos los valores de capacidad pueden ir de
0,20 uf a 0,28 uf, por lo tanto es mejor medir en el rango de 2u.
En valor alto de capacidad puede demorar unos segundos en alcanzar la lectura final.
Siempre los capacitores deben estar descargados, antes de conectarlos al zócalo.
Cuando se trata de capacitores de papel de estaño (como el de los sistemas de
platinos) no hace falta respetar polaridad en el zócalo. Pero existen capacitores
utilizados en electrónica, que tiene marcada la polaridad y en estos casos se debe
tener en cuenta que, por ejemplo la conexión superior del zócalo es positiva y la
inferior es negativa (consultar el manual de uso en cada caso).
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011
OTRAS MAGNITUDES
Hay multímetros genéricos que además miden frecuencia en KiloHertz (KHz) y
mediante un zócalo adicional (parecido al de capacitores) y una termocupla o conector
especial, pueden medir temperatura en 0C.
La frecuencia en KHz generalmente tiene un rango único de 20KHz (20000 Hz), que
para encendido e inyección electrónica es poco sensible o resulta una escala
demasiado grande. Pues necesitamos medir frecuencias que van desde 10 a 15 Hz
hasta 50 a 80 Hz y 100 a 160 Hz. Por lo tanto para mediciones precisas de frecuencia
hay que adquirir multímetros especialmente diseñados para la electrónica del
automovil.
La temperatura en 0C puede ser captada tocando con la termocupla el objeto a
controlar y la rapidez con la cual registre el valor a igual que su presición dependerá
de la calidad de cada multímetro y termocupla en cuestión. La temperatura ambiente
se obtiene sin conectar la termocupla ya que vienen con un sensor incorporado (dentro
del instrumento) para tal fin.
Algunos multímetros también agregan otro zócalo para la prueba de transistores,
indicado como hFE. Esto determina el estado de la base y el emisor de dicho
semiconductor.
MAGNETISMO
Historia El primer filosofo que estudio el fenómeno del magnetismo fue Tales de
Mileto, filósofo griego que vivió entre 625 a.n.e. y 545 a.n.e. [1] . En China, la primera
referencia a este fenómeno se encuentra en un manuscrito del siglo IV adC titulado
Libro del amo del valle del diablo ( ): «La magnetita atrae al hierro hacia sí o es
atraída por éste». La primera mención sobre la atracción de una aguja aparece en un
trabajo realizado entre los años 20 y 100 de nuestra era: «La magnetita atrae a la
aguja».
como para utilizar la brújula para mejorar la navegación. Alexander Neckham fue el
primer europeo en conseguir desarrollar esta técnica, en 1187.
El conocimiento del magnetismo se mantuvo limitado a los imanes, hasta que en 1820,
Hans Christian Ørsted profesor de la Universidad de Copenhage, descubrió que un
hilo conductor sobre el que circulaba una corriente ejercía una perturbación magnética
a su alrededor, que llegaba a poder mover una aguja magnética situada en ese
entorno. Muchos otros experimentos siguieron, con André-Marie Ampère, Carl
Friedrich Gauss, Michael Faraday y otros que encontraron vínculos entre el
magnetismo y la electricidad. James Clerk Maxwell sintetizó y explicó estas
observaciones en sus ecuaciones de Maxwell. Unificó el magnetismo y la electricidad
en un solo campo, el electromagnetismo. En 1905, Einstein uso estas leyes para
comprobar su teoría de la relatividad especial en el proceso mostró que la electricidad
y el magnetismo estaban fundamentalmente vinculadas.
Electromagnetismo
Como consecuencia de la teoría de la relatividad especial de Einstein, la electricidad y
el magnetismo estaban comprendidos como vinculantes. Tanto el magnetismo sin la
electricidad como la electricidad sin magnetismo serían inconsistentes con la nueva
teoría por los efectos como la contracción de la longitud, la dilatación del tiempo y la
dependencia de la velocidad en el campo magnético. Sin embargo cuando ambas
fueron tomadas en cuenta, la reciente teoría del electromagnetismo fue totalmente
consistente con la relatividad. En particular, un fenómeno que parece como eléctrico
para un observador puede parecer magnético para otro, o más generalmente las
contribuciones generales de la electricidad y el magnetismo son dependientes del
marco de referencia.
Campo magnético
Para una aproximación excelente (pero ignorando algunos efectos cuánticos) las
ecuaciones de Maxwell (que simplifican la ley de Biot-Savart en el caso de corriente
constante) describen el origen y el comportamiento de los campos que gobiernan esas
fuerzas. Por lo tanto el magnetismo se observa siempre que partículas cargadas
eléctricamente están en movimiento. Por ejemplo, del movimiento de electrones en
una corriente eléctrica o en casos del movimiento orbital de los electrones alrededor
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011
del núcleo atómico. Estas también aparecen de un dipolo magnético intrínseco que
aparece de los efectos cuánticos, del spin de la mecánica cuántica.
Una herramienta para determinar la dirección del vector velocidad de una carga en
movimiento, es siguiendo la ley de la mano derecha.
El físico alemán Heinrich Lenz formuló lo que ahora se denomina la ley de Lenz, ésta
da una dirección de la fuerza electromotriz (fem) y la corriente resultante de una
inducción electromagnética.
Dipolos magnéticos
Se puede ver una muy común fuente de campo magnético en la naturaleza, un dipolo.
Éste tiene un "polo sur" y un "polo norte", sus nombres se deben a que antes se
usaban los magnetos como compases, que interactuaban con el campo magnético
terrestre, para indicar el norte y el sur del globo.
Una alternativa, formulada equivalente, que es fácil de aplicar pero ofrece una menor
visión, es que un dipolo magnético en un campo magnético experimenta un torque y
una fuerza que puede ser expresada en términos de un campo y de la magnitud del
dipolo
Diamagnetismo
Paramagnetismo
Magneto Molecular
Ferromagnetismo
Antiferromagnetismo
Ferromagnetismo
Metamagnetismo
Superparamagnetismo
Monopolos magnéticos
Campo magnético
BIBLIOGRAFÍA
ENLACES WEB
http://www.fisicanet.com.ar
http://www.monografías.com
http://www.wilkipedia.com
http://www.asifunciona.com/electrotecnia/
http://cabierta.uchile.cl/libros/c-utreras/node64.html
http://www.astrocosmo.cl/electrom/electrom-03.htm
http://www.gr.ssr.upm.es/eym/curso_web.html
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011
Objetivo:
Dominan en forma teórica y práctica los conocimientos del área de ciencia, tecnología
y ambiente, aplicados al contexto del ámbito de su escuela y comunidad.
Logro de aprendizaje:
Maneja el sustento teórico y práctico de los componentes temáticos del área curricular
de ciencia tecnología y ambiente en el nivel de secundaria de menores.
APRENDIZAJES ESPERADOS
Li, Ca Ti B, C, N S, Cl
+ + + +
H2 H2 H2 H2
↓ ↓ ↓ ↓
HIDRURO HIDRURO HIDRURO ACIDO
IONICO/METALICO INTERSTICIAL COVALENTE/NO HIDRACIDO
-1 +1
H (Excepción) METALICO H (*)
HIDRUROS (3)
(Grupos: 1 al 15)
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011
METAL NO METAL
2Val.
carbono
Sólidos. CaO (Común) OXIDO de calcio C02 (C) ANHIDRIDO Sólidos.
Se preparan a (IUPAC) Monóxido de Se preparan a Tº
carbónICO
Tº Ambiente o calcio Ambiente o altas
altas Tº. ( I ) DIóxido de carbono Tº.
Son Son compuestos
compuestos Al2O3 (Común) OXIDO de SO ( C ) ANH. HIPOsulfurOSO iónicos.
iónicos. aluminio ( I ) MONOxido de azufre Tienen carácter
Tienen carácter (IUPAC) TRIóxido de básico.
básico. DIaluminio Con H2O dan
Con H2O dan 3 Val. hidróxidos.
SO2 ( C ) ANH. sulfurOSO
hidróxidos. ( I ) DIóxido de azufre
FeO (Común) OXIDO ferrOSO SO3 ( C ) ANH. sulfúrICO
(IUPAC) Monóxido de ( I ) TRIóxido de azufre
fierro
Fe2O3 (Común) OXIDO férrICO
(IUPAC) TRIóxido de
Difierro.
Cl2O ( C ) ANH. HIPOclorOSO
( I ) MONOxido de DIcloro
Cl2O3 ( C ) ANH. clorOSO
( I ) TRIóxido de DIcloro
4 Val.
+ +
H2O H2O
↓ ↓
HIDRÓXIDO/BASE (OH-1)
+ ÁCIDO OXÁCIDO (H+1)
HIDRÓXIDO/BASE (OH-1)
+ ÁCIDO HIDRÁCIDO (H+1) *
OXIDOS ESPECIALES:
1. OXIDOS ANFOTEROS: Se comportan como ácidos y bases.
(Ox. Básico) Al2O3 + H2O → Al(OH)3 (Hidróxido)
(Anhídrido) Al2O3 + H2O → HAlO2 (Ac. Oxácido)
Val. Par
META 1 Anh. + 1 H2O 1 Anh. + 1 H2O
Val. Impar
P2O5 + 2 H2O → H4P2O7 (Ac.PIRO fosfórico)
LECTURAS DE APLICACIÓN
Luego el amoniaco se hace reaccionar con dióxido de carbono acelerando la reacción con un
catalizador de platino, produciéndose la úrea.
El CaCO3 sólido recubre la superficie de los sistemas de agua caliente y de las teteras, y esto
reduce la eficiencia de calentamiento. Estos depósitos, llamados incrustaciones, pueden ser
especialmente graves en las calderas donde el agua se calienta a presión en tubos que corren
a .través de un horno. La formación de Incrustaciones reduce la eficiencia de la transferencia
de calor y reduce el flujo de agua a través de los tubos.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011
La eliminación de los iones que causan el agua dura se llama ablandamiento del agua. No
todos los sistemas municipales de suministro de agua requieren ablandamiento. Cuando el
mismo es necesario, el agua de tomas por lo general de fuentes subterráneas en las que ha
tenido un contacto considerable con piedra caliza, CaCO3, y otros minerales que contienen y
+2 +2 +2
Ca , Mg Fe . El proceso cal-carbonato se emplea para operaciones de ablandamiento de
aguas municipales en gran escala. El agua se trata con cal, CaO o cal apagada, Ca(OH)2, y
+2
carbonato de sodio, Na2CO3. Estas sustancias químicas causan la precipitación del Ca como
-9 +2 -11
CaCO3 (Kps = 2,8x10 ) y el Mg como Mg(OH)2 (Kps = 1,8x10 ).
+2 -2
Ca (ac) + CO3 (ac) → CaCO3(s)
+2 -1
Mg (ac) + 2 OH (ac) → Mg(OH)2(s)
EJERCICIO DE APLICACIÓN
BIBLIOGRAFIA
El Chat estará abierto los días jueves a las 7:00 de la noche donde los docentes
pueden consultar sus dudas sobre cada uno de los ejercicios propuestos.
1. Introducción
2. Origen del Proyecto Genoma Humano (PGH)
3. Características del genoma reveladas por el Proyecto Genoma Humano.
4. Antecedentes históricos de la Bioética
5. La Bioética en el Proyecto Genoma Humano.
6. Bibliografía
INTRODUCCIÓN
Al iniciarse el tercer milenio, hemos tenido la oportunidad de presenciar uno de
los anuncios en el ámbito científico-tecnológico probablemente más importante en la
historia de la humanidad, comparable solamente con la llegada del hombre a la Luna o
a la explosión de la primera bomba atómica en Hiroshima y Nagasaki. Este es el
Proyecto Genoma Humano, (PGH), iniciativa que comprometió a miles de científicos
en cientos de laboratorios de investigación repartidos por todo el mundo. Por más de
15 años, trabajaron para llegar a descifrar la secuencia completa de bases
nitrogenadas que forman parte del Genoma Humano. Esta ardua labor, ha permitido
lograr un enorme avance en el conocimiento de la información contenida en esta
secuencia, lo que para algunos autores de artículos sobre el tema, representa conocer
ni más ni menos que "el libro de la vida". (1)
La importancia que tiene esta iniciativa para la humanidad es tan grande, que
la UNESCO no ha dudado en declararla Patrimonio Universal de la Humanidad,
evitando así, al menos nominalmente, que empresas y agencias involucradas pudieran
apropiarse del nuevo conocimiento e incrementar así, la actuales barreras que
separan a los países desarrollados de los más rezagados.(3)
Origen del Proyecto Genoma Humano (PGH)
Las actividades propias del Proyecto Genoma Humano, se inician alrededor del
año 1984, cuando el biólogo molecular Robert Sinshheimerm, en ese momento Rector
de la Universidad de California en Santa Cruz (EE.UU), planteó la idea de fundar un
instituto para secuenciar el genoma humano. Esta iniciativa había surgido varios años
antes como proyectos institucionales en muchos estados y universidades de aquel
país, fundamentalmente motivados por los grandes recursos económicos que atraería
la iniciativa.
El interés del resto de las naciones creció en forma notable, muchas de ellas
motivadas fundamentalmente por no quedarse atrás de EE.UU. en un tema de tanta
trascendencia. En un Congreso de Científicos realizada en Cold Spring Harbor
(EE.UU.), los investigadores asistentes decidieron fundar la Organización del Genoma
Humano (HuGO), cuyo objetivo fundamental fue coordinar los trabajos en el tema
realizados en el ámbito internacional y para evitar repeticiones y solapamientos. El
primer director de esta naciente organización fue el genetista norteamericano Víctor
McKusic, reconocido investigador que se ha destacado mundialmente por sus
importantes aportes al conocimiento en el campo de la genética humana a nivel
clínico. Al primer director de HuGO, le sucedió el investigador inglés sir Walter
Bodmer, en ese momento director del Fondo Imperial para la Investigación del Cáncer.
En otro hito importante del PGH se sitúa en el año 1994 cuando un ex investigador de
uno los centro del NIH, Craig Venter fundó, con un financiamiento mixto, el Instituto
para la Investigación Genética (TIGR), institución que se destacó rápidamente en la
opinión pública, porque dio a conocer en 1995, la secuencia nucleotídica del primer
organismo completo que se publicó: la de la bacteria Haemophilus influenzae con 1.8
Mb (mil ochocientos pares de bases) que forman parte de 1.740 genes.
Aunque no lo había mencionado anteriormente, desde los inicios del PGH, se acordó
desarrollarlo a través de dos vías independientes, pero relacionadas y ambas
esenciales:
Más recientemente, el 6 de Abril del año 2000 se anunció públicamente que se había
terminado el primer "borrador" conteniendo la secuencia competa del genoma humano
y la localización de los genes en los cromosomas.
Con relación los objetivos propuestos inicialmente en el PGH, podemos afirmar que se
ha logrado establecer que:
La bioética es una disciplina que tuvo su origen en el último cuarto del siglo
pasado, intentando establecer un nexo entre la biología y las humanidades. En el mes
de septiembre de 1992, se efectuó una reunión en la Universidad de Washington
(Seattle, EE.UU.) para celebrar el trigésimo aniversario del nacimiento de la disciplina,
situando este comienzo, con la publicación de un artículo en la revista norteamericana
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011
"LIFE" que refería el trabajo de un comité de esta ciudad norteamericana, creado con
la misión de seleccionar pacientes para ofrecerles un tratamiento nuevo: la
hemodiálisis de pacientes con insuficiencia renal terminal, gracias al invento de la
conexión y la cánula arteriovenosa del médico Belding Scribner. Luego de transcurrir
muy poco tiempo de que se hiciera público la existencia de esta nueva tecnología, las
autoridades de salud de la ciudad de Seattle, pudieron constatar que las personas que
requerían la aplicación del tratamiento, superaban largamente las disponibilidades
reales de atención y por ello decidieron formar este comité que fue integrado por
personas preferentemente del ambiente no-medico y a quienes se les encargó
seleccionar a los beneficiarios de esta intervención juzgando sobre la base de otros
antecedentes que no fueran los clínicos (dado que por antecedentes clínicos, todos
merecían la atención). El artículo al que se hace mención, se tituló: "They decide who
lives, who dies". Este articulo merece ser considerado un muy importante hito en la
historia de la Bioética, ya que describe la constitución de un comité anónimo no-
medico que tomó decisiones cruciales respecto a la vida, la muerte y el destino de
personas y además revela la constitución de un comité de no-expertos que comparte
decisiones que tradicionalmente eran tomadas por profesionales médicos (6).
Esta historia constituye la primera vez en que se describe un acontecimiento en el
ámbito de la Bioética y es descrito por Albert Jonseu, un profesor de ciencias sociales
de la universidad de Washington en Seattle y revela el asombro que causa a un
profesional extraño a la profesión médica, que las decisiones cruciales se vuelvan
colectivas y dejen de ser individuales, que se concreten a través de comités
dialogantes y que no-médicos tengan influencia en ellas. Surge a partir de la situación
descrita, un hecho trascendente: el paciente empieza a gozar de privilegios de las
minorías. La reflexión de este profesor es que la tecnología en y por si misma no es
importante, sino que lo es cómo siente la gente que debe responder a la tecnología.
Fletcher, "Morals and Medicine" (1984) y de Paul Ramsey, "The Patient as Person"
(1970). No se puede dejar mencionar tampoco la discusión de temas trascendentales
como el del "consentimiento informado" que asiste al paciente sometido a un
determinado tratamiento o intervención medica, la diferencia entre vida consciente y
vida vegetal (caso Quinlan en 1976), el derecho de la mujer al aborto en el caso Roe
versus Wade, el mal uso de personas incapaces de defenderse, como el famoso caso
Tuskagee Syphillis Study y muchos otros, ampliamente reseñados por los medios
informativos en EE.UU.
En otros países la situación no es diferente, tal vez los antecedentes no han sido
discutidas públicamente, pero no debemos olvidar que en muchas naciones como la
nuestra, han existido prácticas muy discutible en el ámbito médico y que ha resultado
en que algunas de ellas al ser sometidas al debate público, han sido encubiertas por
organismos que obedecen a intereses de diversa índole, como por ejemplo, la
protecciones de sectores gremiales a sus asociados.
Los reales alcances del PGH, sin embargo, han generado ansiedad en el
público y también en ciertos sectores de profesionales médicos, debido
fundamentalmente a la falta de conocimientos de algunos médicos y la mistificación de
la genética generada por los medios de difusión. Esta desorientación de los médicos,
se traduce en algunos casos en la indicación de pruebas genéticas cuyo valor y/o
perjuicios para los pacientes o sus familias, desconocen. Esto ha determinado la
creación de Comités de Pruebas Genéticas en varios países, cuyo objetivo es efectuar
una muy estricta supervisión sobre la introducción de análisis de tests de este tipo en
el mercado. En adición a este problema, no debemos desconocer que también existe
un sector que ejerce una presión muy fuerte en la controversia sobre el tema para
introducir nuevas pruebas o tests, estos sectores responden a los intereses de la
industria farmacéutica, algunas de las cuales son también "dueñas" de la información
genómica del PGH, información que han "adquirido" al contribuir a financiar las
investigaciones de los grupos de investigadores en muchos países de Europa y
Norteamérica, a poco de iniciarse las actividades del Proyecto
Bibliografía:
El Chat estará abierto los días jueves a las 7:00 de la noche donde los docentes
pueden consultar sus dudas sobre cada uno de los ejercicios propuestos.
INTRODUCCIÓN A LA GENÉTICA
Resulta útil recordar algunos conceptos previos para comprender los experimentos de
Mendel, aunque este monje no haya tenido conocimiento de los genes o los
cromosomas.
Meiosis: división celular que origina 4 células con la mitad de la dotación cromosómica
de la célula orginal (haploides). Los cromosomas homólogos se separan y cada célula
(gameta) recibe uno de los homólogos del par.
Carácter: característica observable y transmitida por los genes, ejemplo: color de las
flores
Homocigoto: organismo que tiene dos copias o alelos iguales de un gen en los dos
homólogos, también llamado raza pura.
Heterocigoto: cuando los dos alelos son diferentes, en este caso el alelo dominante
es el que se expresa.
Sobre la puerta del Museo de Mendel en Brno está la inscripción de la frase de Mendel
en checo: "MÁ DOBA P RIJDE," que significa "mi tiempo llegará".... y recién llegó en
los años 1900 donde sus principios fueron redescubiertos.
MENDEL
Mendel razonó que un organismo apto para los experimentos genéticos debería tener:
ovario. Las paredes del ovario formarán las futuras vainas (fruto: legumbre) y los
óvulos fecundados las semillas.
Muchas flores permiten la polinización cruzada, lo cual puede dificultar los estudios si
se desconoce las características de la planta masculina. Dado que las flores de las
arvejas el estigma y las anteras están completamente encerradas y, a diferencia de la
mayoría de las flores no se abren hasta ser fecundadas, es decir luego de la
autopolinización, la genética de los progenitores puede ser comprendida más
fácilmente. Los embriones autofecundados de las arvejas desarrollan sin dificultad.
Así, Mendel aisló 7 pares de caracteres que eran razas puras: cada carácter
estudiado se presentaba en dos variantes, tales como: altura de la planta (alta o
baja), superficie de la semilla (lisa o rugosa), forma de la vaina (inflada o
contraída), forma de la vaina y otras (ver esquema a continuación). En sus
experimentos Mendel uso unas 28.000 plantas de arvejas.
El principio de la segregación
Al año siguiente, Mendel plantó esas semillas y permitió que las mismas se
autofecunden. Recogió 7324 semillas en total: 5474 lisas y 1850 rugosas. Para
sistematizar el registro de datos, las generaciones fueron nombradas y numeradas. La
generación parental se denomina como P. Los descendientes de la generación P son
la generación F1 (la primera filial). La autofecundación de la generación de F1 produce
la generación F2 (la segunda filial).
Lo mismo sucedió con cada par de caracteres elegidos: cuando cepas puras de
plantas con semillas amarillas se cruzan con razas puras de plantas con semillas
verdes, todos los descendientes fueron plantas con semillas amarillas. Los padres del
entrecruzamiento son la generación P1, y los descendientes representan la generación
F1.
Mendel concluyó que el carácter estudiado estaba gobernado por factores discretos
(separables) y que el rasgo del carácter que aparece en la F1 es el dominante. Los
factores se heredaban a pares, teniendo cada generación un par de los mismos.
Actualmente nos referimos a esos factores como alelos. El hecho de que los
caracteres se hereden de a pares permiten explicar el fenómeno observado del "salto"
de una generación.
Los caracteres dominantes fueron definidos por Mendel como aquellos que
aparecen en la primera generación ( F1) en los entrecruzamientos entre dos
especies puras. Las letras mayúsculas se usan generalmente como notación
para los caracteres dominantes
Los caracteres recesivos son los que "saltan" una generación, y se observan
únicamente cuando el carácter dominante esta ausente. Las letras minúsculas
se usan generalmente como notación para los caracteres recesivos.
Las plantas de Mendel exhibían dominancia completa, en las cuales las expresiones
fenotípicas de los alelos eran dominantes o recesivas, sin "caracteres intermedios".
Consecuencias de la segregación
Alelos: se sabe ahora que cualquier gen presenta dos formas diferentes o alelos.
Homo- y Heterocigosis: determinada por la combinación de los dos alelos de un gen.
Fenotipo: expresión de las características genéticas o genotipo.
Cuadro de PUNNET
Es un mecanismo muy útil a la hora de considerar las posibles combinaciones de
gametos. Por ejemplo, en la F1 todas las plantas del cruzamiento monohíbrido entre
plantas altas y bajas dieron altas. El cuadro de Punnett permite calcular el resultado de
la F2:
Cruzamiento de prueba
Para probar la hipótesis de que los alelos están en pares y se separan en la formación
de gametas se llevó a cabo un experimento adicional: se cruzó la F1 (semillas lisas)
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011
con la raza pura paterna de semillas rugosas (padre homocigota recesivo) a lo que se
denominó CRUZAMIENTO DE PRUEBA.
Cruzamiento dihíbrido
Mendel entendió que era necesario realizar su experimento en una situación más
compleja y realizó experimentos siguiendo dos caracteres de las semillas: forma y
color. Un entrecruzamiento concerniente a dos caracteres se conoce como
cruzamiento dihíbrido en oposición al cruzamiento de una sola característica o,
monohíbrido.
• Las semillas lisas (S) son dominantes respecto a las semillas rugosas (s).
• El color amarillo (Y) es dominante sobre el verde (y).
Una vez más, la meiosis nos ayuda a entender el comportamiento de los alelos.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011
Mendel partió de razas puras que tenían plantas con semillas lisas y amarillas, y las
cruzó con razas puras de plantas con semillas verdes y arrugadas. Todas las semillas
de la generación F1 tenían semillas lisas y amarillas. Las plantas de la generación F2
se obtuvieron por autofertilización, y produjeron cuatro fenotipos:
Mendel analizó cada carácter por separado como si fuera que el otro carácter no
estuviera presente. La relación 3:1 se veía separadamente y estaba de acuerdo con el
Principio de Segregación. La segregación de los alelos S y s debían haber ocurrido
independientemente de la separación de los alelos Y e y.
Mutación
De Vries en 1902 trabajando sobre la "hierba del asno" describió en ella fenómenos de
herencia mendeliana, sin embargo de tanto en tanto aparecía una característica que
no estaba ni en los padres ni en los antecesores de las plantas, dedujo de ello que
estas característica surgían por un cambio el factor que determinaba el carácter (gen)
y que este cambio se transmitía a la progenie como cualquier otro carácter hereditario.
A este cambio lo denominó mutación y a los organismos que la mostraban mutantes,
los alelos salvajes son los que están presentes en la mayoría de los individuos y dan
el fenotipo esperado.
Ni las leyes de Mendel ni el concepto de mutación fueron conocidos por Darwin, pero
resulta claro que la combinación de características de los padres da resultados sobre
los cuales puede actuar el proceso evolutivo y que las mutaciones (si bien raras) son
una fuente constante de variaciones que posibilitan la evolución.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011
Los diversos alelos existen porque cualquier gen está sometido a mutaciones, que
ocurren cuando un gen cambia a una nueva forma estable y hereditaria. Las
mutaciones son procesos aleatorios. Los alelos mutantes y salvajes residen en el
mismo locus y se heredan de acuerdo a la genética mendeliana.
INTERACCION GENÉTICA
Entre 1884 (el año de la muerte de Mendel) y 1888 se describió la mitosis y la meiosis.
El núcleo fue identificado como la localización del material genético, y se propuso que
las "cualidades" eran llevadas por los cromosomas a las células hijas durante la
mitosis.
El rol de los cromosomas en la determinación del sexo fue deducido por Morgan de
sus trabajos con la mosca de la fruta.
Los cromosomas sexuales en los que cada integrante del par de puede diferir en su
tamaño dependiendo del organismo del cual se originan.
En los humanos y Drosophila, los machos tienen un cromosoma sexual más pequeño
llamado Y (masculino), y uno más grande llamado X (femenino).
En los saltamontes, en los cuales Sutton estudió los cromosomas no existe el Y, los
machos solo tienen el X y la notación es X0.
Normalmente los ojos de Drosophila son rojos pero Morgan descubrió una mutante
con un color de ojos diferente (blancos) y trató de duplicar con ella los experimentos
de Mendel. La mayor parte de las mutaciones son generalmente recesivas, por lo tanto
la aparición de una mutante de ojos blancos le dió a Morgan una chance de estudiar,
en animales, los fenómenos que observó Mendel. Pero, en vez de conseguir un
resultado tipo 3:1 en F2 (segundo entrecruzamiento) la relación fue cercana 4:1 (ojos
rojos a ojos blancos) y, por otra parte todos los individuos de la generación F2 de ojos
blancos eran machos.
La cruza de un macho homocigota para el color blanco con una hembra homocigota
para el rojo da una descendencia que en su totalidad tienen ojos rojos. El rojo es
dominante sobre el blanco. Sin embargo, la cruza de una hembra homocigota para
ojos blancos con machos de ojos color rojo, da un resultado inesperado: todos los
machos tienen ojos blancos y todas las hembras ojos rojos. Esto puede ser explicado
si el gen para el color rojo esta en el cromosoma X.
Explicación
Si el gen para color rojo solo esta en el cromosoma X, el macho de ojos rojos en un
segundo cruce pasará sus ojos rojos solo a sus hijas, que por otra parte recibirán un X
portador del color blanco recesivo. Por lo tanto las hembras tendrán ojos rojos igual
que su padre.
Dado que la mosca de la fruta pasa solo un Y a sus hijos, el color de los ojos está
enteramente determinado por el cromosoma X que recibe de su madre (en este caso
blanco). Esta es la razón por la cual todos los machos de la segunda cruza tienen ojos
de color blanco.
que la ceguera a los colores (característica que en humanos está ligada al sexo)
cuando se da en las mujeres en algunas ocasiones tienen ceguera los colores en un
ojo pero no en el otro.
En las mujeres heterocigotas portadoras del gen que impide la migración, debido a
que uno de los cromosomas X de las células que deben migrar es desactivado al azar,
tiene como resultado una "lotería" celular de la cual depende el grado de incapacidad
que presenta la persona (cursan, entre otros, con síntomas epilépticos), un diagnóstico
prenatal para el caso femenino revela si posee la mutación pero no el grado de
discapacidad. Bibliografía
TIPOS DE DOMINANCIA
Tipo sanguíneo
Genotipo Anticuerpos formados
o Fenotipo
A IAIA o IAI0 Anti - B
B B B 0
B I I o I I Anti - A
A B
AB I I no se fabrican anticuerpos ni contra A ni contra B
0 0
0 I I (homocigota) fabrica anticuerpos contra los tipos A y B
Dominancia incompleta
La dominancia incompleta es una condición en la cual ningún alelo es dominante
sobre el otro. La condición es reconocida para heterocigotas que expresan un fenotipo
intermedio en relación a los fenotipos paternos. Si una planta roja de Camelia se cruza
con una planta de flores blancas, la progenie será toda rosa. Cuando una rosa se
cruza con otra rosa, la descendencia es 1 roja, 2 rosas, y una blanca.
Puede ocurrir que cuando una característica es afectada por dos o más genes
diferentes, aparezca un fenotipo completamente distinto. Por ejemplo la cresta de las
gallinas esta determinada por dos genes Rr y Pp.
RR o Rr cresta en roseta
PP o Pp cresta en guisante
Epistasis
Los gatos siameses tienen sus extremidades oscuras debido a los efectos de la
temperatura en el producto de la expresión genética (en este caso una enzima). La
enzima que interviene en la producción de pigmento solo funciona a la baja
temperatura de las extremidades.
Herencia poligénica
En humanos se observa en
1. Altura
2. Lupus Eritromatoso Sistémico (Lupus) (enlace para un artículo respecto a lupus
y la genética)
3. Peso ( enlace para un artículo respecto al peso y la genética)
4. Color de ojos (enlace para un artículo acerca del color de ojos)
5. Inteligencia
6. Color de la piel
7. Muchas formas de comportamiento
Pleiotropía
Ligado
El "ligado" ocurre cuando los genes están en el mismo cromosoma. Recuerde que los
genes ligados al sexo se encuentran en el cromosoma sexual X. Los grupos ligados
son invariablemente el mismo número que los pares de cromosomas homólogos que
un organismo posee. La recombinación ocurre cuando el entrecruzamiento (crossing-
over) rompe la relación entre los grupos, como en el caso de tamaño de las alas y
color del cuerpo estudiado por Morgan. El mapeo cromosómico estuvo basado en el
estudio de la frecuencia de recombinación entre alelos.
Dado que las mutaciones pueden inducirse (por radiaciones o químicos), Morgan y sus
colaboradores podían producir nuevos alelos sometiendo a la mosca de la fruta a
mutágenos (agentes que provocan mutaciones). Los genes están localizados en
regiones específicas de ciertos cromosomas, llamadas locus (plural: loci). Un gen es
por lo tanto un segmento específico de la molécula de ADN.
Alfred Sturtevant, siendo un estudiante en el laboratorio de Morgan, postuló que el
crossing-over seria menos común entre genes adyacentes uno del otro en el mismo
cromosoma y que sería posible graficar la secuencia de los genes a lo largo del
cromosoma de la mosca de la fruta usando la frecuencia de crossing-over.
La distancia en un mapa genético se expresan en unidades de mapeo (una unidad de
mapeo = 1 recombinación por 100 huevos fertilizados, o una chance de recombinación
del 1%).
Herencia citoplasmática
Sabemos que los cloroplastos y las mitocondrias contienen ADN, y cuyos genes
controlan ciertos aspectos de la fotosíntesis y la respiración. La herencia de estos
genes es independiente de la reproducción sexual y generalmente se lleva a cabo por
vía materna, denominándose herencia citoplasmática.
ESTRATEGÍA
METODOLOGÍA
• Funciones Químicas
• Implicancias bioéticas del proyecto genoma humano.
• Introducción a la genética.