Sei sulla pagina 1di 120

PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

UNIVERSIDAD NACIONAL SAN AGUSTÍN DE


AREQUIPA

MATERIAL ACADÉMICO

ÁREA:
CIENCIA
TECNOLOGÍA Y
AMBIENTE
Grupo A
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

PORTAL DEL PROGRAMA

http://pronafcapunsa.50webs.com/

CORREO ELECTRÓNICO DEL PROGRAMA:

pronafcapunsa@hotmail.com

CORREO ELECTRÓNICO DEL NIVEL:

pronafcapsecundaria@hotmail.com

CAPACITADORES AUTORES DEL MATERIAL ACADÉMICO

MARÍA DEL PILAR SICCHA RAMOS 9-849010 mapyebal@hotmail.com


TUTOR DEL CURSO A DISTANCIA 9-347565
ANSELMO ANTONINO VELASQUEZ 9-530420 anschemo@hotmail.com
VARGAS 437421
TUTOR DEL CURSO A DISTANCIA
SONIA AMPARO GUTIÉRREZ 9-016243 itogumi@hotmail.com
MIRANDA
MÓNICA MERY DELGADO AMADO 486301 monique_da@hotmail.com
9-937085
RONAL HUBER ROMAÑA LLERENA 463877 rromanal@gmail.com
TUTOR DEL CURSO A DISTANCIA 9-883021
PEREZ VALDIVIA, JULIO ERNESTO 442906 educaxxi@gmail.com

JAIME HORACIO VELARDE WIESS 9-491767 velarwiess@yahoo.es


425525

COORDINADOR ACADÉMICO: JULIO ACUÑA MONTAÑEZ


PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

PROÁREA DE CIENCIA, TECNOLOGÍA Y AMBIENTE


GRUPO A
PRESENCIAL

METODOLOGÍA CIENTÍFICA Y PROYECTOS DE


INVESTIGACIÓN

RESUMEN

Los seres humanos desarrollan durante toda su vida actividades de investigación como una
acción cotidiana utilizando un conjunto amplio de conocimientos de los que dispone. Pero este
conocimiento debe ser encontrado por medio de un trabajo indagatorio sobre los objetos que
se intenta conocer.

Cuando comenzamos a preocuparnos del modo en que se ha adquirido un conocimiento, o


cuando intentamos encontrar un conocimiento nuevo, se nos presentan cuestiones de variada
índole, muchas de las cuales integran el campo de la Metodología y que con el apoyo de la
tecnología se han logrado hacer, quedando mucho por resolver aún. El método científico es un
buen aliado para lograr encontrar todas las interrogantes que en la vida se nos plantea.

Desde que la especie humana comenzó a crear cultura, es decir, a modificar y remodelar el
ambiente que le rodeaba para sobrevivir y desarrollarse, fue necesario también que
comprendiera la naturaleza y las mutaciones de los objetos que constituían su entorno. Tareas
que hoy resultan sencillas, como edificar una vivienda precaria, domesticar animales o trabajar
la tierra, sólo pudieron ser emprendidas después de cuidadosas observaciones de todo tipo: el
ciclo de los días y las noches, el de las estaciones del año, la reproducción de los animales y
vegetales, el estudio del clima y de las tierras, el conocimiento elemental de las cosas etc.
Todo un proceso de investigación basado en un planteamiento y metodología adecuados.

Objetivo:
Dominan en forma teórica y práctica los conocimientos del área de ciencia, tecnología y
ambiente, aplicados al contexto del ámbito de su escuela y comunidad.

Logro de aprendizaje:
Maneja el sustento teórico y práctico de los componentes temáticos del área curricular de
ciencia tecnología y ambiente en el nivel de secundaria de menores.

APRENDIZAJES ESPERADOS

• Explica y reflexiona sobre la relación entre ciencia y conocimiento en el contexto


nacional
• Identifica y utiliza los procesos cognitivos utilizados en la metodología científica.
• Reconoce los procedimientos y aplica la metodología de las ciencias elaborando un
proyecto de investigación
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

EL CONOCIMIENTO

ELCONOCIMIENTO
descriptivo, explicativo o ciencia, sobre la realidad,
Uno de los grandes temas
predictivo, parte de los y estos conocimientos
de la filosofía de todos los
hechos y vuelve a ellos, es nuevos van a constituir
tiempos es clarificar en
legal, útil y eficaz, es aportes nuevos aportes
que consiste el acto de
verificable, comunicable para la Ciencia; se puede
conocer, ¿cuál es la
además de claro y preciso. afirmar que parte de los
esencia del
hechos y vuelve a ellos.
conocimiento?, ¿cual es
a) Especializado. Se h) Es legal. Porque busca,
la relación cognoscitiva
prioriza y selecciona un dentro del cambio, las
entre el hombre y las
problema por vez, el constantes de ese cambio
cosas que lo rodean?. A
resultado el conocimiento en la realidad; y, sus
pesar de que es una
obtenido estará explicaciones que se
operación cotidiana no hay
especialmente referido a convierten en leyes
un acuerdo acerca de lo
este problema de una científicas, leyes
que sucede cuando
parte de la realidad. propiamente dichas,
conocemos algo. La
b) Analítico. El problema axiomas o principios; las
definición más sencilla nos
se debe tratar de que usa para orientar la
dice que conocer consiste
descomponer en sus búsqueda de nuevos
en obtener una
partes para analizarlas. conocimientos.
información acerca de un
c) Sintético. Las partes i) Útil y eficaz. Porque, en
objeto. Conocer es
analizadas del problema tanto los datos e
conseguir un dato o una
se deben volver a unir, informaciones sobre la
información sobre algo. El
integrar o recomponer. realidad sean confiables y
conocimiento es esa
d). Metódico. Un válidos, tienen utilidad
información acerca de ése
conocimiento nuevo nos para esa realidad; y,
objeto.
ayuda a encontrar otros. pueden ser empleados,
Los docentes utilizamos, e) Sistemático. Un eficazmente, en ella.
para desarrollar nuestras conocimiento científico es j) Verificable. Es decir que
actividades educativas, un sistemático en tanto el conocimiento científico
conjunto amplio de constituye resultado es comprobable por otros
conocimientos, que han exitoso de un método. investigadores y se puede
sido encontrados por f) Descriptivo, explicativo o demostrar, repitiendo el
medio de un trabajo predictivo. Porque proceso.
indagatorio sobre los constituye respuesta a k) Comunicable. ¿Cómo
objetos, con los cuales alguna pregunta sobre el podríamos demostrar lo
interactuamos y ¿cómo? (descripción); o el que no podemos
pretendemos conocer. ¿por qué? (explicación); o comunicar?
la integración de ¿cómo y i) Claro y preciso. Los
El conocer es un proceso por qué será así en el enunciados
continuo cuyo resultado o futuro? (predicción). Que proposicionales de los
producto es el es aplicable también al conocimientos científicos
conocimiento. pasado. no deben dejar duda sobre
g) Parte de los hechos y lo que enuncia y debe ser
EL CONOCIMIENTO vuelve a ellos. Dado que la categórico hasta donde
CIENTÍFICO investigación científica sea posible.
parte de revisar el
El conocimiento científico conjunto de conocimientos
es Especializado, provisoriamente
analítico, sintético, establecidos y
metódico, sistemático, sistematizados por la
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

CIENCIA Y TECNOLOGÍA

CIENCIA El proceso es la adquisición sistemática


Tecnología y ciencia, conforman una de conocimiento nuevo de un sistema. La
combinación perfecta que puede abrir las adquisición sistemática es generalmente
puertas hacia mejores oportunidades para el método científico. El sistema es
los investigadores. generalmente la naturaleza.
Ciencia (en latín scientia, de scire, Ciencia es entonces el conocimiento
'conocer'), término que en su sentido más científico que ha sido adquirido
amplio se emplea para referirse al sistemáticamente a través del proceso
conocimiento sistematizado en cualquier científico.
campo, pero que suele aplicarse sobre
todo a la organización de la experiencia TECNOLOGÍA
sensorial objetivamente verificable. La Es la capacidad que posee el hombre
búsqueda de conocimiento en ese para construir, a partir de materias primas,
contexto se conoce como 'ciencia pura', una gran variedad de objetos, máquinas y
para distinguirla de la “ciencia aplicada” herramientas, así como el desarrollo y
que consiste en la búsqueda de usos perfección en el modo de fabricarlos y
prácticos del conocimiento científico y de emplearlos con vistas a modificar
la tecnología, a través de la cual se llevan favorablemente el entorno o conseguir
a cabo las aplicaciones. una vida más segura.
El vocablo "ciencia" proviene del latín El ámbito de la Tecnología está
scientia, que en un sentido escrito comprendido entre la Ciencia y la Técnica
significa "saber". Sin embargo, al término propiamente dichas, Por tanto el término
saber debe otorgársele un significado más "tecnológico" equivale a "científico-
amplio y, así, ciencia seria el "conjunto de técnico". El proceso tecnológico da
lo que se sabe por haberlo aprendido respuesta a las necesidades humanas;
mediante una continuada actividad para ello, recurre a los conocimientos
mental… para tener ciencia hay que científicos acumulados con el fin de
abarcar al menos todo un sistema de aplicar los procedimientos técnicos
conocimientos; para tener saber basta con necesarios que conduzcan a las
poseer más conocimientos acerca de uno soluciones óptimas. La Tecnología
o varios sistemas de los que tiene el abarca, pues, tanto el proceso de creación
vulgo. Podemos definir a la ciencia, desde como los resultados. Dependiendo de los
un punto de vista totalizado, como un campos de conocimiento, tenemos
sistema acumulativo, metódico y múltiples ramas o tecnologías: mecánica,
provisional de conocimientos comportable, materiales, del calor y frío, eléctrica,
producto de una investigación científica y electrónica, química, bioquímica, nuclear,
concerniente a una determinada área de telecomunicaciones, de la información.
objetos y fenómenos.
Las principales características que posee La actividad tecnológica influye en el
la ciencia, así concebida, son las progreso social pero también en el
siguientes: sistemática, acumulativa, deterioro de nuestro entorno. Actualmente
metódica, provisional, comprobable, la Tecnología está comprometida en
especializada, abierta y producto de una conseguir procesos tecnológicos acordes
investigación científica. con el medio ambiente, para evitar que las
Ciencia es por un lado, el proceso crecientes necesidades provoquen un
mediante el cual se adquiere agotamiento o degradación de los
conocimiento, y por el otro, el cuerpo recursos materiales y energéticos de
organizado de conocimiento obtenido a nuestro Planeta. Evitar estos males es
través de este proceso. tarea común de todos; sin duda, nuestra
mejor contribución comienza por una
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

buena enseñanza-aprendizaje de la Las tecnologías usan, en general,


Tecnología en los estudios de secundaria. métodos diferentes del científico. Estos
Aunque la experimentación es común a métodos difieren según se trate de
ambas disciplinas, las tecnologías usan, tecnologías de producción artesanal o
en general, métodos diferentes del industrial de artefactos, de prestación de
científico. Estos métodos difieren según servicios, de realización u organización de
se trate de tecnologías de producción tareas de cualquier tipo. Un método
artesanal o industrial de artefactos, de común a todas las tecnologías es el uso
prestación de servicios, de realización u de artefactos.
organización de tareas de cualquier tipo.
Un método común a todas las tecnologías.

Investigación científica

Investigación se deriva etimológicamente desarrollando gracias a la libertad de


de los términos latinos in (en, hacia) y pensamiento, mediante la crítica, el
vestigium (huella, pista). De ahí que su análisis riguroso, la superación de los
significado original es “hacia la pista” o errores y la discusión. Por ello es que el
“seguir la pista”, buscar o averiguar método ni es obligatorio, en el sentido de
siguiendo algún rastro. que si no se lo sigue de una determinada
manera nos aguarda inevitable el fracaso,
De acuerdo con está noción etimológica, ni es tampoco garantía absoluta de que se
investigar es, genéricamente, toda arribará a un resultado exitoso.
actividad humana orientada a descubrir
algo desconocido. “Tiene su origen en la De modo desarrollado, y de acuerdo con
curiosidad innata del hombre, que le Mario Bunge (1972, 35-6) en el método de
impulsa a averiguar cómo es y porqué es investigación científico se puede distinguir
así el mundo que le rodea; así como en la la siguiente serie ordenada de
indigencia natural de sus instintos en operaciones.
comparación con los animales, que le a) Enunciar preguntas bien formuladas y
obliga a investigar para obtener verosímilmente.
información, resolviendo de este modo b) Arbitrar conjeturas fundadas y
sus necesidades. contrastables con la experiencia, para
contestar a las preguntas.
La investigación científica, consiste en la c) Derivar consecuencias lógicas de las
puesta en práctica de un procedimiento conjeturas.
muy complejo, dilatado, planificado y d) Arbitrar técnicas para someter las
técnico como es el método científico. conjeturas a contrastación.
e) Someter a su vez a contrastación estas
Hay un modo de hacer las cosas, de técnicas para comprobar su relevancia a
plantearse las preguntas y de formular las la fe que merecen.
respuestas, que es característico de la f) Llevar a cabo la contrastación e
ciencia, que permite al investigador interperetar sus resultados.
desarrollar su trabajo con orden y Estimar la pretención de verdad de las
racionalidad. Pero el método, no es un conjeturas y la fidelidad de las técnicas.
camino fijo o predeterminado y menos aún g) Determinar los dominios en los cuales
un recetario de acciones que se siguen valen las conjeturas y las técnicas, y
como una rutina. Porque el conocimiento formular los nuevos problemas originados
científico no se adquiere por un proceso por la investigación.
similar al de la producción de bienes en
una cadena de montaje sino que se va
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

INVESTIGACION

Los docentes debemos ser protagonistas de nuestra formación continua, debemos


comprender las prácticas de otros maestros con el objeto de interpretar críticamente,
a través de la observación sistemática, rigurosa y prolongada que se da en el
contexto educativo, esto quiere decir que debemos practicar la investigación.
Además podemos abordar los problemas de nuestra práctica cotidiana, generando
conocimientos que nos permita expresar la comprensión de los procesos de enseñar
y aprender, es decir realizar la investigación protagónica con niveles crecientes de
autonomía y capacidad de decisión, en donde el maestro investigador se asume así
mismo como objeto de estudio. La investigación puede hacer posible que tanto
maestros como estudiantes interactúen permanentemente, provocando situaciones
significativas donde las relaciones pedagógicas favorecen esta generación de
conocimientos, siendo efectivo el trabajo en un clima favorable, donde se prioricen
las actitudes positivas para el desarrollo humano integral considerando al sujeto tal
como es. Es en estas condiciones donde se puede decir que el estudiante en
compañía con sus pares, formadores y comunidad en general construye los
conocimientos, en un proceso de mediación social donde se puede intercambiar
conocimientos, expectativas, lo que debe permitir también complementar nuestra
identidad personal y profesional.

TIPOS DE INVESTIGACION

La investigación que el mundo natural todas las ciencias y


educativa se desarrolla a tiene existencia propia, defiende la existencia de
partir de distintos independiente de quien lo cierto grado de
paradigmas estudia, está gobernado uniformidad y orden en la
investigativos, siendo los por leyes que permiten naturaleza.
más importantes los que explicar, predecir y El enfoque cuantitativo se
corresponden a los controlar los fenómenos apoya en la filosofía
enfoques cualitativo, del mundo natural, que realista, defensora de la
cuantitativo y crítico. pueden ser descubiertas tesis según la cual el
y descritas de manera mundo se puede captar
El enfoque cuantitativo. objetiva y libre de valores tal como es. Mantiene la
También denominado por los investigadores si idea que el conocimiento
positivista o empírico utilizan los métodos de la realidad solo es
analítico, el enfoque adecuados. Asimismo posible a través del
cuantitativo sigue los sostiene que el método científico.
métodos de las ciencias conocimiento obtenido se Predomina el método
físico - naturales, considera objetivo, se deductivo y las técnicas
consideradas como basa en la experiencia y de experimentación. La
modélicas del es válido para todos los indagación científica se
conocimiento científico y tiempos y lugares, con produce formulando
defiende determinados independencia de quien hipótesis, a partir de la
supuestos sobre la lo descubre. Además teoría, cuyo valor se
concepción del mundo y utiliza la vía hipotético- contrasta al comparar sus
el modo de conocerlo. deductiva como consecuencias
Para ello tiene en cuenta metodología válida para deductivas con los
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

resultados de las significado y acción. Se conocimiento se


observaciones y de la constituye como una subordina a este objetivo
experimentación alternativa a la visión del fundamental y está
controladas. Se buscan enfoque cuantitativo y condicionado por él. Así
relaciones entre preconiza la el proceso de
variables, de ser posibles interpretación y investigación no persigue
relaciones causales, que comprensión de los ni termina con
permitan producir fenómenos centrándose validaciones
resultados manipulando básicamente en las experimentales, nuevos
las variables explicativas. intenciones, motivos y hallazgos o percepciones,
razones de los sujetos sino que promueve un
El enfoque cualitativo. implicados. compromiso con la acción
También denominado y persigue la
naturalista, hermenéutico El enfoque crítico o transformación de la
o etnográfico. Este investigación - acción realidad por la acción.
enfoque engloba un Constituye una posición Aquí no se trabaja con
conjunto de corrientes de respuesta a los una perspectiva lineal
humanístico – enfoques cuantitativo y que va de la comprensión
interpretativas cuyo cualitativo, en la medida a la acción, la
interés se centra en el que pretende superar el investigación es una
estudio de los símbolos, reduccionismo del forma de acción. Entre
interpretaciones y primero y el investigación y acción
significados de las conservadurismo del hay una retroalimentación
acciones humanas y de la segundo, admitiendo la permanente, dentro de la
vida social, y utiliza sobre posibilidad de una ciencia cual la acción siempre
todo métodos basados en social que no sea ni juega el rol central.
la etnografía. Esta puramente empírica ni
perspectiva engloba un únicamente interpretativa. La investigación acción
conjunto de orientaciones Este enfoque se ha adquirido el suficiente
enraizadas en los desarrolla con la prestigio en las últimas
principios del naturalismo. investigación acción, que décadas para
Las investigaciones se funda en el consolidarse como una
suelen realizarse en conocimiento crítico, al alternativa importante a la
escenarios naturales, y que suma la acción sobre investigación
se abordan aspectos la realidad. Un proyecto convencional en muchos
subjetivos de la conducta de investigación acción campos de la acción
humana, supone no solo la social. Uno de ellos es el
fundamentalmente a reflexión crítica y campo educativo y
través de procedimientos comprensiva sobre una específicamente el de la
como la entrevista con problemática, sino, acción docente.
profundidad y la fundamentalmente actuar Actualmente muchas
observación participante. con eficacia sobre ella instituciones educativas
para modificarla. El de carácter innovador
El enfoque cualitativo objetivo fundamental de incorporan a la
pretende sustituir las la investigación acción Investigación acción
nociones científicas de consiste en mejorar la como eje fundamental en
explicación, predicción y práctica en vez de sus estrategias
control del paradigma generar conocimientos. formativas.
cuantitativo, por las La producción y
nociones de comprensión utilización del
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

METODO CIENTIFICO

Es el conjunto de estrategias que usan los científicos para desarrollar su función, es decir,
hacer ciencia.
El método científico implica una combinación de inducción y deducción que se
retroalimentan. En la realidad del método suele ser difícil saber dónde ha empezado el
proceso.
Inducción: de información particular que captamos a través de nuestros sentidos hacemos
afirmaciones generales. De que es difícil. Ejemplo: como las esmeraldas que he observado
hasta ahora son verdes infiero que todas las esmeraldas son verdes, como las veces que he
tocado el fuego me he quemado infiero que el fuego es demasiado caliente para tocarlo.
Deducción: tomar un principio general del mundo e inferir que ocurrirá algo particular.
Ejemplo: del principio general de que el fuego está demasiado caliente para tocarlo, infiero
que si lo toco me quemaré.

En definitiva, el método científico de la forma "si la hipótesis H es cierta,


presenta los siguientes pasos: entonces tendrá que ocurrir el suceso X o
tendremos que encontrar el hecho Y".
1. Observación: Detectas un problema
(enigma, desafío o reto que plantea algún 4. Verificación: Vemos lo que ocurre en
aspecto de la realidad empírica) al posteriores observaciones. Para ello
observar la naturaleza accidental o sometes a prueba (contrastas) tus
intencionadamente. Repites las predicciones en base a posteriores
observaciones para analizarlas y poder observaciones o experimentos. Nos
separar y desechar los aspectos ponemos a buscar si el hecho Y es
irrelevantes para el problema. Reúnes efectivamente cierto que se presenta en la
todos los datos que posibles que incidan realidad o si el proceso X ocurre o puede
en ese problema que te has planteado. Es ser causado.
una proceso de observación sagaz y
En este proceso las predicciones (X e Y)
minuciosa de la naturaleza. Puede de ser
pueden ser confirmadas (cuando se
de forma directa o indirecta usando
cumplen) o falsadas (cuando no se
instrumentos.
cumplen). La llamada falsación (Popper)
2. Hipótesis: Una vez recogidos todos los consiste en proponer predicciones que si
datos elaboras una explicación provisional se cumplen refutan nuestra hipótesis. Por
que describa de la forma más simple supuesto, tanto confirmación como
posible. Puede ser un enunciado breve, falsación son probabilísticas y siempre
una formulación matemática, etc. Esta implican un margen de error. Hay que
sería una primera inducción. recordar que en ciencia no se habla de
pruebas o refutaciones absolutas y por
3. Predicción: A partir de la hipótesis
eso se insiste en la idea de
realizas predicciones de lo que tendrías
provisionalidad .En este proceso estamos
que encontrar bajo determinadas
suponiendo que:
condiciones en el caso de que fuera
cierta. Las predicciones pueden hacer -La predicción deducida a partir de la
referencia a un fenómeno o dato que hipótesis ha sido correctamente realizada.
tengas que encontrar y se refieran al
-El experimento o las observaciones han
futuro (resultado de un experimento,
sido realizados correctamente.
observación del movimiento de un cuerpo
celeste) o que haga referencia al pasado 5. Replicación: En este momento
(fósiles) y que podemos llamar estamos otra vez en un proceso de
retrodicciones. Es un proceso de inducción porque después de producir
deducción. Se formula en un enunciado más observaciones revisamos nuestra
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

hipótesis inicial. Rechazas, modificas o repetidamente contrastada con éxito por


mantienes tu hipótesis en base a los diversos grupos de científicos, nuestra
resultados volviendo al punto 3, las hipótesis pasa a ser una TEORÍA
predicciones. Así mismo este proceso es científica. A partir de ese momento
público y se da a conocer (es público) podemos intentar ampliar nuestra teoría
para que otros puedan duplicarlo. Si para que pueda abarcar más fenómenos
nuestras predicciones se cumplen nuestra naturales.
hipótesis se refuerza. Tras ser

Todo este proceso tiene que implicar a mucha gente, expertos en su área, que cooperen de
forma independiente para realizar las contrastaciones o pruebas (experimentos u
observaciones) que puedan confirmar progresivamente las hipótesis hasta convertirlas en
teorías científicas o rechazarlas definitivamente. Si alguien obtiene resultados positivos es
necesario saberlo para que otros expertos puedan replicar o duplicar las pruebas o
experimentos durante un tiempo. Otras veces se sugieren pruebas, experimentos o
contrastaciones similares o variantes.
En el caso de que NO hayamos obtenido resultados positivos con nuestra hipótesis,
podemos establecer hipótesis adicionales por las que hayamos fallado siendo verdadera la
hipótesis original. Estas hipótesis adicionales pueden ser fallos en la deducción de
predicciones o en la realización del experimento. En este caso, estas hipótesis adicionales
tendríamos a su vez que contrastarlas (probarlas). Como se puede ver, siempre es el mismo
método científico repetido una y otra vez a diferentes niveles y de diferentes maneras. Todo
el proceso sigue unos pasos ordenados, pero es interactivo. Puede fallar al contrastar
hipótesis, pero esta puede dar nuevos datos e información para refinar la hipótesis o para
replantear el problema de otra manera y repetir el proceso. Como se puede ver, la
interacción implica usar el método científico también en subproblemas que se puedan ir
planteando siendo muy complejo el proceso global.
Todos estos pasos y estrategias dan lugar a un avance progresivo de la ciencia y, a veces, a
saltos bruscos, pero los pasos aproximados siempre son los descritos.
Destacar, una vez más, que no se pretende que las leyes y teorías científicas sean
infalibles. Todo lo contrario. La consecuencia lógica de que las afirmaciones científicas
tengan que ser falsables (Popper) implica que son falibles. Es por eso decimos que las
teorías y las leyes científicas son PROVISIONALES. Aunque haya casos en que nuestro
nivel de duda sea infinitesimal, siempre podemos mejorarlas porque el proceso anterior se
repite una y otra vez: aparecen y se recogen nuevos datos, nuevas observaciones y nuevos
experimentos, nuevas interpretaciones que someten a nuevas pruebas, etc.
Constantemente las antiguas teorías y leyes se superan por otras con más capacidad
explicativa o descriptiva. En realidad, incluso los hechos científicos no son necesariamente
certezas infalibles o absolutas. Los hechos, no implican sólo elementos perceptuales
fácilmente comprobables, sino que con frecuencia tienen también un componente de
interpretación.
Por supuesto, este proceso es general y se concretará de diferentes maneras en las
diversas ciencias y según los problemas concretos que se planteen. Es por esto que
muchos afirman que no hay un método científico, sino muchos métodos científicos.
En realidad, los pasos que se ha descrito anteriormente son una versión ideal del método
científico. En la práctica no se pasa por todos los pasos como si fueran reglas rígidas. El
conocer estos pasos no te convierte en científico. Es necesaria una buena dosis de
creatividad o incluso de arte para concretar todo esto. La intuición, sagacidad, suerte, etc
juegan un papel adicional. Hay historias abundantes de científicos con ideas brillantes en
base a datos insuficientes o poca o ninguna experimentación. F.A.Kekule descubrió la
estructura del benceno mientras soñaba dormido en un autobús. Oto Lewi despertó por la
noche con la solución de la conducción sináptica.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

Si unimos estos aspectos intuitivos-casuales, con el carácter imaginativo que tienen los
modelos y teorías científico, ¿podríamos decir que la ciencia es una pura construcción
humana...? ¡NO! Las intuiciones afortunadas se dan en gente muy preparada, formada y
que ha profundizado mucho en su área...y la ciencia obtiene su éxito porque somete la
enorme capacidad de imaginación y fantasía del ser humano a los hechos observados, las
pruebas empíricas y las reglas de la razón y la lógica.
Ciertamente la ciencia se basa en la fuerte creencia de que existen unas entidades teóricas
que no se pueden observar directamente; pero sólo se creen tras disponer de una extensa
evidencia desde la cual se infieren.
Aunque la lógica deductiva simple se usa en ciencia, las teorías y leyes que se descubren y
abarcan la globalidad del método científico en un momento dado están basadas en
inferencias estadísticas (explicitas o implícitas), empleando el razonamiento inductivo para
llegar a las interpretaciones más plausibles y probables acerca de lo que observamos en el
laboratorio y la vida diaria. Recuerda que la síntesis del método científico es: (observación-
hipótesis-predicción-verificación-replicación).

PROCEDIMIENTO DEL MÉTODO CIENTÍFICO

En términos generales, los científicos debemos seguir una sistematización para obtener una
deducción válida acerca de algo. Esta sistematización se resume en los pasos del Método
Científico.
Pasos del Método Científico: Esta explicación es una descripción general del método
científico. El procedimiento no tiene qué seguir exactamente un arreglo como el descrito
aquí.

El primer paso en cualquier investigación es la OBSERVACIÓN. La observación consiste en


fijar la atención en una porción del Universo. Mediante la observación nosotros identificamos
realidades o acontecimientos específicos del cosmos a través de nuestros sentidos.
PROBLEMA O PREGUNTA- Una vez que se ejecuta la observación, surgen una o más
preguntas, generalmente generadas por la curiosidad del observador. La pregunta surgida
debe ser congruente con la realidad o el fenómeno observado, y debe adherirse a la lógica.
El investigador siempre debe tener en cuenta que las preguntas que comienzan con un "por
qué" son muy difíciles (si no imposibles) de contestar. El investigador objetivo prefiere
comenzar sus preguntas con un "qué", un "cómo", un "dónde", o un "cuándo". La pregunta
podría ser también un "para qué es". Por ejemplo, ¿Cuál es la causa por la cual las plantas
verdes se marchitan en la oscuridad?

Luego, el observador, mediante RAZONAMIENTO INDUCTIVO, trata de dar una o más


respuestas lógicas a las preguntas. Cada respuesta es una introducción tentativa que puede
servir como una guía para el resto de la investigación. Estas soluciones preliminares a un
problema son las HIPÓTESIS.

Hipótesis es una declaración que puede ser falsa o verdadera, y que debe ser sometida a
comprobación (experimentación). Cada hipótesis debe ser sometida a una prueba
exhaustiva llamada experimentación. Los resultados de la experimentación determinarán el
carácter final (falso o verdadero) de la hipótesis. Por ejemplo, "Probablemente durante la
fotosíntesis las plantas crean su propio alimento".

Después de que ha enunciado una o más hipótesis, o explicaciones propuestas, el


investigador elabora uno o más PREDICCIONES, las cuales deben ser consistentes con las
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

observaciones e hipótesis. Para hacer esto, el investigador usa el RAZONAMIENTO


DEDUCTIVO.

Enseguida, las predicciones son sometidas a pruebas sistemáticas para comprobar su


ocurrencia en el futuro. Estas comprobaciones en conjunto reciben el nombre de
EXPERIMENTACIÓN.
La EXPERIMENTACIÓN consiste en someter a un sujeto o proceso a variables controladas
de manera artificial.

La experimentación puede realizarse de diversas maneras, pero la experimentación


controlada es una característica propia del método científico, de tal manera que otros
sistemas más sencillos no son viables para el propósito de la ciencia.

En experimentación controlada debemos tener dos grupos de prueba: un sujeto llamado


grupo de control o grupo testigo, y otro llamado grupo experimental. El grupo de control y el
grupo experimental, son sometidos a las mismas condiciones, excluyendo la variable que se
ha elegido para el estudio. El grupo de control no es sometido a la variable, sólo se somete
al grupo experimental. Se observan los resultados y se registran las diferencias entre ambos
grupos. Si el investigador nota una diferencia entre ambos grupos, entonces puede deducir
una respuesta. Conforme la investigación avanza, las hipótesis falsas se rechazan una a
una, hasta obtener la respuesta más plausible de todas las hipótesis que se presentaron
inicialmente. Cuándo la hipótesis se verifica, entonces se procesa la declaración final, que
en ciencias se llama TEORÍA.

TEORÍA- Teoría es una declaración parcial o totalmente verdadera, verificada por medio de
la experimentación o de las evidencias y que sólo es válida para un tiempo y un lugar
dererminados. Por ejemplo, "las plantas con clorofila fabrican su propio alimento durante la
fotosíntesis".
Si la teoría se verificara como verdadera en todo tiempo y lugar, entonces es considerada
como LEY.
LEY- Una teoría está sujeta a cambios, una ley es permanente e immutable. Una ley es
comprobable en cualquier tiempo y espacio en el Cosmos. Sin embargo, una teoría es
verdadera sólo para un lugar y un tiempo dados.
Por ejemplo, la Evolución es una teoría que se perfecciona de acuerdo a nuevos
descubrimientos, mientras que lo relacionado con la Gravitación es una ley, pues ocurre en
todo tiempo y lugar del universo conocido.

INSTRUMENTOS DE RECOLECCIÓN DE DATOS

“Para implementar los planes generales de investigación se deben usar métodos de


recolección de datos. Siempre existe un mutuo juego de problema y de método. Los
problemas dictan los métodos en una medida considerable, pero los métodos -su
disponibilidad, -su factibilidad y su relevancia también influyen en los problemas”
(KERLINGER: 1992: 495)

Para hacer una apropiada selección de las técnicas y una adecuada preparación de los
instrumentos, debemos tener en cuenta la naturaleza de las variables, las hipótesis
formuladas y los objetivos de la investigación. Las condiciones en que se emplean y la forma
cómo se aplica y responden fundamentalmente al nivel y tipo de investigación que hemos
establecido y, por ende al marco conceptual.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

Las técnicas de investigación científica son los procedimientos, las vías, que ponen en
relación al investigador con las fuentes de datos relevantes para indagar sobre el objeto de
estudio.

Estos procedimientos científicos, tienen que ser aplicados sistemáticamente; por tanto, lo
que de debemos aquí es planificar cuidadosamente la pertinencia de su elección y las
condiciones y forma en que se emplearan para garantizar la consistencia en los resultados.

Se suele identificar cinco grandes técnicas:

a) La observación. Es la técnica por la cual se hace el procesamiento perceptivo del


comportamiento de los fenómenos del desenvolvimiento de los hechos y acontecimientos,
en los escenarios que son objeto de nuestra indagación.

b) La entrevista. Es la comunicación interpersonal que entabla el investigador con el sujeto


de estudio para obtener la información que se ha propuesto recoger. Es una técnica que le
permite al investigador ensayar diversas estrategias durante la sesión para profundizar
sobre determinados temas, comprobar la veracidad y consistencia de la respuesta, pueden
ser Estandarizadas, No estructuradas y semi estructuradas.

c) La técnica de evaluación. Se emplea para medir el desempeño, las habilidades,


potencialidades, aptitudes, determinar actitudes, preferencias, intereses, hábitos, rasgos y
grados de estructuración de las dimensiones de la personalidad. Estas técnicas son test o
pruebas, las escalas e inventarios. Se caracterizan porque el proceso para obtener los datos
ha sido sometido a previos análisis estadísticos para la verificación de sus niveles de validez
y confiabilidad y porque hacen estimaciones de la magnitud de las variables que examinan,
asignando de entrada valoración de índole numérico.

d) La encuesta. Aplicando a nivel presencial y a distancia es la técnica más conocida por su


amplia difusión y alcance. Es gran uso para recoger opiniones, actitudes, prácticas y
sugerencias sobre tópicos muy específicos, acerca de los cuales las personas pueden
manifestarse en base a su propia experiencia y conocimiento.

e) Las técnicas de análisis de contenido. También llamada técnica documental. Sirven para
analizar, sistemática y objetivamente las comunicaciones producidas. Se aproximan al
objeto de estudio a través de las fuentes primarias y secundarias: archivos de actas,
expedientes, informes, vestigios y restos materiales.

Los Instrumentos son los medios auxiliares o mecanismos para recoger y registrar los datos
obtenidos a través de los métodos y técnicas.

Estos instrumentos ayudan al investigador a:

• Indagar sobre el objeto de estudio y registrar los datos en forma fidedigna, sin omitir
información.
• Registrar los datos con rapidez al pre-clasificarlos sobre la base de criterios.
• Lograr mayor uniformidad en el tipo de datos que se van a obtener.
• Tabular los datos, procesarlos y hacer los análisis descriptivos, comparativos e
inferenciales más fácilmente.

Se preparan los instrumentos para organizar y sistematizar el registro de los datos, que
recogemos al emplear las estrategias de selección y muestreo, las técnicas de observación,
entrevista, encuesta, de evaluación y el análisis de contenido o análisis documental.

Los datos pueden registrarse mediante el empleo de equipos o materiales escritos.


PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

Los equipos que más suelen utilizarse son las grabadoras de audio, las videos filmadoras y
las cámaras fotográficas.

Los materiales escritos o impresos comprenden entre otros los siguientes:

Notas de campo: son instrumentos en los que se registran lo que dicen y hacen los
individuos estudiados y pueden ser descriptores estrictamente de las interacciones o
actividades y del tipo en el que el investigador hace comentarios e interpretaciones.

Fichas o guías de observación: son formularios muy simples de lineamientos generales


conformados por secciones que contienen la identificación de cada categoría de conductas
específicas que han de observarse y registrarse.

Hojas de control o listas de chequeo: contienen ítems precisos que permiten registra la
presencia o ausencia de una característica, fenómeno, hecho, su frecuencia de aparición y
otos datos con sólo el registro de un símbolo.

PROYECTO DE INVESTIGACIÓN

El principal y más importante producto formal de la planificación es el Plan o Proyecto de


Investigación, un documento en el que se plasman las acciones de previsión, académica y
administrativa. A continuación se presenta una pauta para la presentación del proyecto en
un plan de investigación. Este esquema es sólo una guía, un conjunto de orientaciones para
elaborar la presentación del proyecto. Las propuestas pueden variar según el problema de
investigación que se pretende estudiar. El ejemplo es como sigue:

1) Título y responsable de la investigación


2) Presentación del proyecto
3) Planeamiento del problema de investigación
3.1. Formulación del problema.
3.2. Importancia del estudio
3.3. Objetivos
4) Marco de referencia del problema
4.1. Antecedentes Estado de la Cuestión
4.2. Bases teórico - científicas
5) Metodología
5.1. Tipo de investigación
5.2. Población y muestra del estudio
5.3. Métodos y técnicas
5.4. Instrumentos y tácticas de recolección de información
5.5. Diseño de procesamiento y análisis de datos
5.6. Programación y cronograma de actividades
6) Previsión de recursos
6.1. Perfil de recursos humanos, identificación de bienes y servicios
6.2. Bienes
6.3. Servicios
7) Difusión de los resultados
8) Bibliografía.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

BIBLIOGRAFÍA

ACOSTA HOYOS, Luis E. (1978) Guía práctica para la investigación y redacción de


informes. Ed. Piadós, Buenos Aires.
BELMONTE NIETO, Manuel. (2002) Enseñar a investigar. Orientaciones prácticas. Ed.
Mensajero, Bilbao.
CLANCHY, J. y BALLARD, B. (1995) Cómo se hace un trabajo académico. Guía para
estudiantes universitarios. Ed. PUZ, Zaragoza.
ECO, Humberto. (1992) Cómo se hace una tesis. Ed. Gedisa, Barcelona.
Eggen, Paul D. / Kauchak, Donal P. (1999) “Estrategias Docentes”, 1era edición en
español, Fondo de Cultura Económica, México.
GALLEGO, Antonio. (1987) Ser doctor. Cómo redactar una tesis doctoral. Ed. Fundación
Universidad-Empresa, Madrid.
IBÁÑEZ BRAMBILA, B. (1990) Manual para la elaboración de tesis. Ed. Trillas, México.
ICART, M.T y otros. (2001) Elaboración y presentación de un proyecto de investigación y
una tesina. Ed. Universitat de Barcelona, Barcelona.
LASSO DE LA VEGA, Javier. (1977) Cómo se hace una tesis doctoral. Ed. Fundación
Universitaria Española, Madrid.
ROUVEYRAN, Jean Claude. (1994) Mémories et thèses. L’art et les méthodes. Préparation,
redaction, présentation. Ed. Maisonneuve et Larose, Paris.
SIERRA BRAVO, Restituto. (1994) Tesis doctorales y trabajos de investigación científica (3ª
ed. rev. y ampl..). Ed. Paraninfo, Madrid.
UBIETO ARTETA, Agustín. WALKER, Melissa. (2000) Cómo escribir trabajos de
investigación. Ed. Gedisa, Barcelona.

http://www.monografias.com/trabajos7/inci/inci.shtml
http://www.lafacu.com/apuntes/educacion/Metodologiadeinvestigacion/default.htm
http://www.oei.org.co/fpciencia/art07.htm
http://www.ucla.edu.ve/dac/compendium/
http://www.cicy.mx/
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

MATERIA, ENERGÍA Y MAGNITUDES

ÁREA DE CIENCIA, TECNOLOGÍA Y AMBIENTE

RESUMEN

Si observamos el mundo donde vivimos observaremos que todo está formado de materia la
que puede cambiar de estado y está distribuida en todo el planeta, a su vez esta se puede
convertir en energía y viceversa como lo indica la ley de la conservación de la materia. La
estructura de la materia dependerá del tipo de moléculas que la conformen así como de sus
características como composición interna, estado físico y su forma de distribución y
organización. Hoy se ha llegado a la conclusión que todo lo que existe en la naturaleza está
formado de materia y energía, también sabemos que la materia está constituida por
partículas subatómicas como protones, neutrones, electrones, mesones, positrones y
antiprotones. La materia se puede clasificar en sustancias y mezclas, luego el conociendo
de la naturaleza de la materia nos permitirá crear materiales artificiales.

El Universo a su vez también está formado de energía siendo la responsable de los


fenómenos que se dan a nuestro alrededor. El Sol por ejemplo es fuente de energía de
todos los seres vivos, todo lo que nos rodea tiene energía la que fue estudiada por Isaac
Newton y expresada en sus leyes del movimiento. Inicialmente el ser humano sólo utilizaba
su propia energía física pero, con el desarrollo de su inteligencia la incrementó y descubrió
otras fuentes de energía que se perfeccionan día a día con el avance de la ciencia y la
tecnología.

Como otro aspecto relacionado a materia y energía tendremos que referirnos a las
magnitudes que, como lo manifestó el Lord Kelvin, un científico inglés, quien decía con
mucha convicción refiriéndose a los fenómenos físicos: "sólo se puede hablar con propiedad
de aquello que se mide". Medir es comparar cantidades de la misma magnitud. Por ejemplo
cuando medimos una longitud comparamos la distancia desconocida con otra que ya
conocemos, y que ha surgido de una cantidad convenida de longitud denominada patrón. Un
patrón se adopta por convención, esto significa que un grupo de personas con
conocimientos y experiencia resuelve acordar que: una cierta cantidad a la que llamamos
patrón y cuyo nombre (por ejemplo el "metro") origina la unidad de referencia, será con
quien deberá ser comparada cualquier otra porción de magnitud que queramos cuantificar.

Objetivo:
Domina en forma teórica y práctica los conocimientos de ciencia, tecnología y ambiente
aplicados al contexto del ámbito de su escuela y comunidad.

Logro de aprendizaje:
Maneja el sustento teórico y práctico de los componentes temáticos del área curricular de
ciencia tecnología y ambiente en el nivel de secundaria de menores.

APRENDIZAJES ESPERADOS

 Profundiza y refuerza conocimientos sobre materia y energía.


 Reflexiona sobre el uso de energías.
 Relaciona las características básicas de la materia y energía.
 Resuelve ejercicios de conversión de unidades en el sistema internacional.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

LA MATERIA

La materia es aquello de lo que están hechos los objetos que constituyen el Universo
observable. En el contexto de la física moderna se entiende por materia cualquier campo,
entidad o discontinuidad que se propaga a través del espacio-tiempo a una velocidad inferior
a la de la luz y a la que se pueda asociar energía. Así todas las formas de materia tienen
asociadas una cierta energía pero sólo algunas formas de materia tienen masa. Una
definición moderna dice que la materia es energía sumamente condensada.

Existe una materia llamada másica y se organiza jerárquicamente en varios niveles. El nivel
más complejo es la agrupación en moléculas y éstas a su vez son agrupaciones de átomos.
Los constituyentes de los átomos, que sería el siguiente nivel son las partículas
subatómicas.A partir de aquí hay todo un conjunto de partículas subatómicas que acaban
finalmente en los constituyentes últimos de la materia como los quarks.

Otra forma de materia es la no másica así Una gran parte de la energía del universo
corresponde a formas de materia formada por partículas o campos que no presentan masa,
como la luz y la radiación electromagnética, las dos formadas por fotones sin masa.

Otro tipo de partículas de las que no sabemos con seguridad si es másica son los neutrinos
que inundan todo el universo y son responsables de una parte importante de toda la energía
del universo. Junto con estas partículas no másicas, se postula la existencia de otras
partículas como el gravitón, el fotino y el gravitino, que serían todas ellas partículas sin masa
aunque contribuyen a la energía total del universo.

CLASIFICACIÓN DE LA MATERIA
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

SUSTANCIAS MEZCLAS
Sustancia pura: Es una materia cuya Es la unión de dos o más sustancias simples o
composición química es invariable y compuestas en cantidades variables, que
poseen propiedades idénticas en conservan sus propiedades pudiendo separarse
cualquiera de sus partes estando por medios físicos.
constituidas por una sola especie química
ya sea un solo elemento o compuesto.
Elemento: Sustancia conformada por una Mezclas Homogéneas: Constituido por una sola
sola clase de átomos que tienen el mismo sustancia o por varias que se encuentran en una
número atómico y no se puede separar en sola fase. Hay una disgregación total de sus
sustancias más simples. EJEMPLO: componentes. También se les llama
nitrógeno, plata. SOLUCIONES. Ejemplo: Mezcla de sal y agua.
La IUPAC reconoce a la fecha 111 Solución: Es un material homogéneo constituido
elementos químicos de los cuales 92 son por más de una sustancia. Son transparentes,
naturales y a partir del E.Q. 84 son estables y no producen precipitaciones. Una
radiactivos. característica muy importante es la composición, la
Los elementos se representan por cual es igual en todas sus partes. Sin embargo,
símbolos, ejemplo: N, Ag. con los mismos componentes es posible preparar
muchas otras soluciones con solo variar la
proporción de aquellos. EJEMPLO: las gaseosas.
Compuestos: Sustancia conformada por Mezclas Heterogéneas: Es una mezcla de
varias clases de átomos unidos por un sustancias en más de una fase o que son
enlace químico y en proporciones físicamente distinguibles. La disgregación no es
definidas. total y se puede ver las diferentes sustancias de
Los compuestos se representan mediante las que está compuesta. Ejemplo: Mezcla de agua
fórmulas químicas. EJEMPLO: dióxido de y aceite.
carbono (CO2)

Propiedades de la materia

Propiedades Extensivas Propiedades Intensivas


Son las cualidades de la materia Son las cualidades de la materia
dependientes de la cantidad de materia independientes de la cantidad que se trate,
considerada. Son aditivas y de uso más es decir no dependen de la masa no son
restringido para caracterizar a las clases de aditivas y, por lo general, resultan de la
materia debido a que dependen de la masa y composición de dos propiedades extensivas.
las que dependen de la cantidad de materia. El ejemplo perfecto lo proporciona la
Ejemplo: masa, longitud, volumen. densidad, que relaciona la masa con el
volumen. Es el caso también del punto de
fusión, el punto de ebullición, el coeficiente
de solubilidad, etc.

Propiedades químicas y físicas


Son propiedades distintivas de las sustancias que se observan cuando se combinan con
otras, es decir, que les pasa en procesos por los que, por otra parte, las sustancias
originales dejan generalmente de existir, formándose con la misma materia otras nuevas.
Las propiedades químicas se manifiestan en los procesos químicos (reacciones químicas),
mientras que las propiedades propiamente llamadas propiedades físicas, se manifiestan en
los procesos físicos, como el cambio de estado, la deformación, el desplazamiento, etc.
Ejemplos de propiedades químicas:
• Corrosividad de ácidos, Poder calorífico o energía calórica, acidez y reactividad.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

ESTADOS FÍSICOS DE LA MATERIA

De acuerdo con la teoría cinética molecular la materia se encuentra formada por moléculas y
éstas se encuentran animadas de movimiento, el cual cambia constantemente de dirección y
velocidad cuando chocan o bajo el influjo de otras interacciones físicas. Debido a este
movimiento presentan energía cinética que tiende a separarlas, pero también tienen una
energía potencial que tiende a juntarlas. Por lo tanto el estado físico de una sustancia puede
ser:
• Sólido: si la energía cinética es menor que la potencial.
• Líquido: si la energía cinética y potencial son aproximadamente iguales.
• Gaseoso: si la energía cinética es mayor que la potencial.
• Plasma: si la energía cinética es tal que los electrones tienen una energía total positiva.

Los sólidos se forman cuando fuerzas de atracción entre moléculas individuales son
mayores que la energía que causa que se separen. Las moléculas individuales se encierran
en su posición y se quedan en su lugar sin poder moverse. Aunque los átomos y moléculas
de los sólidos se mantienen en movimiento, el movimiento se limita a una energía
vibracional y las moléculas individuales se mantienen fijas en su lugar y vibran unas al lado
de otras. A medida que la temperatura de un sólido aumenta, la cantidad de vibración
aumenta, pero el sólido mantiene su forma y volumen ya que las moléculas están
encerradas en su lugar y no interactúan entre sí. Para ver un ejemplo de esto, pulsar en la
siguiente animación que muestra la estructura molecular de los cristales de hielo.

Los líquidos se forman cuando la energía (usualmente en forma de calor) de un sistema


aumenta y la estructura rígida del estado sólido se rompe. Aunque en los líquidos las
moléculas pueden moverse y chocar entre sí, se mantienen relativamente cerca, como los
sólidos. Usualmente, en los líquidos las fuerzas intermoleculares (tales como los lazos de
hidrógeno que se muestran en la siguiente animación) unen las moléculas que
seguidamente se rompen. A medida que la temperatura de un líquido aumenta, la cantidad
de movimiento de las moléculas individuales también aumenta. Como resultado, los líquidos
pueden “circular” para tomar la forma de su contenedor pero no pueden ser fácilmente
comprimidas porque las moléculas ya están muy unidas. Por consiguiente, los líquidos
tienen una forma indefinida, pero un volumen definido. En el ejemplo de animación
siguiente, vemos que el agua líquida está formada de moléculas que pueden circular
libremente, pero que sin embargo, se mantienen cerca una de otra.

Los gases se forman cuando la energía de un sistema excede todas las fuerzas de
atracción entre moléculas. Así, las moléculas de gas interactúan poco, ocasionalmente
chocándose. En el estado gaseoso, las moléculas se mueven rápidamente y son libres de
circular en cualquier dirección, extendiéndose en largas distancias. A medida que la
temperatura aumenta, la cantidad de movimiento de las moléculas individuales aumenta.
Los gases se expanden para llenar sus contenedores y tienen una densidad baja. Debido a
que las moléculas individuales están ampliamente separadas y pueden circular libremente
en el estado gaseoso, los gases pueden ser fácilmente comprimidos y pueden tener una
forma indefinida.

Los plasmas son gases calientes e ionizados. Los plasmas se forman bajo condiciones de
extremadamente alta energía, tan alta, en realidad, que las moléculas se separan
violentamente y sólo existen átomos sueltos. Más sorprendente aún, los plasmas tienen
tanta energía que los electrones exteriores son violentamente separados de los átomos
individuales, formando así un gas de iones altamente cargados y energéticos. Debido a que
los átomos en los plasma existen como iones cargados, los plasmas se comportan de
manera diferente que los gases y forman el cuarto estado de la materia. Los plasmas
pueden ser percibidos simplemente al mirar para arriba; las condiciones de alta energía que
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

existen en las estrellas, tales como el sol, empujan a los átomos individuales al estado de
plasma.

El quinto estado de la materia, Condensado Bose-Einstein (BEC), se alcanza cerca del


cero absoluto de temperatura (-273 grados centígrados), mediante la condensación de miles
de átomos. Su existencia fue pronosticada hace 80 años por los científicos de los que deriva
su nombre.

En 1920, S. N. Bose (físico hindú) desarrolló una estadística mediante la cual se estudiaba
cuándo dos fotones debían ser considerados como iguales o diferentes. A efectos de lograr
su apoyo ante la Comunidad científica, le envió sus investigaciones a A. Einstein, quien,
además de apoyarle, aplicó lo desarrollado por Bose a los átomos.

En 1924-25, ambos predijeron que átomos extremadamente fríos podrían condensarse en


un único estado cuántico.

En 1995, un equipo dirigido por los físicos estadounidenses Eric Cornell y Carl Wieman
atrapan una nube de 2 mil átomos metálicos congelados a menos de una millonésima de
grado sobre el cero absoluto, produciendo el condensado de Bose-Einstein o "burbuja
mecánica cuántica".

No todos los átomos siguen las reglas de la estadística de Bose-Einstein. Sin embargo, los
que lo hacen, a muy bajas temperaturas, se encuentran todos en el mismo nivel de energía

Los científicos enfrían unas partículas llamadas bosones hasta alcanzar temperaturas muy
bajas.

Los bosones fríos se unen para formar una única súper-partícula que es más parecida a una
onda que a un ordinario trocito de materia. Los BECs son frágiles, y la luz viaja muy
lentamente a través de ellos.

Este logro permite la construcción del láser atómico en 1997 y el desarrollo de la medición
de alta precisión y la nanotecnología.

El condensado fermiónico es una nueva forma de materia creada en laboratorio. Es una


nube de átomos de potasio congelados.

Este condensado fue producido por primera vez a fines de 2003. La experiencia, financiada
por la NASA, estuvo a cargo de un grupo de científicos encabezados por la doctora
Deborah Jin, de la Universidad de Colorado.

Para crearlo, los científicos enfriaron gas de potasio hasta una millonésima de grado por
encima del cero absoluto, que es la temperatura en la que la materia para de moverse.

La diferencia de esta nueva clase de materia con los condensados Bose Einstein radica en
que la primera está formada por fermiones y la segunda, por bosones.

Los bosones son átomos cuyos electrones, protones y neutrones se encuentran en pares
mientras que los fermiones los poseen en número impar.

Los investigadores confinaron el gas en una cámara al vacío y utilizaron campos magnéticos
y luz láser para manipular los átomos de potasio. El campo hace que los átomos solitarios
se emparejen y su unión pueda ser controlada ajustando el campo magnético.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

Cada par puede unirse a otro par, y al seguir la cadena, formar el condensado fermiónico.
Este gas súper congelado es considerado como el paso inmediato anterior para lograr un
superconductor (que permitiría conducir electricidad sin perder parte de la energía, como
sucede con los conductores tradicionales).

Con los superconductores basados en esta nueva materia, será posible fabricar trenes
levitados magnéticamente, computadoras ultra-rápidas y el abaratamiento de la electricidad.

ESTRUCTURA DE LA MATERIA

Antes de 1800, se pensaba que la materia era continua, es decir que podía ser dividida en
infinitas partes más pequeñas sin cambiar la naturaleza del elemento. Sin embargo,
alrededor de 1803 ganó aceptación la teoría de un científico inglés llamado Jhon Dalton. La
naturaleza de la materia y la forma en que los elementos se combinaban, sugería la
existencia de un límite a lo que un elemento podía subdividirse. Ahora sabemos que la
materia se puede dividir en trozos cada vez más pequeños, y finalmente se encuentra una
unidad básica que no puede ser dividida sin cambiar la naturaleza del elemento. Esta unidad
básica se llama Átomo. Un átomo es la partícula más pequeña que puede existir de un
elemento conservando las propiedades de dicho elemento.
Átomo Molécula
Es la unidad de sustancia química y es la Es la partícula más pequeña de un
porción más pequeña de materia que compuesto o elemento que tiene
tiene todas las propiedades que identifican existencia estable o independiente. Es la
a un elemento químico y están unidad estructural de las sustancias,
representa como están unidos los átomos
constituidos por un núcleo donde se para formar las sustancias, ya sean
encuentran los neutrones y protones y elementos o compuestos. Ejemplo: H2.,
reúne la carga positiva y la nube CI2.
electrónica constituida por los electrones En términos estrictos sólo existen
que son de carga negativa. El átomo en moléculas para los elementos o
su conjunto es de carga neutra. compuestos unidos covalentemente como
Cl2, H2O, CH4, etc., más no para las
formas iónicas como NaCI, KI, etc.

Partículas Subatómicas Fundamentales:


Los electrones
El electrón tiene una carga eléctrica negativa de −1.6 × 10−19 culombios y una masa de
9.10 × 10−31 Kg. (0.51 MeV/c2), que es aproximadamente 1800 veces menor que la masa del
protón. El electrón tiene un spin 1/2, lo que implica que es un fermión, es decir, que se le
puede aplicar la estadística de Fermi-Dirac.
Cuando los electrones que no forman parte de la estructura del átomo se desplazan y hay
un flujo neto de ellos en una dirección, este flujo se llama corriente eléctrica
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

El Protón:

Partícula nuclear con carga positiva igual en magnitud a la carga negativa del electrón;
junto con el neutrón, está presente en todos los núcleos atómicos. Al protón y al
neutrón se les denomina también nucleones. El núcleo del átomo de hidrógeno está
formado por un único protón. La masa de un protón es de 1,6726 × 10-27 Kg.,
aproximadamente 1.836 veces la del electrón. Por tanto, la masa de un átomo está
concentrada casi exclusivamente en su núcleo. El protón tiene un momento angular
intrínseco, o espín, y por tanto un momento magnético. Por otra parte, el protón
cumple el principio de exclusión.

El Neutrón:

El Neutrón es una partícula eléctricamente neutra, de masa 1.838,4 veces mayor que
la del electrón y 1,00014 veces la del protón; juntamente con los protones, los
neutrones son los constitutivos fundamentales del núcleo atómico y se les considera
como dos formas de una misma partícula: el nucleón.
La existencia de los neutrones fue descubierta en 1932 por Chadwick; estudiando la
radiación emitida por el berilio bombardeado con partículas, demostró que estaba
formada por partículas neutras de gran poder de penetración, las cuales tenían una
masa algo superior a la del protón.
Mesones:
Descubiertos por Anderson siendo su presencia premeditada por Yukawa. Tiene igual
carga que el electrón pero su masa es 200 veces mayor con un tiempo de vida media
de 200 millonésimas de segundo. El mesón muestra gran afinidad con protones y
neutrones trasladándose constantemente de una partícula a otra cambiando su carga
y evitando la repulsión de protones.

Modelos atómicos

Historia: • Principio de Incertidumbre de


Heisemberg.
• Teoría atómica de Dalton (1808)
• Principio de Dualidad de la
• Modelo atómico de Thompson (1 Materia de Louis D`Broglie:
897) Descubre el electrón. (Onda – Partícula)
• Modelo de Rutherford (1 910) Onda y ondas
Descubre el núcleo del átomo. electromagnéticas.
• Modelo de Niels Bohr (1913) • Principio de Niveles
Descubre los niveles de energía Estacionarios de Bohr.
(Niveles estacionarios de Bohr). • Modelo de Max Planck
E=h.v
Modelo mecánico cuántico: Modelo c = ٨ v = 3 x 10 8 m/s
matemático y probabilístico. h = Constante de Planck = 6,63 x 10 -34
Principios en los que se basa en: Js
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011

Núcleo atómico:

Parte central del átomo que almacena la masa del átomo, se encuentran principalmente
protones y neutrones. Las propiedades que dependen del núcleo son:
• Número atómico: Z= p+ y e- • Número másico: A= p+ + nº
• Isótopos: = Z y ≠ A • Isóbaros: ≠ Z e = A
• Isótonos:= Número de nº • Radiactividad

Corona o envoltura:

• Parte externa del átomo casi vacía, se encuentran los electrones.


• De ella dependen:
Obtención de números cuánticos (n, l. m y s).
Distribución electrónica (Principio de Aufbau).
Principios de máxima multiplicidad de Hund y exclusión de Pauli.
Propiedades magnéticas: Paramagnetismo, diamagnetismo, ferromagnetismo.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011

MAGNITUDES, UNIDADES, EQUIVALENCIAS Y CONVERSIÓN

Magnitudes y unidades Magnitud es todo fenómeno capaz de ser medido, es decir


expresarlo como una cantidad numérica. Lord Kelvin, un científico inglés, decía con mucha
convicción refiriéndose a los fenómenos físicos: "solo se puede hablar con propiedad , de
aquello que se mide". Medir es comparar cantidades de la misma magnitud.

Por ejemplo cuando medimos una longitud comparamos la distancia desconocida con otra
que ya conocemos, y que ha surgido de una cantidad convenida de longitud denominada
patrón. Un patrón se adopta por convención, esto significa que un grupo de personas con
conocimientos y experiencia resuelve acordar que: una cierta cantidad a la que llamamos
patrón y cuyo nombre (por ejemplo el "metro") origina la unidad de referencia, será con
quien deberá ser comparada cualquier otra porción de magnitud que queramos cuantificar.
En el caso de la longitud, el patrón es una cantidad que todos conocemos denominada
metro.

• Magnitudes escalares, son magnitudes caracterizadas por un valor fijo independiente


del observador y carecen de dirección y sentido, como por ejemplo, la masa. En física
clásica la masa, la energía, la temperatura o la densidad de un cuerpo son magnitudes
escalares ya que contienen un valor fijo para todos los observadores (en cambio en
teoría de la relatividad la energía o la temperatura dependen del observador y por tanto
no son escalares).

• Magnitudes vectoriales, son magnitudes que cuentan con: cantidad, dirección y sentido
como, por ejemplo, la velocidad, la fuerza, la aceleración, etc. Además, al considerar otro
sistema de coordenadas asociado a un observador con diferente estado de movimiento
o de orientación, las magnitudes vectoriales no presentan invariancia de cada una de las
componentes del vector y, por tanto, para relacionar las medidas de diferentes
observadores se necesitan relaciones de transformación vectorial. En mecánica clásica
también el campo electrostático se considera un vector; sin embargo, de acuerdo con la
teoría de la relatividad esta magnitud, al igual que el campo magnético, debe ser tratada
como parte de una magnitud tensorial.

UNIDADES BASICAS O FUNDAMENTALES DEL SI


Magnitud unidad Símbolo
Longitud metro m
Masa kilogramo kg
Tiempo segundo s
Intensidad de corriente amperio A
Temperatura Kelvin K
Cantidad de sustancia mol mol
Intensidad luminosa candela cd

Angulo plano radián rad


Angulo sólido estereorradián sr

• Longitud: metro (m). El metro es la distancia recorrida por la luz en el vacío en 1/299
792 458 segundos. Este patrón fue establecido en año de 1983.
• Tiempo: segundo (s). El segundo es la duración de 9 192 631 770 períodos de la
radiación correspondiente a la transición entre los dos niveles hiperfinos del estado
fundamental del cesio-133. Este patrón fue establecido en el año de 1967.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011

• Masa: kilogramo (kg). El kilogramo es la masa de un cilindro de aleación de Platino-


Iridio depositado en la Oficina Internacional de Pesas y Medidas. Este patrón fue
establecido en el año de 1887.
• Intensidad de corriente eléctrica: amperio (A). El amperio o ampere es la
intensidad de una corriente constante que, manteniéndose en dos conductores
paralelos, rectilíneos, de longitud infinita, de sección circular despreciable y situados
a una distancia de un metro uno de otro, en el vacío, produciría una fuerza igual a
2×10-7 newton por metro de longitud.
• Temperatura: kelvin (K). El kelvin es la fracción 1/273,16 de la temperatura del punto
triple del agua.
• Cantidad de sustancia: mol (mol). El mol es la cantidad de sustancia de un sistema
que contiene tantas entidades elementales como átomos hay en 0,012 kilogramos de
carbono-12.
• Intensidad luminosa: candela (cd). La candela es la unidad luminosa, en una
dirección dada, de una fuente que emite una radiación monocromática de frecuencia
540×1012 Hz y cuya intensidad energética en dicha dirección es 1/683 watios por
estereorradián.

Múltiplos y submúltiplos
Múltiplos Es frecuente que las unidades del S.I. resulten unas veces
excesivamente grandes para medir determinadas
Prefijos Símbolo Equivalencia
magnitudes y otras , por el contrario , demasiado
exa E 1018 pequeñas . De ahí la necesidad de los múltiplos y los
peta P 1015 submúltiplos.
tera T 1012
giga G 109 La Notación Científica es la forma de agrupar cifras
medibles utilizando las siguientes reglas:
mega M 106 • El número que procede al punto decimal debe ser de
Kilo K 103 un solo digito y que se encuentre entre 1 y 9.
hecto h 102 • Los números posteriores al punto decimal deben ser de
deca da 10 dos dígitos entre 00 y 99.
• Se deben utilizar para notaciones científicas las
Submúltiplos
magnitudes fundamentales o las que corresponden al
deci d 10-1 sistema internacional de medidas.
centi c 10-2
mili m 10-3 ¿Que es la Notación Científica?
micro µ 10-6 En la ciencia, es común trabajar con números muy grandes
y muy pequeños. Por ejemplo, el diámetro de una glóbulo
nano n 10-9 rojo es 0.0065 cm, la distancia de la tierra al sol es
pico p 10-12 150,000,000 Km, y el número de moléculas en 1 g de agua
femto f 10-15 es 33,400,000,000,000,000,000,000. Es engorroso trabajar
atto A 10-18 con números tan largos, así que medidas como estas son
generalmente escritas usando la abreviación llamada la
notación científica.

Cada cero en los números de arriba representa un múltiplo de 10. Por ejemplo, el número
100 representa 2 múltiplos de 10 (10.x 10 = 100. En la notación científica, 100 puede ser
escrito como 1 por 2 múltiplos de 10:

100 = 1 x 10 x 10 = 1 x 102 (en la notación científica)


PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011

La notación científica es una manera simple de representar los números grandes ya que el
exponente sobre el 10 (2 en el ejemplo de arriba) le dice cuántos lugares hay que mover el
decimal del coeficiente (el 1 en el ejemplo de arriba) para obtener el número original. En

nuestro ejemplo, el exponente 2 nos dice que hay que mover el decimal a la derecha dos
lugares para generar el número original.

La notación científica puede aún ser usada hasta cuando el coeficiente es otro número que
el 1. Por ejemplo:

Esta abreviación también puede ser usada con números muy pequeños. Cuando la notación
científica se usa con números menores a uno, el exponente sobre el 10 es negativo, y el
decimal se mueve hacia la izquierda, en vez de hacia la derecha. Por ejemplo:

-3
Por consiguiente, usando la notación científica, el diámetro de un glóbulo rojo es 6.5.x 10
cm, la distancia de la tierra al sol es 1.5 x 108km y el número de moléculas en 1 g de agua
es 3.34 x 1022.

BIBLIOGRAFÍA

Whitten K./ Gailey K./ Davis R.; Química General; 3 ra Ed.; Mc Graw-Hill; México; 1992
Molone L.; Introducción a La Química; 3 ra Ed.; Editorial Limusa; México; 1992
BOLÍVAR, R. y OTROS (1986) Investiguemos 8, Introducción a la Ciencias. Ed., Voluntad,
Bogotá, Colombia.
CÁRDENAS, F. A., y OTRAS (1996). Ciencia Interactiva 6, 7. McGraw-Hill, Editorial Rocío
Cárdenas R. Santafé de Bogotá.
CARRASCOSA, J. Unidades Didácticas elaboradas sobre propiedades de la materia.
GANERO, S. (1997). Los materiales en la vida cotidiana: Sus propiedades y usos.
Forciencias.
MONCAYO GUIDO, A., TALERO y OTROS (1980). Ciencia en acción 1, 2, 3 Editorial
McGraw-Hill, Latinoamérica, S.A. Bogotá, Colombia
PARGA L., D. (1997).Cosmo 8. Ciencia Integrada. Educ. Básica. Editorial Voluntad, S.A.
WALTON, E. Q. DE (1997).La Ciencia Nos Ayuda I. Editorial M. Fernández. Madrid, España.

ENLACES WEB

1. Klein, H.A., "The science of measurement. A hystorical survey", Dover, 1974.


2. Norma UNE 5-100-87, AENOR, 1987.
3. Universal Constants, http://physics.nist.gov/cuu/index.html
4. The International System of Units, http://www.npl.co.uk/npl/reference
5. Time, calendar and clock, http://imartinez.etsin.upm.es/ot1/Time/Time.htm
6. The Bureau International des Poids et Mesures: http://www.bipm.fr.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011

ECOLOGÍA, CICLOS BIOGEOQUIMICOS, BIOTECNOLOGÍA


Y GENOMA HUMANO

ÁREA DE CIENCIA, TECNOLOGÍA Y AMBIENTE

ABSTRACT
La Ecología es la rama de la Biología que se encarga del estudio de la relación entre los
seres vivos y su medio ambiente o de la distribución y abundancia de los seres vivos, y
cómo esas propiedades son afectadas por la interacción entre los organismos y su medio
ambiente. El medio ambiente incluye las propiedades físicas que pueden ser descritas como
la suma de factores abióticos locales, como el clima y la geología, y los demás organismos
que comparten ese hábitat (factores bióticos), en los que se incluye la biodiversidad que a
su vez comprende la variedad de ecosistemas y las diferencias genéticas dentro de cada
especie que permiten la combinación de múltiples formas de vida, y cuyas mutuas
interacciones y con el resto del entorno, fundamentan el sustento de la vida sobre el planeta.
Una molécula necesaria para la vida de un organismo, se llama nutrimento. Los organismos
vivos necesitan de 30 a 40 elementos químicos, donde el número y tipos de estos elementos
varía en cada especie. Los elementos requeridos por los organismos en grandes cantidades
se denominan Macronutrientes y Micronutrientes, que son proporcionados como resultado
de los ciclos biogeoquímicos.
La biotecnología ha sido una herramienta importante en el desarrollo científico de nuestros
tiempos. En el último cuarto del siglo XX, el estudio de los mecanismos de funcionamiento
de la célula, en las áreas de microbiología, fisiología celular y bioquímica se consolidaron
aceleradamente gracias al progreso de una nueva disciplina: la biología molecular. La
explotación del potencial industrial del cultivo de células alcanza un nivel imprevisto cuando
las herramientas de la biología molecular se incorporan a los procesos biotecnológicos.
Surge así la biotecnología moderna, cuyo ámbito de aplicación se ha extendido rápidamente
a células de seres de todo tipo, incluyendo las de organismos pluricelulares como las
plantas, los animales y el ser humano mismo. Finalmente llegamos al estudio del genoma
humano que nos permite analizar y reflexionar sobre la importancia que tiene éste sobre la
humanidad.

Objetivo:
Domina en forma teórica y práctica los conocimientos de ciencia, tecnología y ambiente
aplicados al contexto del ámbito de su escuela y comunidad.

Logro de aprendizaje:
Maneja el sustento teórico y práctico de los componentes temáticos del área curricular de
ciencia tecnología y ambiente en el nivel de secundaria de menores.

APRENDIZAJES ESPERADOS

 Identifican ecosistemas y explican sus características, relacionándolas.


 Reconocen los componentes abióticos y bióticos.
 Describen el nicho ecológico de diversos animales de la región.
 Reflexionan sobre la importancia de conservar el medio ambiente y los ecosistemas.
 Diferencian el sentido Físico de los procesos internos del ciclo del agua.
 Diferencia el sentido químico de los procesos del ciclo de carbono. Manejan nociones y
ejemplos de biotecnología para su explicación.
 Analizan diferentes aplicaciones sobre la biotecnología aplicables a la localidad.
 Describe y define genoma humano.
 Explica el proceso científico de genoma humano.
 Analizan y reflexionan sobre la importancia del descubrimiento del genoma humano
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011

ECOLOGÍA

Históricamente el término Ökologie fue introducido en 1866 por el prusiano Ernst Haeckel en
su trabajo Morfología General del Organismo; está compuesto por las palabras griegas oikos
(casa, vivienda, hogar) y logos (estudio), por ello Ecología significa "el estudio de los
hogares".
En un principio, Haeckel entendía por ecología a la ciencia que estudia las relaciones de los
seres vivos con su ambiente, pero más tarde amplió esta definición al estudio de las
características del medio, que también incluye el transporte de materia y energía y su
transformación por las comunidades biológicas.
Según el biólogo alemán Ernst Haeckel entendemos por ecología al conjunto de
conocimientos referentes a la economía de la naturaleza, la investigación de todas las
relaciones del animal tanto con su medio
inorgánico como orgánico, incluyendo sobre
todo su relación amistosa y hostil con aquellos
animales y plantas con los que se relaciona
directa o indirectamente.
La Ecología es una rama de la biología que
estudia la relación entre los seres vivos y su
ambiente o de la distribución y abundancia de
los seres vivos, y cómo esas propiedades son
afectadas por la interacción entre los
organismos y su ambiente. El ambiente
incluye las propiedades físicas que pueden
ser descritas como la suma de factores abióticos locales, como el clima y la geología, y los
demás organismos que comparten ese hábitat (factores bióticos). En una palabra la ecología
es el estudio de todas las complejas interrelaciones a las que Darwin se refería como las
condiciones de la lucha por la existencia.
La ecología se ocupa de las interrelaciones que existen entre los organismos vivos,
vegetales o animales, y sus ambientes, y éstos se estudian con la idea de descubrir los
principios que regulan estas relaciones. Su campo de investigación abarca todos los
aspectos vitales de las plantas y animales que están bajo observación, su posición
sistemática, sus reacciones frente al ambiente y entre sí y la naturaleza física y química de
su entorno inanimado.
Los ecólogos tienen básicamente dos métodos de estudio:
 Autoecología, el estudio de especies individuales en sus múltiples relaciones con el
ambiente; y
 Sinecología, el estudio de comunidades, es decir ambientes individuales y las
relaciones entre las especies que viven allí.

OBJETO DE ESTUDIO DE LA ECOLOGÍA

La ecología como la rama de la Biología que estudia los seres vivos, su medio y las
relaciones que establecen entre ellos a nivel de las poblaciones, comunidades,
ecosistemas y la biosfera.
Dado que se focaliza en los más altos niveles de organización de la vida en la Tierra y en la
interacción entre los individuos y su ambiente, la ecología es una ciencia multidisciplinaria
que utiliza herramientas de otras ramas de la ciencia, especialmente Geología,
Meteorología, Geografía, Física, Química y Matemática.
Los trabajos de investigación en esta disciplina se diferencian con respecto de la mayoría de
los trabajos en las demás ramas de la Biología por su mayor uso de herramientas
matemáticas, como la estadística y los modelos matemáticos.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011

TÉCNICAS DE ESTUDIO DE LA ECOLOGÍA

Los estudios se elaboran por medio de recolección de datos de campo y su análisis


posterior. Los resultados arrojan información relacionada a biotopo y biocenosis.
Biotopo: Lo conforman el medio, sustrato y factores ambientales que perjudican a los seres
vivos.
 Estudio del sustrato del ecosistema: Comprende el agua y el suelo.
 Estudio del clima: Comprende la temperatura, precipitación, su hidrografía, entre
otros.
Biocenosis (comunidad): Es la población de flora y fauna que ocupan cierto área natural.

DISCIPLINAS RELACIONADAS CON LA ECOLOGÍA

Una rama muy importante de la ecología es la Disciplinas de la Ecología


ecología microbiana, que estudia a los • Ecología microbiana
microorganismos en los diferentes ambientes: aire, • Ecología de Poblaciones
agua y tierra. En los últimos años se han logrado • Ecología de Comunidades
numerosos avances en esta disciplina con las • Biogeografía
técnicas disponibles de biología molecular. • Etoecología
La Agronomía, pesquería y, en general, toda • Ecología del Comportamiento
disciplina que tenga relación con la explotación o • Ecología del Paisaje
conservación de recursos naturales, en especial seres • Ecología Matemática
vivos, tienen la misma relación con la ecología que • Biología de la conservación
gran parte de las ingenierías con la Matemática,
Física y Química.
Las ciencias económicas comparten una buena proporción de la parte formal de la ecología;
algunas herramientas utilizadas en esta disciplina, como tablas de vida y teoría de juegos,
tuvieron su origen en la economía. La ciencia que integra ambas disciplinas es la economía
ecológica.

NIVELES DE INTEGRACIÓN DE LOS MATERIALES BIOLÓGICOS

Los materiales biológicos (proteínas, lípidos, ácidos nucleicos, etc.) se integran en la


naturaleza en un cierto número de niveles de organización cada vez más complejos:
célula - individuo - población - comunidad.
La célula es la unidad biológica funcional más pequeña y sencilla. Está compuesta por
un territorio protoplasmático, limitado por una membrana plasmática (de lípidos y
proteínas), reforzada en los vegetales por una pared celular. El protoplasma está
constituido por una solución coloidal de proteínas muy estructurada (citoplasma), en cuyo
seno se encuentra el material genético (ADN, ARN), organizado generalmente en un
núcleo, y toda una serie de orgánulos (mitocondrias, ribosomas, plastos, etc.) que
constituyen la maquinaria metabólica.
El individuo (organismo) es un sistema biológico funcional que, en los casos más
simples, se reduce a una sola célula (unicelular), pero que, en principio, está compuesto
por numerosas células, que pueden estar agrupadas en tejidos y órganos. Un individuo
se caracteriza por su anatomo-fisiología y su metabolismo. En un momento dado, un
individuo posee una determinada biomasa que se puede expresar en peso vivo (fresco)
o en peso de materia seca.
La población (o demo) es un sistema biológico formado por un grupo de individuos de la
misma especie que viven en un lugar determinado en un momento determinado.
Aproximadamente, la especie es un conjunto de individuos semejantes que transmiten
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011

este parecido de generación en generación.


La comunidad (o biocenosis) es un sistema biológico que agrupa el conjunto de
poblaciones habitantes de un mismo lugar determinado, en unas condiciones dadas del
medio y en un momento concreto.
El ecosistema. Una comunidad integrada en su medio forma un sistema funcional
llamado ecosistema.
La biosfera es el conjunto de los ecosistemas naturales desarrollados en el seno de los
mares o en la superficie de los continentes.
La noosfera resulta de la transformación de la biosfera por la inteligencia humana. Es un
concepto de la biología teórica.

FACTORES ABIÓTICOS

Todos los factores químico-físicos del ambiente son


llamados factores abióticos (de a, "sin", y bio, "vida).
Los factores abióticos más conspicuos son la
precipitación (lluvia más nevada) y temperatura;
todos sabemos que estos factores varían
grandemente de un lugar a otro, pero las variaciones
pueden ser aún mucho más importantes de lo que
normalmente reconocemos. Pero también otros
factores abióticos pueden estar involucrados,
incluyendo tipo y profundidad de suelo,
disponibilidad de nutrientes esenciales, viento,
fuego, salinidad, luz, longitud del día, terreno y pH (la
medida de acidez o alcalinidad de suelos y aguas).

FACTORES ABIÓTICOS

Un ecosistema siempre involucra a más de una especie vegetal que interactúa con factores
abióticos. Invariablemente la comunidad vegetal está compuesta por un número de especies
que pueden competir unas con otras, pero que también pueden ser de ayuda mutua.
Pero también existen otros organismos en la comunidad vegetal: animales, hongos,
bacterias y otros microorganismos. Así que cada especie no solamente interactúa con los
factores abióticos sino que está constantemente interactuando igualmente con otras
especies para conseguir alimento, cobijo u otros beneficios mientras que compite con otras
(e incluso pueden ser comidas). Todas las interacciones con otras especies se clasifican
como factores bióticos; algunos factores bióticos son positivos, otros son negativos y
algunos son neutros.
ECOSISTEMA

Hacia 1950 los ecólogos elaboraron la noción científica de ecosistema, definiéndolo como la
unidad de estudio de la ecología. De acuerdo con tal definición, el ecosistema es una unidad
delimitada espacial y temporalmente, integrada por un lado, por los organismos vivos y el
medio en que éstos se desarrollan, y por otro, por las interacciones de los organismos entre
sí y con el medio. En otras palabras, el ecosistema es una unidad formada por factores
bióticos (o integrantes vivos como los vegetales y los animales) y abióticos (componentes
que carecen de vida, como por ejemplo los minerales y el agua), en la que existen
interacciones vitales, fluye la energía y circula la materia.
Un ejemplo de ecosistema en el que pueden verse claramente los elementos comprendidos
en la definición es la selva tropical. Allí coinciden millares de especies vegetales, animales y
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011

microbianas que habitan el aire y el suelo; además, se producen millones de interacciones


entre los organismos, y entre éstos y el medio físico.
La extensión de un ecosistema es siempre relativa: no constituye una unidad funcional
indivisible y única, sino que es posible subdividirlo en infinidad de unidades de menor
tamaño. Por ejemplo, el ecosistema selva abarca, a su vez, otros ecosistemas más
específicos como el que constituyen las copas de los árboles o un tronco caído.

EL HABITAT Y EL NICHO ECOLÓGICO

Dos conceptos en estrecha relación con el de ecosistema son el de hábitat y el de nicho


ecológico. El hábitat es el lugar físico de un ecosistema que reúne las condiciones naturales
donde vive una especie y al cual se halla adaptada. El nicho ecológico es el modo en que
un organismo se relaciona con los factores bióticos y abióticos de su ambiente. Incluye las
condiciones físicas, químicas y biológicas que una especie necesita para vivir y reproducirse
en un ecosistema. La temperatura, la humedad y la luz son algunos de los factores físicos y
químicos que determinan el nicho de una especie. Entre los condicionantes biológicos están
el tipo de alimentación, los depredadores, los competidores y las enfermedades, es decir,
especies que rivalizan por las mismas condiciones.

Una unidad dinámica


El ecosistema experimenta constantes modificaciones que a veces son temporarias y otras
cíclicas (se repiten en el tiempo).
Los elementos bióticos pueden reaccionar ante un cambio de las condiciones físicas del
medio; por ejemplo, la deforestación de un bosque o un incendio tienen consecuencias
directas sobre la fertilidad del suelo y afectan la cadena alimentaría.

LA CADENA ALIMENTICIA

En el funcionamiento de los ecosistemas no ocurre desperdicio alguno: todos los


organismos, muertos o vivos, son fuente potencial de alimento para otros seres. Un insecto
se alimenta de una hoja; un ave come el insecto y es a la vez devorada por un ave rapaz. Al
morir estos organismos son consumidos por los descomponedores que los transformarán en
sustancias inorgánicas. Estas relaciones entre los distintos individuos de un ecosistema
constituyen la cadena alimentarla.
Los productores o autótrofos son los organismos vivos que fabrican su propio alimento
orgánico, es decir los vegetales verdes con clorofila, que realizan fotosíntesis. Por medio de
este proceso, las sustancias minerales se transforman en compuestos orgánicos,
aprovechables por todas las formas vivas. Otros productores, como los quimiosintetizadores
-entre los que se cuentan ciertas bacterias-, elaboran sus compuestos orgánicos a partir de
sustancias inorgánicas que hallan en el exterior, sin necesidad de luz solar.
Los consumidores, también llamados heterótrofos, son organismos que no pueden
sintetizar compuestos orgánicos, y por esa razón se alimentan de otros seres vivos. Según
los nutrientes que utilizan y el lugar que ocupan dentro de la cadena, los consumidores se
clasifican en cuatro grupos: consumidores primarios o herbívoros, secundarios o carnívoros,
terciarios o supercarnívoros y descomponedores.
Los herbívoros se alimentan directamente de vegetales. Los consumidores secundarios o
carnívoros aprovechan la materia orgánica producida por su presa. Entre los consumidores
terciarios o supercarnívoros se hallan los necrófagos o carroñeros, que se alimentan de
cadáveres.
Los descomponedores son las bacterias y hongos encargados de consumir los últimos
restos orgánicos de productores y consumidores muertos. Su función es esencial, pues
convierten la materia muerta en moléculas inorgánicas simples. Ese material será absorbido
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011

otra vez por los productores, y reciclado en la producción de materia orgánica. De esa forma
se reanuda el ciclo cerrado de la materia, estrechamente vinculado con el flujo de energía.
Esta organización de los ecosistemas es válida tanto para los ambientes terrestres como
para los acuáticos. En ambos se encuentran productores y consumidores. Sin embargo, los
ecosistemas terrestres poseen mayor diversidad biológica que los acuáticos. Precisamente
por esa riqueza biológica, y por su mayor variabilidad, los ecosistemas terrestres ofrecen
más cantidad de hábitats distintos y más nichos.

En una pirámide trófica se aprecia la estructura alimentaria de un ecosistema en donde


conviven productores, consumidores y descomponedores.

SUCESIÓN ECOLÓGICA

La sucesión ecológica es el reemplazo de algunos elementos del ecosistema por otros en el


transcurso del tiempo. Así, una determinada área es colonizada por especies vegetales
cada vez más complejas. Si el medio lo permite, la aparición de musgos y líquenes es
sucedida por pastos, luego por arbustos y finalmente por árboles. El estado de equilibrio
alcanzado una vez que se ha completado la evolución, se denomina clímax. En él, las
modificaciones se dan entre los integrantes de una misma especie: por ejemplo, los árboles
nuevos reemplazan a los viejos. Hay dos tipos de sucesiones: primaria y secundaria. La
primera ocurre cuando se parte de un terreno en donde nunca hubo vida. Este tipo de
proceso puede durar miles de años. La sucesión secundaria es la que se registra luego de
un disturbio, por ejemplo, un incendio. En este caso el ambiente contiene nutrientes y
residuos orgánicos que facilitan el crecimiento de los vegetales.

MEDIO AMBIENTE

Se entiende por medioambiente o medio ambiente al entorno que afecta y condiciona


especialmente las circunstancias de vida de las personas o la sociedad en su conjunto.
Comprende el conjunto de valores naturales, sociales y culturales existentes en un lugar y
un momento determinado, que influyen en la vida del hombre y en las generaciones
venideras. Es decir, no se trata sólo del espacio en el que se desarrolla la vida sino que
también abarca seres vivos, objetos, agua, suelo, aire y las relaciones entre ellos, así como
elementos tan intangibles como la cultura. El 5 de junio de cada año se celebra, en todo el
mundo, el Día Mundial del Mediombiente. Éste fue establecido por la Asamblea General de
Naciones Unidas en 1972. El Día Mundial del Medioambiente es uno de los principales
vehículos por medio de los cuales la Organización de las Naciones Unidas estimula la
sensibilización mundial en torno al medioambiente e intensifica la atención y la acción
política.

CICLOS BIOGEOQUIMICOS

Se denomina ciclo biogeoquímico al movimiento de cantidades masivas de carbono,


nitrógeno, oxígeno, hidrógeno, calcio, sodio, sulfuro, fósforo y otros elementos entre los
componentes vivientes y no vivientes del ambiente (atmósfera y sistemas acuáticos)
mediante una serie de procesos de producción y descomposición.

Una molécula y/o elemento necesaria Los elementos requeridos por los
para la vida de un organismo, se llama organismos en grandes cantidades se
nutriente. Los organismos vivos necesitan denominan
de 30 a 40 elementos químicos, donde el 1. Macronutrientes: carbono, oxígeno,
número y tipos de estos elementos varía hidrógeno, nitrógeno, fósforo, azufre,
en cada especie. calcio, magnesio y potasio. Estos
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011

elementos y sus compuestos constituyen vida, geo: en la tierra), ciclos, activados


el 97% de la masa del cuerpo humano, y directa o indirectamente por la energía
más de 95% de la masa de todos los solar, incluyen los del carbono, oxígeno,
organismos. nitrógeno, fósforo, azufre y del agua
2. Micronutrientes. Son los 30 ó más (hidrológico). Así, una sustancia química
elementos requeridos en cantidades puede ser parte de un organismo en un
pequeñas (hasta trazas): hierro, cobre, momento y parte del ambiente del
zinc, cloro, yodo, etc. organismo en otro momento. Por ejemplo,
La mayor parte de las sustancias químicas una molécula de agua ingresada a un
de la tierra no están en formas útiles para vegetal, puede ser la misma que pasó por
los organismos. Pero, los elementos y sus el organismo de un dinosaurio hace
compuestos necesarios como nutrientes, millones de años.
son ciclados continuamente en formas Gracias a los ciclos biogeoquímicos, los
complejas a través de las partes vivas y elementos se encuentran disponibles para
no vivas de la biosfera, y convertidos en ser usados una y otra vez por otros
formas útiles por una combinación de organismos; sin estos ciclos la vida se
procesos biológicos, geológicos y extinguiría.
químicos. El término ciclo biogeoquímico se deriva
El ciclo de los nutrientes desde el del movimiento cíclico de los elementos
componente abiotico (en la atmósfera, la que forman los organismos biológicos
hidrosfera y la corteza de la tierra) hasta el (bio) y el ambiente geológico (geo) e
componente biótico, y viceversa, tiene intervienen en un cambio químico.
lugar en los ciclos biogeoquímicos (de bio:

Hay tres tipos de ciclos biogeoquímicos interconectados,

Gaseoso. En el ciclo gaseoso, los nutrientes circulan principalmente entre la atmósfera y


los organismos vivos. En la mayoría de estos ciclos los elementos son reciclados
rápidamente, con frecuencia en horas o días. Los principales ciclos gaseosos son los del,
oxígeno y nitrógeno.
Sedimentario. En el ciclo sedimentario, los nutrientes circulan entre la corteza terrestre
(suelo, rocas y sedimentos), la hidrosfera y los organismos vivos. Los elementos en este
ciclo, generalmente reciclan mucho más lentamente que en el ciclo atmosférico, porque los
elementos son retenidos en las rocas sedimentarias durante largo tiempo geológico (hasta
de decenas a miles de milenios y no tienen una fase gaseosa). El fósforo y el azufre son dos
de los 36 elementos reciclados de esta manera.
Hidrológico. En el ciclo hidrológico, el agua circula entre el océano, el aire, la tierra y la
biota, este ciclo también distribuye el calor solar sobre la superficie del planeta.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011

CICLO DEL NITROGENO


Los organismos requieren nitrógeno en varias formas químicas para sintetizar proteínas,
ácidos nucleicos (como ADN y ARN) y otros compuestos orgánicos que contiene nitrógeno,
el deposito de nitrógeno mas grande es la Troposfera, ya que un 78% de su volumen es de
este gas (N2). Sin embargo, esta forma abundante de nitrógeno, no puede ser utilizada
directamente como nutriente por los vegetales o animales multicelulares. Por fortuna, el gas
nitrógeno, es convertido en compuestos iónicos solubles en agua que contienen iones nitrato
(NO3-) e iones amonio (NH4 +) que son tomados por las raíces de las plantas como parte del
ciclo de nitrógeno.
Este ciclo comprende cinco etapas definidas:
vitaminas y ácidos nucleicos. Siendo
las plantas el primer nivel trofico, son el
alimento de los animales y de esta
forma pasa el nitrógeno a estos.

3) Amonificacion: Acción realizada por


bacterias y hongos descomponedores
sobre los cadáveres y productos de
desecho de productores y
consumidores, enriqueciendo el suelo
con amoniaco.

4) Nitrificación: Proceso que convierte el


amoniaco en nitrato, ocurre en dos
etapas:
• Nitrosacion: Es transformar
amoniaco en nitrito. Acción
quimiosintetica realizado por
bacterias del genero nitrosomonas.
1) Fijación: Proceso por el cual el • Nitración: Es transformar nitrito en
nitrógeno atmosférico baja a la corteza nitrato. Realizado por bacterias
terrestre transformándose en nitrato. nitrobacter.
Esta fijación puede ser:
• F. Electroquímica: Son las 5) Desnitrificación: Consiste en la
tempestades atmosféricas transformación de nitrato en nitrito y de
(tormentas, rayos, etc.) las este en nitrógeno atmosférico que
encargadas de bajar el nitrógeno. pasa al aire. Este proceso lo realizan
• F. Biológica: Lo realizan bacterias desnitrificantes del género
microorganismos que habitan los Pseudomonas.
suelos. Nota: Las bacterias simbióticas pueden
Bacterias: Rhizobium, clostridium y fijar 50 – 100 kg de N/Ha/Año
azotobacter. Las bacterias NO simbióticas, sólo
Algas Cianofitas: Anabaena y nostoc. fijan hasta 12 Kg de N/Ha/año
Importancia: El nitrógeno es usado por
2) Asimilación: Es la absorción del nitrato los seres vivos para elaborar los siguientes
disuelto en el agua por parte de las compuestos orgánicos: proteínas, ácidos
plantas las que lo incorporan nucleicos y algunos fosfolípidos.
metabolicamente para formar

CICLO DEL AZUFRE


El azufre es otro de los elementos necesarios en cantidad abundante para los seres vivos,
debido principalmente a la función estructural que desempeñan en varios aminoácidos. Las
plantas lo obtienen del suelo en forma de iones sulfato y a continuación recircula de la
manera acostumbrada en el ecosistema.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011

El azufre se transforma en diversos


compuestos y circula en la ecósfera, el
ciclo del azufre es principalmente
sedimentario. Entra en la atmósfera desde
fuentes naturales como:

• Sulfuro de hidrógeno (H2S): Gas


incoloro y altamente venenoso con olor
a huevos podridos, desde volcanes
activos y la descomposición de la
materia orgánica en pantanos,
ciénagas y llanuras por las mareas,
causadas por degradares aeróbicos.
• Dióxido de azufre (S2O): Gas incoloro
y sofocante proveniente de volcanes de compuestos azufrosos de minerales
activos. metálicos en metales como el cobre,
• Partículas de sulfato (SO4=): Como el plomo, zinc.
sulfato de amonio de la aspersión En la atmósfera el dióxido de azufre
marina. reacciona con oxigeno para producir
Cerca de un tercio de todos los minúsculas gotas de acido sulfúrico
compuestos de azufre y 99% de dióxido de (H2SO4). También reaccionan con otras
azufre que llegan a la atmósfera desde sustancias químicas de atmósfera para
todas las fuentes, provienen de las originar partículas de sulfato que caen en
actividades humanas. El tercio restante la tierra como componentes de la lluvia
proviene procesos industriales como la acida, que daña los árboles y la vida
refinería de petróleo y la conversión (por acuática.
fundición) Importancia: Con el azufre los seres vivos
construyen 2 aminoácidos: metionina y
cisteina. Los cuales se encuentran en la
estructura de muchas proteínas.

CICLO DEL AGUA

Este ciclo es de vital importancia para los seres vivos por permitir la realización del
metabolismo y ayudar a movilizar los nutrientes dentro y fuera de los ecosistemas.
de sus hojas u otras partes, para
La energía solar y la gravedad convierten evaporarse luego en la atmósfera),
continuamente al agua de un estado físico precipitación (rocío, lluvia, agua, nieve,
a otro, y la desplaza entre el océano, el granizo) y escurrimiento de regreso al mar
aire, la tierra y los organismos vivos. Los para empezar el nuevo ciclo.
procesos principales en este reciclamiento Importancia: Como gran disolvente, el
y ciclo purificado del agua son la agua, cumple un rol fundamental en los
evaporación (conversión de agua en vapor procesos metabólicos. Recuerda, las
acuoso), condensación (conversión del reacciones químicas en los organismos
vapor de agua en gotículas de agua requieren un medio acuoso, que disuelva y
liquida), transpiración (proceso en el cual active muchos compuestos; estos no se
la absorbida por los sistemas de raíces de podrían llevar a cabo en medios secos.
las plantas y pasa a través de los estomas “No hay vida sino hay agua”.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011

CICLO DEL CARBONO.

Aunque el carbono es un elemento muy raro en el mundo no viviente de la tierra, representa


alrededor del 18% de la materia viva. La capacidad de los átomos de carbono de unirse
unos con otros proporciona la base para la diversidad molecular y el tamaño molecular, sin
los cuales la vida tal como la conocemos no podría existir.

Fuera de la materia orgánica, el carbono que mueren las plantas y los animales o
se encuentra en forma de bióxido de sus partes (por ejemplo, las hojas). Las
carbono (CO2) y en las rocas bacterias y los hongos desempeñan el
carbonatadas (calizas, coral). Los papel vital de liberar el carbono de los
organismos autótrofos -especialmente las cadáveres o de los fragmentos que ya no
plantas verdes- toman el bióxido de podrán utilizarse como alimento para otros
carbono y lo reducen a compuestos niveles tróficos. Mediante el metabolismo
orgánicos: carbohidratos, proteínas, de los animales y de las plantas se libera
lípidos y otros. Los productores terrestres el bióxido de carbono y el ciclo del
obtienen el bióxido de carbono de la carbono puede volver a comenzar.
atmósfera y los productores acuáticos lo
utilizan disuelto en el agua (en forma de
bicarbonato, HCO3-). Las redes
alimentarias dependen del carbono, no
solamente en lo que se refiere a su
estructura sino también a su energía.

En cada nivel trófico de una red


alimentaria, el carbono regresa a la
atmósfera o al agua como resultado de la
respiración. Las plantas, los herbívoros y
los carnívoros respiran y al hacerlo liberan
bióxido de carbono. La mayor parte de la
materia orgánica en cada nivel trófico
superior sino que pasa hacia el nivel
trófico "final", los organismos de
descomposición. Esto sucede a medida
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011

EL CICLO DEL FOSFORO.

Aunque la proporción de fósforo en la materia viva es relativamente pequeña, el papel que


desempeña es absolutamente indispensable. Los ácidos nucleicos, sustancias que
almacenan y traducen el código genético, son ricos en fósforo. Muchas sustancias
intermedias en la fotosíntesis y en la respiración celular están combinadas con fósforo, y los
átomos de fósforo proporcionan la base para la formación de los enlaces de alto contenido
de energía del ATP, que a su vez desempeña el papel de intercambiador de la energía,
tanto en la fotosíntesis como en la respiración celular.
El fósforo es un elemento más bien escaso del mundo no viviente. La productividad de la
mayoría de los ecosistemas terrestres pueden aumentarse si se aumenta la cantidad de
fósforo disponible en el suelo. Como los rendimientos agrícolas están también limitados por
la disponibilidad de nitrógeno y potasio, los programas de fertilización incluyen estos
nutrientes. En efecto, la composición de la mayoría de los fertilizantes se expresa mediante
tres cifras. La primera expresa el porcentaje de nitrógeno en el fertilizante; la segunda, el
contenido de fósforo (como sí estuviese presente en forma de P2O5); y la tercera, el
contenido de potasio (expresada sí estuviera en forma de óxido K2O).

El fósforo, al igual que el nitrógeno y el azufre, participa en un ciclo interno, como también
en un ciclo global, geológico. En el ciclo menor, la materia orgánica que contiene fósforo
(por ejemplo: restos de vegetales, excrementos animales) es descompuesta y el fósforo
queda disponible para ser absorbido por las raíces de la planta, en donde se unirá a
compuestos orgánicos. Después de atravesar las cadenas alimentarias, vuelve otra vez a
los descomponedores, con lo cual se cierra el ciclo. Hay algunos vacíos entre el ciclo interno
y el ciclo externo. El agua lava el fósforo no solamente de las rocas que contienen fosfato
sino también del suelo. Parte de este fósforo es interceptado por los organismos acuáticos,
pero finalmente sale hacia el mar.
El ciclaje global del fósforo difiere con respecto de los del carbón, del nitrógeno y del azufre
en un aspecto principal. El fósforo no forma compuestos volátiles que le permitan pasar de
los océanos a la atmósfera y desde allí retornar a tierra firme. Una vez en el mar, solo
existen dos mecanismos para el reciclaje del fósforo desde el océano hacia los ecosistemas
terrestres. El uno es mediante las aves marinas que recogen el fósforo que pasa a través de
las cadenas alimentarias marinas y que pueden devolverlo a la tierra firme en sus
excrementos. Además de la actividad de estos animales, hay la posibilidad del
levantamiento geológico lento de los sedimentos del océano para formar tierra firme, un
proceso medido en millones de años.
El hombre moviliza el ciclaje del fósforo cuando explota rocas que contienen fosfato.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011

BIOTECNOLOGÍA

La biotecnología es la tecnología basada


en la biología, especialmente usada en
agricultura, farmacia, ciencia de los
alimentos, ciencias forestales y medicina.
Probablemente el primero que usó este
término fue Karl Ereky, ingeniero húngaro,
en 1919.

Se podría definir como "toda aplicación


tecnológica que utilice sistemas biológicos y
organismos vivos o sus derivados para la
creación o modificación de productos o procesos para usos específicos".
"Fuente": Convenio sobre la Diversidad Biológica. Artículo 2. PNUD 1992.

Otras definiciones son: "la utilización de organismos vivos, o partes de los mismos, para
obtener o modificar productos, mejorar plantas o animales o desarrollar microorganismos
para objetivos específicos".
Fuente: Sociedad Española de Biotecnología.

La biotecnología es una actividad multidisciplinaria, que se sustenta en el conocimiento de


frontera o punta generado por disciplinas modernas (biología molecular, bioquímica,
bioingeniería, biología vegetal, microbiología, etc.), y cuyo objetivo es la utilización de este
conocimiento para el desarrollo de tecnología limpia, que sea técnica y económicamente
competitiva, y que permita, mediante el uso racional de los sistemas y organismos vivos, sus
productos o partes, la solución de problemas socioeconómicos relevantes (agropecuarios,
salud, contaminación ambiental e industrial, etc.).
La biotecnología está revolucionando la ciencia moderna y las posibilidades productivas,
dando origen a nuevas empresas y fuentes de trabajo.

HISTORIA DE LA BIOTECNOLOGÍA

• 8000 adC: Recolección de semillas para replantación. Evidencias que en Mesopotamia


se utilizaba crianza selectiva en ganadería
• 6000 adC: Medio Oriente, utilización de levadura en la elaboración de cerveza.
• 4000 adC: China, fabricación de yogurt y queso utilizando bacterias lácteas.
• 2300 adC: Egipto, producción de pan con levadura.
• 1590: Invención del microscopio por Zacarías Janssen
• 1665: Robert Hooke utiliza por primera vez la palabra célula en su libro Micrographia.
• 1856: Gregor Mendel comienza un estudio de características específicas que encontró
en ciertas plantas, las que fueron pasadas a las futuras generaciones.
• 1861: Louis Pasteur define el rol de los microorganismos y establece la ciencia de la
microbiología.
• 1880: Se descubren los microoganismos.
• 1919: Karl Ereky, ingeniero húngaro, utiliza por primera vez la palabra biotecnología.
• 1953 James Watson y Francis Crick describen la estructura doble hélice de la molécula
de ADN.
• 1965: El biólogo norteamericano R. W. Holley «leyó» por primera vez la información total
de un gen de la levadura compuesta por 77 bases, lo que le valió el Premio Nobel.
• 1970: el científico estadounidense Har Gobind Khorana consiguió reconstruir en el
laboratorio todo un gen.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011

• 1973: Se desarrolla la tecnología de recombinación del ADN por Stanley Cohen, de la


Universidad de Stanford, y Herbert W. Boyer, de la Universidad de California, San
Francisco.
• 1976: Har Gobind Khorana sintetiza una molécula de ácido nucleico compuesta por 206
bases.
• 1976: Robert Swanson y Dr. Herbert Boyer crean Genentech, la primera compañía de
biotecnología.
• 1982: Se produce insulina para humanos, la primera droga derivada de la biotecnología.
Su nombre comercial Humulina®, de la compañía Eli-Lilly
• 1983: Se aprueban los alimentos trasgénicos producidos por Calgene. Es la primera vez
que se autorizan alimentos transgénicos en Estados Unidos.
• 2003 Cincuenta años después del descubrimiento de la estructura del ADN, se completa
la secuencia del genoma humano.
• 2004: La ONU y el Gobierno de Chile organizan el Primer Foro Global de Biotecnología,
en la Ciudad de Concepción, Chile (2 al 5 de marzo).

Lo que hoy se conoce como ingeniería genética o ADN recombinante, parte del hallazgo en
1970 por Hamilton Smith y Daniel Nathans de la enzima (restrictasa) capaz de reconocer y
cortar el ADN en secuencias específicas, hallazgo que les valió el Premio Nobel de fisiología
y medicina, compartido con Werner Arber, en 1978. Este descubrimiento (consecuencia de
un hallazgo accidental - Serendipia) dio origen al desarrollo de lo que hoy se conoce como
Ingeniería genética o Biotecnología, que permite clonar cualquier gen en un virus,
microorganismo, célula de animal o de plantas.
Hoy en día, la moderna biotecnología es frecuentemente asociada con el uso de
microorganismos alterados genéticamente como el E. coli o levaduras para producir
sustancias parecidas a la insulina o antibióticos.
El lanzamiento comercial de insulina recombinada para humanos en 1982 marcó el
nacimiento de la biotecnología.
La biotecnología encuentra sus raíces en la biología molecular, un campo de estudios que
evoluciona rápidamente en los años 70s, dando origen a la primera compañía de
biotecnología, Genentech, en 1976.
Desde los 70s hasta la actualidad, la lista de compañías biotecnológicas ha aumentado y ha
tenido importantes logros en desarrollar nuevas drogas. En la actualidad existen unas 4.000
compañías que se concentran en Europa, Norteamérica y Asia-Pacífico. Pese a que la
biotecnología nace en Norteamérica a fines de los 70s, Europa rápidamente se ha
incorporado a su desarrollo en los 90s.
Tradicionalmente las biotecnológicas han debido asociarse con farmacéuticas para obtener
fondos de financiamiento, credibilidad y posición estratégica, sin embargo, en los últimos
años se ha intensificado la búsqueda de su propio rumbo. Una prueba de ello es el
aumento de asociaciones biotec-biotec, al punto que hoy exceden a las biotec-farma.

TENDENCIAS DE LA BIOTECNOLOGÍA

1. Las tendencias generales en el sector agropecuario:


 Obtener plantas transgénicas resistentes a plagas (virus, bacterias, hongos, insectos
y herbicidas), resistentes a factores abióticos (sequía, salinidad, calor, metales
pesados, etc.); y con características mejoradas y/o nuevas (mayor contenido de
proteína, almidón, aceite, etc. y modificación del contenido de aceite, madurez
retardada, etc.).
 Obtener mapas genómicos de cultivos principales con el propósito de hacer más
eficiente y rápido el fitomejoramiento tradicional.
 Reemplazo de agroquímicos por productos de origen biológico (biofertilizantes,
bioinsecticidas, bioherbicidas, control biológico de plagas, biopesticidas, etc.).
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011

2. Las tendencias en el subsector agrícola:


 El incremento en el rendimiento, la productividad y la calidad de los productos
agrícolas (control del crecimiento y del desarrollo de las plantas), y desarrollo de
cultivares con rendimientos incrementados; y desarrollo de cultivares con mayor
calidad nutricional o con mayor valor agregado, como el mejoramiento de
oleaginosas.
 Disminución en el tiempo y costo de programas de fitomejoramiento (cultivo de
tejidos o micropropagación in vitro, fitomejoramiento dirigido y no al azar).
 Biopesticidas y control biológico, como la utilización de feromonas en el manejo de
plagas de insectos, utilización de hormonas juveniles para evitar la maduración de
larvas, uso de bacterias, uso de patógenos naturales.

3. Las tendencias en el subsector pecuario se dirigen hacia el incremento en la


productividad y calidad de carne y leche (uso de hormonas), la producción de elementos
de alto valor agregado en animales transgénicos (antibióticos, vitaminas y enzimas), y la
producción de nuevas vacunas e inmunización intracelular.

4. En el sector salud las tendencias se orientan hacia la producción de proteínas de


interés terapéutico (insulina, interferones, etc.); el desarrollo y producción de vacunas
nuevas; el desarrollo y producción de sistemas de diagnóstico; el diseño, producción y
métodos de administración de fármacos; y la biología molecular del genoma humano y
medicina molecular.

La biotecnología es una ciencia de punta y de rápido avance en el mundo, y las


posibilidades para el Perú son muy grandes en este campo, aprovechando las
ventajas comparativas que tiene.

5. Las tendencias en el tratamiento de la contaminación ambiental van orientadas hacia


tratamiento de aguas residuales (aerobio y anaerobio), biorremediación, y tratamiento de
sólidos y gases.
Estas ventajas comparativas se pueden resumir en lo ya expuesto más arriba: alta
diversidad de especies y recursos genéticos, y gran bagaje de conocimientos sobre las
propiedades de las especies.

La altísima diversidad de especies de flora, fauna y microorganismos ponen al país en


una situación expectante para utilizarlas en el desarrollo. Estas ventajas se refieren
especialmente a lo siguiente:
 Miles de especies de plantas y animales conocidas por sus propiedades
alimenticias, medicinales, colorantes, cosméticas, fibras, tóxicas, pesticidas,
ornamentales, industriales, etc.
 Cerca de 1 409 especies de plantas conocidas por sus propiedades
medicamentosas.
 Varias centenas de plantas conocidas por sus propiedades como colorantes,
cosméticas (tintes) y pesticidas. La investigación y el uso industrial de los
productos puede ser una fuente interesante de nuevas actividades productivas.
 Cerca de 128 especies de plantas nativas domesticadas con miles de variedades
y un gran número de especies silvestres relacionadas con ellas. Este material
genético es de gran importancia para la obtención de nuevas variedades y dar
mayor capacidad de resistencia a pestes y plagas.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011

BIOTECNOLOGÍA HUMANA

Puesto que cada criatura es única, cada una posee una composición única de ADN.
Cualquier individuo puede ser identificado por pequeñas diferencias en su secuencia de
ADN, este pequeño fragmento puede ser utilizado para determinar relaciones familiares en
litigios de paternidad, para confrontar donantes de órganos con receptores en programas de
trasplante, unir sospechosos con la evidencia de ADN en la escena del crimen
(biotecnología forense).
El desarrollo de técnicas para el diagnóstico de enfermedades infecciosas o de desordenes
genéticos es una de las aplicaciones de mayor impacto de la tecnología de ADN. Al utilizar
las técnicas de secuenciación de ADN los científicos pueden diagnosticar infecciones
víricas, bacterianas o mapear la localización específica de los genes a lo largo de la
molécula de ADN en las células.
El primer tratamiento exitoso en terapia génica fue en 1990, cuando se trató una
enfermedad del sistema inmune de niños llamada "Deficiencia de ADA". Células sanguíneas
con los genes correctos de ADA fueron inyectadas al cuerpo del paciente donde produjeron
suficientes células normales que permitieron mejorar el sistema inmune. Hoy, la terapia
génica esta tratando enfermedades tales como tumores cerebrales malignos, fibrosis
quística y HIV. Con esta técnica se pretende también reparar órganos, como por ejemplo un
hígado cirrótico a partir de las pocas células sanas que le quedan, un par de ventrículos
nuevos para reemplazar los efectos devastadores de un infarto, la regeneración de una
mano amputada o disponer de una fuente inagotable de neuronas para corregir los efectos
de enfermedades tan graves como el Alzheimer o el Parkinson.
En estos momentos existen tres líneas de investigación:
• La clonación de células madre.: James Thonson, de la Universidad de Wisconsin
(EEUU) descubrió en 1998 cómo obtener células madre a partir de un embrión
humano. En el embrión esas células son las destinadas a formar todos los órganos
del cuerpo, y estimuladas adecuadamente pueden reparar órganos dañados.
El inconveniente de este método, es que el embrión de partida debe ser un clon del
paciente. La clonación humana suscita un gran rechazo y mas aún en este caso
cuando un embrión de pocos días, que nunca va a ser implantado en un útero, es
utilizado únicamente para este fin y después se destruye. Esto plantea grandes
problemas éticos y religiosos.
• La reprogramación de células adultas sin necesidad de clonar. La empresa británica
PPL Therapeutics está a la cabeza de esta técnica, que les salva de todos los
escollos morales y legales que existen al respecto.
• El esclarecimiento y manipulación del mecanismo genético que dispara la formación
de órganos y extremidades en el embrión. En esta técnica nos encontramos con un
español, Juan Carlos Izpisúa, que dirige un laboratorio en el Instituto Salk de La Jolla
(California). El mecanismo consiste en determinar la relación existente entre dos
familias de proteínas (llamadas Wnt y FGF) cuya unión en forma de parejas dispara
la formación de un determinado miembro. Una pareja concreta formada por un
miembro de Wnt y un miembro de FGF dispara la formación de un brazo, otra pareja
distinta dispara la de una pierna, otra la del hígado, etc.
El ser humano sólo tiene activas estas parejas cuando es un embrión, pero anfibios como el
axolote mexicano las tiene activas toda la vida, por ello pueden regenerar sus miembros
amputados. La investigación de Izpisúa está encaminada a encontrar la forma de reactivar
estas parejas en los humanos adultos.

Beneficios para la salud


Con este hallazgo nace, definitivamente, la Medicina del Siglo XXI. En la historia de la
biología y de la medicina habrá un antes y un después de este 12 de Febrero de 2001, la
secuenciación del genoma traerá cambios determinantes para la salud y para la medicina.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011

Cáncer: Existe un conocimiento bastante profundo del mecanismo de acción de toda una
serie de genes implicados en el cáncer, sin embargo aun no se ha encontrado la solución al
mismo, pero se prevé que se alcance pronto.
Farmacogenética: La medicina del futuro será aquella que, en primer lugar, sea capaz de
prevenir la aparición de enfermedades y que, en caso contrario, permita un tratamiento
individualizado. La farmacogenómica es una nueva disciplina que estudia la relación entre
las diferencias genéticas individuales y los efectos de los fármacos, debido a que los seres
humanos no responden igual a ellos. Conociendo las características particulares de cada
uno se podrá determinar si lo productos disponibles son adecuados, y en caso de no serlos,
desarrollar terapias específicas para cada trastorno.
De esta manera las compañías farmacéuticas pueden seleccionar sólo a aquellas
poblaciones que se puedan beneficiar del tratamiento, evitando así exponer a los pacientes
a un fármaco que no le van a ser eficaces y que pueden provocarles alguna reacción
adversa.
Predicción: Muchas de las 4.000 enfermedades hereditarias conocidas podrán ser
detectadas a tiempo mediante un test de ADN, lo que facilitará la curación definitiva antes,
incluso, de que se produzcan los primeros síntomas.
Niños a la carta: Será posible hacer que los hijos nazcan con las características al gusto de
los padres, aportándole al bebé los genes que determinan el tono del pelo, la estatura, el
color de los ojos, etc.
Revolución en la psiquiatría y la psicología: Aunque no existe un único gen que
determine un tipo de comportamiento humano, el conocimiento del genoma humano va a
ayudar en esta labor.
Se sabe que más del 99´9% del mapa genético de cada individuo es idéntico, que no hay un
código que diferencie a los blancos y a los negros, ni a los criminales de los que no lo son,
por ello la diferencia entre la conducta de uno y otro reside en los estímulos que recibe del
exterior y en su capacidad de elegir por una opción u otra en la vida.

RIESGOS Y BENEFICIOS DE LA BIOTECNOLOGÍA

Entre los riesgos de la biotecnología destacan:

• Propagación de genes. Los organismos genéticamente modificados (OGM) podrían


propagarse hacia parientes silvestres contaminándolos y desapareciéndolos además de
que podría ser difícil controlarlos. Esto siempre y cuando no se tengan los controles
necesarios.
• Daño colateral. Los cultivos de OGM podrían acelerar las mutaciones de insectos y
plagas hacia formas resistentes a las modificaciones hechas a las especies.
• Efectos en la salud. Sin percatarse, los OGM podrían introducir alérgenos en el cuerpo
humano.

Entre las principales ventajas de la biotecnología se tienen:

• Rendimiento superior. Mediante los OGM el rendimiento de los cultivos aumenta, dando
más alimento por menos recursos, disminuyendo las cosechas perdidas por enfermedad o
plagas así como por factores ambientales.
• Reducción de pesticidas. Cada vez que un OGM es modificado para resistir una
determinada plaga se está contribuyendo a reducir el uso de los pesticidas asociados a la
misma que suelen ser causantes de grandes daños ambientales y a la salud, es una lucha
la reducción de pesticidas.
• Mejora en la nutrición. Se puede llegar a introducir vitaminas y proteínas adicionales en
alimentos así como reducir los alergenos y toxinas naturales. También se puede intentar
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011

cultivar en condiciones extremas lo que auxiliaría a los países que tienen menos
disposición de alimentos.
• Mejora en el desarrollo nuevos componentes para materiales.

GENOMA HUMANO

El Genoma Humano es el número total de cromosomas del cuerpo. Los cromosomas


contienen aproximadamente 80.000 genes, los responsables de la herencia. La
información contenida en los genes ha sido decodificada y permite a la ciencia conocer
mediante tests genéticos, qué enfermedades podrá sufrir una persona en su vida.
También con ese conocimiento se podrán tratar enfermedades hasta ahora incurables.
Pero el conocimiento del código de un genoma abre las puertas para nuevos conflictos
ético-morales, por ejemplo, seleccionar que bebes van a nacer, o clonar seres por su
perfección. Esto atentaría contra la diversidad biológica y reinstalaría entre otras la
cultura de una raza superior, dejando marginados a los demás. Quienes tengan
desventaja genética quedarían excluidos de los trabajos, compañías de seguro, seguro
social, etc. similar a la discriminación que existe en los trabajos con las mujeres respecto
del embarazo y los hijos.

código específico de un producto


funcional.
El DNA es la molécula que contiene el
código de la información genética. Es
una molécula con una doble hebra que
se mantienen juntas por uniones
lábiles entre pares de bases de
nucleótidos. Los nucleótidos contienen
las bases Adenina(A), guanina (G),
citosina (C) y timina (T).
La importancia de conocer
acabadamente el genoma es que
todas las enfermedades tienen un
componente genético, tanto las
hereditarias como las resultantes de
Un genoma es el número total de respuestas corporales al medio
cromosomas, o sea todo el D.N.A. ambiente.
(ácido desoxirribonucleico) de un
organismo, incluido sus genes, los El Proyecto Genoma Humano es una
cuales llevan la información para la investigación internacional que busca
elaboración de todas las proteínas seleccionar un modelo de organismo
requeridas por el organismo, y las que humano por medio del mapeo de la
determinan el aspecto, el secuencia de su DNA. Se inició
funcionamiento, el metabolismo, la oficialmente en 1990 como un
resistencia a infecciones y otras programa de quince años con el que
enfermedades, y también algunos de se pretendía registrar los 80.000
sus procederes. (ahora 25.000 a 30.000) genes que
En otras palabras, es el código que codifican la información necesaria para
hace que seamos como somos. Un construir y mantener la vida. Los
gen es la unidad física, funcional y rápidos avances tecnológicos han
fundamental de la herencia. Es una acelerado los tiempos esperándose
secuencia de nucleótidos ordenada y que se termine la investigación
ubicada en una posición especial de completa en el 2003.
un cromosoma. Un gen contiene el
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011

Cuando faltan sólo tres años (2003) Si desenrollamos las hebras y las
para el cincuentenario del adosamos medirían más de 5 pies, sin
descubrimiento de la estructura de la embargo su ancho sería ínfimo, cerca
doble hélice por parte de Watson & de 50 trillonesimos de pulgada.
Crick (1953), se ha producido el El DNA que conforma el genoma,
mapeo casi completo del mismo. contiene toda la información necesaria
para construir y mantener la vida
Los objetivos del Proyecto son: desde una simple bacteria hasta el
• Identificar los aproximadamente organismo humano. Comprender
25.000 a 30.000 genes humanos en el como el DNA realiza la función
DNA. requiere de conocimiento de su
• Determinar la secuencia de 3 estructura y organización.
billones de bases químicas que La molécula de DNA consiste de dos
conforman el DNA. hebras arrolladas helicoidalmente, una
• Acumular la información en bases alrededor de la otra como escaleras
de datos. que giran sobre un eje, cuyos lados
• Desarrollar de modo rápido y hechos de azúcar y moléculas de
eficiente tecnologías de fosfato se conectan por sus bases
secuenciación. nitrogenadas.
• Desarrollar herramientas para
análisis de datos. Cada hebra es un acomodamiento
• Dirigir las cuestiones éticas, linear de unidades similares repetidas
legales y sociales que se derivan del llamadas nucleótidos, los que se
proyecto. componen de un azúcar, un fosfato y
Este proyecto ha suscitado análisis una base nitrogenada. Cuatro bases
éticos, legales, sociales y humanos diferentes están presentes en la
que han ido más allá de la molécula de DNA y son:
investigación científica propiamente • Adenina (A)
dicha. (Declaración sobre Dignidad y • Timina (T)
Genoma Humanos, UNESCO) • Citosina (C)
El propósito inicial fue el de dotar al • Guanina (G)
mundo de herramientas El orden particular de las mismas es
trascendentales e innovadoras para el llamado secuencia de DNA, la cual
tratamiento y prevención de especifica la exacta instrucción
enfermedades. genética requerida para crear un
Como se expresó, el genoma es el organismo particular con
conjunto de instrucciones completas características que le son propias. La
para construir un organismo, humano adenina y la guanina son bases
o cualquiera. El genoma contiene el púricas, en cambio la citosina y la
diseño de las estructuras celulares y timina son bases pirimidínicas.
las actividades de las células del Las dos hebras de DNA son
organismo. El núcleo de cada célula mantenidas juntas por uniones entre
contiene el genoma que está bases que forman los pares de bases.
conformado por 24 cromosomas (22 El tamaño del genoma es usualmente
autosomas + 2 sexuales), los que a su basado en el total de pares de bases.
vez contienen alrededor de 25.000 a En la especie humana, contiene
30.000 genes, los que están formados aproximadamente 3 billones de pares
por 3 billones de pares de bases, cuya de bases. Otros organismos
secuencia hace la diferencia entre los estudiados con motivo de éste estudio
organismos. fueron la bacteria Escherichia coli, la
Se localiza en el núcleo de las células. mosca de la fruta, y las ratas de
Consiste en hebras de DNA laboratorio.
estrechamente arrolladas y moléculas Cada vez que la célula se divide en
de proteínas asociadas, organizadas células hijas, el genoma total se
en estructuras llamadas cromosomas. duplica, en el caso del genoma
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011

humano esta duplicación tiene lugar Cada hebra dirige la síntesis de una
en el núcleo celular. Durante la nueva hebra complementaria con
división, el DNA se desenrolla y rompe nucleótidos libres que coinciden con
las uniones entre pares de base sus bases complementarias de cada
permitiendo a las hebras separarse. hebra separada.

Existe una forma estricta de unión de bases, así se forman pares de adenina - timina
(AT) y citosina - guanina (CG). Cada célula hija recibe una hebra vieja y una nueva.
Cada molécula de DNA contiene muchos genes, la base física y funcional de la herencia.
Un gen es una secuencia específica de nucleótidos base, los cuales llevan la
información requerida para la construcción de proteínas que proveerán de los
componentes estructurales a las células y tejidos como también a las enzimas para una
esencial reacción bioquímica.
El genoma humano comprende aproximadamente entre 25.000 y 30.000 genes. Sólo el
10% del genoma incluye la secuencia de codificación proteica de los genes.
Entremezclado con muchos genes hay secuencias sin función de codificación, de
función desconocida hasta el momento.
Los tres billones de pares de bases del genoma humano están organizados en 24
unidades distintas y físicamente separadas, llamadas cromosomas. Todos los genes
están dispuestos linealmente a lo largo de los cromosomas. EL núcleo de muchas
células humanas contiene dos tipos de cromosomas, uno por cada padre. Cada set,
tiene 23 cromosomas simples, 22 de tipo autosómicos y uno que puede ser X o Y que es
el cromosoma sexual. Una mujer normal tendrá un par de cromosomas X (XX), y un
hombre normal tendrá un cromosoma X y otro Y (XY). Los cromosomas contienen
aproximadamente igual cantidad de partes de proteína y DNA. El DNA cromosómico
contiene un promedio de 150 millones de bases.
Los cromosomas pueden ser evidenciables mediante microscopio óptico y cuando son
teñidos revelan patrones de luz y bandas oscuras con variaciones regionales. Las
diferencias en tamaño y de patrón de bandas permite que se distingan los 24
cromosomas uno de otro, el análisis se llama cariotipo.
Las anomalías cromosómicas mayores incluyen la pérdida o copias extra, o pérdidas
importantes, fusiones, translocaciones detectables microscópicamente. Así, en el
Síndrome de Down se detecta una tercer copia del par 21 o trisomía 21.

Otros cambios son tan sutiles que solo pueden ser detectados por análisis molecular, se
llaman mutaciones. Muchas mutaciones están involucradas en enfermedades como la
fibrosis quística, anemias de células falciformes, predisposiciones a ciertos cánceres, o a
enfermedades psiquiátricas mayores, entre otras.
Toda persona posee en sus cromosomas frente a cada gen paterno su correspondiente
gen materno. Cuando ese par de genes materno-paterno (grupo alemorfo) son
determinantes de igual función o rasgo hereditario, se dice que el individuo es
homocigótico para tal rasgo, por el contrario se dice que es heterocigótico. Como
ejemplo podemos citar que un gen transmita el rasgo hereditario del color de ojos verde
y el otro el color de ojos marrón. Se trata de heterocigotas para el rasgo color de ojos. Si
a su vez, uno de esos genes domina en la expresión del rasgo al otro gen enfrentado, se
dice que es un gen heredado dominante, de lo contrario se dice que es recesivo.
Las instrucciones de los genes son transmitidas indirectamente a través del ARN
mensajero (ARNm), el cual es un intermediario transitorio. Para que la información de un
gen sea expresada, un RNA complementario produce un proceso llamado transcripción,
desde la plantilla del DNA del núcleo. Este RNAm, se mueve desde el núcleo hasta el
citoplasma celular, donde sirve como plantilla para la síntesis proteica.
La maquinaria celular que sintetiza proteínas traduce los códigos en cadenas de
aminoácidos que constituyen la proteína molecular. En el laboratorio se puede aislar el
ARNm y ser utilizado como plantilla para sintetizar un DNA complementario (DNAc), el
cual puede ser usado para ubicar los genes correspondientes en el mapa cromosómico.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011

Desde un punto de vista no científico, el mapa del genoma humano es una herramienta
genética que permite estudiar la evolución del hombre y que cambiará drásticamente la
medicina actual tal como la conocemos. Será un cambio de paradigma. Permitirá el
tratamiento de enfermedades hasta ahora sin cura. Las investigaciones estuvieron a
cargo fundamentalmente de Estados Unidos (Instituto Nacional de Investigación del
Genoma Humano -NHGRI- de Maryland) y Gran Bretaña (Centro Sanger en Cambridge),
pero también acompañaron Francia, Alemania, Japón y China.

Hoy el mapa del genoma está casi completado. Se abre también el camino para la
manipulación genética, motivo por el cual se han dictado documentos tendientes a
acotar ese aspecto. La empresa privada Celera Genomics de Rockville (EEUU), es la
que lidera los procesos. La investigación duró diez años e insumió cerca de 2.000
millones de costo.

El mito del ser humano inmortal y perfecto se asocia a la aplicación práctica de los
conocimientos del mapa del genoma humano. Como se puede apreciar, la búsqueda de
la raza perfecta buscada hace años por Hitler resulta ser una aspiración de la raza
humana ahora encarnada en el proyecto del genoma humano.

El conocimiento del genoma permitirá que se creen nuevas drogas terapéuticas que
desplazarán a las anteriores en la medida que los presupuestos permitan comprarlas. De
este modo se podrá polarizar la industria farmacéutica. Las nuevas drogas prometen
tener menores efectos colaterales que las actuales.

Se puede comparar la medicina tradicional como a un técnico que pone a punto un


programa de computación ajeno con otro que conoce el código del mismo. Hoy ya con el
conocimiento del genoma humano, conocemos el código, antes sólo podíamos
configurar el programa. Será pues el mayor avance médico de la humanidad.
Se le podrá informar a una persona, que puede comer alimentos grasos porque carece
de predisposición genética a la obesidad y a enfermedades cardíacas, pero que debe
huir del alcohol porque es genéticamente propenso al alcoholismo. Además el grado de
certidumbre que otorga el conocimiento del código genético resultaría más creíble para
la persona en cuestión, ya que sabe que lo que se le informa será absolutamente cierto.
Es una predicción absoluta, de su futuro. Podríamos hablar de genomancia o sea la
adivinación del futuro mediante el código genético.
Si una persona carece de un determinado tipo de célula que le produce una enfermedad,
la misma se podrá cultivar y luego colocar al sujeto. Claro que esto debería en principio
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011

ser realizado periódicamente ya que el sujeto carecería de la habilidad propia para


restaurar la función. Pero la terapia de línea germinal, apuntaría a solucionar ese
inconveniente, ya que afectaría las futuras generaciones celulares. Esto es impredecible
y éticamente intolerable, pero de no serlo o de permitirse se borrarían del planeta el
síndrome de Down o el sida. Hasta ahora, el médico ha tenido muy clara su tarea:
devolver al paciente al estado natural de salud. Pero cuando pueda manipular el
programa vital, ¿resistirá la tentación de mejorar el modelo?
Dentro de los llamados beneficios anticipados del Proyecto figuran a nivel de Medicina
molecular, la posibilidad de mejorar el diagnostico de enfermedades, detección temprana
de predisposiciones genéticas a ciertas enfermedades, el diseño racional de drogas,
terapia génica, sistemas de control para drogas y fármaco genomas.
Se ha estudiado un gen que determina la producción de la proteína llamada SPARC, la
que normalmente impide al organismo atacar y anular células cancerígenas. La terapia
génica en estos casos actúa permitiendo que las células cancerosas sean atacadas por
el organismo.
A nivel de genomas microbianos, sirvió para explorar nuevas fuentes de energía
(bioenergía), monitoreo del medio ambiente para detección de poluciones, protección
contra guerra Química y biológica y eficiente limpiado de residuos tóxicos. También es
útil para estimar el daño y riesgo por exposición a la radiación, agentes mutagénicos,
toxinas cancerígenas y reducción de probabilidad de mutaciones hereditarias. La
indentificación de oncogenes (genes que permiten que un sujeto que se exponga a
ciertas sustancias desarrolle un determinado tumor, ejemplo, quien posea el oncogén
para el cáncer de pulmón y fume cigarrillos desarrollará cáncer de pulmón a diferencia
de quien no tenga dicho oncogén).
En bioarqueología, evolucionismo y migración humana tiene su utilidad en las
mutaciones de linaje, migraciones de diferentes grupos poblacionales basados en el
DNA mitocondrial, mutaciones del cromosoma Y, además de comparar los cambios
evolutivos con eventos históricos.
En identificación forense, para potenciales sospechosos en los cuales el DNA puede
conducir a liberar a personas que fueran acusadas de crímenes injustamente, para
identificar víctimas de catástrofes, paternidad y otras relaciones familiares, identificar y
proteger especies en peligro, detectar bacterias que pueden polucionar agua, aire,
alimentos, determinar compatibilidad de órganos donantes en programas de trasplante,
determinar el pedigrí en ganados y para autenticar productos de consumo como caviar,
vinos.
En agricultura, ganadería y bio procesamientos, se utiliza para mejorar la resistencia de
cultivos ante insectos, sequías, para hacerlos más productivos y saludables igualmente
para producir animales más saludables y nutritivos, elaborar biopesticidas, vacunas
comestibles y nueva limpieza del medio ambiente de plantas como tabaco.
Los problemas derivados de la investigación genética son la equidad en su uso por parte
de aseguradoras, seguro social, escuelas, agencias de adopción, cumplimiento de la ley,
instituciones militares. ¿A quien pertenece la potestad del control? Otro problema es el
impacto psicológico y la estigmatización debido a diferencias individuales y acerca de
cómo influirá a la sociedad el determinismo genético. El personal que cuida de la salud
aconsejará a los padres acerca de los riesgos y limitaciones de la tecnología genética.
¿Qué tan confiable será, además de útil, el testeo genético fetal?
Respecto de la terapia génica usada para tratar o curar trastornos genéticos plantea la
pregunta acerca de qué es una discapacidad o trastorno y quién decide acerca del
mismo.
El mejoramiento génico incluye el uso de terapia genética para suplir características
como la altura que un padre podría querer en sus hijos, pero que no significa la
prevención de una enfermedad, sino la búsqueda de un ser perfecto acorde a un ideal.
Si esto se vuelve una práctica común, ¿como podría afectar la diversidad genética?
Finalmente,¿que consecuencias sociales traería a la humanidad?
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011

La equidad en el uso de las tecnologías génicas, plantea quién tendrá acceso a la misma
y quien pagará por su uso.
Los estudios clínicos incluyen educación de proveedores de servicios de salud,
pacientes y público, acerca de cómo se implementarán los testeos genéticos.
En 1992, Craig Venter, investigador del NHI (National Health Institute) solicitó patentes
por 2750 fragmentos de ADN. El original pedido de patentamiento fue rechazado por no
cumplir con los requisitos técnicos de las patentes ya que las funciones de dichos
fragmentos no estaban definidas todavía, al menos públicamente. Sin embargo el hecho
devino en una furia de patentamientos similares. Actualmente Venter y su socio
Hunkapiller, experto en bioinformática, trabajan en Celera Genomics y su meta es
descifrar el genoma en su totalidad en el 2001.

El CIB -Comité Internacional de Bioética- es el órgano del sistema de Naciones Unidas


que realiza una reflexión bioética sobre investigaciones en biología, genética y sus
aplicaciones. Tras la Declaración Universal del Genoma Humano y los Derechos
Humanos, aprobada por la Conferencia General de la UNESCO, el Director General de
la UNESCO, Sr Federico Mayor, publicó la siguiente declaración:”La clonación de una
oveja adulta a partir de una célula mamaria, realizada con éxito por un equipo de
investigadores de la granja experimental del Roslin Institute de Edimburgo, representa
una etapa tecnológica decisiva en las ciencias de la vida. Desde el punto de vista
científico, la clonación ya era una realidad en otros niveles de la experimentación
animal”.
La postura científica internacional es favorable hacia la investigación de oportunidades
para mejorar el conocimiento científico de las enfermedades que afectan a los humanos.
Mejorar la selección de animales o producir animales con cualidades específicas que
mejoren la resistencia a determinadas enfermedades es uno de los objetivos
incorporados a cualquier experimentación actual. Los Estados no coinciden en la
posibilidad de potenciar la clonación humana y el CIB en 1997 admite por consenso la
prohibición de clonar seres humanos con objetivo a la reproducción.

DECLARACIÓN UNIVERSAL SOBRE EL GENOMA HUMANO Y LOS DERECHOS


HUMANOS
La Declaración Universal sobre el Genoma Humano y los Derechos Humanos, aprobada
el 11 de noviembre de 1997 por la Conferencia General en su 29ª reunión por
unanimidad y por aclamación, constituye el primer instrumento universal en el campo de
la biología. El mérito indiscutible de ese texto radica en el equilibrio que establece entre
la garantía del respeto de los derechos y las libertades fundamentales, y la necesidad de
garantizar la libertad de la investigación. La Conferencia General de la UNESCO
acompañó esa Declaración de una resolución de aplicación, en la que pide a los Estados
Miembros que tomen las medidas apropiadas para promover los principios enunciados
en ella y favorecer su aplicación. El compromiso moral contraído por los Estados al
adoptar la Declaración Universal sobre el Genoma Humano y los Derechos Humanos es
un punto de partida: anuncia una toma de conciencia mundial de la necesidad de una
reflexión ética sobre las ciencias y las tecnologías. Incumbe ahora a los Estados dar vida
a la Declaración con las medidas que decidan adoptar, garantizándole así su
perennidad.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011

Proclama los principios siguientes y aprueba la presente Declaración:

A. LA DIGNIDAD HUMANA Y EL GENOMA HUMANO

C. INVESTIGACIONES SOBRE EL GENOMA HUMANO

Art. 10 Ninguna investigación relativa al genoma humano ni ninguna de sus aplicaciones,


en particular en las esferas de la biología, la genética y la medicina, podrá prevalecer
sobre el respeto de los derechos humanos, de las libertades fundamentales y de la
dignidad humana de los individuos o, si procede, de grupos de individuos.
Art. 11 No deben permitirse las prácticas que sean contrarias a la dignidad humana,
como la clonación con fines de reproducción de seres humanos. Se invita a los Estados
y a las organizaciones internacionales competentes a que cooperen para identificar
estas prácticas y a que adopten en el plano nacional o internacional las medidas que
correspondan, para asegurarse de que se respetan los principios enunciados en la
presente Declaración.
Art. 12 a) Toda persona debe tener acceso a los progresos de la biología, la genética y
la medicina en materia de genoma humano, respetándose su dignidad y derechos.
b) La libertad de investigación, que es necesaria para el progreso del saber, procede de
la libertad de pensamiento. Las aplicaciones de la investigación sobre el genoma
humano, sobre todo en el campo de la biología, la genética y la medicina, deben
orientarse a aliviar el sufrimiento y mejorar la salud del individuo y de toda la humanidad.

BIBLIOGRAFIA

ALBERT, A. Aplicaciones de la Biotecnología en el Mundo Actual. Vida rural. 1999


ANTONIO BRACK EGG Cuarenta programas de los especiales "La Buena Tierra" emitidos a
través del canal 7. 2003 al 2005
ANTONIO BRACK EGG Biodiversidad, Pobreza y Bionegocios. PNUD. Lima. 2004.
ANTONIO BRACK EGG. Ecología del Perú. Editorial Bruño. Lima. 2000
BALBÁS, P. De la Biología Molecular a la Biotecnología. Trillas, México, D.F. (2002)
BELLAMY, DAVID Y OTROS. Salvemos la Tierra. Madrid: Ediciones Aguilar, 1991. Obra de
carácter divulgativa sobre los problemas medioambientales.
BIOPLANET. Conceptos Básicos en Biotecnología. 2000
GARCÍA, F. La ingeniería genética y el futuro del mundo en desarrollo. Vida Rural nº
108. pp. 46-47. 2000
LÓPEZ-MUNGUÍA, A, La biotecnología. Colección Tercer Milenio. Conaculta, México.
(2000).
MEJÍA BACA Ecología de un País Complejo. En: La Gran Geografía del Perú. Editorial
Manfer-. Lima y Barcelona. 1985
TAPIA, F. Y OTROS. Medio ambiente: ¿alerta verde? Madrid: Editorial Acento, 1995. Obra
de divulgación sobre desarrollo y gestión ambiental.
JIMENO, ANTONIO Y OTROS. Biología. Bachillerato 2. Editorial COU Santillana. Madrid.
2001.
SOLOMON, ELDRA PEARL Y OTROS. Biología. Quinta edición. Editorial McGraw-Hill
Interamericana. México. 2001
AUDERSIK, T. Y AUDERSIK, G. Biología 1. Cuarta edición. Editorial Prentice-Hall
Hispanoamericana. México 1996
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011

ENLACES WEB

BRACK, A. Y MENDIOLA C. http://www.peruecologico.com.pe / Enciclopedia Virtual


http://es.wikipedia.org
JOSÉ MARCANO. http://www.jmarcano.com / Ecología y Ambiente
http://www.lamolina.edu.pe/ciencias/ecología
http://www.conam.gob.pe/chm
http://www.inrena.gob.pe
http://www.tequieroverde.com.pe
Http//www.huascaran.edu.pe
Http//es.wilkipedia.org/wiki/and
Http// www.elmundo.es/especiales
Http// www.learn.genetics.utah.edu
Http// www.monografías.com
Http//www.lycos.es
Http//www.sapiesman.com
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011

FUERZA Y MOVIMIENTO

ÁREA DE CIENCIA, TECNOLOGÍA Y AMBIENTE

RESUMEN

En la naturaleza y en los hechos del entorno del hombre existen diversidad de fenómenos
por los que estamos preocupados en encontrar explicaciones, así por ejemplo, las
explicaciones antiguas de la luminosidad del sol, los rayos y truenos, el vuelo de las aves, el
movimiento ágil de algunos animales, etc; que le dieron una explicación mitológica y
contribuyeron también para el desarrollo del estudio de los fenómenos; actualmente el
estudio moderno de estos fenómenos permiten superar o facilitar las necesidades del
hombre, muchas veces utilizadas para el bien común, y otras que merece nuestra reflexión
por el uso inadecuado de las leyes y principios que rigen la naturaleza.

Parte de estos fenómenos son estudiados por la física, a través de teorías que han sido fruto
de una secuencia investigativa a través del tiempo, las teorías físicas cada vez son
desarrolladas y perfeccionadas. Y son utilizadas en las nuevas tecnologías que facilitan el
quehacer diario del hombre.

El estudio de la cinemática es importante considerando que constantemente nos


encontramos en situaciones que permiten realizar un análisis de movimiento y que puede
solucionar o facilitarnos una mejor compresión de la naturaleza, de igual manera el estudio
dinámico y otros fenómenos físicos.

Logro de aprendizaje:
Maneja el sustento teórico y práctico de los componentes temáticos del área curricular de
ciencia tecnología y ambiente en el nivel de secundaria de menores.

CINEMÁTICA

La cinemática es la parte de la mecánica En mecánica, un sistema de referencia o


clásica que estudia el movimiento de los marco de referencia es un conjunto de
cuerpos sin tener en cuenta las causas que convenciones usadas por un observador
lo producen limitándose, esencialmente, al para poder medir la posición y otras
estudio de la trayectoria en función del magnitudes físicas de un objeto o sistema
tiempo. En consecuencia, los conceptos físico en el tiempo y el espacio.
básicos de la cinemática son el tiempo, La cinemática es un caso especial de
conjunto de todos los instantes posibles, y el geometría diferencial de curvas, en el que
espacio, conjunto de todas las posiciones todas las curvas se parametrizan de la
posibles. misma forma: con el tiempo.
En cinemática se utiliza un sistema de MOVIMIENTO
coordenadas para describir las trayectorias y
se le llama sistema de referencia. En mecánica el movimiento es un
fenómeno físico que se define como:
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011

“todo cambio de posición que Todo cuerpo en movimiento describe


experimentan los cuerpos de un una trayectoria.
sistema, o conjunto, en el espacio con
respecto a ellos mismos o con arreglo
a otro cuerpo que sirve de referencia”.

RECORDEMOS:
La parte de la física que se encarga del estudio del movimiento sin estudiar sus causas es la
cinemática. La parte de la física que se encarga del estudio de las causas del movimiento es
la dinámica.

La Cinemática se ocupa de describir los tiempo porque no sabemos la dirección en


movimientos y determinar cuáles son sus la que ha viajado.
características. Hay muchas magnitudes físicas, como por
La Dinámica estudia las relaciones que ejemplo la velocidad, en las que hay que
existen entre las fuerzas y las alteraciones especificar una dirección para describirlas
que éstas provocan en el movimiento de los completamente. Por ejemplo, si sabemos
cuerpos. que el coche anterior se movía hacia el
Cuando estudiamos el movimiento de un Norte, ya no tenemos el problema de
cuerpo, puede interesarnos solamente antes.
conocer cómo es o puede interesarnos
saber por qué tiene las características que Por supuesto hay también muchas
observamos. magnitudes, como la masa, que no
dependen de la dirección. Así, diciendo
Escalares y Vectores que la masa de un cuerpo es 24 kg
Si nos dicen que un coche circula durante describimos completamente esta
una hora a 60 km/h no podemos saber en magnitud.
qué lugar se encontrará al cabo de ese

• Son escalares las magnitudes que se describen con un valor y una unidad.
• Son vectoriales las magnitudes que se describen usando un valor, una unidad y
una dirección.

ELEMENTOS DEL MOVIMIENTO

MOVIL: Es el cuerpo o partícula en ACELERACION: es una magnitud


movimiento. vectorial cuyo módulo mide el cambio de
TRAYECTORIA: Línea que resulta de unir la velocidad por cada unidad de tiempo.
todas las posesiones sucesivas ocupadas por m/s2 (metro por segundo en cada
un móvil durante su movimiento. segundo).
ESPACIO RECORRIDO: Es la longitud de la VELOCIDAD Y RAPIDEZ
trayectoria. INSTANTANEA: Medición en el momento
DESPLAZAMIENTO: Sentido vectorial que en un punto arbitrario.
define la posición final de un móvil respecto a VELOCIDAD Y RAPIDEZ MEDIA:
su origen o punto de partida. Promedio entre la velocidad inicial y la
VELOCIDAD: Es una magnitud vectorial cuyo velocidad final.
módulo mide la rapidez con que el móvil
cambia de posición en cada unidad de tiempo.

1. MOVIMIENTO RECTILÍNEO UNIFORME

De acuerdo a la 1ª Ley de Newton toda partícula permanece en reposo o en movimiento


rectilíneo uniforme cuando no hay una fuerza neta que actúe sobre el cuerpo.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011

Esta es una situación ideal, ya que siempre existen fuerzas que tienden a alterar el
movimiento de las partículas. El movimiento es inherente que va relacionado y podemos
decir que forma parte de la materia misma.
Ya que en realidad no podemos afirmar que algún objeto se encuentre en reposo total.

El MRU se caracteriza por: v= d/t; d=v.t ; t=d/v


a) Movimiento que se realiza en una sola
dirección en el eje horizontal. v=velocidad unidades: m/s es
constante.
b) Velocidad constante; implica magnitud y d= x= e = distancia o desplazamiento
dirección inalterables. según el caso o apreciación unidades: m
t=tiempo unidades: s
c) La magnitud de la velocidad recibe el a= o (cero) “no hay aceleración”
nombre de rapidez. Este movimiento no
presenta aceleración (aceleración=0). TAMBIEN ANALICEMOS:
Se dirá que un móvil tiene un movimiento
RELACIONES MATEMÁTICAS: rectilíneo uniforme cuando tiene velocidad
El concepto de velocidad es el cambio de constante, es decir, recorre espacios
posición (desplazamiento) con respecto al iguales en tiempos iguales.
tiempo.

Fórmulas:

Las ecuaciones cinemáticas que describen este movimiento son:


Velocidad.- Siendo la velocidad instantánea constante, necesariamente la velocidad media
también será constante e igual a V
Aceleración.- Según la definición de aceleración media se tiene que:

Por tanto la aceleración es cero.


Posición.- Según la definición de velocidad media, se tiene que:

Si se toma como condición inicial que para t0=0, la posición inicial es x0, se obtiene la
ecuación:

En resumen, las ecuaciones cinemáticas que definen el movimiento rectilíneo uniforme son:

GRAFICOS DEL MRU


PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011

PROBLEMAS DESARROLLADOS

Resolver:
1) ¿A cuántos m/s equivale la velocidad de un móvil que se desplaza a 72 km/h?
Desarrollo:
Datos:
v = 72 km/h

2) Un móvil viaja en línea recta con una velocidad media de 1.200 cm/s durante 9 s, y luego
con velocidad media de 480 cm/s durante 7 s, siendo ambas velocidades del mismo sentido:
a) ¿cuál es el desplazamiento total en el viaje de 16 s?.
b) ¿cuál es la velocidad media del viaje completo?.
Desarrollo:
Datos:
v1 = 1.200 cm/s t1 = 9 s v2 = 480 cm/s t2 = 7 s
a) El desplazamiento es:
e = v.t
Para cada lapso de tiempo:
e1 = (1200 cm/s).9 s e1 = 10800 cm
e2 = (480 cm/s).7 s e2 = 3360 cm
El desplazamiento total es:
et = e1 + e2 et = 10800 cm + 3360 cm et = 14160 cm = 141,6 m

b) Como el tiempo total es:


tt = t1 + t2 = 9 s + 7 s = 16 s
Con el desplazamiento total recien calculado aplicamos:
∆v = xt/tt ∆v = 141,6 m/16 s ∆ v = 8,85 m/s

3) Resolver el problema anterior, suponiendo que las velocidades son de distinto sentido.
Desarrollo:
a) Si son de distinto sentido:
et = e1 - e2
et = 10800 cm - 3360 cm et = 7440 cm = 74,4 m
b)
∆v = et/tt ∆v = 74,4 m/16 s ∆ v = 4,65 m/s

4) En el gráfico, se representa un movimiento rectilíneo uniforme, averigüe gráfica y


analíticamente la distancia recorrida en los primeros 4 s.

Desarrollo:
Datos: v = 4 m/s t=4s

v = e/t e = v.t e = 4 m/s.4 s e = 16 m

2. MOVIMIENTO RECTILÍNEO UNIFORME VARIADO

Se dirá que un móvil tiene un movimiento uniformemente variado cuando tenga una
aceleración constante, es decir, recorra espacios diferentes en tiempos iguales. Las
ecuaciones cinemáticas que describen este movimiento son:
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011

Aceleración.- Siendo la aceleración instantánea constante, necesariamente la


aceleración media también será constante e igual a "a"
Velocidad.- Según la definición de aceleración media se tiene que :

Si se toma como condición inicial que para t0=0 , la velocidad inicial es v0 , se


obtiene la ecuación:

Cuando se trata de un solo movimiento con aceleración, la velocidad media


también puede ser calculada como la semisuma de las velocidades, es decir:

Posición.- Por definición la velocidad media es:

Si se toma como condición inicial que para t0=0, la posición inicial es x0, operando
con las ecuaciones 1 y 2 se obtiene la ecuación:

En resumen, las ecuaciones cinemáticas que definen el movimiento rectilíneo


uniformemente variado son:

NOTA.- Normalmente, tanto para el movimiento uniforme como para el movimiento


acelerado x0=0, por tanto este término en las ecuaciones de la posición desaparece.

GRAFICOS DEL MRUV

PROBLEMAS DESARROLLADOS

1) Un cohete parte del reposo con aceleración constante y logra alcanzar en 30 s una velocidad
de 588 m/s. Calcular:
a) Aceleración.
b) ¿Qué espacio recorrió en esos 30 s?.
Datos: v0 = 0 m/s vf = 588 m/s t = 30 s
Ecuaciones:
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011

(1) vf = v0 + a.t (2) e = v0.t + a.t ²/2


a) De la ecuación (1):
vf = v0 + a.t Þ vf = a.t a = vf/t a = (588 m/s)/(30 s) a = 19,6 m/s ²
b) De la ecuación (2):
e = v0.t + a.t ²/2 e = a.t ²/2 e = (19,6 m/s ²).(30 s) ²/2 e = 8820 m

2) Un móvil que se desplaza con velocidad constante aplica los frenos durante 25 s y recorre
400 m hasta detenerse. Calcular:
a) ¿Qué velocidad tenia el móvil antes de aplicar los frenos?.
b) ¿Qué desaceleración produjeron los frenos?.
Datos: t = 25 s e = 400 m vf = 0 m/s
Ecuaciones:
(1) vf = v0 + a.t (2) x = v0.t + a.t ²/2
a) De la ecuación (1):
vf = v0 + a.t 0 = v0 + a.t a = -v0/t (3)
Reemplazando (3) en (2):
e = v0.t + a.t ²/2 e = v0.t + (-v0/t).t ²/2 e = v0.t - v0.t/2 e= v0.t/2 v0 = 2.e/t
reemplazando: v0 = (2.400 m)/(25 s) v0 = 32 m/s
b) De la ecuación (3):
a = (-32 m/s)/(25 s) Þ a = -1,28 m/s ²

3. CAIDA LIBRE
Para entender el concepto de caída libre de los cuerpos, veremos el siguiente ejemplo: Si
dejamos caer una pelota de hule macizo y una hoja de papel, al mismo tiempo y de la
misma altura, observaremos que la pelota llega primero al suelo. Pero, si arrugamos la hoja
de papel y realizamos de nuevo el experimento observaremos que los tiempos de caída son
casi iguales. El movimiento vertical de cualquier objeto en movimiento libre, para el que se
pueda pasar por ello la resistencia del aire.

Trayectoria. Es la sucesión de puntos por los que pasó el móvil en su recorrido y su valor
en el Sistema Internacional es esa distancia, medida sobre la trayectoria, en metro. Es el
recorrido total.
Posición. Supuestos unos ejes de coordenadas en el punto de lanzamiento, se llama
posición a la ordenada (coordenada en el eje y) que ocupa en cada instante el móvil.
Desplazamiento. Restando de la ordenada de la posición la ordenada del origen tenemos el
desplazamiento. Se representa por un vector con todas las características del mismo:
modulo, dirección, sentido, punto de aplicación.

Aceleración de la gravedad
La fuerza de atracción gravitacional hace dos condiciones, g varía ligeramente de
que un objeto en caída libre sobre un cuerpo un lugar a otro.
celeste se mueva, prescindiendo de En el ecuador, la aceleración de la
eventuales resistencias atmosféricas, de modo gravedad es de 9,7799 metros por
acelerado, o sea, con un aumento constante segundo cada segundo, mientras que en
de su velocidad por unidad de tiempo, y que los polos es superior a 9,83 metros por
se dirija hacia el centro del cuerpo celeste. segundo cada segundo.
En la superficie de la Tierra el valor de esta El valor que suele aceptarse
aceleración, que se indica con la letra g, sería internacionalmente para la aceleración de
igual en cualquier punto si nuestro globo fuese la gravedad a la hora de hacer cálculos es
perfectamente esférico y si la fuerza centrífuga de 9,80665 metros por segundo cada
debida a la rotación terrestre, que tiene como segundo.
efecto una disminución de la fuerza de Antiguamente se creía que los cuerpos
atracción gravitacional, tuviera en cualquier más densos caían con mayor aceleración,
parte el mismo valor. Al no verificarse estas pero Galileo y, después, Isaac Newton se
encargaron de demostrar lo contrario. Un
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011

experimento realizado en una cámara de vacío la Tierra con la misma aceleración,


demuestra que todos los cuerpos caen hacia independientemente de su masa.

Ecuaciones:
Ecuación Información brindada por la ecuación
v = vo - gt Velocidad como función del tiempo.
y-yo = ½(v + vo)t Desplazamiento como una función de la velocidad y el tiempo.
y-yo = vot - ½gt2 Desplazamiento como una función del tiempo.
2 2
v = vo - 2g(y-yo) Velocidad como una función del desplazamiento.

PROBLEMA DESARROLLADO

En todos los casos usar g = 10 m/s ².

1) Se lanza un cuerpo verticalmente hacia abajo con una velocidad inicial de 7 m/s.
a) ¿Cuál será su velocidad luego de haber descendido 3 s?.
b) ¿Qué distancia habrá descendido en esos 3 s?.
c) ¿Cuál será su velocidad después de haber descendido 14 m?.
d) Si el cuerpo se lanzó desde una altura de 200 m, ¿en cuánto tiempo alcanzará el suelo?.
e) ¿Con qué velocidad lo hará?.

Desarrollo:
1) Datos: v0 = 7 m/s t=3s y = 200 m h = 14 m

Ecuaciones:
(1) vf = v0 + g.t (2) y = v0.t + g.t ²/2 (3) vf ² - v0 ² = 2.g.h
a) De la ecuación (1):
vf = (7 m/s) + (10 m/s ²).(3 s) vf = 37 m/s
b) De la ecuación (2):
∆h = (7 m/s).(3 s) + (10 m/s ²).(3 s) ²/2 ∆ h = 66 m
c) De la ecuación (3):

vf = 18,14 m/s

d) De la ecuación (2):
0 = v0.t + g.t ²/2 - y Aplicamos la ecuación cuadrática que dará dos resultados:

t1 = 5,66 s t2 = -7,06 s (NO ES SOLUCION)


e) De la ecuación (3):
vf = 63,63 m/s

4. MOVIMIENTO COMPUESTO
Se denomina movimiento parabólico al realizado por un objeto cuya trayectoria describe
una parábola. Se corresponde con la trayectoria ideal de un proyectil que se mueve en
un medio que no ofrece resistencia al avance y que está sujeto a un campo gravitatorio
uniforme. También es posible demostrar que puede ser analizado como la composición
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011

de dos movimientos rectilíneos, un movimiento rectilíneo uniforme horizontal y


movimiento rectilíneo uniformemente acelerado vertical.

Tipos de movimiento compuesto


• El movimiento de media parábola o semiparabólico (lanzamiento horizontal):
se puede considerar como la composición de un avance horizontal rectilíneo
uniforme y la caída libre.
El tiempo que cae o permanece en
2h
el aire: t =
g
La distancia horizontal: d = Vx.t

La velocidad resultante en
cualquier punto de su trayectoria:

Vx + Vy 
2 2
V =

Vx = velocidad horizontal-----MRU
Vy = velocidad vertical -------MRUV

• El movimiento parabólico completo: se puede considerar como la composición


de un avance horizontal rectilíneo uniforme y un lanzamiento vertical hacia arriba,
que es un movimiento rectilíneo uniformemente acelerado hacia abajo (MRUA)
por la acción de la gravedad.

ECUACIONES:
La distancia horizontal: D = Vx . T 2VSenα
El módulo del desplazamiento vertical se Tiempo de vuelo: t=
expresa de la siguiente manera: g
2 Alcance horizontal:
y = V .senα .t −
gt 2 2

Altura máxima: H = V Sen


α
2
2g
V .senα
Tiempo que sube: t=
g
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN
PERMANENTE 2007 - 2011

2
4H
Relación entre H y T: H = T
g Relación entre H y D: Tgα =
8 D
El máximo alcance horizontal se logra con un ángulo de 45º

RESUELVA:
1) Se lanza un proyectil con una velocidad inicial de 200 m/s y una inclinación, sobre la horizontal, de
30°. Suponiendo despreciable la pérdida de velocidad con el aire, calcular:
a) ¿Cuál es la altura máxima que alcanza la c) ¿A qué distancia del lanzamiento cae el
bala? proyectil?
b) ¿A qué distancia del lanzamiento alcanza Respuesta: a) 39,36 m
la altura máxima? b) 1732,05 m
c) 3464,1 m
2) Se dispone de un cañón que forma un ángulo de 60° con la horizontal. El objetivo se encuentra en
lo alto de una torre de 26 m de altura y a 200 m del cañón. Determinar:
a) ¿Con qué velocidad debe salir el Respuesta: a) 49,46 m/s
proyectil? b) 17 m
b) Con la misma velocidad inicial ¿desde
que otra posición se podría haber
disparado?
3) Un chico patea una pelota contra un arco con una velocidad inicial de 13 m/s y con un ángulo de
45° respecto del campo, el arco se encuentra a 13 m. Determinar:
a) ¿Qué tiempo transcurre desde que patea Respuesta: a) 1,41 s
hasta que la pelota llega al arco? b) No
b) ¿Convierte el gol?, ¿por qué? c) 17,18 m
c) ¿A qué distancia del arco picaría por
primera vez?

DINAMICA DE LOS CUERPOS

Hasta este momento hemos descrito al movimiento de una partícula sin preguntarnos que lo
causa. Este problema fue un tema central para la denominada Filosofía Natural que sostenía
la necesaria influencia externa (una fuerza) para mantener un cuerpo en movimiento.
Cuando esta fuerza se acababa creían que el cuerpo se detenía volviendo a lo que
consideraban su estado natural. De esta suposición se desprendía que un cuerpo más
pesado (mayor fuerza interior) debía caer más de prisa que un cuerpo liviano. Fue Galileo
Galilei (1564 - 1642) el primero en darse cuenta de lo falso de esta hipótesis. Desde lo alto
de la Torre de Pisa dejó caer, desde la misma altura, dos esferas de igual tamaño pero de
diferente peso, ambas cayeron el mismo tiempo. (Si no lo crees toma dos objetos de
diferente peso y déjalos caer desde una misma altura)
Galileo estudió las causas del movimiento pero fue Newton (1641 – 1727) quién les dio
forma y las compiló en tres principios a los que hoy llamamos principios de Newton.
Principios de Newton
Si para mantener un cuerpo en movimiento En esta situación, luego de impulsarnos,
no hace falta una fuerza, entonces, ¿qué se nada nos detendría, seguiríamos a velocidad
necesita? La respuesta es: nada. constante y en línea recta.
Si mueves el pié sobre el piso vas a sentir Si no aplicamos una fuerza exterior a un
como "algo" se opone a ese deslizamiento. cuerpo este permanece quieto o
Si el piso está encerado ese "algo" moviéndose a velocidad constante y en línea
disminuye en intensidad, hasta podríamos recta. (M. R. U.)
imaginar una superficie tan encerada que
esa resistencia desaparecería por completo.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

Acabamos de enunciar el primer La fuerza y la aceleración son dos


principio de Newton que se llama magnitudes vectoriales directamente
principio de inercia. Es a causa de este proporcionales, F ~ a. Matemáticamente se
principio que al arrancar el colectivo sientes necesita una magnitud constante para
ese empujón hacia atrás. establecer una igualdad, físicamente esa
constante es la masa del cuerpo: F = m . a
La fricción es la responsable que un cuerpo
que está en movimiento sobre el suelo se Por supuesto que no siempre que
detenga. apliquemos una fuerza podremos mover un
cuerpo, si no trata de mover una pared. . .
“Ya sea para arrancar, detener, acelerar o
desacelerar una partícula siempre debemos
aplicar una fuerza exterior a él ".

Hagamos un pequeño experimento.


Saluda a la persona que tengas al lado dándole la mano; el sistema mano – mano no se
mueve en dirección derecha o izquierda, por que en él intervienen dos fuerzas, una de cada
mano. Estas fuerzas tienen la misma dirección, la misma intensidad (módulo) pero sus
sentidos son opuestos.
También vemos este par de fuerzas (del mismo módulo, igual dirección y sentidos opuestos)
al aplaudir. Nuestras manos se mueven en sentidos opuestos, chocan. En el momento del
choque, cada mano hace fuerza sobre la otra. La superficie de la piel "reacciona" a esa
fuerza con otra de igual intensidad, igual dirección y sentido opuesto. A una de ellas se la
denomina acción a la otra reacción.
Otro ejemplo, cuando estamos parados, a nuestro peso (acción) se opone la fuerza del piso
que nos sostiene (reacción), de otro modo se rompería y caeríamos.
Resumiendo, siempre tenemos dos opciones: podemos o no aplicar una fuerza. Si no la
aplicamos una fuerza exterior estamos frente al principio de inercia. Si la aplicamos una
fuerza exterior, también tenemos dos posibilidades: el cuerpo puede moverse o quedarse
quieto. Si se mueve, estamos frente al
segundo principio de Newton, el
principio de masa. En caso de que no
se mueva estamos frente al tercer
principio de Newton, el principio de
acción y reacción.
Peso y masa:
El peso de un cuerpo no es otra cosa que la P=m.g
fuerza de atracción gravitacional ejercida por
La masa se mide en kilogramos y la fuerza
la Tierra; magnitud vectorial cuya dirección
también, pero aunque la unidad de cada
siempre es perpendicular al suelo y su
magnitud se escuche parecido resultan muy
sentido apunta hacia él. Si dejamos un
diferentes una de otra, no debemos
cuerpo en el aire, el peso lo hará caer y la
confundirlas.
aceleración que experimenta es la gravedad,
lo que implica que debemos aplicar el Un kilo de masa (1 Kg.) pesa en nuestro
segundo principio de Newton para poder planeta un kilo, pero en el espacio su peso
calcular su magnitud. se reduce a medida que se aleja de la
superficie de la Tierra. El peso de un cuerpo
La fuerza ejercida es el peso (P) que
depende de la distancia que se encuentre de
suplantará a F en la fórmula, mientras que la
este planeta, de su masa y la masa
aceleración g hará lo correspondiente con a.
terrestre, como lo expresa Newton con su
Entonces en vez de F = m . a tendremos famosa ley de atracción gravitacional
universal
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

Si nuestro planeta variara en su cantidad de Para diferenciar el kilogramo masa del


masa nosotros variaríamos en nuestro peso, kilogramo fuerza se llegó a un acuerdo, se
de igual manera al aumentar o disminuir escribe Kg. cuando se habla de masa y Kgr.
nuestra masa corporal aumentamos o al referirnos al kilogramo fuerza.
disminuimos de peso.
¿Cuánto pesa 1 Kg.?
Utilicemos el principio de masa con el valor de la aceleración de la gravedad 10 m/seg.2
P = m . g = 1 Kg. 10 m/seg 2 = 10 Kg. m. seg N (Newton) (es como se llama a esta unidad
de fuerza.)
El sistema de medición que utiliza al Newton como unidad de fuerza se denomina M.K.S.
(metros, kilogramos, segundos)
De esa manera queda establecido que 1Kgr. = 10 N
Fuerza: Todos tenemos una noción intuitiva de fuerza. Sabemos que para sostener un
cuerpo debemos hacer un esfuerzo, al que llamamos "fuerza" y admitimos que esa fuerza
tiene por objetivo equilibrar la que ejerce el cuerpo como consecuencia de su peso.
Ahora extiende tu brazo y presiona sobre la pared más cercana; hacer fuerza con el brazo
extendido nos permite ver los elementos que encontramos dentro de las fuerzas (por
supuesto que estos atributos son imaginarios). Con un color señalamos la recta a la que
pertenece la fuerza que hacen los brazos de este hombre (La recta es la dirección de la
fuerza que ejerce el hombre), la flecha indica el sentido (hacia donde hace la fuerza). En el
lenguaje cotidiano dirección y sentido son sinónimos pero la física tiene sus propios códigos
y aquí estos dos términos son muy distintos.
Si pegamos a un objeto delicadamente hacemos menos fuerza que si le pegamos con rabia,
la cantidad de una fuerza varía. El módulo indica solamente la cantidad de fuerza que se
hace sin importar el sentido que ella tenga.
Entonces, ¿qué elementos encontramos en una fuerza?
"Dirección, sentido y módulo."
Casualmente hay un elemento matemático que tiene esos mismos elementos, es el "vector".
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

TRABAJO - POTENCIA - ENERGIA

Todos habitualmente utilizamos palabras como trabajo, potencia o energía.


En esta unidad precisaremos su significado en el contexto de la física; valoraremos la
necesidad de tal precisión para abordar muchos hechos cotidianos; investigar nuevas
aplicaciones; comprobaremos que el cálculo de un trabajo (W), de una potencia (P)
desarrollada por una máquina o el control de la energía (E) consumida o almacenada,
resultan muy útiles para el mantenimiento y desarrollo de la sociedad en que vivimos.

Echemos un vistazo a las ideas que ya tenemos sobre el trabajo, la potencia y la energía.
El Sol es una fuente inagotable de energía. Sin él, no podría existir la vida en la
Tierra.
El origen de parte de la energía eléctrica que consumimos tiene su origen en la
energía almacenada en los embalses
El montacargas de gran potencia necesita energía (combustible) para seguir
trabajando

TRABAJO

¿Qué entiende por trabajo la física?

Entendemos por trabajar a cualquier acción que supone un esfuerzo. En Física el concepto
de trabajo se aplica exclusivamente a aquellas acciones cuyo efecto inmediato es un
movimiento.

“Trabajo es la magnitud física que relaciona una fuerza con el desplazamiento que origina”.

En el Sistema Internacional de Unidades se mide en Julios (N · m). Su expresión


matemática es:

Las fuerzas realizan trabajo

“Para conseguir que una fuerza realice el máximo trabajo es necesario que la dirección de
la fuerza se parezca lo más posible a la dirección del movimiento producido. Esto no
siempre es posible en la vida cotidiana. ¡Para arrastrar un carrito pequeño con una cuerda
nos resultaría muy incómodo agacharnos hasta la altura del carrito y tirar. Trabajo es la
magnitud física que relaciona una fuerza con el desplazamiento que origina”.

Cuando una fuerza origina un movimiento sólo realiza trabajo la componente de la fuerza en
la dirección del desplazamiento.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

Fuerza de rozamiento y trabajo

Vamos a acercarnos un poco más a las situaciones físicas que planteamos.


Sabemos que el esfuerzo para mover un coche averiado puede ser más o menos efectivo
según la superficie por donde circulaba. En unidades anteriores tratamos la dinámica de los
movimientos y ya se planteó la existencia de fuerzas de rozamiento. Veamos como influyen
estas fuerzas en el contexto actual.

“La fuerza de rozamiento no realiza ningún trabajo útil. Sin embargo la expresión
matemática del trabajo no distingue entre tipos de fuerzas. Podemos calcular el "trabajo
perdido por rozamiento":

ENERGIA

La energía: energía cinética

La energía es la capacidad de un objeto de transformar el mundo que le rodea. Su unidad


es el Julio.

Los cuerpos por el hecho de moverse tienen la capacidad de transformar su entorno.


Pensemos que al movernos somos capaces de transportar objetos, de chocar, de romper....
Realiza la siguiente simulación:

“llamamos energía cinética a la energía que posee un cuerpo por el hecho de moverse. La
energía cinética de un cuerpo depende de su masa y de su velocidad según la relación”:

“La velocidad de un cuerpo proporciona una capacidad al móvil de transformar el medio que
le rodea. Esta capacidad es su energía cinética que depende del cuadrado de la velocidad y
de la masa”.

La energía: energía potencial

El hecho de estar bajo la influencia del campo gravitatorio proporciona a los objetos la
capacidad de caer. Recordemos el aprovechamiento de los saltos de agua en la generación
de energía eléctrica.

“La energía potencial gravitatoria es debida la capacidad que tienen los objetos de caer”.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

Tiene su origen en la existencia del campo gravitatorio terrestre. Su magnitud es


directamente proporcional a la altura en la que se encuentra el objeto, respecto de un origen
que colocamos a nivel de la superficie terrestre, y a la masa del objeto. Su expresión
matemática es:

Energía mecánica: Principo de conservación

Ya conocemos dos tipos de energía, la energía potencial y la energía cinética. Existen


muchos más tipos de energía: química, nuclear, eléctrica. Sin embargo las dos que hemos
presentado participan en fenómenos muy cotidianos. Históricamente son las que se
aprovechan desde más antiguo.

“La suma de la energía cinética y potencial de un objeto se denomina Energía Mecánica”.

PRINCIPIO DE CONSERVACIÓN DE LA ENERGÍA MECÁNICA


“La suma de la energía cinética y potencial de un objeto en caída libre
permanece constante en cualquier instante”

Transformación de la energía

¿Qué significa que una magnitud física se conserva, en este caso la Energía Mecánica?
A lo largo de estas páginas hemos destacado que hay muchos tipos de energía. Nos hemos
centrado en la energía potencial gravitatoria y la energía cinética. Ambas son características
de un cuerpo en caída libre. Hemos comprobado que la suma de sus valores permanece
constante. ¿Qué quiere decir esto exactamente? Pues que una magnitud física como la
energía tiene la propiedad de transformarse, de unas formas en otras, de manera que la
disminución de una supone el aumento de otra u otras.

El hombre se las ha ingeniado para aprovechar esta propiedad de la energía. Hemos


desarrollado formas de transformar unas energías en otras más aprovechables: energía
potencial gravitatoria en eléctrica, eléctrica en luminosa, energía química en calorífica...
En el caso de los fenómenos de caída libre sólo intervienen Ec. y Ep. Y por tanto lo que
aumenta/disminuye una, supone una disminución/aumento de la otra.

Las transformaciones de unas energías en otras es un fenómeno que se puede producir, en


ciertos casos con facilidad.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

La energía de un tipo que posee un cuerpo se puede transforma en otros tipos y


globalmente siempre tendrá el mismo valor. ¿Esto significa que siempre podrá ser utilizada
por el hombre?

ENERGÍA Y TRABAJO

¿Existe alguna relación entre el trabajo y la energía?

Presentamos la energía como la capacidad de un cuerpo de modificar su entorno. La


palabra "modificar" incluye muchas cosas: iluminar, calentar,....moverse. El trabajo
desarrollado por una fuerza es en último término producido por algún tipo de energía. Dicha
energía se transforma en trabajo, de ahí que compartan la misma unidad de medida el Julio
(J.).

Pensemos en el Principio de Conservación de la Energía Mecánica. ¿Sólo es aplicable a la


caída libre?

Si fuéramos capaces de tener en cuenta todas las transformaciones energéticas tanto en


otras formas de energía (calor, luz, cinética...) como en trabajo que tienen lugar en un
proceso, podríamos generalizar el Principio de Conservación de la Energía.

En un movimiento, fundamentalmente interviene todas o algunas de los siguientes tipos de


energía y trabajo:

POTENCIA

En la mayoría de los procesos de intercambio energético y/o realización de trabajo


un factor importante es el tiempo empleado en el proceso.

Si nos fijamos en aquellos aparatos que como una nevera, un secador, una bombilla que
consumen energía eléctrica y la transforman para enfriar, calentar, iluminar...,la magnitud
física que relaciona la energía eléctrica consumida en una unidad de tiempo se llama
potencia.

La potencia se aplica a cualquier proceso de transferencia energética. Así por ejemplo


también podemos hablar de la potencia de una grúa para elevar una carga, como el trabajo
desarrollado por el montacargas en la unidad de tiempo.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

Auto Evaluación

• ¿Sabes qué es el trabajo desde el punto de vista científico y qué fuerzas son las
que pueden realizar trabajo y cuáles no?
• ¿Conoces el papel que desempeña la fuerza de rozamiento cuando se realiza un
trabajo?
• ¿Sabes utilizar el concepto de energía y el principio de su conservación?
• ¿Conoces qué relación existe entre el trabajo y la energía?
• ¿Entiendes el significado del término potencia?

RESOLVER LOS SIGUIENTES PROBLEMAS


1) Calcular el peso en N de un cuerpo cuya masa es de 540 Kg. Rta.: 5292 N

2) Calcular la aceleración de un cuerpo de 45 kg. al aplicarle una fuerza de 2250N Rta.:


50 m/seg2.

3) Calcular el peso de un cuerpo al que se le aplica una fuerza de 5400N y produce una
aceleración de 0,72 m/seg2. Rta.: 7,5 . 104 N

4) ¿Qué fuerza será necesaria para que un cuerpo de 500N de peso alcance una velocidad
de 30m/s en 10 seg. partiendo del reposo ? Rta.: 150 N

5) ¿por qué un cuerpo cae si se encuentra sobre un plano inclinado? (recomendación, hacer
el dibujo y descomponer la fuerza) Rta.: P. Sen a

6) Siendo la constante de rozamiento estático 0,25 ¿Cuánta fuerza se debería hacer para
arrancar un auto de 1500 Kg. (masa)? Rta.: F < 375 N

7) Un cuerpo de 500 N de peso recorre 150 m en 15 seg. partiendo del reposo; siendo la
fuerza de rozamiento de 50 N determinar el valor de la constante de rozamiento y el valor de
la fuerza aplicada. Rta: m = 0,1; F = 216,7 N
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

8) Hallar la aceleración y la tensión en cada caso.

Rta: a) 2,4 m/seg2 b) 2,8 m/seg2 ; 28 N c) 2 m/seg2 ; 16 N d) 0,4 m/seg2 ; 26 N

9) En el sistema de la figura el cuerpo A se desplaza 200 m. hacia la derecha en 10 seg.


Determinar: a) aceleración de cada uno de los cuerpos; b) fuerza actuante en la cuerda; c)
módulo de la fuerza F2.

Rta.: a) 4 m/seg. b) 50 N c) 90 N
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

ESTATICA

Qué entendemos por interacción?

Interacción es la acción mutua entre dos o más objetos.

Observa las interacciones de la


imagen. Indica, en cada situación, cuáles
son los cuerpos que interactúan y en qué
consiste la interacción.
La fuerza es una magnitud física que sirve
para explicar las interacciones entre
cuerpos.
Los efectos de las interacciones son
muchos. Nosotros nos vamos a centrar
inicialmente en la capacidad que tiene las
fuerzas de provocar deformaciones...

Vectores: Son modelos matemáticos.

Sea el vector V, representa una cantidad física y, se compone de:


1. Módulo: (magnitud) valor numérico y absoluto del mismo, expresa la cantidad que
representa el mismo y se le asigna una unidad.
2. Dirección: recta de acción, que según el sistema de referencia posee una inclinación α.
3. Sentido: según el sistema de referencia, tendrá signo positivo o negativo.
4. Origen: punto de aplicación.
Fuerza
Magnitud física que se representa con un vector y su unidad puede ser Newton (N),
kilogramo fuerza (kg) o dina (din).
Resultante
Es la suma vectorial de todas las fuerzas aplicadas y no aplicadas a un sistema.
Momento de una fuerza
El momento de una fuerza es el producto de dicha fuerza por la distancia perpendicular a un
determinado eje de giro. Cuando se aplica una fuerza a una puerta pesada para abrirla, la
fuerza se ejerce perpendicularmente a la puerta y a la máxima distancia de las bisagras. Así
se logra un momento máximo. Si se empujara la puerta con la misma fuerza en un punto
situado a medio camino entre el tirador y las bisagras, la magnitud del momento sería la
mitad. Si la fuerza se aplicara de forma paralela a la puerta (es decir, de canto), el momento
sería nulo.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

Sea el vector distancia, un vector perpendicular a una fuerza, de magnitud igual a la


distancia entre un punto A y la recta de acción de la fuerza, se define como vector momento
de la fuerza con respecto al punto A :

El producto vectorial entre el vector fuerza y el vector distancia,


cuya dirección es perpendicular al plano que forman el punto A y la fuerza y,
el sentido dependerá del vector fuerza (horario - antihorario).

Vista tridimensional según la regla del tirabuzón (para la mano izquierda)


Las unidades del vector momento son: N.m, kilográmetro (kgm) ó din.cm. por ser éste un
producto vectorial.

ANÁLISIS DEL EQUILIBRIO

Esquema de fuerzas y momentos en una viga


en equilibrio.
La estática proporciona, mediante el empleo de
la mecánica del sólido rígido, solución a los
problemas denominados isostáticos. En estos
problemas, es suficiente plantear las
condiciones básicas de equilibrio, que son:

1. El resultado de la suma de fuerzas es


nulo.
2. El resultado de la suma de momentos
respecto a un punto es nulo.

• Estas dos condiciones, mediante el


álgebra vectorial, se convierten en un
sistema de ecuaciones; la resolución de
este sistema de ecuaciones, es resolver
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

la condición de equilibrio.
• Existen métodos de resolución de este tipo de problemas estáticos mediante
gráficos, heredados de los tiempos en que la complejidad de la resolución de
sistemas de ecuaciones se evitaba mediante la geometría, si bien actualmente se
tiende al cálculo por ordenador.

Para la resolución de problemas hiperestáticos (aquellos en los que el equilibrio se puede


alcanzar con distintas combinaciones de esfuerzos) es necesario considerar ecuaciones de
compatibilidad. Dichas ecuaciones adicionales de compatibilidad se obtienen mediante la
introducción de deformaciones y tensiones internas asociadas a las deformaciones mediante
los métodos de la mecánica de sólidos deformables, que es una ampliación de la mecánica
del sólido rígido que, además, da cuenta de la deformabilidad de los sólidos y sus efectos
internos.

Existen varios métodos clásicos basados en la mecánica de sólidos deformables, como los
teoremas de Castigliano o las fórmulas de Navier-Bresse, que permiten resolver un buen
número de problemas hiperestáticos de modo simple y elegante.

Aplicaciones
La estática abarca el estudio del equilibrio tanto del conjunto como de sus partes
constituyentes, incluyendo las porciones elementales de material.

Uno de los principales objetivos de la estática es la obtención de esfuerzos cortantes, fuerza


normal, de torsión y momento flector a lo largo de una pieza, que puede ser desde una viga
de un puente o los pilares de un rascacielos.

Su importancia reside en que una vez trazados los diagramas y obtenidas sus ecuaciones,
se puede decidir el material con el que se construirá, las dimensiones que deberá tener,
límites para un uso seguro, etc., mediante un análisis de materiales. Por tanto, resulta de
aplicación en ingeniería estructural, ingeniería mecánica, construcción, siempre que se
quiera construir una estructura fija. Para el análisis de una estructura en movimiento es
necesario considerar la aceleración de las partes y las fuerzas resultantes.

El estudio de la Estática suele ser el primero dentro del área de la ingeniería mecánica,
debido a que los procedimientos que se realizan suelen usarse a lo largo de los demás
cursos de ingeniería mecánica.

BIBLIOGRAFÍA

• Física general con experimentos sencillos. Beatriz Alvarenga, Antonio Máximo. Editorial
Harla, México. 1979, 1980, 1981
• Mauricio, Ramírez Ricardo, investiguemos 10, Voluntad, Bogota 1989.
• R. A. Serway, FÍSICA, Tomo I, 4ª. Edición. McGraw Hill, 1997.
• M. Alonso y E. J. Finh (1992). Física, ed. Pearson Educación.

ENLACES WEB

http://shibiz.tripod.com/id9.html
http://www.fisicanet.com.ar
http://docentes.uacj.mx/agarcia/Cursos/Dinamica/Capitulo2/2TirPara.HTM
http://www.her.itesm.mx/academia/profesional/cursos/fisica_2000/Fisica1/F%C3%ADsica/fte
ma3_cl.html
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

MAGNETISMO Y ELECTRICIDAD

ÁREA DE CIENCIA, TECNOLOGÍA Y AMBIENTE

RESUMEN

La electricidad y el magnetismo son fenómenos que observaban los antiguos griegos. La


Electricidad la producían cuando frotaban un pedazo de ámbar el cual se electrificaba, atraía
pedazos de paja. También supieron de las fuerzas magnéticas observando que la piedra
magnetita (Fe3O4) era atraída por el hierro. En electricidad, se usan términos tomados del
griego como la palabra eléctrico que proviene de elektron, palabra griega para ámbar. La
palabra magnético proviene de Magnesia, nombre de la provincia griega donde por primera
vez se encontró la magnetita.

Electricidad, Avances Científicos Iniciales.- Por el 1600 se supo que la electrificación no


estaba limitada al ámbar sino que se trataba de un fenómeno más general. La Electricidad
tiene un avance en 1819 cuando Oersted casualmente descubre que la aguja de una brújula
se desviaba cuando se colocaba cerca de un circuito que conducía una corriente eléctrica.
La Electricidad tiene otro avance en 1831 cuando Faraday demuestra que cuando un
alambre se mueve cerca de un imán o cuando un imán se mueve cerca de un alambre se
originaba una corriente eléctrica en el alambre.

La electricidad y el magnetismo hasta el siglo XIX parecían fenómenos no relacionados,


pero a partir de la segunda mitad del siglo XIX los científicos concluyeron que eran
fenómenos íntimamente relacionados. En 1873 Maxwell concentró estas observaciones mas
otros hechos experimentales para formular las respectivas nuevas leyes. Electromagnetismo
es el nombre que se dio a los fenómenos combinados de ambos elementos.

En realidad ahora se sabe que todo fenómeno magnético es un efecto relativista, esto es, su
origen puede explicarse mediante la teoría de la relatividad de Einstein.

APRENDIZAJES ESPERADOS

 Analiza y argumenta acerca de la intensidad de la corriente eléctrica en diversas


situaciones.
 Infiere resultados a la experimentación sobre campo magnético..

Ecuación matemática que recoge la ley de Coulomb, y que nos permite conocer la fuerza con
que se atraen o repelen dos cargas eléctricas en cualquier punto del espacio.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

ELECTRICIDAD

La electricidad fue en sus comienzos casi un juego, un divertimento, aunque sus


manifestaciones atrajeran grandemente la atención por lo que tenían de "mágicas" y
espectaculares.

Se conocían desde muy antiguo los efectos tapón atravesado por una varilla metálica
de electrización producidos por frotación que había sido enganchada al conductor de
entre diversos cuerpos, incluso se conocía la una máquina eléctrica. Cuando al ser
conductividad eléctrica. En efecto, en 1729 descolgada por un ayudante, éste sufrió una
Stephen Gray (1666-1736), anunció tras gran sacudida, se demostró que en la botella
experimentar en Cambridge, que la "virtud se había acumulado electricidad. Había
atractiva" era transportable a distancia por nacido así la botella de Leyden, que pronto
ciertos metales. Más sistemático y se hizo popular entre los interesados por
racionalista que Gray, el francés Charles estos fenómenos y que sucesivamente
François de Cisternay Du Fay, explota el perfeccionarían hasta quedar configurada
fenómeno de la conductividad hasta sus como un vidrio delgado revestido de una
límites experimentales y va más allá, al lámina de estaño de la que salía una varilla
proponer la existencia de dos tipos de metálica terminada en una esfera. Se
electricidad, una "vítrea" y otra "resinosa". trataba sencillamente de un condensador
Ante la necesidad de explicar los fenómenos eléctrico.
eléctricos, se recorre de nuevo, como se Tras estos primeros pasos, ya a mediados
hizo en otras ramas de la ciencia, a la del siglo XVIII, los intentos de medir la
suposición existencial de dos fluidos "virtud eléctrica" condujeron a los
eléctricos, responsables de los dos tipos de electrómetros. Con ellos comenzó la teoría
electricidad conocidos. En este contexto de matemática de la electricidad. Los primeros
teorías fluidistas, va a producirse un pasos fueron dados por un americano,
descubrimiento que, de alguna forma, Benjamín Franklin (1706-1790), descubridor
justificaría la existencia de los fluidos del pararrayos en 1752, y autor de una
eléctricos. En 1745, el holandés Pedro Van nueva teoría, la del fluido único, que en
Musschenbroeck (1692-1761) exceso o en defecto de su valor normal en
experimentaba en la ciudad de Leyden con los cuerpos, producía los efectos eléctricos.
una botella llena de agua y cerrada con un

En buena lógica newtoniana, faltaba determinar con precisión la fuerza con que se atraían
las diferentes cargas. A ello se dedica, entre otras cosas, el francés Charles Augustin
Coulomb (1736-1806) quien establece la ley que lleva su nombre. La ley de atracción y
repulsión entre cargas permitió aplicar inmediatamente a la electricidad los potentes medios
que el análisis matemático había desarrollado para la mecánica.

Fiel al espíritu de la Ilustración, la electricidad comenzó pronto a ser utilizada de modo


práctico. Sin embargo, la verdadera utilización práctica de la electricidad no fue posible
hasta el descubrimiento de la corriente eléctrica y como producirla. En este campo destaca
Alessandro Volta (1745-1827), inventor de la pila eléctrica.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

Electricidad Estática

La gran mayoría de los automovilistas y En circunstancias de atmósfera tormentosa,


pasajeros conocen de sobra los efectos del bastante más aún que al aire libre, la
fenómeno generalmente llamado "descarga presencia en el automóvil se hace
de electricidad estática" que se producen inaguantable, un poco como si existiese una
cuando tocan las extremidades de la puerta electrificación global del vehículo. Tal
o del maletero, con la punta del capó o del sensación se repite, curiosamente, cuando
ángulo de cualquier montante de la brilla el sol y sopla una brisa de viento muy
carrocería. Aunque la potencia de dicha seco, lo que provoca extrañeza, puesto que
descarga sea débil y carezca de no parecen existir condiciones propicias
peligrosidad, resulta más desagradable para achacar el malestar a la "sobrecarga"
porque el sujeto receptor es más sensible a eléctrica ambiente.
su manifestación.

De todas formas, cualquiera que sean las distintas formas de receptividad humana, las
reacciones son de impotencia. La electricidad, en todas sus infinitas manifestaciones sigue
siendo uno de los más impenetrables secretos del universo. Además, en este caso, ni
siquiera la palabra "electricidad estática" induce a facilitar la comprensión o averiguar el
significado: Evoca la noción de electricidad "en reposo", contradicción obvia con el brote de
chispas cortitas que pueden verse algunas veces de noche, y que recuerdan las chispitas
que apreciamos en ciertas prendas de fibras plásticas.

Ante esta serie de hechos que rebasan la lógica y sentido común, los más precavidos,
prudentes y/o afectados compran cintitas que incorporan generalmente hilos conductores
metálicos y las colocan en la parte trasera del vehículo, como que para que por ahí se
pueda desprender esa maldita electricidad estática.

En términos despejados de todo cientifismo, hemos de decir en primer lugar que "grosso
modo" la electricidad estática es más bien "tribo-electricidad", o sea, electricidad
producida por contacto, roce, fricción, y/o frotadura (del griego "tribein", frotar). Su
existencia es conocida desde la más lejana antigüedad y la medicina la utiliza desde hace
de dos siglos para cuidar el sistema nervioso.

Descrita y utilizada en experimentos de laboratorios a partir del siglo XVII, hoy en día forma
parte de la enseñanza, comprobándose que ciertos materiales se cargan de electricidad por
simple frotadura y atraen, por ejemplo, pedacitos de papel.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

De todos modos, cualquier persona que la partícula elemental de electricidad


tenga cabello largo puede apreciar, cada vez negativa. Sabiendo que dichos electrones
que lo hace, como la frotadura del peine tienen una estabilidad precaria y pueden
atrae los cabellos. abandonar su órbita a consecuencia de
cualquier choque, roce, frotadura,
Ahora, para comprender el proceso de conmoción nuclear, fricción y otras muchas
formación de dicha "corriente" hay que circunstancias. En el dibujo 2 se indica como
abandonar por completo las ideas respecto un roce entre dos cuerpos provoca el
de la materia inerte, maciza, impenetrable, desprendimiento de electrones periféricos en
densa y homogénea. Un cuerpo cualquiera los átomos superficiales de la llamada
está formado por un número infinito de materia inerte.
moléculas pequeñísimas ligadas entre si por
el vacío, o sea, logadas por fuerzas de Pues si tenemos en cuenta que el cuerpo
atracción y repulsión que les permite humano es "positivo" y los electrones
sostenerse en equilibrio sin que entren en "negativos" que, además dos "cuerpos" de
contacto. sentido opuesto se atraen, comprenden por
que se produce una descarga en el dedo
Por si fuese poco, el átomo integra cantidad cuando se toca la extremidad de un objeto
de electrones que giran en sus orbitas metálico, excelente conductor eléctrico,
concéntricas alrededor de un núcleo, como cargado con electrones cuya virtud consiste
puede apreciarse en el dibujo 1. en acumularse en las partes extremas o
periféricas de las materias.
Por fin, hemos alcanzado con el electrón, la
más pequeña cantidad de agente eléctrico,

Conductores y aislantes

Al contrario de los conductores eléctricos, existen materiales en los cuales los


electrones están firmemente unidos a sus respectivos átomos; es decir, estas
sustancias no poseen electrones libres. Por tanto, no será posible el desplazamiento
de carga eléctrica libre a través de estos cuerpos, los que se denominan "aislantes
eléctricos" o "dieléctricos". La porcelana, el caucho (hule), la mica, el plástico, la
madera, el vidrio, etc., son ejemplos típicos de sustancias aislantes.

Corriente eléctrica
La corriente eléctrica consiste en el flujo de cargas eléctricas a través de un conductor.
En el caso de los conductores metálicos (por ejemplo un alambre de cobre), la
corriente eléctrica está constituida por un flujo de electrones. En los conductores
líquidos (por ejemplo una solución de cloruro de sodio o sal común en agua) la
corriente eléctrica está constituida por el movimiento de iones positivos (cationes) e
iones negativos (aniones). En el caso de los gases (por ejemplo en las lámparas de
vapor de mercurio) la corriente está constituida por el movimiento de cationes, de
aniones, y también de electrones libres.

La intensidad de la corriente eléctrica (representada por la letra ) en el SIU se


denomina ampere (símbolo A) y se define como:

Es decir, si en un conductor circula una corriente de 1 A, ello significa que por dicho
conductor está circulando una carga de 1 C en cada segundo.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

Generalmente se utilizan submúltiplos del ampere, tales como el miliampere (mA) y el


microampere (µA), cuyas equivalencias son:
1 mA = 10–3 A
1 µA = 10–6 A

Tipos de corriente

Hay dos tipos de corriente eléctrica: corriente directa o continua (CD ó CC) y corriente
alterna (CA).

La corriente directa es aquella que fluye en una sola dirección (unidireccional o de


sentido constante). Este tipo de corriente es proporcionada, por ejemplo, por las pilas
(que se emplean en las linternas, radios, etc.) o bien por las baterías o acumuladores
del automóvil.

La corriente alterna es aquella que cambia periódicamente de dirección,


desplazándose unas veces en una dirección y otras en dirección contraria. Este tipo de
corriente es que la suministran las empresas de electricidad en casi todas las ciudades
del mundo y es utilizada en nuestros hogares (electrodomésticos, equipos de sonido,
televisión, computadoras, etc.) y en la industria.

Una corriente alterna puede transformarse en corriente continua por medio de


dispositivos especiales, denominados "rectificadores", obteniéndose una corriente
rectificada.

Figura. Corriente alterna,


corriente directa y corriente
rectificada.

Fuerza electromotriz
La fuerza que impulsa a la
corriente a lo largo de un
conductor es denominada
fuerza electromotriz (FEM), su
unidad en el SIU es el volt (V) y
normalmente se usa el término
"voltaje" en lugar de FEM. Se
suele representar por las letras
o . Sin embargo, es
sumamente útil tener en mente
la expresión "fuerza
electromotriz", ya que ésta
fortalece la idea de una fuerza
que empuja o jala las cargas alrededor del circuito para hacer que fluya corriente.
Esta fuerza eléctrica o voltaje, siempre aparece entre dos puntos, y se dice que es la
"diferencia de potencial" entre dichos puntos (figura Nº 8).

Voltaje o diferencia de potencial entre las terminales de la batería


El voltaje suele expresarse mediante múltiplos, tales como el kilovolt (kV) y el megavolt
(MV), y también mediante submúltiplos como el milivolt (mV) y el microvolt (µV), cuyas
equivalencias son:
1 kV = 103 V
1 MV = 106 V
1 mV = 10–3 V
1 µV = 10–6 V
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

En Perú el voltaje doméstico por lo común es de aproximadamente 220 V, su


frecuencia (*) es de 60 hertz (símbolo Hz).

Resistencia

La resistencia ( ) representa la oposición al flujo de cargas eléctricas a través de un


conductor. Tanto mayor sea el valor de mayor será la oposición que ofrece el
conductor al paso de la corriente a través de él.

En el SIU, la unidad de medida para la resistencia se denomina ohm y se representa


por la letra griega .

En la industria se utilizan los siguientes submúltiplos: el miliohm ( ), el microhm


( ), y los múltiplos: kilohm ( ) y el magaohm ( ), cuyas equivalencias son:
1 = 103
1 = 106
1 = 10–3
1 = 10–6

El elemento de un circuito eléctrico diseñado específicamente para proporcionar


resistencia se denomina "resistor" (*).

Resistividad de un material

La resistencia de un conductor depende de y de


Al realizar mediciones cuidadosas se observa que la resistencia de un material es
directamente proporcional a su longitud e inversamente proporcional al área de su
sección transversal, es decir:

Donde se denomina "resistividad eléctrica" del material. Su unidad en el SIU es


m.
La resistividad es una propiedad característica del material que constituye el
conductor, es decir, cada sustancia posee un valor diferente de resistividad.
La tabla siguiente presenta valores de resistividad eléctrica de algunas sustancias, a
una temperatura de 20 º C (*).
Material
Resistividad ( m)
–8
Plata 1.59 × 10
Cobre 1.70 × 10–8
Oro 2.44 × 10–8
Aluminio 2.82 × 10–8
Tungsteno 5.60 × 10–8
Hierro 10 × 10–8
Platino 11 × 10–8
Plomo 22 × 10–8
Mercurio 94 × 10–8
Níquel – cromo 1.50 × 10–6
Carbón 3.50 × 10–5
Germanio 0.46
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

Silicio 640
Vidrio 1010 – 1014
Caucho duro ≈1013
Azufre 1015
Cuarzo fundido 75 × 1016

Si se tienen varios alambres de la misma longitud y del mismo grosor, pero hechos de
diferente material, el de menor resistividad será el de menor resistencia. Es decir, que
cuanto menor sea la resistividad de un material, tanto menor será la oposición que
este material ofrezca al paso de la corriente a través de él.

Ley de Ohm

La relación entre el voltaje aplicado ( ), la corriente ( ) y la resistencia ( ) en un


circuito eléctrico está dada por la ley de Ohm, la que establece que para un valor fijo
(constante) de resistencia, la corriente es directamente proporcional al voltaje, es
decir:

Por tanto, si el voltaje se duplica, también se duplica la corriente, si se triplica el voltaje


se triplica la corriente, si el voltaje se reduce a la mitad la corriente también se reducirá
a la mitad, etc. Esta relación se puede expresar gráficamente como sigue:

Potencia eléctrica
La potencia eléctrica, representada por la letra , es la tasa (velocidad) de producción
o consumo de energía, como la potencia de un generador o la potencia disipada en
una lámpara. La energía en el SIU se expresa en joules (J) y la potencia se mide en
watts (W) o con frecuencia en kilowatts (kW), donde:
1W=1J/s
1 kW = 1000 W
El consumo de energía eléctrica por lo general se suele medir en kilowatts–hora
(kWh), el cual se define como el consumo de un artefacto de 1000 W de potencia
durante una hora.
Sin embargo, es práctica común en la industria utilizar otras unidades para expresar la
potencia eléctrica, como son los caballos fuerza (hp) y la Unidad Térmica Británica
(BTU). Las equivalencias de estas unidades con el watt son:
1 hp = 746 W
1 W = 3.41 BTU/h

Ley de Watt

La ley de Watt, establece que la potencia en un aparato eléctrico se puede determinar


mediante la siguiente fórmula:

Es decir, si se conoce el voltaje aplicado y la intensidad de corriente que circula por el


circuito, se puede calcular la potencia desarrollada en el equipo.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

M ANEJO DEL MULTÍMETRO O TESTER DIGITAL

Referencias:

1- Display de cristal líquido.

2- Escala o rango para medir resistencia.

3- Llave selectora de medición.

4- Escala o rango para medir tensión en continua (puede indicarse DC en vez de una
línea continua y otra punteada).

5- Escala o rango para medir tensión en alterna (puede indicarse AC en vez de la


línea ondeada).

6- Borne o “jack” de conexión para la punta roja, cuando se quiere medir tensión,
resistencia y frecuencia (si tuviera), tanto en corriente alterna como en continua.

7- Borne de conexión o “jack” negativo para la punta negra.

8- Borne de conexión o “jack” para poner la punta roja si se va a medir mA


(miliamperes), tanto en alterna como en continua.

9- Borne de conexión o “jack” para la punta roja cuando se elija el rango de 20A
máximo, tanto en alterna como en continua.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

10-Escala o rango para medir corriente en alterna (puede venir indicado AC en lugar
de la línea ondeada).

11-Escala o rango para medir corriente en continua (puede venir DC en lugar de una
línea continua y otra punteada).

12-Zócalo de conexión para medir capacitores o condensadores.

13-Botón de encendido y apagado.

Aclaración: la corrriente alterna o AC por Alternal Corrent, es aquella que se


produce mediante generadores electromagnéticos, de tal forma que en el caso de
nuestro país, fluye cambiando el polo positivo (polo vivo) a negativo (polo neutro), 50
veces por segundo. Por esto la corriente domiciliaria se dice que tiene un voltaje de
220 V a una frecuencia de 50 HZ (Hertz), (tener en cuenta que un Hertz es un cambio
de polo vivo a polo neutro en un segundo). La razón para que la tensión en el uso
domiciliario sea alterna, es que resulta menos costosa que la continua, ya que se la
puede suministrar más directamente desde la usina, sin rectificarla a corriente
continúa.
Las baterías y pilas proveen una corriente continua o DC por Direct Current, es decir
que en todo instante la corriente fluye de positivo a negativo. Para el caso de los
automóviles es más simple proveerse de un alternador o generador que rectifica la
corriente alterna en continua mediante los diodos rectificadores que posee en su
interior.

UTILIDAD DEL TESTER DIGITAL

Es muy importante leer el manual de operación de cada multímetro en particular,


pues en él, el fabricante fija los valores máximos de corriente y tensión que puede
soportar y el modo más seguro de manejo, tanto para evitar el deterioro del
instrumento como para evitar accidentes al operario. El multímetro que se da como
ejemplo en esta explicación, es genérico, es decir que no se trata de una marca en
particular, por lo tanto existe la posibilidad que existan otros con posibilidad de medir
más magnitudes.
Con un tester digital podemos tener una lectura directa de la magnitud que se quiere
medir (salvo error por la presición que el fabricante expresa en su manual de uso).
En cambio con el tester analógico (o de aguja), tenemos que comparar la posición de
la aguja con respecto a la escala, lo cual trae aparejado dos errores, como el de
apreciación (que depende del ojo o buena vista del operario) y el error de paralaje (por
la desviación de la vista) que muchas veces no respeta la direccción perpendicular a la
escala. A todo esto debemos sumarle el error de presición del propio instrumento, lo
cual hace evidente que resulta mucho más ventajosa la lectura de un tester digital.

SELECCIÓN DE LAS MAGNITUDES Y ESCALAS O RANGOS

Continuidad, prueba de diodos y resistencias:


Tengamos en cuenta que para utilizar el mult ímetro en esta escala, el
componente a medir no debe recibir corriente del circuito al cual
pertenece y debe encontrarse desconect ado. Los valores indicados en
la respectiva escala, por ejemplo pueden ser:
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

Tal cual como está posicionada la llave selectora, nos indica que podemos medir
continuidad mediante el sonar de un timbre o “buzzer”, por ejemplo cuando en un
mazo de cables se busca con las puntas de prueba un extremo y el correspondiente
desde el otro lado. Se activa un zumbido si la resistencia es menor de 30 Ohms
(aproximadamente). Si la resistencia es despreciable (como debería ocurrir en un
conductor), no solo sonará el buzzersino que además el displey indicará 000. Cuando
encuentra una resistencia, la indicación son los mil volts de caída de tensión, por la
resistencia detectada, a mayor resistencia, mayor serán los mV indicados.

Por esto cuando se prueba diodos, en un sentido (el inverso a su polaridad), indica el
número “1” a la izquierda del display. Esto significa que está bloqueando la corriente
(con una resistencia muy elevada) y por lo tanto no se encuentra en corto circuito. En
cambio en la polaridad correcta, el display indica unos milivolts que dependen del tipo
de diodo que se está probando, ya que si bien el diodo conduce conectando las puntas
en la polaridad correcta, lo hace con resistencia apreciable. El instrumento fija una
corriente de prueba de 1mA.

Cuando buscamos un valor de la resistencia, tenemos para elegir escalas o rangos


con un máximo de: 200 Ohms, 2K (2 kiloOhms o 2000 Ohms), 20K (20000 Ohms) y
2M (2 MegOhms o 2 millones de Ohms) y en algunos testers figura hasta 20M.
Si el valor a medir supera el máximo de la escala elegida, el display indicará “1”a su
izquierda. Por lo tanto habrá que ir subiendo de rango hasta encontrar la correcta.
Muchas veces se sabe de antemano cuanto debería medir y entonces por ejemplo, si
es una bobina primaria de encendido, elegimos buzzer si primero queremos ver su
continuidad y luego para el valor de la resistencia pasamos a 200. En cambio, para el
bobinado secundario o los cables de bujías, usaremos la de 20K.

Tensión en DC

Sabemos que como voltímetro se conecta en paralelo con el componente a medir, de


tal manera que indique la diferencia de potencial entre las puntas.

Donde indica 200m el máximo es 200 milivolts (0,2 V), el resto se comprende tal cual
están expresados por sus cifras. Por lo tanto para medir tensiones de batería del
automóvil debemos elegir la de 20V. Si se está buscando caídas de tensión en
terminales o conductores, podemos elegir una escala con un máximo más pequeño,
luego de arrancar con un rango más elevado y así tener una lectura aproximada.
Siempre hay que empezar por un rango alto, para ir bajando y así obtener mayor
precisión. Cuando el valor a medir supere el máximo elegido, también indicará “1”en el
lado izquierdo del display.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

Corriente en DC
Para medir esta magnitud, hay que tener mucha precaución porque como
amperímetro el tester se conecta en serie. Por lo tanto toda la corriente a medir se
conducirá por su interior, con el riesgo de quemarlo. En el manual de uso el fabricante
aconseja no solo el máximo de corriente que puede soportar sino además el tiempo en
segundos (por ejemplo 15seg.).
La escala a utilizar es:

Donde la escala indica el rango: 2m es 2mA (0,002 A); 20m es 20mA (0,02 A); 200m
es 200mA (0,2 A) y por lo tanto 20 es 20 A.

Comentario: en las conexiones del tester para encendido convencional, electrónico e


inyección electrónica, se utiliza como voltímetro u Ohmetro y la mayoría de las veces
resulta suficiente para resolver el problema. Cuando sea necesario conocer la
corriente, es mejor utilizar una pinza amperométrica. Quien les escribe el profesor
Ricardo Angel Disábato, realizará en sus clases prácticas todas las mediciones
descriptas en este capítulo de tester digital.

Capacitancia o capacitores:
Utilizamos la escala indicada como CX y su zócalo:

CX quiere decir “capacidad por”, según el rango seleccionado con la llave (3):
· 20 u es 20 uf resultando uf la unidad microfaradio (1uf= 1f x 10-6), es decir el uf es
la millonésima parte del faradio (20uf son 0,00002 faradios). Por lo tanto el rango
20u es el máximo, es decir la mayor capacidad que puede medir este tester.
· 2u es 2uf (2f x 10-6 = 0,000002 f). Además en otros multímetros podemos
encontrar:
· 200n es 200 nanofaradios (1nf= 1f x 10-9 f) o sea 200nf = 0,0000002 f.
· 20n es 20 nanofaradios o sea 20nf= 0,00000002 f.
· 2000 p es 2000 pf (2000 picofaradios), teniendo en cuenta que 1pf= 1 f x 10-12
entonces 2000pf = 0,000000002 f.

Consideraciones importantes:
Para los automóviles con encendido por platinos los valores de capacidad pueden ir de
0,20 uf a 0,28 uf, por lo tanto es mejor medir en el rango de 2u.
En valor alto de capacidad puede demorar unos segundos en alcanzar la lectura final.
Siempre los capacitores deben estar descargados, antes de conectarlos al zócalo.
Cuando se trata de capacitores de papel de estaño (como el de los sistemas de
platinos) no hace falta respetar polaridad en el zócalo. Pero existen capacitores
utilizados en electrónica, que tiene marcada la polaridad y en estos casos se debe
tener en cuenta que, por ejemplo la conexión superior del zócalo es positiva y la
inferior es negativa (consultar el manual de uso en cada caso).
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

OTRAS MAGNITUDES
Hay multímetros genéricos que además miden frecuencia en KiloHertz (KHz) y
mediante un zócalo adicional (parecido al de capacitores) y una termocupla o conector
especial, pueden medir temperatura en 0C.
La frecuencia en KHz generalmente tiene un rango único de 20KHz (20000 Hz), que
para encendido e inyección electrónica es poco sensible o resulta una escala
demasiado grande. Pues necesitamos medir frecuencias que van desde 10 a 15 Hz
hasta 50 a 80 Hz y 100 a 160 Hz. Por lo tanto para mediciones precisas de frecuencia
hay que adquirir multímetros especialmente diseñados para la electrónica del
automovil.
La temperatura en 0C puede ser captada tocando con la termocupla el objeto a
controlar y la rapidez con la cual registre el valor a igual que su presición dependerá
de la calidad de cada multímetro y termocupla en cuestión. La temperatura ambiente
se obtiene sin conectar la termocupla ya que vienen con un sensor incorporado (dentro
del instrumento) para tal fin.
Algunos multímetros también agregan otro zócalo para la prueba de transistores,
indicado como hFE. Esto determina el estado de la base y el emisor de dicho
semiconductor.

MAGNETISMO

En física, el magnetismo es un fenómeno por el que los materiales ejercen fuerzas de


atracción o repulsión a otros materiales. Hay algunos materiales conocidos que han
presentado propiedades magnéticas detectables fácilmente como el níquel, hierro y
sus aleaciones que comúnmente se llaman (imanes). Sin embargo todos los
materiales son influenciados, de mayor o menor forma, por la presencia de un campo
magnético.

También el magnetismo tiene otras manifestaciones en física, particularmente como


uno de los dos componentes de la onda electromagnética, como por ejemplo la luz.

Pequeña explicación del magnetismo: Cada electrón es, por su naturaleza, un


pequeño imán (véase Momento dipolar magnético electrónico). Ordinariamente,
innumerables electrones de un material son orientados aleatoriamente en diferentes
direcciones, sin dejar efecto promedio, pero en un imán todos los electrones tienden a
orientarse en la misma dirección, creando una fuerza magnética.

Historia El primer filosofo que estudio el fenómeno del magnetismo fue Tales de
Mileto, filósofo griego que vivió entre 625 a.n.e. y 545 a.n.e. [1] . En China, la primera
referencia a este fenómeno se encuentra en un manuscrito del siglo IV adC titulado
Libro del amo del valle del diablo ( ): «La magnetita atrae al hierro hacia sí o es
atraída por éste». La primera mención sobre la atracción de una aguja aparece en un
trabajo realizado entre los años 20 y 100 de nuestra era: «La magnetita atrae a la
aguja».

El científico Shen Kua (1031-1095) escribió sobre la brújula de aguja magnética y


mejoró la precisión en la navegación empleando el concepto astronómico del norte
absoluto. Hacia el siglo XII los chinos ya habían desarrollado la técnica lo suficiente
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

como para utilizar la brújula para mejorar la navegación. Alexander Neckham fue el
primer europeo en conseguir desarrollar esta técnica, en 1187.

El conocimiento del magnetismo se mantuvo limitado a los imanes, hasta que en 1820,
Hans Christian Ørsted profesor de la Universidad de Copenhage, descubrió que un
hilo conductor sobre el que circulaba una corriente ejercía una perturbación magnética
a su alrededor, que llegaba a poder mover una aguja magnética situada en ese
entorno. Muchos otros experimentos siguieron, con André-Marie Ampère, Carl
Friedrich Gauss, Michael Faraday y otros que encontraron vínculos entre el
magnetismo y la electricidad. James Clerk Maxwell sintetizó y explicó estas
observaciones en sus ecuaciones de Maxwell. Unificó el magnetismo y la electricidad
en un solo campo, el electromagnetismo. En 1905, Einstein uso estas leyes para
comprobar su teoría de la relatividad especial en el proceso mostró que la electricidad
y el magnetismo estaban fundamentalmente vinculadas.

El Electromagnetismo continuó desarrollándose en el siglo XX, siendo incorporada en


las teorías mas fundamentales como la Teoría de campo de gauge, electrodinámica
cuántica, teoría electro débil y finalmente en el modelo estándar.

La física del magnetismo

Electromagnetismo
Como consecuencia de la teoría de la relatividad especial de Einstein, la electricidad y
el magnetismo estaban comprendidos como vinculantes. Tanto el magnetismo sin la
electricidad como la electricidad sin magnetismo serían inconsistentes con la nueva
teoría por los efectos como la contracción de la longitud, la dilatación del tiempo y la
dependencia de la velocidad en el campo magnético. Sin embargo cuando ambas
fueron tomadas en cuenta, la reciente teoría del electromagnetismo fue totalmente
consistente con la relatividad. En particular, un fenómeno que parece como eléctrico
para un observador puede parecer magnético para otro, o más generalmente las
contribuciones generales de la electricidad y el magnetismo son dependientes del
marco de referencia.

Entonces, la "mezcla" de la relatividad especial entre electricidad y magnetismo en una


sola dio un fenómeno inseparable llamado electromagnetismo (análogo a lo que la
misma teoría "mezclo" al tiempo con el espacio en el espacio-tiempo).

Campos y fuerzas magnéticas

Campo magnético

El fenómeno del magnetismo es ejercido por un campo magnético, una corriente


eléctrica o un dipolo magnético crea un campo magnético, éste al girar imparte una
fuerza magnética a otras partículas que están en el campo.

Para una aproximación excelente (pero ignorando algunos efectos cuánticos) las
ecuaciones de Maxwell (que simplifican la ley de Biot-Savart en el caso de corriente
constante) describen el origen y el comportamiento de los campos que gobiernan esas
fuerzas. Por lo tanto el magnetismo se observa siempre que partículas cargadas
eléctricamente están en movimiento. Por ejemplo, del movimiento de electrones en
una corriente eléctrica o en casos del movimiento orbital de los electrones alrededor
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

del núcleo atómico. Estas también aparecen de un dipolo magnético intrínseco que
aparece de los efectos cuánticos, del spin de la mecánica cuántica.

La misma situación que crea campos magnéticos (carga en movimiento en una


corriente o en un átomo y dipolos magnéticos intrínsecos) son también situaciones en
que el campo magnético causa sus efectos, creando una fuerza. Cuando una partícula
cargada se mueve a través de un campo magnético B, se ejerce una fuerza F dado
por el producto cruz: donde es la carga eléctrica de la partícula, es la vector velocidad
de la partícula y es el campo magnético. Debido a que esto es un producto cruz, la
fuerza es perpendicular al movimiento de la partícula y al campo magnético.

La fuerza magnética no realiza trabajo mecánico en la partícula, esto cambiaría la


dirección del movimiento de ésta, pero esto no causa su aumento o disminución de la
velocidad. La magnitud de la fuerza es: donde es el ángulo entre los vectores y. `

Una herramienta para determinar la dirección del vector velocidad de una carga en
movimiento, es siguiendo la ley de la mano derecha.

El físico alemán Heinrich Lenz formuló lo que ahora se denomina la ley de Lenz, ésta
da una dirección de la fuerza electromotriz (fem) y la corriente resultante de una
inducción electromagnética.

Dipolos magnéticos

Se puede ver una muy común fuente de campo magnético en la naturaleza, un dipolo.
Éste tiene un "polo sur" y un "polo norte", sus nombres se deben a que antes se
usaban los magnetos como compases, que interactuaban con el campo magnético
terrestre, para indicar el norte y el sur del globo.

Un campo magnético contiene energía y sistemas físicos se estabilizan con


configuraciones de menor energía. Por lo tanto, cuando se encuentra en un campo
magnético, un dipolo magnético tiende a alinearse solo con una polaridad diferente a
la del campo, lo que cancela al campo lo máximo posible y disminuye la energía
recolectada en el campo al mínimo. Por ejemplo, dos barras magnéticas idénticas
pueden estar una a lado de otra normalmente alineadas de norte a sur, resultando en
un campo magnético más pequeño y resiste cualquier intento de reorientar todos sus
puntos en una misma dirección. La energía requerida para reorientarlos en esa
configuración es entonces recolectada en el campo magnético resultante, que es el
doble de la magnitud del campo de un magneto individual. (Esto es porque un
magneto usado como compás interactúa con el campo magnético terrestre para
indicar Norte y Sur)

Una alternativa, formulada equivalente, que es fácil de aplicar pero ofrece una menor
visión, es que un dipolo magnético en un campo magnético experimenta un torque y
una fuerza que puede ser expresada en términos de un campo y de la magnitud del
dipolo

Dipolos magnéticos atómicos


La causa física del magnetismo en los cuerpos, distinto a la corriente eléctrica, es por
los dipolos atómicos magnéticos. Dipolos magnéticos o momentos magnéticos, en
escala atómica resultan de dos tipos diferentes del movimiento de electrones. El
primero es el movimiento orbital del electrón sobre su núcleo atómico; este movimiento
puede ser considerado como una corriente de bucles, resultando en el momento
dipolar magnético del orbital. La segunda, más fuerte, fuente de momento electrónico
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

magnético es debido a las propiedades cuánticas llamadas momento de spin del


dipolo magnético (aunque la teoría mecánica cuántica actual dice que los electrones
no giran físicamente, ni orbitan el núcleo).

El momento magnético general de un átomo es la suma neta de todos los momentos


magnéticos de los electrones individuales. Por la tendencia de los dipolos magnéticos
a oponerse entre ellos se reduce la energía neta, en un átomo los momentos
magnéticos opuestos de algunos pares de electrones se cancelan entre ellos, ambos
en un movimiento orbital y en momentos magnéticos de spin. Así, en el caso de un
átomo con orbitales electrónicos o suborbitales electrónicos completamente llenos, el
momento magnético normalmente se cancela completamente entre ellos y solo los
átomos con orbitales electrónicos semilleros tienen un momento magnético, su fuerza
depende del número de electrones impares.

La diferencia en la configuración de los electrones en varios elementos determina la


naturaleza y magnitud de los momentos atómicos magnéticos, lo que a su vez
determina la diferencia entre las propiedades magnéticas de varios materiales.
Muchas formas de comportamiento magnético han sido observadas en diferentes
materiales, como:

Diamagnetismo
Paramagnetismo
Magneto Molecular
Ferromagnetismo
Antiferromagnetismo
Ferromagnetismo
Metamagnetismo
Superparamagnetismo

Monopolos magnéticos

Puesto que un imán de barra obtiene su ferromagnetismo de los electrones


microscópicos distribuidos uniformemente a través del imán, cuando un imán es
partido a la mitad cada una de las piezas resultantes es un imán más pequeño.
Aunque se dice que un imán tiene un polo norte y un polo sur, estos dos polos no
pueden separarse el uno del otro. Un monopolo - si tal cosa existe -sería una nueva
clase fundamentalmente diferente de objeto magnético. Actuaría como un polo norte
aislado, no atado a un polo sur, o viceversa. Los monopolos llevarían "carga
magnética" análoga a la carga eléctrica. A pesar de búsquedas sistemáticas a partir de
1931 (como la de 2006), nunca han sido observadas, y muy bien podrían no existir.
Milton menciona algunos eventos no concluyentes y aún concluye que "no ha
sobrevivido en absoluto ninguna evidencia de monopolos magnéticos".

Campo magnético

Líneas mostrando el campo magnético de un imán de barra, producidas por limaduras


de hierro sobre papel. El campo magnético es una propiedad del espacio por la cual
una carga eléctrica puntual de valor q que se desplaza a una velocidad , sufre los
efectos de una fuerza que es perpendicular y proporcional tanto a la velocidad como a
una propiedad del campo, llamada inducción magnética (o según algunos autores,
Densidad de flujo magnético). Así, dicha carga percibirá una fuerza descrita como
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

La existencia de un campo magnético se pone en evidencia por la propiedad


localizada en el espacio de orientar un magnetómetro (laminilla de acero imantado que
puede girar libremente). La aguja de una brújula, que pone en evidencia la existencia
del campo magnético terrestre, puede ser considerada un magnetómetro.

BIBLIOGRAFÍA

• Física general con experimentos sencillos. Beatriz Alvarenga, Antonio Máximo.


Editorial Harla, México. 1979, 1980, 1981
• Mauricio, Ramírez Ricardo, investiguemos 10, Voluntad, Bogota 1989.
• R. A. Serway, FÍSICA, 4ª. Edición. McGraw Hill, 1997.

ENLACES WEB
http://www.fisicanet.com.ar
http://www.monografías.com
http://www.wilkipedia.com
http://www.asifunciona.com/electrotecnia/
http://cabierta.uchile.cl/libros/c-utreras/node64.html
http://www.astrocosmo.cl/electrom/electrom-03.htm
http://www.gr.ssr.upm.es/eym/curso_web.html
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

ÁREA DE CIENCIA, TECNOLOGÍA Y AMBIENTE


GRUPO A
DISTANCIA
FUNCIONES QUÍMICAS INORGÁNICAS

Las funciones químicas son un conjunto de compuestos que tienen propiedades


similares, dado que tienen el mismo grupo funcional como los hidruros, óxidos,
hidróxidos, etc en química inorgánica o los hidrocarburos, alcoholes, ácidos
carboxílicos en química orgánica.

En este material pretendemos recordar la formulación de las funciones químicas


inorgánicas y sobre todo enfatizar en nomenclatura moderna (IUPAC) que se utiliza
para nombrar a los diversos compuestos que pertenecen a las funciones inorgánicas.

Objetivo:
Dominan en forma teórica y práctica los conocimientos del área de ciencia, tecnología
y ambiente, aplicados al contexto del ámbito de su escuela y comunidad.

Logro de aprendizaje:
Maneja el sustento teórico y práctico de los componentes temáticos del área curricular
de ciencia tecnología y ambiente en el nivel de secundaria de menores.

APRENDIZAJES ESPERADOS

 Nombrar con la nomenclatura moderna (IUPAC) los diversos compuestos que


pertenecen a las funciones inorgánicas.
 Identificar las propiedades físicas y químicas de las funciones químicas
inorgánicas.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

FUNCIONES QUIMICAS INORGANICAS


(NOMENCLATURA QUIMICA INORGANICA

FUNCIONES QUIMICAS INORGANICAS HIDROGENADAS

METAL METAL NO METAL NO METAL


(Grupos 1 y 2) DE Grupos 13,14 y 15 Grupo 16
(Calcógenos)
TRANSICIÓN
Grupo 17
“d” (Grupos 3 – 12)
(Halógenos)
Con menor valencia
G.16(2) y G.17(1)

Li, Ca Ti B, C, N S, Cl

+ + + +
H2 H2 H2 H2
↓ ↓ ↓ ↓
HIDRURO HIDRURO HIDRURO ACIDO
IONICO/METALICO INTERSTICIAL COVALENTE/NO HIDRACIDO
-1 +1
H (Excepción) METALICO H (*)

LiH TiH1,8 BH3 H2S(ac) Acido


Hidruro de litio TiH2 Hidruro de boro sulfHIDRICO
(Borano) H2S(g) SulfURO de
dihidrógeno
Hidruro de Titanio CH4 (Metano)
CaH2 SiH4 (Silano) HCl(ac) Ac.
ClorHIDRICO
Hidruro de calcio (Algunas veces tienen GeH4 (Germano) HCl(g) ClorURO de
valencias con valor hidrógeno
decimal).
NH3 (Amoniaco)
PH3 (Fosfina)
AsH3 (Arsina)
SbH3 (Estibina)
↓ ↓ ↓ ↓
PROPIEDADES: PROPIEDADES: PROPIEDADES: PROPIEDADES
 Sólidos  Conductividad térmica.  Gases y líquidos DE ACIDOS
 Altos puntos de fusión  Conductividad  Estabilidad térmica HIDRACIDOS Y
 Con H2O dan hidróxidos y metálica. disminuye al bajar en OXACIDOS:
liberan H2 un grupo.  Con H2O
+1
producen H
 Con hidróxidos
forman sales.
 Con Indicador
Fenolftaleina:
Incoloro
 Con Indicador
tornasol: Rojo
 Muy corrosivos.
 Con metales
liberan H2

HIDRUROS (3)
(Grupos: 1 al 15)
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

FUNCIONES QUÍMICAS INORGÁNICAS OXIGENADAS

METAL NO METAL

Na, Ca, Al, Fe(2-3) C (2-4), S (2-4-6), Cl (1-3-5-7)


+ +
O2 O2
↓ ↓
Na2O (Común) OXIDO de Sodio CO (C) ANHIDRIDO
(IUPAC) MONOxido de
PROPIEDADES: DIsodio
carbonOSO PROPIEDADES:
(I) MONOxido de

2Val.
carbono
 Sólidos. CaO (Común) OXIDO de calcio C02 (C) ANHIDRIDO  Sólidos.
 Se preparan a (IUPAC) Monóxido de  Se preparan a Tº
carbónICO
Tº Ambiente o calcio Ambiente o altas
altas Tº. ( I ) DIóxido de carbono Tº.
 Son  Son compuestos
compuestos Al2O3 (Común) OXIDO de SO ( C ) ANH. HIPOsulfurOSO iónicos.
iónicos. aluminio ( I ) MONOxido de azufre  Tienen carácter
 Tienen carácter (IUPAC) TRIóxido de básico.
básico. DIaluminio  Con H2O dan
 Con H2O dan 3 Val. hidróxidos.
SO2 ( C ) ANH. sulfurOSO
hidróxidos. ( I ) DIóxido de azufre
FeO (Común) OXIDO ferrOSO SO3 ( C ) ANH. sulfúrICO
(IUPAC) Monóxido de ( I ) TRIóxido de azufre
fierro
Fe2O3 (Común) OXIDO férrICO
(IUPAC) TRIóxido de
Difierro.
Cl2O ( C ) ANH. HIPOclorOSO
( I ) MONOxido de DIcloro
Cl2O3 ( C ) ANH. clorOSO
( I ) TRIóxido de DIcloro
4 Val.

Cl2O5 ( C ) ANH. clórICO


( I ) PENTAóxido de DIcloro
Cl2O7 ( C ) ANH. HIPERclórICO
( I ) HEPTAóxido de DIcloro

+ +
H2O H2O
↓ ↓
HIDRÓXIDO/BASE (OH-1)
+ ÁCIDO OXÁCIDO (H+1)

NaOH (C) HIDROXIDO de H2SO4 (COMUN) ACIDO FORMULACION


Sodio sulfúrICO DIRECTA:
PROPIEDADES: (I) MONOhidróxido (IUPAC) TETRAOXO Valencia Par:
 Con Indicador de sodio sulfato H = 2
Fenolftaleína: de DI hidrógeno O = Val + 2 / 2
Color rojo
Ca(OH)2 (C) HIDROXIDO de HNO3 (C) ACIDO nítrICO
grosella. Valencia Impar:
calcio (I) TRIOXO nitrato de
 Con indicador H = Nada
(I) DIhidróxido de hidrógeno
tornasol: Azul. O = Val + 1 / 2
calcio
 Sabor a lejía.
 Untuosos al Al(OH)3 (C) HIDROXIDO de H2CO3 (C) ACIDO carbónICO
tacto. aluminio (I) TRIOXO carbonato
 Propiedades de (I) TRIhidróxido de de DI hidrógeno
detergentes y aluminio
jabonosas HClO4 (C) ACIDO
PROPIEDADES:
 Con ácidos HIPERclórICO
(I) TETRAOXO (Las mismas que
forman sales. Ac. Hidrácidos)
carbonato de
hidrógeno
SAL OXISAL + H2O
+
HIDRÓXIDO/BASE (OH-1) ÁCIDO OXÁCIDO (H+1)
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

SAL OXISAL + H2O


NaOH + H2 SO4 → Na2(SO4) + H2O
Na2(SO4) (C) SULFATO de sodio Ca(NO3)2 ( C) NITRATO de calcio
(I) TETRAOXO sulfato de DIsodio (I) BIS(TRIOXO nitrato) de calcio
( C) CARBONATO de aluminio ( C) HIPOclorITO de sodio
Al2(CO3)3 (I) TRIS(TRIOXO carbonato) de Na(ClO) (I) MONOXO hipoclorito de sodio
DIaluminio

HIDRÓXIDO/BASE (OH-1)
+ ÁCIDO HIDRÁCIDO (H+1) *

SAL HALOIDEA + H2O


Na OH + H Cl → NaCl + H2O
NaCl ( C) ClorURO de sodio
Al2S3 ( C) SulfURO de alumínio
(I) TRIsulfuro de DIaluminio

TIPOS DE SALES OXISALES Y HALOIDEAS POR SU CONSTITUCIÓN

NEUTRAS ACIDAS DOBLES HIDRATADAS


(No tienen H) (Tienen H) (Tienen 2 ó 3 metales (Tienen varias H2O)
diferentes pero conservando
la carga de los H que se
sustituyen)
Na2(SO4) NaH(SO4) NaLi(SO4) Ca(NO3)2 . 10 H2O
( C) SULFATO de sodio ( C) SULFATO ACIDO de (C) NITRATO de calcio
(I) TETRAOXO sulfato de sodio ( C) SULFATO DOBLE de DECA hidratado
DIsodio sodio y litio (I) BIS(TRIOXO nitrato) de
(I) Hidrógeno (I) TETRAOXO sulfato
TETRAOXO sulfato de calcio DECA
DOBLE de sodio y litio. hidratado
sodio

NaCl (Cloruro de sodio) NaHS (Sulfuro ACIDO NaLiS (Sulfuro DOBLE de .


Al2S3 3 H2O (Sulfuro de
de sodio) sodio y litio) aluminio TRI hidratado)

FUNCIONES INORGÁNICAS ESPECIALES:

 OXIDOS ESPECIALES:
1. OXIDOS ANFOTEROS: Se comportan como ácidos y bases.
(Ox. Básico) Al2O3 + H2O → Al(OH)3 (Hidróxido)
(Anhídrido) Al2O3 + H2O → HAlO2 (Ac. Oxácido)

2. OXIDOS NEUTROS: En agua no producen ni ácidos ni bases.


Oxido + H2O → No Hidróxidos ni Ácidos (No reaccionan)
Ejemplo: CO, NO, NO2 (Inestables)

3. PERÓXIDOS: El oxígeno actúa con estado de oxidación -1 y no se simplifican los subíndices.


Oxido Básico + O2 → Peróxido
Ejemplo: Na2O2, BaO2 H2O2
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

 ACIDOS OXACIDOS ESPECIALES:

1. ACIDOS POLIACIDOS: nAnh. + H2O

2B2O3 + H2O → H2B407 Ac. TETRAbórico


2CrO3 + H2O → H2Cr207 Ac. DIcrómico

2. ACIDOS POLIHIDRATADOS: Anh. + nH2O


SO3 + H2O → H2SO4 (Ac. META sulfúrico)
PREFIJO VALENCIA PAR VALENCIA IMPAR
2 SO3 + H2O → H2S2O7 (Ac. PIRO sulfúrico)

Val. Par
META 1 Anh. + 1 H2O 1 Anh. + 1 H2O

SO3 + 2 H2O → H4SO5 (Ac. ORTO sulfúrico)


PIRO 2 “ .+1 “ 1 “ .+2 “

P2O5 + H2O → HPO3 (Ac. META fosfórico)


ORTO 1 “ .+2 “ 1 “ .+3 “

Val. Impar
P2O5 + 2 H2O → H4P2O7 (Ac.PIRO fosfórico)

P2O5 + 3 H2O → H3PO4 (Ac. ORTO fosfórico)


(Se le llama Ac. Fosfórico porque es más estable)

LECTURAS DE APLICACIÓN

LA LICUEFACCIÓN DEL AIRE

El aire es una mezcla homogénea compuesta por nitrógeno en un 78%, oxígeno en un 21 % y


otros gases como argón, dióxido de carbono, neón, helio, etc. en un 1%, distribuido
aproximadamente hasta una altura de 70 km en la atmósfera. El aire es una fuente natural de
nitrógeno y es precisamente del aire de donde se saca la mayoría de compuestos del
nitrógeno, así por ejemplo la urea (NH2)2CO se obtiene casi completamente del aire, Primero
se comprime el aire hasta licuarlo, la mezcla líquida se destila para separar los componentes,
específicamente N2 y CO2., el nitrógeno se hace reaccionar con hidrógeno para formar el
amoniaco.

N2(g) + 3H2(g) → 2NH3(g)

Luego el amoniaco se hace reaccionar con dióxido de carbono acelerando la reacción con un
catalizador de platino, produciéndose la úrea.

2NH3(g) + CO2 → (NH2)2CO(s) + H2O

ABLANDAMIENTO DEL AGUA


+2 +2
El agua que contiene una concentración relativamente alta de Ca , Mg y otros cationes
divalentes se conoce como agua dura. Aunque la presencia de estos Iones no constituye en
general una amenaza para la salud, puede hacer que el agua sea inadecuada para ciertos
usos domésticos e industriales. Por ejemplo, estos iones reaccionan con los jabones para
formar una nata de jabón insoluble, que es lo que forma anillos de las tinas de baño. Además,
se pueden formar depósitos minerales cuando se calienta el agua que contiene estos iones.
Cuando se calienta el agua que contiene iones calcio y iones bicarbonato, se desprende
dióxido de carbono. En consecuencia, la solución se hace menos ácida y se forma carbonato
de calcio, que es insoluble.
+2 -1
Ca (ac) + 2 HCO3 (ac) → CaCO3(s) + CO2(g) + H2O(l)

El CaCO3 sólido recubre la superficie de los sistemas de agua caliente y de las teteras, y esto
reduce la eficiencia de calentamiento. Estos depósitos, llamados incrustaciones, pueden ser
especialmente graves en las calderas donde el agua se calienta a presión en tubos que corren
a .través de un horno. La formación de Incrustaciones reduce la eficiencia de la transferencia
de calor y reduce el flujo de agua a través de los tubos.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

La eliminación de los iones que causan el agua dura se llama ablandamiento del agua. No
todos los sistemas municipales de suministro de agua requieren ablandamiento. Cuando el
mismo es necesario, el agua de tomas por lo general de fuentes subterráneas en las que ha
tenido un contacto considerable con piedra caliza, CaCO3, y otros minerales que contienen y
+2 +2 +2
Ca , Mg Fe . El proceso cal-carbonato se emplea para operaciones de ablandamiento de
aguas municipales en gran escala. El agua se trata con cal, CaO o cal apagada, Ca(OH)2, y
+2
carbonato de sodio, Na2CO3. Estas sustancias químicas causan la precipitación del Ca como
-9 +2 -11
CaCO3 (Kps = 2,8x10 ) y el Mg como Mg(OH)2 (Kps = 1,8x10 ).
+2 -2
Ca (ac) + CO3 (ac) → CaCO3(s)
+2 -1
Mg (ac) + 2 OH (ac) → Mg(OH)2(s)

El Intercambiador de Iones es un método doméstico típico para ablandar agua. En este


proceso el agua dura se hace pasar a través de una resina de Intercambio de iones: -perlas de
plástico con grupos aniónicos unidos de forma covalente. Estos grupos con carga negativa
+ +2
tienen Iones Na unidos a ellos para balancear sus cargas. Los iones Ca y otros cationes del
+
agua dura son atraídos hacia los grupos aniónicos y desplazan los iones Na con carga más
baja hacia el agua. Así pues, un tipo de ión intercambia por otro. Para mantener el balance de
+ +2
cargas, dos iones Na pasan al agua por cada ión Ca que se retira.
+
El agua ablandada de esta manera contiene una concentración mayor, de iones Na . Aunque
+
los iones Na no forman precipitados ni causan otros problemas que se asocian con los
cationes del agua dura.

EJERCICIO DE APLICACIÓN

1. Nombra los siguientes compuestos:

a) BaHPO4 b) NH4NO3 c) FeCl3


d) Cr2(SO4)3 e) NaMnO4 f) Ni2O3
g) KClO3 h) Na2CO3 i) CuSO4.5H2O
j) CaO2 k) H3PO4 l) NaClO

2. Escribe la fórmula de los siguientes compuestos:

a) Tribromuro de cobalto b) Bis(Trioxonitrato) de c) Trioxofosfato de sodio


plomo
d) Hidrógenotrioxocarbonato e) Tetraoxosulfato de f) Ortoarseniato de sodio
de potasio dilitio
g) Fosfato de calcio h) Sulfuro férrico i) Dicloruro de plomo
j) Nitrito de sodio k) Hipoclorito de sodio l) Tris(tetraoxosulfato de
dilitio)
m) Trioxocarbonato de n) Dicromato de potasio o) Tetraoxomanganato de
dipotasio calcio
p) Clorito de potasio q) Pirofosfato de sodio r) Sulfuro de dicobre

3. Colocar la fórmula a los siguientes compuestos:

a) Ión fosfato b) Ión hipodromito c) Ióntetraborato


d) Ión clorato e) Ión cianuro f) Ión perclorato
g) Ión sulfato h) Ión cúprico i) Ión permanganato
j) Ión cromito k) Ión hipoclorito l) Ión nitrito

4. Escribe la fórmula e indica a qué función corresponden los siguientes


compuestos que se mencionan en los enunciado siguientes:

a) El ácido muriático es el ácido clorhídrico.


b) El yeso es el sulfato de calcio dihidratado.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

c) El ocre es el óxido cuproso.


d) El sulfato plumboso se usa en las pinturas blancas.
e) La lejía es una disolución de hipoclorito de sodio.
f) El fosfato de calcio forma la mayor parte de los huesos de los animales y el
hombre.

5. La caliza es el carbonato de calcio, por descomposición térmica se obtiene cal viva


(óxido de calcio) y esta disuelta en agua forma la lechada de cal (hidróxido de
calcio). Da la fórmula a estos compuestos.

6. Elabora un organizador visual que sistematice las 2 lecturas de aplicación.

BIBLIOGRAFIA

Raymond Chang. QUIMICA. Cuarta Edición. España. MacGRAW-HILL. 1997.


CEPRUNSA Material Preuniversitario

RECOMENDACIONES DE LA TUTORÍA A DISTANCIA

La resolución de los ejercicios de aplicación estará acompañado por un trabajo


interactivo entre el tutor del curso a distancia y los participantes para lo cual se
desarrollará el trabajo con un foro interactivo entre los mismos, el foro se realizará los
días viernes a las 7:00 de la noche.

El Chat estará abierto los días jueves a las 7:00 de la noche donde los docentes
pueden consultar sus dudas sobre cada uno de los ejercicios propuestos.

En el mismo sistema se ha colocado un espacio correspondiente al módulo a


distancia que estamos desarrollando, donde cada docente podrá encontrar, material
de lectura, ejercicios modélicos resueltos y su propio espacio para colgar la tarea
propuesta en las fechas acordadas con el tutor a distancia.

INVITAMOS A LOS PROFESORES A VISITAR NUESTRO PORTAL WEB EN EL


CUAL ENCONTRARÁ MATERIAL ADICIONAL A LOS TEMAS QUE VENIMOS
DESARROLLANDO EN EL CURSO PRESENCIAL Y A DISTANCIA
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

IMPLICANCIAS BIOETICAS DEL PROYECTO GENOMA


HUMANO

1. Introducción
2. Origen del Proyecto Genoma Humano (PGH)
3. Características del genoma reveladas por el Proyecto Genoma Humano.
4. Antecedentes históricos de la Bioética
5. La Bioética en el Proyecto Genoma Humano.
6. Bibliografía
INTRODUCCIÓN
Al iniciarse el tercer milenio, hemos tenido la oportunidad de presenciar uno de
los anuncios en el ámbito científico-tecnológico probablemente más importante en la
historia de la humanidad, comparable solamente con la llegada del hombre a la Luna o
a la explosión de la primera bomba atómica en Hiroshima y Nagasaki. Este es el
Proyecto Genoma Humano, (PGH), iniciativa que comprometió a miles de científicos
en cientos de laboratorios de investigación repartidos por todo el mundo. Por más de
15 años, trabajaron para llegar a descifrar la secuencia completa de bases
nitrogenadas que forman parte del Genoma Humano. Esta ardua labor, ha permitido
lograr un enorme avance en el conocimiento de la información contenida en esta
secuencia, lo que para algunos autores de artículos sobre el tema, representa conocer
ni más ni menos que "el libro de la vida". (1)

El estudio del genoma y de sus potenciales aplicaciones, tiene implicaciones


tan amplias, que alcanzan ámbitos muy variados en áreas sociales, económicas y
culturales, aparte de aquellas propias de las ciencias biológicas. Algunas de sus
consecuencias pueden ser muy beneficiosas y otras probablemente dañinas para las
nuevas generaciones. Por esta razón, es necesario considerarla un tema transversal
para nuestra generación y también requiere lograr involucrar a toda la sociedad en su
conocimiento y en consecuencia, ser discutida en todos los espacios que esta
sociedad ofrezca y si no es así, los sectores involucrados en el tema deben
generarlos.

La importancia que tiene esta iniciativa para la humanidad es tan grande, que
la UNESCO no ha dudado en declararla Patrimonio Universal de la Humanidad,
evitando así, al menos nominalmente, que empresas y agencias involucradas pudieran
apropiarse del nuevo conocimiento e incrementar así, la actuales barreras que
separan a los países desarrollados de los más rezagados.(3)
Origen del Proyecto Genoma Humano (PGH)

Las actividades propias del Proyecto Genoma Humano, se inician alrededor del
año 1984, cuando el biólogo molecular Robert Sinshheimerm, en ese momento Rector
de la Universidad de California en Santa Cruz (EE.UU), planteó la idea de fundar un
instituto para secuenciar el genoma humano. Esta iniciativa había surgido varios años
antes como proyectos institucionales en muchos estados y universidades de aquel
país, fundamentalmente motivados por los grandes recursos económicos que atraería
la iniciativa.

En forma independiente apareció también interesado en el tema, el Departamento de


Energía de EE.UU. (DOE), institución gubernamental que estaba interesada en
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

estudiar los efectos que potencialmente producirían en la genética y en las mutaciones


del material genético, las actividades experimentales de sus programas nucleares,
tanto militares como civiles.(4)

El PGH en su comienzo, enfrentó a dos grupos diferentes de científicos: por un lado,


los biólogos moleculares de universidades y por otro, aquellos de los institutos de
investigación del NIH (National Institute of Healt), organismo estatal que recibía casi
todos los fondos federales destinados a la investigación biomédica. En lo fundamental,
la disputa se centró en la preocupación de los científicos por la magnitud y costos de la
empresa. En efecto, aunque no existía ninguna duda que la iniciativa representaría un
avance importante en la ciencia de la vida, existían fuertes discrepancias en términos
de definir las vías más adecuadas para lograr los objetivos propuestos. Para ubicarnos
"materialmente" en el tema, consideremos solamente que para comenzar a desarrollar
el Proyecto, el NIH destinó 28,2 millones de dólares para el período 1988-1989 y el
DOE, sólo 10 millones menos. Por su parte, el gobierno de EE.UU. comprometió
recursos por 3.000 millones de dólares para 15 años de trabajo y dispuso que un
porcentaje de los aportes internacionales obtenidos para estas investigaciones, se
canalizara al estudio de los aspectos éticos y las repercusiones sociales del PGH.
En el año 1988, el biólogo molecular James Watson (coautor y Premio Nóbel de
Medicina en 1953 junto a Francis Crick por generara un modelo estructural de la
molécula de ADN), asumió como Director Ejecutivo de la Investigación del Genoma
Humano en el NIH. Al asumir el cargo, se firmó un acuerdo con el DOE mediante el
cual ambas instituciones se comprometían a cooperar en la investigación del genoma.
De este modo, el Proyecto Genoma Humano de los EE.UU., iniciaba su marcha con el
liderazgo del NIH en lugar del DOE.

El interés del resto de las naciones creció en forma notable, muchas de ellas
motivadas fundamentalmente por no quedarse atrás de EE.UU. en un tema de tanta
trascendencia. En un Congreso de Científicos realizada en Cold Spring Harbor
(EE.UU.), los investigadores asistentes decidieron fundar la Organización del Genoma
Humano (HuGO), cuyo objetivo fundamental fue coordinar los trabajos en el tema
realizados en el ámbito internacional y para evitar repeticiones y solapamientos. El
primer director de esta naciente organización fue el genetista norteamericano Víctor
McKusic, reconocido investigador que se ha destacado mundialmente por sus
importantes aportes al conocimiento en el campo de la genética humana a nivel
clínico. Al primer director de HuGO, le sucedió el investigador inglés sir Walter
Bodmer, en ese momento director del Fondo Imperial para la Investigación del Cáncer.

En otro hito importante del PGH se sitúa en el año 1994 cuando un ex investigador de
uno los centro del NIH, Craig Venter fundó, con un financiamiento mixto, el Instituto
para la Investigación Genética (TIGR), institución que se destacó rápidamente en la
opinión pública, porque dio a conocer en 1995, la secuencia nucleotídica del primer
organismo completo que se publicó: la de la bacteria Haemophilus influenzae con 1.8
Mb (mil ochocientos pares de bases) que forman parte de 1.740 genes.

En el mes de Mayo de 1998, se estableció comercialmente la primera empresa


relacionada con el Proyecto: CELERA GENOMICS, empresa que surge por la unión
de TIGR con Applied Biosystem y simultánemente se concreta un join venture entre
estas empresas para comercializar los resultados de sus descubrimientos.

La aventura por secuencia el genoma humano se transformó en una actividad


frenética en todos los laboratorios que estaban trabajando en el tema. Se trataba de
secuenciar trozos de cromosomas humanos y rápidamente incorporar sus secuencias
a las bases de datos de HuGO, para atribuírselas y luego poder patentarlas.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

Aunque no lo había mencionado anteriormente, desde los inicios del PGH, se acordó
desarrollarlo a través de dos vías independientes, pero relacionadas y ambas
esenciales:

1. SECUENCIACIÓN: actividad relacionada con la definición de la posición en que se


encuentran dispuestos los nucleótidos (cada uno conteniendo una de las cuatro bases
nitrogenadas propias del Acido desoxirribonucleico) en la molécula de ADN.

2. CARTOGRAFIA O MAPEO GÉNICO: procedimiento que consiste en la localización


de los genes en cada uno de los 23 pares de cromosomas del ser humano. Esta etapa
tuvo su primer cierre en 1998, y cada día recibe nuevos aportes, que aunque menores,
incrementan notablemente el conocimiento sobre el tema.

Más recientemente, el 6 de Abril del año 2000 se anunció públicamente que se había
terminado el primer "borrador" conteniendo la secuencia competa del genoma humano
y la localización de los genes en los cromosomas.

Finalmente el día 15 y 16 de febrero de 2001, las dos más prestigiosas revistas


científicas norteamericanas, NATURE y SCIENCE, publicaron la secuencia definitiva
del Genoma Humano, con u 99,9% de confiabilidad y casi un año antes de lo que se
había presupuestado y prometido.

Características del genoma reveladas por el Proyecto Genoma Humano.


El PGH se planteó inicialmente como objetivos los siguientes:

1. Identificar los genes en el ADN humano


2. Determinar la secuencia de las bases nitrogenadas que constituyen el ADN
humano.
3. Mantener a resguardo la información anterior construyendo y administrando
bases de datos de acceso público.
4. Proveer de herramientas multimediales para el análisis de datos
5. Transferir tecnología relacionada con el tema, al sector privado.
6. Supervisar los temas éticos, legales y sociales (ELSI: ethical, legal social
issue), que se puedan derivar del Proyecto. (5)

Con relación los objetivos propuestos inicialmente en el PGH, podemos afirmar que se
ha logrado establecer que:

1. El Genoma humano está formado por aproximadamente 30.000 genes, cifra


bastante cercana a las mencionadas en el "borrador " que se había publicado
en el año 2000, ocasión en la que las cifras oscilaban entre 26.000 y 38.000.(3)
Otro hecho interesante que ha derivado de la investigación, es que esta cifra
de genes es sólo dos o tres veces mayor que el encontrado en el genoma de
Drosophila, la mosca de la fruta y que cualitativamente hablando, tenemos
genes comunes con bacterias y que no han sido encontrados en nuestros
ancestros. Antecedentes de este tipo, nos proporcionan datos interesantes en
cuanto a situarnos como especie en un escenario evolutivo muy interesantes
de estudiar.
2. El objetivo de secuenciar al genoma del ser humano, ha revelado que está
constituido por cerca de 3.000 megabases, es decir 3.000.000 de bases
nitrogenadas, una cifra similar a la que poseen otros vertebrados como por
ejemplo, la rata. El desafío que ahora se nos plantea, es lograr descifrar cuales
de estas secuencias corresponden a los 30.000 genes y esa será la empresa
que espera a las nuevas generaciones, una tarea ardua que ocupara el interés
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

de muchos investigadores porque sólo adquiriendo este conocimiento se


logrará dar una real dimensión a tan ambiciosa labor.
3. La creación de bases de datos donde se almacene toda la información
generada por el PGH, es una realidad concreta en estos momentos. En efecto,
en estos días es posible ingresar vía INTERNET a estas bases de datos, sitios
de libre acceso para conocer aspectos de alto interés en términos de comparar
secuencias incluso de genomas de diversas especies de animales y vegetales.
Mediante el uso libre de esta información, será posible determinar la función de
cada gen e incluso determinar como las mutaciones influyen en la interacción
con factores ambientales de los productos de la expresión de los genes, las
proteínas. Como consecuencia de esta relación se podrían desarrollar
enfermedades específicas o se podría establecer como factores ambientales
actúan sobre el material genético, produciendo mutaciones o modulando la
función de genes normales o alterados.
4. La generación de herramientas de análisis de los datos generados por el PGH,
ha inducido un desarrollo tecnológico en materia de manejo de grandes
cantidades de datos que sin duda, facilitarán o mejor dicho harán posible definir
cuales son los temas a estudiar en el futuro, con relación a las tareas
pendientes. Entre las tecnologías que han recibido un gran impulso debido a
las actividades del Proyecto, figuran no sólo las relacionadas con el manejo
computacional de los datos, sino que también aquellas que permiten la
generación de ellos, es decir, técnicas de la Biología Molecular relacionadas
con la labor de secuenciar en forma automática trozos de genoma
(secuenciadores automáticos) o las que permiten amplificar la información
disponible para incrementar su representatividad y aplicar técnicas de estudio
que requieren mayores cantidades de material genético (por ejemplo mediante
PCR, reacción en cadena de polimerasas).
5. Con relación a la transferencia de tecnologías al sector privado, se ha
producido una fuerte corriente de liberación de derechos que estuvieron
inicialmente en manos de organismos estatales, buscando aumentar la
productividad del sector privado. Este hecho, que para algunos ha sido una
iniciativa muy aplaudida, genera también ciertas reticencias en otros, ya que
haciendo un segundo análisis de la medida, no es posible concluir con certeza
absoluta si se logrará real aprovechamiento común de los beneficios de esta
transferencias o si ésta sólo contribuirá a incrementar el poder de ciertos
grupos económicos que a su vez, aumentarán su influencia en la sociedad.
6. Finalmente, el objetivo relacionado con las consecuencias éticas, legales y
sociales originados por el PGH, se puede afirmar que es un tema de gran
controversia en estos momentos, ya que como hemos visto, ha implicado el
trabajo de un importante número de laboratorios y de sus investigadores y la
inversión de grandes recursos estatales. Esto último se ha producido, en
desmedro del apoyo a otras iniciativas o proyectos de investigación, que
aunque posiblemente tengan una trascendencia no son menos importantes y
que se han visto seriamente afectados. Este es un aspecto que debe ser tenido
en cuenta al momento de evaluar la propiedad de los conocimientos generados
por el PGH y constituye un tema muy interesante de discutir en diversos
escenarios sociales.

Antecedentes históricos de la Bioética

La bioética es una disciplina que tuvo su origen en el último cuarto del siglo
pasado, intentando establecer un nexo entre la biología y las humanidades. En el mes
de septiembre de 1992, se efectuó una reunión en la Universidad de Washington
(Seattle, EE.UU.) para celebrar el trigésimo aniversario del nacimiento de la disciplina,
situando este comienzo, con la publicación de un artículo en la revista norteamericana
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

"LIFE" que refería el trabajo de un comité de esta ciudad norteamericana, creado con
la misión de seleccionar pacientes para ofrecerles un tratamiento nuevo: la
hemodiálisis de pacientes con insuficiencia renal terminal, gracias al invento de la
conexión y la cánula arteriovenosa del médico Belding Scribner. Luego de transcurrir
muy poco tiempo de que se hiciera público la existencia de esta nueva tecnología, las
autoridades de salud de la ciudad de Seattle, pudieron constatar que las personas que
requerían la aplicación del tratamiento, superaban largamente las disponibilidades
reales de atención y por ello decidieron formar este comité que fue integrado por
personas preferentemente del ambiente no-medico y a quienes se les encargó
seleccionar a los beneficiarios de esta intervención juzgando sobre la base de otros
antecedentes que no fueran los clínicos (dado que por antecedentes clínicos, todos
merecían la atención). El artículo al que se hace mención, se tituló: "They decide who
lives, who dies". Este articulo merece ser considerado un muy importante hito en la
historia de la Bioética, ya que describe la constitución de un comité anónimo no-
medico que tomó decisiones cruciales respecto a la vida, la muerte y el destino de
personas y además revela la constitución de un comité de no-expertos que comparte
decisiones que tradicionalmente eran tomadas por profesionales médicos (6).
Esta historia constituye la primera vez en que se describe un acontecimiento en el
ámbito de la Bioética y es descrito por Albert Jonseu, un profesor de ciencias sociales
de la universidad de Washington en Seattle y revela el asombro que causa a un
profesional extraño a la profesión médica, que las decisiones cruciales se vuelvan
colectivas y dejen de ser individuales, que se concreten a través de comités
dialogantes y que no-médicos tengan influencia en ellas. Surge a partir de la situación
descrita, un hecho trascendente: el paciente empieza a gozar de privilegios de las
minorías. La reflexión de este profesor es que la tecnología en y por si misma no es
importante, sino que lo es cómo siente la gente que debe responder a la tecnología.

Un segundo episodio clave en la historia de la Bioética, proviene de un artículo


publicado en 1966 en la muy conocida y prestigiosa revista médica New England
Journal of Medicine. En ella su auto, Henry Boecher, profesor de Anestesiología de
Harvard School of Medicine, declaró como no éticos, doce de cien artículos
consecutivos publicados desde 1964 por una excelente revista médica. Este
antecedente desató una ardua polémica entre los médicos, ya que mostraba
transgresiones a los derechos humanos perpetrados en nombre de la ciencia y que
podrían compararse con los cometidos por el régimen nazi en Alemania. El gran
impacto causado por este artículo, adquiere relieves notables ya que éste no es un
asunto que se discutía habitualmente en la época en las revistas profesionales.

Un tercer antecedente en respaldo a la discusión bioética, se sitúa en el año


1967 cuando el cardiocirujano sudafricano Christian Barnard realiza su primer
trasplante del corazón en un hospital de Ciudad del Cabo. Aunque hay que reconocer
que la práctica de trasplantes de órganos en humanos se realizaba desde hace unos
15 años, la diferencia en este caso, es que por primera vez se trata de trasplantar un
órgano para lo cual se requiere la muerte del donante. Este aspecto del procedimiento
abarca varios temas, desde la intención del muerto de donar los órganos hasta definir
jurídicamente el momento de la muerte y la "obligación" de mantener en buen estado
al donante hasta el momento de materializar la operación. En 1968, una comisión
reunida en la Universidad de Harvard para discutir sobre el tema y que presidió el
propio Boecher, propuso aceptar la noción de "muerte cerebral" (electroencefalograma
plano después de transcurrir horas desde el cese de la actividad cardíaca). Este
criterio ha sido ampliamente aceptado hasta nuestros días, aunque existen
sostenedores y detractores.
Desde la década de los 60’, se han agregado nuevos temas a la discusión y
muy probablemente la historia de la bioética seguirá recibiendo "nuevos aportes". Así
en el pasado más reciente se han escrito libros sobre el tema como el de Joseph
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

Fletcher, "Morals and Medicine" (1984) y de Paul Ramsey, "The Patient as Person"
(1970). No se puede dejar mencionar tampoco la discusión de temas trascendentales
como el del "consentimiento informado" que asiste al paciente sometido a un
determinado tratamiento o intervención medica, la diferencia entre vida consciente y
vida vegetal (caso Quinlan en 1976), el derecho de la mujer al aborto en el caso Roe
versus Wade, el mal uso de personas incapaces de defenderse, como el famoso caso
Tuskagee Syphillis Study y muchos otros, ampliamente reseñados por los medios
informativos en EE.UU.

En otros países la situación no es diferente, tal vez los antecedentes no han sido
discutidas públicamente, pero no debemos olvidar que en muchas naciones como la
nuestra, han existido prácticas muy discutible en el ámbito médico y que ha resultado
en que algunas de ellas al ser sometidas al debate público, han sido encubiertas por
organismos que obedecen a intereses de diversa índole, como por ejemplo, la
protecciones de sectores gremiales a sus asociados.

La Bioética en el Proyecto Genoma Humano.

Aunque la historia y evolución de la bioética está íntimamente ligada a la


actividad médica, en la actualidad somos testigos de su aplicación en el ámbito de la
investigación científica relacionada. En efecto, como lo describí al comienzo de este
ensayo, una de las áreas del conocimiento biológico que ha tenido el mayor
crecimiento, es el relacionado con aquella generada por Proyecto Genoma Humano.

En este sentido, los conocimientos genómicos derivado de este Proyecto, se


están traduciendo en mejores métodos diagnósticos que se basan en análisis directos
del ADN, que se emplean para confirmar una sospecha clínica de una patología de
naturaleza genética y también para el diagnóstico prenatal en el caso de embarazos
en que se sospecha la existencia de riesgo reproductivo, es decir, gestación de un ser
humano portador de alteraciones morfológicas o funcionales que incluso podrían poner
en riesgo su propia existencia y/o la de su madre. También es factible aplicar estas
técnicas, a niños y adultos asintomáticos para resolver si pudieran haber heredado de
algún progenitor una mutación causal de una enfermedad genética que se desarrolle
en el futuro. Otra de las posibilidades derivada de este conocimiento, es que se
detecten mutaciones que favorezcan una predisposición genética a algunas
patologías, como el cáncer de mama, enfermedades neurodegenerativas como el
Alzheimer, o la predisposición a la arterioesclerosis coronaria. Sin embargo, como
plantea Penchaszadeh (7), aún cuando esta visión parece prometedora en la
resolución de algunas enfermedades, no debemos perder la perspectiva que en este
momento no se vislumbra con claridad que este conocimiento genómico se traduzca
en medidas preventivas y terapéuticas efectivas y eficaces. Así planteado el tema se
percibe entonces, una importante brecha entre la capacidad diagnóstica y predictiva
por un lado y la falta de intervenciones preventivas y terapéuticas por otro, del
conocimiento genómico, identificados como conflictos éticos surgidos del Proyecto
Genoma Humano.

En otras de las áreas donde se ha visto aplicado el conocimiento derivado del


PGH, es en el asesoramiento genético a individuos y a parejas en riesgo de padecer o
trasmitir una enfermedad genética a sus hijos. Este tema también a concitado el
interés de los expertos en bioética y se han establecido principios éticos en su practica
y que incluyen:
1. el respeto a la dignidad e inteligencia básica de las personas y de sus
decisiones médicas y reproductivas, específicamente respecto a proseguir o
interrumpir el embarazo frente a un riesgo genético o si hay un problema
genético en el diagnóstico prenatal
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

2. entregar información objetiva al paciente sin incluir valores personales del


profesional médico (asesoramiento no directivo)
3. protección a la privacidad de la información genética sobretodo para proteger al
portador, de la injerencia extraña como por ejemplo, empleadores, compañías
de seguro u otras, que podrían usar esa información para "estigmatizar" o para
justificar un cobro más alto de sus servicios.
4. Contribuir a la desmistificación de los reales alcances del Proyecto y en general
de la genética, diseñando acciones específicas en educación a la comunidad.

Los reales alcances del PGH, sin embargo, han generado ansiedad en el
público y también en ciertos sectores de profesionales médicos, debido
fundamentalmente a la falta de conocimientos de algunos médicos y la mistificación de
la genética generada por los medios de difusión. Esta desorientación de los médicos,
se traduce en algunos casos en la indicación de pruebas genéticas cuyo valor y/o
perjuicios para los pacientes o sus familias, desconocen. Esto ha determinado la
creación de Comités de Pruebas Genéticas en varios países, cuyo objetivo es efectuar
una muy estricta supervisión sobre la introducción de análisis de tests de este tipo en
el mercado. En adición a este problema, no debemos desconocer que también existe
un sector que ejerce una presión muy fuerte en la controversia sobre el tema para
introducir nuevas pruebas o tests, estos sectores responden a los intereses de la
industria farmacéutica, algunas de las cuales son también "dueñas" de la información
genómica del PGH, información que han "adquirido" al contribuir a financiar las
investigaciones de los grupos de investigadores en muchos países de Europa y
Norteamérica, a poco de iniciarse las actividades del Proyecto

Otro problema ético de primera importancia que se ha generado a partir del


PGH, es el patentamiento de genes y secuencias génicas por parte de compañías
biotecnológicas, universidades y gobiernos. Este es un tema que debe recibir una
crítica ética particular, ya que transforma un conocimiento "natural" en una posible
reserva de mercados para posteriormente explotarlos comercialmente. Estas
prácticas, han afectado la competitividad de la investigación y la libertad de acceso al
conocimiento y sin duda a los posibles beneficios médicos de la genética humana, sin
marginar el hecho que muchos de los recursos invertidos provinieron de fondos
estatales, es decir, del dinero de los contribuyentes

Como toda actividad humana, la investigación del genoma humano y sus


aplicaciones médicas, que ya aparecen tan vastas, ocurre en contextos sociales e
históricos determinados. Si examinamos el contexto mundial de hoy, no cabe duda
que su principal característica es la desigualdad social y económica, las enormes
distancias que existen entre países ricos y pobres y dentro de las propias naciones,
entre minorías ricas y mayorías pobres, situación que se presenta tanto en países
desarrollados como en los llamados "en vías de desarrollo". Esto va a producir una
inequidad en el acceso a los benéficos del saber médico, derivado del PGH.

Un planteamiento que talvez provoque discusión, es que las consecuencias o


productos del PGH, están generando tensiones éticas que corresponden a la
aplicación de una tecnología que como hemos visto, hasta ahora sólo ofrece ayuda en
materia diagnóstica y de predicciones poco definidas y con resultados poco claros en
el tratamiento de muchas patologías (terapias). Afortunadamente esta situación está
cambiando lentamente y cada día surgen nuevas acciones terapéuticas en un contexto
de patologías en todo caso, hasta ahora limitado.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

En un artículo ya citado, Penchaszadeh (7) termina planteando necesidad


absoluta de desmistificar a la genética en la "mente del publico y de los profesionales
de la salud para asegurar que la tecnología genética se aplique efectivamente para el
bienestar y la salud de la gente y no para beneficio de grandes corporaciones." La
pregunta es quién debe tomar esta responsabilidad. Personalmente creo, que la
primera línea debería estar formada por los investigadores en genética humana y
luego el resto de la comunidad científica, en la medida que demuestren experiencia en
algunos aspectos de este tema. Una gran acción de este sector, podría ser contribuir
en la formación o el perfeccionamiento de profesores de ciencias o en la enseñanza
directa a estudiantes de educación media, a través de charlas o de visitas guiadas a
los laboratorios de investigación como una forma de motivarlos a discutir e investigar
sobre el tema. Por otra parte, debería ser un aporte importante para motivar la
discusión ilustrada del tema en nuestra sociedad, el incorporar los temas del ámbito de
la bioética en los programas de la enseñanza básica y media del país.

Bibliografía:

1. Pennisi, Elizabeth. The Human Genome. Science. 291(5507):1177-1182. 2001


2. Mancini, R. Genoma Humano y Terapia Génica. Un paradigma para la Bioética
del Tercer Milenio. En: http://www.uchile.cl/bioetica/doc/genoma. htm
3. Pääbo, Svante. The Human Genome and Our View of Ourselves. Science.
291(5507):1219-1222. 2001.
4. http://www.biotech.bioetica.org/ap13.htm
5. http://www.ornl.gov/TechResouces/Human_Genome/home html
6. Lolas, Fernando. Bioética: Una palabra con historia. En:
http://www.uchile.cl/bioetica/doc/biohist.htm
7. Penchaszadeh, V. Aspectos éticos del Proyecto Genoma Humano. En:
http://www.uchile.cl/bioetica/doc/ponen2.htm

RECOMENDACIONES DE LA TUTORÍA A DISTANCIA

La resolución de los ejercicios de aplicación estará acompañado por un trabajo


interactivo entre el tutor del curso a distancia y los participantes para lo cual se
desarrollará el trabajo con un foro interactivo entre los mismos, el foro se realizará los
días viernes a las 7:00 de la noche.

El Chat estará abierto los días jueves a las 7:00 de la noche donde los docentes
pueden consultar sus dudas sobre cada uno de los ejercicios propuestos.

En el mismo sistema se ha colocado un espacio correspondiente al módulo a


distancia que estamos desarrollando, donde cada docente podrá encontrar, material
de lectura, ejercicios modélicos resueltos y su propio espacio para colgar la tarea
propuesta en las fechas acordadas con el tutor a distancia.

INVITAMOS A LOS PROFESORES A VISITAR NUESTRO PORTAL WEB EN EL


CUAL ENCONTRARÁ MATERIAL ADICIONAL A LOS TEMAS QUE VENIMOS
DESARROLLANDO EN EL CURSO PRESENCIAL Y A DISTANCIA
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

INTRODUCCIÓN A LA GENÉTICA

La Herencia, perspectiva histórica


Durante gran parte de la historia de la humanidad las personas desconocían los
detalles científicos de la concepción y de como trabajaba la herencia. Por cierto los
niños eran concebidos y por cierto se veía que existía una semejanza entre padres e
hijos, pero los mecanismos no eran conocidos. Los filósofos griegos tenían varias
ideas: Teofrasto (371-287 a.C.) comprendía la diferencia entre las flores masculinas y
femeninas, decía que "los machos debían ser llevados a las hembras" dado que los
machos "hacían madurar y persistir" a las flores hembras; Hipócrates (460?- 377?
a.C.) especuló, que las "semillas" se producían en diferentes partes del cuerpo y se
transmitían a los hijos al momento de la concepción, y Aristóteles pensó que el semen
masculino y el semen femenino (así se llamaba al flujo menstrual) se mezclaban en la
concepción, algunos pensaban que ni siquiera este tipo de mezclas eran necesarias,
las formas "simples" (gusano, moscas...) nacían por generación espontánea.
Durante los 1700s, Anton van Leeuwenhoek (1632-1723,
para los no holandeses lii-uen-huuk seria una pronunciación
bastante aceptable; sus aportes y los de otros pioneros
pueden leerse en una magnífica novelización) descubre
"animálculos" en el esperma humano y de otros animales.
Algunos de los que miraban por los primeros microscopios
soñaron ver un "pequeño hombrecito" (homúnculo) dentro
de cada espermatozoide. Sostuvieron que la única
contribución de la hembra para la próxima generación era
proveer el ambiente para su desarrollo. En oposición la
escuela de los ovistas creía que el futuro hombre estaba en
el óvulo, y que el espermatozoide solo lo estimulaba, creían
también que había huevos para hembras y para machos.

La pangénesis sostenía la idea que machos y hembras forman "pangenes" en cada


órgano. Estos "pangenes" se movían a través de la sangre a los genitales y luego a los
recién nacidos. El concepto, originado en los griegos influenció a la biología hasta
hace solo unos 100 años. Los términos "sangre azul", "consanguíneo", "hermano de
sangre", "mezcla de sangre", "sangre gitana" y otros similares surgen de estos
conceptos. Francis Galton, un primo de Charles Darwin, desecho experimentalmente
la pangénesis.

Las teoría de la mezcla ("Blending theories") suplantó a la de los espermistas y ovistas


durante el siglo 19. La mezcla de óvulos y espermatozoides daban como resultado la
progenie que era una "mezcla" ("blend") de las características de los padres. Las
células sexuales se conocían colectivamente como gametos. De acuerdo con la teoría
de la mezcla, cuando un animal de color negro se cruzaba con uno blanco la progenie
debía ser gris y, a menudo, este no era el resultado. La teoría de la mezcla obviaba,
entre otras, explicar el salto de generación de algunas características.

Charles Darwin en su teoría de la evolución, se vio forzado a reconocer que la mezcla


no era un factor (o al menos no el factor principal) y sugirió que la ciencia, en la mitad
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

de los 1800s, no tenía la respuesta correcta al problema. La respuesta vino de un


contemporáneo, Gregor Mendel, si bien Darwin nunca conoció el trabajo de Mendel.

Conceptos básicos de la genética

Resulta útil recordar algunos conceptos previos para comprender los experimentos de
Mendel, aunque este monje no haya tenido conocimiento de los genes o los
cromosomas.

Meiosis: división celular que origina 4 células con la mitad de la dotación cromosómica
de la célula orginal (haploides). Los cromosomas homólogos se separan y cada célula
(gameta) recibe uno de los homólogos del par.

Carácter: característica observable y transmitida por los genes, ejemplo: color de las
flores

Fenotipo: propiedades observables del genotipo y en el cual contribuye el medio


ambiente.

Cromosomas Homólogos: cromosomas que se aparean durante la meiosis. Poseen


igual longitud, posición del centrómero y comparten los mismos genes. Excepción:
cromosomas X e Y que no comparten las características anteriores pero sí se
consideran homólogos por aparearse en la meiosis.

Gen (del griego genos= nacimiento) son segmentos específicos de ADN


(cromosoma) responsable de un determinado carácter; son la unidad funcional de la
herencia.
El botánico danés Wilhelm Johannsen (1857 - 1927) acuño este nombre, en 1909,
para nombrar a los elemente de Mendel (también acuñó "fenotipo", "genotipo" y
"selección").

Alelo: Formas alternativas de un gen en un mismo locus. Por ejemplo 2 posibles


alelos en el locus v de la cebada son v y V. El término de alelo ó alelomorfo fue
acuñado por William Bateson; literalmente significa "forma alternativa".

Locus: es el lugar específico de un gen en un cromosoma.

Homocigoto: organismo que tiene dos copias o alelos iguales de un gen en los dos
homólogos, también llamado raza pura.

Heterocigoto: cuando los dos alelos son diferentes, en este caso el alelo dominante
es el que se expresa.

El monje y sus arvejas, en el jardín del monasterio

Un monje austríaco, Gregor Mendel, desarrolló los principios fundamentales de que


hoy es la moderna ciencia de la genética. Mendel demostró que las características
heredables son llevadas en unidades discretas que se heredan por separado en cada
generación. Estas unidades discretas, que Mendel llamó elemente, se conocen hoy
como genes.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

Mendel presentó sus experimentos en 1865.

En esa época el conocimiento científico andaba por:

• La teoría celular es comúnmente aceptada.


• ya se describieron los principales orgánulos visibles con
microscopía óptica.
• Se había publicado El Origen de las especies de Darwin
que presentaba la selección natural como mecanismo de
transmisión de ciertos caracteres.

El método experimental de Mendel

El valor y la utilidad de cualquier experimento dependen de la elección del material


adecuado al propósito para el cual se lo usa.

Sobre la puerta del Museo de Mendel en Brno está la inscripción de la frase de Mendel
en checo: "MÁ DOBA P RIJDE," que significa "mi tiempo llegará".... y recién llegó en
los años 1900 donde sus principios fueron redescubiertos.

MENDEL

Mendel razonó que un organismo apto para los experimentos genéticos debería tener:

1. una serie de características diferentes, fácilmente estudiables y con dos o tres


fenotipos diferentes.
2. la planta debía autofertilizarse y tener una estructura floral que limite los
contactos accidentales, de crecimiento rápido y con gran número de
descendientes.
3. Los descendientes de las
plantas autofertilizadas debían
ser fértiles.

El organismo experimental de Mendel


fue la arveja común (Pisum sativum,
familia Leguminosae), que tiene una
flor que normalmente se autopoliniza.
La parte masculina de la flor se llama
antera, produce el polen, que contiene
los gametos masculinos. La parte
femenina de la flor es el Gineceo,
formado por estigma, estilo, y el
ovario. El óvulo (gameto femenino) es
producido en el ovario. El proceso de
polinización (la transferencia de polen
de la antera al estigma) ocurre, en el
caso de la arveja, antes de la apertura
de la flor. Del grano de polen crece un
tubo (tubo polínico) que permite al
núcleo viajar a través del estigma y el
estilo, y eventualmente llegar al
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

ovario. Las paredes del ovario formarán las futuras vainas (fruto: legumbre) y los
óvulos fecundados las semillas.

Muchas flores permiten la polinización cruzada, lo cual puede dificultar los estudios si
se desconoce las características de la planta masculina. Dado que las flores de las
arvejas el estigma y las anteras están completamente encerradas y, a diferencia de la
mayoría de las flores no se abren hasta ser fecundadas, es decir luego de la
autopolinización, la genética de los progenitores puede ser comprendida más
fácilmente. Los embriones autofecundados de las arvejas desarrollan sin dificultad.

Para los entrecruzamientos Mendel abrió el pimpollo antes de la maduración y retiró


las anteras con pinzas evitando la autopolinización. Luego las polinizó artificialmente,
espolvoreando el estigma con polen recogido de otras plantas.

Mendel probó las 34 variedades de arvejas disponibles a través de los vendedores de


semillas. Mendel buscó caracteres con rasgos bien definidos y alternativos constantes,
que constituyeran razas puras. Las arvejas de jardín fueron plantadas y estudiadas
durante ocho años a fin de comprobar que el rasgo observado se mantenía constante
a lo largo de varias generaciones.

Así, Mendel aisló 7 pares de caracteres que eran razas puras: cada carácter
estudiado se presentaba en dos variantes, tales como: altura de la planta (alta o
baja), superficie de la semilla (lisa o rugosa), forma de la vaina (inflada o
contraída), forma de la vaina y otras (ver esquema a continuación). En sus
experimentos Mendel uso unas 28.000 plantas de arvejas.

La contribución de Mendel fue excepcional en razón del enfoque metodológico


utilizado para definir el problema, el uso de variables claramente entendibles y la
aplicación de las matemática (estadística) al resultado experimental. Usando plantas
de arvejas y el método estadístico, Mendel fue capaz de demostrar que los caracteres
pasan de los padres a los hijos a través de la herencia de los genes.

El principio de la segregación

Mendel primero estudió la herencia de la forma de la semilla. Un cruzamiento


relacionado a un solo carácter se denomina monohibridación. Mendel cruzó una raza
pura de plantas con semillas lisas con una raza pura de otra que siempre producía
semillas rugosas (60 fertilizaciones en 15 plantas). Todas las semillas resultantes
resultaron lisas.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

Al año siguiente, Mendel plantó esas semillas y permitió que las mismas se
autofecunden. Recogió 7324 semillas en total: 5474 lisas y 1850 rugosas. Para
sistematizar el registro de datos, las generaciones fueron nombradas y numeradas. La
generación parental se denomina como P. Los descendientes de la generación P son
la generación F1 (la primera filial). La autofecundación de la generación de F1 produce
la generación F2 (la segunda filial).

P1: lisa X rugosa


F1
todas lisas
:
F2
5474 lisas y 1850 rugosas
:

Lo mismo sucedió con cada par de caracteres elegidos: cuando cepas puras de
plantas con semillas amarillas se cruzan con razas puras de plantas con semillas
verdes, todos los descendientes fueron plantas con semillas amarillas. Los padres del
entrecruzamiento son la generación P1, y los descendientes representan la generación
F1.

Cuando los miembros de la generación F1 se entrecruzaron, Mendel recobro muchos


descendientes amarillas, y algunos verdes. Luego del análisis estadístico de la
generación F2, Mendel determinó que la relación entre plantas con semillas
amarillas/verdes era 3:1. Las plantas con semillas verdes no aparecían en la primera
generación F1, y se encontraban en la segunda F2 y sucesivas generaciones.

Cruzamiento monohíbrido entre semillas amarillas (dominantes) y verdes (recesivo).


Vea este esquema con una animación
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

Mendel concluyó que el carácter estudiado estaba gobernado por factores discretos
(separables) y que el rasgo del carácter que aparece en la F1 es el dominante. Los
factores se heredaban a pares, teniendo cada generación un par de los mismos.
Actualmente nos referimos a esos factores como alelos. El hecho de que los
caracteres se hereden de a pares permiten explicar el fenómeno observado del "salto"
de una generación.

Los caracteres dominantes fueron definidos por Mendel como aquellos que
aparecen en la primera generación ( F1) en los entrecruzamientos entre dos
especies puras. Las letras mayúsculas se usan generalmente como notación
para los caracteres dominantes
Los caracteres recesivos son los que "saltan" una generación, y se observan
únicamente cuando el carácter dominante esta ausente. Las letras minúsculas
se usan generalmente como notación para los caracteres recesivos.

Las plantas de Mendel exhibían dominancia completa, en las cuales las expresiones
fenotípicas de los alelos eran dominantes o recesivas, sin "caracteres intermedios".

La Meiosis, un proceso desconocido en los días de Mendel, explica como se heredan


los caracteres:

Esquema de la meiosis y formación de los gametos.

Sumario de los resultados de Mendel

1. Los descendientes F1 muestran solo uno de los caracteres de los padres, y


siempre el mismo carácter.
2. El carácter que no se observa en F1 reaparece en F2 en aproximadamente un
25% de los descendientes.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

3. El carácter no cambia cuando pasa a la descendencia: no se mezclan en


ningún descendiente y se comportan como unidades separadas.
4. Los cruzamientos recíprocos demostraron que cada progenitor contribuye de
manera igual a la descendencia.
5. El término fenotipo se refiere al conjunto de caracteres que se expresan o sea
a la apariencia externa, mientras que el término genotipo se refiere a la
totalidad genética del individuo.
6. Machos y hembras contribuyen equitativamente a la formación del material
genético de la descendencia: por lo tanto el numero de factores que
determinan un carácter es probablemente dos (la solución mas simple).

El Principio de la Segregación o Primera Ley de Mendel, propone la separación de


los factores apareados durante la formación de los gametos, donde cada gameto
recibe uno u otro factor durante su formación. Los organismos portan dos factores
(alelos) por cada carácter. Estos factores se separan durante la formación de los
gametos.
Una versión en hipertexto (en Alemán o Ingles) del trabajo original de Mendel en 1865
se consigue siguiendo este enlace.

Consecuencias de la segregación
Alelos: se sabe ahora que cualquier gen presenta dos formas diferentes o alelos.
Homo- y Heterocigosis: determinada por la combinación de los dos alelos de un gen.
Fenotipo: expresión de las características genéticas o genotipo.

Cuadro de PUNNET
Es un mecanismo muy útil a la hora de considerar las posibles combinaciones de
gametos. Por ejemplo, en la F1 todas las plantas del cruzamiento monohíbrido entre
plantas altas y bajas dieron altas. El cuadro de Punnett permite calcular el resultado de
la F2:

Cruzamiento de prueba

Para probar la hipótesis de que los alelos están en pares y se separan en la formación
de gametas se llevó a cabo un experimento adicional: se cruzó la F1 (semillas lisas)
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

con la raza pura paterna de semillas rugosas (padre homocigota recesivo) a lo que se
denominó CRUZAMIENTO DE PRUEBA.

En un cruzamiento de prueba se cruzan un genotipo desconocido que muestra el


carácter dominante con el padre homocigota recesivo. Lo que se pretende demostrar
es si el genotipo desconocido es homocigota dominante o heterocigota para ese
carácter. Si se producen dos fenotipos distintos quiere decir que el progenitor
desconocido era heterocigota para ese carácter. Si por el contrario aparece un solo
fenotipo es homocigoto.

Cruzamiento dihíbrido

Mendel entendió que era necesario realizar su experimento en una situación más
compleja y realizó experimentos siguiendo dos caracteres de las semillas: forma y
color. Un entrecruzamiento concerniente a dos caracteres se conoce como
cruzamiento dihíbrido en oposición al cruzamiento de una sola característica o,
monohíbrido.

La generación F2 resultante no muestra la característica relación fenotípica 3:1


dominante: recesivo. Los dos caracteres, si consideramos que se heredan
independientemente, "calzan" dentro del principio de la segregación. En vez de los 4
posibles genotipos de un monohíbrido, el cruzamiento dihíbrido tiene 16 posibles
genotipos.

Cruzamientos con dos caracteres

• Las semillas lisas (S) son dominantes respecto a las semillas rugosas (s).
• El color amarillo (Y) es dominante sobre el verde (y).

Una vez más, la meiosis nos ayuda a entender el comportamiento de los alelos.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

Métodos, Resultados y Conclusiones


PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

Mendel partió de razas puras que tenían plantas con semillas lisas y amarillas, y las
cruzó con razas puras de plantas con semillas verdes y arrugadas. Todas las semillas
de la generación F1 tenían semillas lisas y amarillas. Las plantas de la generación F2
se obtuvieron por autofertilización, y produjeron cuatro fenotipos:

1. 315 lisas y amarillas


2. 108 lisas verdes
3. 101 arrugadas amarillas
4. 32 arrugadas verdes

Mendel analizó cada carácter por separado como si fuera que el otro carácter no
estuviera presente. La relación 3:1 se veía separadamente y estaba de acuerdo con el
Principio de Segregación. La segregación de los alelos S y s debían haber ocurrido
independientemente de la separación de los alelos Y e y.

La probabilidad de que un gameto tenga Y es 1/2; la probabilidad de cualquier gameto


de tener S es 1/2. La probabilidad de que un gameto contenga ambos Y y S se calcula
por el producto de las probabilidades individuales (o 1/2 X 1/2 = 1/4).

La probabilidad de que dos gametos formen cualquier mezcla de estos alelos en su


genotipo 1/4 X 1/4 (recuerde el producto de las probabilidades individuales).

Por lo tanto, existen 16 posibilidades y, el tablero de Punnett tiene 16 casillas. Dado


que hay mas posibilidades de combinaciones que producen el fenotipo liso y amarillo
(SSYY, SsYy, SsYY, y SSYy), este fenotipo es mas común en la F2.

De los resultados de su segundo experimento, Mendel formuló el Principio de la


distribución independiente esto es, cuando se forman los gametos, los alelos de un
gen para una característica dada se separan (segregan) independientemente de un
alelo para otra característica. Si los caracteres se separan independientemente uno de
otros durante la formación de los gametos, puede entenderse el resultado de un
entrecruzamiento dihíbrido.

Desde los tiempos de Mendel, los científicos descubrieron el cromosoma y el ADN, y


actualmente se interpreta el principio de la distribución independiente como alelos de
genes en diferentes cromosomas que se heredan independientemente durante la
formación de los gametos. Esto no era del conocimiento de Mendel.

Mutación

De Vries en 1902 trabajando sobre la "hierba del asno" describió en ella fenómenos de
herencia mendeliana, sin embargo de tanto en tanto aparecía una característica que
no estaba ni en los padres ni en los antecesores de las plantas, dedujo de ello que
estas característica surgían por un cambio el factor que determinaba el carácter (gen)
y que este cambio se transmitía a la progenie como cualquier otro carácter hereditario.
A este cambio lo denominó mutación y a los organismos que la mostraban mutantes,
los alelos salvajes son los que están presentes en la mayoría de los individuos y dan
el fenotipo esperado.

Ni las leyes de Mendel ni el concepto de mutación fueron conocidos por Darwin, pero
resulta claro que la combinación de características de los padres da resultados sobre
los cuales puede actuar el proceso evolutivo y que las mutaciones (si bien raras) son
una fuente constante de variaciones que posibilitan la evolución.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

Los diversos alelos existen porque cualquier gen está sometido a mutaciones, que
ocurren cuando un gen cambia a una nueva forma estable y hereditaria. Las
mutaciones son procesos aleatorios. Los alelos mutantes y salvajes residen en el
mismo locus y se heredan de acuerdo a la genética mendeliana.

INTERACCION GENÉTICA

Encontrando los genes

Entre 1884 (el año de la muerte de Mendel) y 1888 se describió la mitosis y la meiosis.
El núcleo fue identificado como la localización del material genético, y se propuso que
las "cualidades" eran llevadas por los cromosomas a las células hijas durante la
mitosis.

En 1903 Walter Sutton y Theodore Boveri propusieron formalmente que los


cromosomas contenían los genes. La Teoría cromosómica de la herencia es uno de
los fundamentos de la genética y explica el lugar donde se encuentra el soporte físico
de los principios de Mendel.

La localización de muchos genes (factores de Mendel) fue determinada por Thomas


Hunt Morgan y sus colaboradores al principio del siglo XX. El organismo experimental
de Morgan fue la mosca de la fruta: Drosophila melanogaster. Estos organismos son
ideales para la genética, tienen tamaño pequeño, son fáciles de cuidar, son
susceptibles de mutar y tienen un tiempo de generación corto (7 a 9 días). Poseen tan
solo cuatro pares de cromosomas.

El rol de los cromosomas en la determinación del sexo fue deducido por Morgan de
sus trabajos con la mosca de la fruta.

Durante la metafase, los cromosomas homólogos se enfrentan. Si se microfotografía y


luego se recortan y ordenan los cromosomas homólogos se obtiene un cariotipo .

Existen dos tipos de cromosomas

Los autosomas cuyos homólogos son similares en tamaño y ubicación de los


centrómeros, por ejemplo el par 21 tiene un tamaño y, el par 9 tiene un tamaño
diferente del 21.

Los cromosomas sexuales en los que cada integrante del par de puede diferir en su
tamaño dependiendo del organismo del cual se originan.

En los humanos y Drosophila, los machos tienen un cromosoma sexual más pequeño
llamado Y (masculino), y uno más grande llamado X (femenino).

Los machos son XY, y se dice que son heterogaméticos.


Las hembras son XX, y son por lo tanto homogaméticas.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

En los saltamontes, en los cuales Sutton estudió los cromosomas no existe el Y, los
machos solo tienen el X y la notación es X0.

Otros organismos (pájaros, mariposas) tienen machos homogaméticos y hembras


heterogaméticas.

Los machos (si son heterogaméticos) contribuyen con el X o el Y a su descendencia,


mientras que las hembras proveen uno de sus X. Por lo tanto en estos casos el macho
determina el sexo de la descendencia. Recuerde que en la meiosis cada cromosoma
se duplica y solo una copia de cada uno de ellos es portada por el gameto.

Normalmente los ojos de Drosophila son rojos pero Morgan descubrió una mutante
con un color de ojos diferente (blancos) y trató de duplicar con ella los experimentos
de Mendel. La mayor parte de las mutaciones son generalmente recesivas, por lo tanto
la aparición de una mutante de ojos blancos le dió a Morgan una chance de estudiar,
en animales, los fenómenos que observó Mendel. Pero, en vez de conseguir un
resultado tipo 3:1 en F2 (segundo entrecruzamiento) la relación fue cercana 4:1 (ojos
rojos a ojos blancos) y, por otra parte todos los individuos de la generación F2 de ojos
blancos eran machos.

La cruza de un macho homocigota para el color blanco con una hembra homocigota
para el rojo da una descendencia que en su totalidad tienen ojos rojos. El rojo es
dominante sobre el blanco. Sin embargo, la cruza de una hembra homocigota para
ojos blancos con machos de ojos color rojo, da un resultado inesperado: todos los
machos tienen ojos blancos y todas las hembras ojos rojos. Esto puede ser explicado
si el gen para el color rojo esta en el cromosoma X.

Explicación

Si el gen para color rojo solo esta en el cromosoma X, el macho de ojos rojos en un
segundo cruce pasará sus ojos rojos solo a sus hijas, que por otra parte recibirán un X
portador del color blanco recesivo. Por lo tanto las hembras tendrán ojos rojos igual
que su padre.

Dado que la mosca de la fruta pasa solo un Y a sus hijos, el color de los ojos está
enteramente determinado por el cromosoma X que recibe de su madre (en este caso
blanco). Esta es la razón por la cual todos los machos de la segunda cruza tienen ojos
de color blanco.

Este experimento introduce el concepto de herencia ligada al sexo, que no es más


que la expresión de los genes en aquellas regiones del cromosoma X que no tienen su
correspondencia en el cromosoma Y.

Caracteres codificados en genes recesivos que se encuentran en los cromosomas


sexuales (como el color blanco de los ojos de la mosca de la fruta o la hemofilia,
distrofia muscular, y el daltonismo o ceguera a los colores en humanos) ocurren más a
menudo en los machos, dado que no tienen chance de ser heterocigotas para ese
carácter. A esta condición se la denomina hemicigota.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

Característica de los caracteres ligados al X

La expresión genotípica es más común en machos


Los hijos no pueden heredar de sus padres pero si las hijas.
Los hijos heredan el cromosoma Y de su padre
Solo unos pocos genes se identificaron en el cromosoma Y, entre ellos el factor
determinante del testículo (de sus siglas en inglés TDF) que promueve el desarrollo
del fenotipo masculino.

Un tipo especial de herencia ligada al sexo

En células de las hembras de mamíferos puede verse una mancha oscura de


cromatina: los cuerpos de Barr, que se interpretan como el cromosoma X inactivado en
las células de las hembras de mamíferos. Dado que las hembras tienen dos
cromosomas X, la hipótesis de Lyon sugiere que uno u otro cromosoma X es
inactivado en algunas células somáticas durante el desarrollo embrionario (totalmente
al azar). Las células que se reproducen mitoticamente de esas células embrionarias
tienen el mismo cromosoma inactivado. Un ejemplo interesante de este fenómeno es
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

que la ceguera a los colores (característica que en humanos está ligada al sexo)
cuando se da en las mujeres en algunas ocasiones tienen ceguera los colores en un
ojo pero no en el otro.

La lisencefalia o síndrome del cerebro liso se caracteriza por un cerebro en el cual se


encuentran ausentes los surcos y pliegues. La razón de esta rara enfermedad es la
falta de migración de las células nerviosas hacia la corteza durante el desarrollo
embrionario. Es debida a una mutación de un gen llamado "doble cortina", localizado
en el cromosoma X, cuya presencia impide la migración. Los varones que reciben el
gen mutado padecen lisencefalia (el afectado no puede alimentarse por si mismo,
caminar, sentarse, comunicarse, sufre convulsiones y....., no existiendo ninguna cura).

En las mujeres heterocigotas portadoras del gen que impide la migración, debido a
que uno de los cromosomas X de las células que deben migrar es desactivado al azar,
tiene como resultado una "lotería" celular de la cual depende el grado de incapacidad
que presenta la persona (cursan, entre otros, con síntomas epilépticos), un diagnóstico
prenatal para el caso femenino revela si posee la mutación pero no el grado de
discapacidad. Bibliografía

El concepto moderno del gen


Mientras que Mendel especulaba sobre los caracteres, nosotros sabemos hoy que los
genes son segmentos de ADN que codifican para una proteína específica. Estas
proteínas son las responsables de la expresión del fenotipo. Los principios básicos, tal
lo descrito por Mendel, de la segregación y de independencia de los caracteres son
aplicables hasta en los casos de herencia ligada al sexo.

TIPOS DE DOMINANCIA

Los siete pares de caracteres de Mendel exhibían dominancia completa, lo cual no es


tan común como se cree. Existen otras posibilidades:

Alelos codominantes y múltiples

Los alelos codominantes son aquellos casos en que, en los heterocigotos, se


expresan ambos genotipos presentes, es decir es posible observar los dos fenotipos.
Un ejemplo de alelos múltiples y codominantes es sistema ABO con el que se
clasifica a la sangre. La compatibilidad sanguínea está determinada por un conjunto de
tres alelos: IA, IB e I0 en un locus, diversas combinaciones producen cuatro tipos
sanguíneos o fenotipos: A, B, AB y O. Los alelos múltiples se originan de diferentes
mutaciones sobre un mismo gen. A y B son codominantes sobre el O.

Tipo sanguíneo
Genotipo Anticuerpos formados
o Fenotipo
A IAIA o IAI0 Anti - B
B B B 0
B I I o I I Anti - A
A B
AB I I no se fabrican anticuerpos ni contra A ni contra B
0 0
0 I I (homocigota) fabrica anticuerpos contra los tipos A y B

En la codominancia se expresan ambos alelos. Los heterocigotas para caracteres


dominantes expresan ambos alelos. El tipo sanguíneo AB tiene en la superficie de los
glóbulos rojos ambos antígenos. Dado que ninguno es dominante sobre del otro y
ambos son dominantes respecto al O se dicen que son codominantes.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

El único genotipo posible para una persona de tipo O es OO.


Los de tipo A pueden tener un genotipo AA o AO.
El tipo B, genotipo BB o BO.
El tipo AB tiene solo el genotipo (heterocigoto).

Dominancia incompleta
La dominancia incompleta es una condición en la cual ningún alelo es dominante
sobre el otro. La condición es reconocida para heterocigotas que expresan un fenotipo
intermedio en relación a los fenotipos paternos. Si una planta roja de Camelia se cruza
con una planta de flores blancas, la progenie será toda rosa. Cuando una rosa se
cruza con otra rosa, la descendencia es 1 roja, 2 rosas, y una blanca.

Interacciones entre genes


Si bien un gen fabrica una sola proteína, por lo general esa proteína interactúa con
otras, en realidad la mayoría de las características del fenotipo son el resultado de la
interacción de muchos genes distintos de un organismo.

Puede ocurrir que cuando una característica es afectada por dos o más genes
diferentes, aparezca un fenotipo completamente distinto. Por ejemplo la cresta de las
gallinas esta determinada por dos genes Rr y Pp.

RR o Rr cresta en roseta
PP o Pp cresta en guisante

Pero cuando P y R aparecen juntos en el mismo individuo el resultado es una cresta


en nuez (fenotipo nuevo)

Epistasis

Epistasis es el término utilizado cuando un gen enmascara la expresión de otro. Si el


gen A enmascara el efecto del B se dice que A es epistático respecto de B. Bateson
describió una relación fenotípica diferente en el color de las flores (púrpuras o blancas)
de la arvejilla de olor, que no podía explicarse por las leyes de Mendel. Esta relación
era 9:7 en vez de 9:3:3:1 que se espera en un cruce dihíbrido entre heterocigotas. Lo
que ocurre es que cuando los dos genes (C y P), en cualquiera de ellos homocigotas
para el recesivo (cc o pp) resultan epistaticos (o sean que ocultan) el otro. Para que
existan flores púrpuras deben estar presentes los alelos C y P.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

Expresión genética y medio ambiente

La expresión de los fenotipos es el resultado de su interacción con el medio ambiente.

Los gatos siameses tienen sus extremidades oscuras debido a los efectos de la
temperatura en el producto de la expresión genética (en este caso una enzima). La
enzima que interviene en la producción de pigmento solo funciona a la baja
temperatura de las extremidades.

Herencia poligénica

La herencia poligénica es el conjunto responsable de muchos caracteres que parecen


sencillos desde la superficie. Muchos caracteres como el peso, forma, altura, color y
metabolismo son gobernados por el efecto acumulativo de muchos genes La herencia
poligénica no se expresa en absoluto como caracteres discretos, como en el caso de
los caracteres mendelianos. En vez de ello los caracteres poligénicos se reconocen
por expresarse como graduaciones de pequeñas diferencias (una variación continua).
El resultado forma una curva con un valor medio en el pico y valores extremos en
ambas direcciones.

La altura en los seres humanos es un tipo de herencia poligénica. La altura en


humanos no es discontinua. Si uno representa gráficamente las diferentes alturas en
este curso, una variación continua será evidente, con una altura promedio y las
variaciones extremas, muy altos y muy bajos. Cuando la herencia muestra variaciones
continuas es porque esta controlada por el efecto aditivo de dos o más pares de genes
separados. La herencia de CADA gen sigue las reglas de Mendel.

La herencia poligénica se distingue por

1. Cuantificarse midiendo más que contando


2. Dos o más pares de genes contribuyen al fenotipo
3. La expresión fenotípica abarca un gran rango

En humanos se observa en

1. Altura
2. Lupus Eritromatoso Sistémico (Lupus) (enlace para un artículo respecto a lupus
y la genética)
3. Peso ( enlace para un artículo respecto al peso y la genética)
4. Color de ojos (enlace para un artículo acerca del color de ojos)
5. Inteligencia
6. Color de la piel
7. Muchas formas de comportamiento

Pleiotropía

Por pleiotropía se conoce al efecto de un solo gen en más de una característica. La


anemia drepanocítica es una enfermedad humana de las áreas tropicales donde la
malaria es común. Los individuos que la sufren tienen un sinnúmero de problemas
debido al efecto pleiotrópico del alelo de la anemia drepanocítica.
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

Genes y cromosomas, Herencia No Mendeliana

Además de las complicaciones del control poligénico o la pleiotropía existen otros


casos en que los porcentajes de la herencia mendeliana no se cumplen: ligado
herencia citoplasmática y mutaciones.

Ligado

El "ligado" ocurre cuando los genes están en el mismo cromosoma. Recuerde que los
genes ligados al sexo se encuentran en el cromosoma sexual X. Los grupos ligados
son invariablemente el mismo número que los pares de cromosomas homólogos que
un organismo posee. La recombinación ocurre cuando el entrecruzamiento (crossing-
over) rompe la relación entre los grupos, como en el caso de tamaño de las alas y
color del cuerpo estudiado por Morgan. El mapeo cromosómico estuvo basado en el
estudio de la frecuencia de recombinación entre alelos.
Dado que las mutaciones pueden inducirse (por radiaciones o químicos), Morgan y sus
colaboradores podían producir nuevos alelos sometiendo a la mosca de la fruta a
mutágenos (agentes que provocan mutaciones). Los genes están localizados en
regiones específicas de ciertos cromosomas, llamadas locus (plural: loci). Un gen es
por lo tanto un segmento específico de la molécula de ADN.
Alfred Sturtevant, siendo un estudiante en el laboratorio de Morgan, postuló que el
crossing-over seria menos común entre genes adyacentes uno del otro en el mismo
cromosoma y que sería posible graficar la secuencia de los genes a lo largo del
cromosoma de la mosca de la fruta usando la frecuencia de crossing-over.
La distancia en un mapa genético se expresan en unidades de mapeo (una unidad de
mapeo = 1 recombinación por 100 huevos fertilizados, o una chance de recombinación
del 1%).

El mapa para los cromosomas de Drosophila melanogaster es bien conocido. En los


diagramas de los mapas se puede ver por ejemplo que

• el color de ojos y aristas largas se encuentran muy apartados (tal como lo


indica la existencia de un mayor número de recombinaciones entre ellos)
• el color de los ojos y el tamaño de las alas están cercanos (como lo indica la
menor frecuencia de recombinación entre ellos).
PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

Herencia citoplasmática

Sabemos que los cloroplastos y las mitocondrias contienen ADN, y cuyos genes
controlan ciertos aspectos de la fotosíntesis y la respiración. La herencia de estos
genes es independiente de la reproducción sexual y generalmente se lleva a cabo por
vía materna, denominándose herencia citoplasmática.

Cromosomas politénicos o gigantes

Se encuentran en las glándulas salivales de la mosca de la fruta (Drosophila). Son


cien veces más grandes que los cromosomas de las células del resto del cuerpo y
cuando se tiñen presentan bandas claras y oscuras. Los genetistas aprovecharon este
hecho para correlacionar cambios en las bandas de los cromosomas con cambios en
la Drosophila lo que permite asignar un lugar físico a los genes de la misma.

Anormalidades de los cromosomas

Las anormalidades cromosómicas incluyen inversión, inserción, duplicación, y


delección. Estos son tipos de mutación. Dado que el ADN es información, y que la
misma tiene un punto de comienzo, una inversión produce una proteína inactiva o
alterada. Igualmente una delección o duplicación altera el producto del gen.

EQUIPO DE CTA PRONAFCAP 2008


PROGRAMA NACIONAL DE FORMACIÓN Y CAPACITACIÓN PERMANENTE 2007 - 2011

INSTRUCTIVO PARA LOS CURSOS A DISTANCIA

ESTRATEGÍA

Para la capacitación PRONAFCAP UNSA – 2008 se presenta una propuesta


Pedagógica que responde a las necesidades de formación y capacitación continua

Se ha producido materiales educativos contextualizados, pertinentes y significativos.


Se brindará apoyo utilizando INTERNET y otros materiales que posibilite una
capacitación a distancia

Los participantes tendrán un acompañamiento tutorial permanente en línea utilizando


recursos TICs, Se tendrá en cuenta: Evaluación, seguimiento y monitoreo del proceso
formativo a cargo de Tutores del Curso Virtual.

METODOLOGÍA

Se utiliza la modalidad a distancia mixta.


La capacitación a distancia tiene una duración de 30 horas, distribuidas en cinco
meses.

La metodología está orientada hacia la reflexión crítica de la especialidad de Ciencia


Tecnología y Ambiente buscando vincular y compartir las experiencias de los docentes
participantes en los siguientes temas:

• Funciones Químicas
• Implicancias bioéticas del proyecto genoma humano.
• Introducción a la genética.

También se complementa de información de los temas desarrollados en forma


presencial además del estudio individual y grupal, encuentros presenciales y virtuales,
actividades de evaluación en línea y elaboración de proyectos.

Se tiene un aula virtual creada específicamente para la capacitación a distancia en


donde la evaluación es continua y prioriza la dimensión formativa y utilizando los
siguientes recursos:

Web Quest para elaborar un proyecto de investigación sobre compuestos inorgánicos


Base de datos con las funciones químicas más comunes
Glosario de términos comentados sobre bioética Y genoma humano
Encuestas virtuales y tareas virtuales para desarrollan problemas de genética
Foros asíncronos que complementan el tema de Herencia y genética
Correo electrónico, mensajería y Chat para favorecer la interactividad.

La tutoría es un eje estratégico para lograr las competencias en los participantes.

A todos los participantes se les genera un logín (Nombre de usuario) y su Pasword


(clave de acceso) con su correo electrónico.

Potrebbero piacerti anche