Sei sulla pagina 1di 121

Cristianismo

Cristo de la Concordia, Cochabamba.

Existe libertad de culto, siendo la religión católica la religión mayoritaria y de mayor influencia en el país.

La Iglesia católica tiene en Bolivia cuatro Arquidiócesis, siete Diócesis, dos Prelaturas y cinco Vicariatos
Apostólicos. Entre los más importantes acontecimientos religiosos de las últimas décadas vale mencionar la visita
de Juan Pablo II en 1988 y el nombramiento a cardenal de monseñor Julio Terrazas, arzobispo de Santa Cruz.

Cabe mencionar la costumbre de nombrar a un santo como patrón de la ciudad, país o pueblo, para el cual se
celebra una fiesta anual en el día de fiesta correspondiente. Bolivia tiene como patrona a la Virgen del Carmen y su
fiesta es el 16 de julio y Sucre tiene como patrona a la Virgen de Guadalupe cuya festividad es el 8 de septiembre.

Véase también: Diócesis de Bolivia

Religiones nativas

Mapa de diócesis y archidiócesis de Bolivia.

Ekeko, deidad de origen aymara. Feria de Alasitas, La Paz.


Las religiones de los pueblos originarios, son por lo general son religiones panteístas y holísticas cuyas formas de
ver o racionalidad de las nociones o conceptos del tiempo-espacio (Cosmovisión Andina) son totalmente diferentes
a las religiones monoteístas de origen judeo-cristianas, traídos por los conquistadores de occidente. Quienes
impusieron la religión católica a los nativos de América. Con la inmigración de la raza negra se conservan también
sus costumbres, aunque todo ello se ha ido mezclando junto con el cristianismo, con un mestizaje de culturas y
pensamientos entre las europeas y las indígenas.

A este mestizaje es lo que se ha dado en llamar sincretismo, ya que los nombres de los "santos" católicos han ido
reemplazando a los nombres de las deidades indígenas originarias; así tenemos por ejemplo, que la Pachamama1
(literalmente Madre-Tierra, Diosa de la tierra y de la fertilidad de los campos) terminó asociada con la imagen de la
Virgen María, a quien en fechas de carnaval se debe dar una ofrenda consistente en una "mesa" (compuesta de
lanas de colores o blancas, dulces en forma de los objetos que se desea tener y en los que desea ser prosperada la
persona y feto de llama). Ejemplos concretos de sincretismo son los cultos a la Pachamama combinados con la
adoración de la Virgen de Copacabana, la Virgen de Urkupiña, la Vírgen del Socavón o el Señor Jesús del Gran
Poder. También se mantiene el ritual de sacrificar un animal para rociar con su sangre la tierra "hambrienta y
sedienta" para hacerla más fértil durante el año. Buena parte de la población indígena practica diversas religiones
con elementos sincréticos o complementarios con el catolicismo desde las Cosmovisiones y Tradiciones
Ancestrales.

Asimismo, existen regiones aymaras al sur del Lago Titicaca que mantienen una fuerte devoción por el Tata
Apóstol Santiago2 que se combina con tradiciones ancestrales. Otras deidades indígenas son: el Ekeko, dios aymara
de la abundancia cuya fiesta se celebra de manera generalizada el 24 de enero en la Feria de Alasitas y Tupá, dios
prestigioso del pueblo guaraní.

Estas tradiciones se han mantenido casi sin cambios desde la colonización hasta nuestros días. Hasta hace poco la
religión evangélica estaba empezando a romper con estos ritos y sincretismos, sin embargo algunas encuestas
muestran que desde la asunciòn al poder de Evo Morales la revalorizaciòn de la espiritualidad aymara está
creciendo y la cantidad de fieles evangèlicos disminuye.

La Iglesia católica se ha debilitado en algunas poblaciones indígenas rurales de occidente debido a que no cuenta
con recursos económicos suficientes para expandirse. De este modo, los esfuerzos por reemplazar las tradiciones
espirituales indígenas con prácticas católicas han resultado infructuosos. En muchas de estas poblaciones, las
iglesias cristianas protestantes han ganado terreno sobre el catolicismo. Por su parte, los pueblos indígenas del
oriente como los Chiquitos y los Moxos mantienen fuertes vínculos con el catolicismo producto del mestizaje
cultural heredado de las misiones jesuíticas del Siglo XVII.

Por otra parte, algunos líderes indígenas han buscado desterrar toda forma de cristianismo de sus comunidades para
reinvindicar sus creencias ancestrales. En 2009, mediante Decreto Supremo, se decidió reconocer el festejo del
Año Nuevo Aymara o Wilka Kuti (retorno del sol), fiesta que celebra el inicio de un nuevo ciclo solar con la
llegada del solsticio de invierno. Esta celebración se lleva a cabo en las ruinas del complejo Tiwanaku.

Otras religiones
Representación de Pachamama (deidad adorada en el mundo andino en sincretismo con la Virgen María) en la
cosmología según Juan de Santa Cruz Pachacuti Yamqui Salcamayhua (1613), según una imagen en el Templo del
Sol Qurikancha en Cusco.

Templo Mormón, Cochabamba.

Hasta hace poco existía un sostenido crecimiento de los protestantes, conocidos como cristianos o evangélicos y
Unitarios Universalistas. Sin embargo, existieron y siguen existiendo, religiones de los pueblos originarios tanto en
la parte andina y amazónica de Bolivia.

Por otro lado existe una importante comunidad de la Fe Bahá'í, además de practicantes de religiones como el
budismo y el hinduismo, entre grupos budistas del país están practicantes del budismo tibetano como Sakya Tashi
Ling, del budismo Theravada está la institución conocida como Vipassana. En el caso del Hinduismo existen 3
grupos diferentes del Movimiento Hare Krishna con actividades en La Paz y Cochabamba.

Sin embargo, en los últimos años ha existido un apreciable retorno hacia prácticas religiosas de pueblos andinos
como el aymara debido a la llegada al poder de Evo Morales y su modelo indigenista. Por otro lado en 2008 Gallup
realizó una encuesta preguntando "¿Es importante la religión en su vida? El 12% de los bolivianos contestaron que
"No"". Esto demuestra un importante crecimiento de la gente sin religión en Bolivia.

La más reciente encuesta, realizada entre el 29 y 30 de marzo de 2014, por Captura Consulting en 800 hogares de
las 4 ciudades más habitadas de Bolivia (La Paz, El Alto, Cochabamba y Santa Cruz) que cubren casi un tercio de
la población del país, dio el siguiente resultado:3

 Católicos 71%
 Evangélicos 21%
 Ninguna 5%
 Mormones 1%
 Testigos de Jehová 1%
 Otros 1%

En la ciudad de La Paz el resultado de la encuesta fue el siguiente:


 Católicos 67%
 Evangélicos 20%
 Ninguna 10%
 Mormones 1%
 Testigos de Jehová 1%
 Otros 1%

Otras religiones o creencias presentes son:

 Mormones: Están presentes en todo el país. Fuentes de la iglesia mormona estiman que el número de sus
adherentes sobrepasa las 140.000 personas.
 Testigos de Jehová: Están extendidos por todo el país. Cuentan con más de 10.000 ministros activos y
asisten a sus servicios religiosos más de 65.000 personas.
 Comunidad judía: Se concentra principalmente en las ciudades de La Paz, Cochabamba, y Santa Cruz de la
Sierra, habiendo presencia menor en otras localidades del país. La comunidad cuenta con sinagogas en las
tres ciudades mencionadas y cuenta con aproximadamente 500 miembros en todo el país, lo que la
convierte en una de las comunidades judías más pequeñas de América del Sur. La mayoría de los judíos
bolivianos son asquenazíes. Asimismo, a diferencia de otros grupos religiosos en Bolivia, la comunidad
judía va disminuyendo año a año, debido al envejecimiento de la misma y a la alta tasa de emigración por
parte de la misma.
 Comunidad islámica: Tienen centros culturales que también sirven de mezquitas en La Paz, Santa Cruz de
la Sierra y Cochabamba. Estos centros culturales acogen tanto a musulmanes chiitas como sunitas.
 Comunidad asiática: Los inmigrantes coreanos establecen su iglesia en La Paz. La mayoría de los
inmigrantes coreanos, chinos y japoneses se han establecido en Santa Cruz de la Sierra, donde hay una
universidad, fundada por inmigrantes coreanos de la secta Moon, con vínculos evangélicos presbiterianos.
 Otras comunidades religiosas: Budistas y Sintoístas, así como una importante comunidad Bahai a lo largo
de todo el país.
 Wicca: Una religión relativamente nueva en Bolivia, pero de rápido crecimiento en especial entre los
jóvenes, que inculca respeto por todos los seres vivos.
 Agnósticos y ateos: Se estima que alrededor del 3% de la población pertenece a esta comunidad

Manifestaciones religiosas mundiales: Budismo, Cristianismo e Islamismo

Enviado por Guadalupe Lilieth Mendoza Varona

Manifestaciones religiosas mundiales: Budismo, Cristianismo e Islamismo - Monografias.com

Manifestaciones religiosas mundiales: Budismo, Cristianismo e Islamismo

Para muchos estudiosos del tema la religión puede definirse como un sistema compartido de creencias y prácticas
asociadas, que se articulan en torno a la naturaleza de las fuerzas que configuran el destino de los seres humanos.

Por su parte, el antropólogo Clifford Geertz propone una definición alternativa: "La religión es un sistema de símbolos que
obra para establecer vigorosos, penetrantes y duraderos estados anímicos y motivaciones en los hombres, formulando
concepciones de un orden general de existencia y revistiendo estas concepciones con una aureola de efectividad tal que los
estados anímicos y motivaciones parezcan de un realismo único".[1]

Resulta prácticamente imposible brindar una definición única de este término ya que el mismo engloba como hecho
antropológico elementos tales como: tradiciones, culturas ancestrales, instituciones, escrituras, historia, mitología, fe y
credos, experiencias místicas, ritos, liturgias, oraciones, etc.

Aunque la antropología ha recogido manifestaciones religiosas desde el primer momento de la existencia del hombre,
todavía se discute si es un fenómeno esencial del mismo o puede ser reducido a otras experiencias o aspectos humanos
más fundamentales, debido a que estas manifestaciones han ejercido una fuerte influencia en la configuración de las
diversas culturas y sociedades.

El ser humano ha hecho uso de las religiones para encontrar sentido a su existencia y para dar trascendencia y explicación al
mundo, el universo y todo lo imaginable.

Filosóficamente, la religión puede ser un estilo de vida, un camino hacia la plenitud, una plenitud que inicia desde el mismo
instante que se cobra conciencia de la misma.

En un sentido más amplio, también se utiliza para referirse a una obligación de conciencia que impulsa al cumplimiento de
un deber.

La filosofía de la religión estudia las diferentes concepciones teístas o no teístas, la cosmología de las religiones así como sus
argumentos de diseño, el misticismo, el problema del mal, la epistemología y así un amplio espectro de asuntos que son
tratados desde el aparato intelectual filosófico.

El conocimiento religioso, según los seguidores de las religiones, puede ser obtenido de líderes religiosos, textos sagrados
y/o la propia revelación personal.

Algunos puntos de vista de las religiones observan este conocimiento como ilimitado en alcance y capaz de resolver
cualquier pregunta, otras le otorgan un rol más restringido o acompañando al conocimiento obtenido mediante la
observación de los fenómenos físicos. Algunas religiones otorgan al conocimiento religioso la característica de ser infalible.

De lo anterior expuesto entendemos por religión que es un sistema de la actividad humana compuesto por creencias y
prácticas que se mueven en el orden de lo divino o lo sagrado; que pueden ser personales o colectivas, de tipo existencial,
moral y espirituales. Algunas de las religiones están organizadas de forma más o menos rígidas mientras que otras carecen
de estructura formal y están integradas en las tradiciones culturales de la sociedad o etnia en la que se practican.

Uno de los aspectos teóricos más debatidos respecto al estudio del fenómeno religioso es la clasificación de sus diversas
manifestaciones entre las que se encuentran las denominadas religiones mundiales o universales, "en las cuales aparece
por primera vez el vínculo religioso entre los hombres con independencia total de su pertenencia étnica, su expresión
idiomática y su filiación política o raíces históricas (…) en ellas se observa el cosmopolitismo de una entidad
supranatural".[2]

Centraremos nuestro análisis en tres de las manifestaciones religiosas más importantes: el Budismo, el Cristianismo y el
Islamismo.

Entre ellas podemos encontrar ciertas similitudes como la presencia tanto en el Cristianismo como en el Islamismo, la idea
de que existe un Dios único. Presentan de manera general la figura de un fundador del cual derivan su nombre, ese es el
caso del Budismo (Buda) y del Cristianismo (Cristo).

De estas manifestaciones religiosas universales ha sido el Budismo su más antigua expresión. En general puede estar
presente en casi todo el mundo con diferentes niveles de significación social y a través de las más variadas formas de
expresión.

Fundada por Buda en la India, su problema básico consiste en suprimir la causa del dolor mediante la aniquilación del
deseo. Muchas de las ideas principales del budismo fueron tomadas del brahmanismo, pues se originó como un
movimiento monástico dentro de la tradición brahmánica dominante en aquel entonces, aunque rápidamente el budismo
se fue desarrollando en otra dirección, adquiriendo características propias.

Su objetivo fundamental ha sido "romper" la cadena de trasmigraciones de las almas, de su supuesto e inevitable proceso
de reencarnación, para así lograr, por medio del camino óctuplo (la fe, la decisión, la palabra, los actos, la forma de vida, las
aspiraciones, el pensamiento y la contemplación verdadera) liberarse de este proceso, con el fin de lograr un estado de
total placidez, libre de sufrimiento y de la existencia fenoménica individual.

El budismo ha significado un motor principal en la difusión de la escritura, el lenguaje, y la adopción de valores humanistas y
universalistas. Es por tanto la gran filosofía de Asia porque su práctica ha logrado expandirse a la totalidad de sus países.

La moral búdica señala cinco prohibiciones: matar, robar, cometer adulterio, mentir y embriagarse. También establece diez
pecados: asesinato, robo, fornicación, mentira, maledicencia, injuria, charlatanería, envidia, odio y error dogmático, y
recomienda la práctica de seis virtudes trascendentales: la limosna, la moral perfecta, la paciencia, la energía, la bondad y la
caridad o amor al prójimo.

El budismo es en número de seguidores una de las grandes religiones del planeta. Contiene una gran variedad de escuelas,
doctrinas y prácticas que históricamente y bajo criterios geográficos se clasifican en budismo del Sur, Este y Norte.

No obstante, al carecer de una deidad suprema muestra a la vez su carácter salvífico y universalista, por lo que ha sido
descrita también como fenómeno transcultural, filosofía, o método de trasformación. Esta organización religiosa
descentralizada ha permitido una enorme flexibilidad de puntos de vista, variaciones y enfoques. Las variantes de budismo
se dieron por divisiones en el tiempo de puntos de discusión doctrinales, como un árbol ramificado.
El budismo no está organizado con una jerarquía vertical. La autoridad religiosa se basa en los textos sagrados; los Sutras
(literalmente "discursos").

El Budismo es la erradicación definitiva del sufrimiento, insatisfacción vital, o descontento que se manifiesta de manera
inevitable en uno u otro momento de la vida. Acorde al pensamiento budista, la causa de la insatisfacción es el deseo
entendido como los movimientos de la voluntad para la aproximación o el rechazo, surgiendo aferramiento, aversión,
temor.

Posteriormente surge el Cristianismo en el siglo I n.e, religión monoteísta de orígenes semíticos la más extendida en el
mundo debido a los más de 1.700 millones de personas que la profesan, que se basa en el reconocimiento de Jesús de
Nazaret como su fundador y figura central.

Sus seguidores creen que Jesús es el hijo de Dios, así como el Mesías (o Cristo) profetizado en el Antiguo Testamento,
muriendo en redención de los pecados del género humano, y resucitando después de su muerte.

Uno de los elementos esenciales lo constituye el protagonismo de la figura de Jesucristo. Ese protagonismo es, de uno u
otro modo, el rasgo distintivo de todas las variantes históricas de la creencia y práctica del cristianismo. Los cristianos no
han logrado llegar a un acuerdo sobre la comprensión ni sobre la definición de qué es lo que hace que Cristo sea tan
característico y único. Desde luego, todos coinciden en que su vida y su ejemplo deberían ser seguidos y que sus enseñanzas
referentes al amor y a la fraternidad deberían sentar las bases de todas las relaciones humanas.

En las enseñanzas del cristianismo, Jesús no puede ser menos que el supremo predicador y ejemplo de vida moral, pero,
para la mayoría de los cristianos, eso, por sí mismo, no hace justicia al significado de su vida y obra.

Todas las referencias históricas que se tienen de Jesús se encuentran en los Evangelios, parte del Nuevo Testamento
englobada en la Biblia. Otras partes del Nuevo Testamento resumen las creencias de la Iglesia cristiana primitiva.

En sus primeras décadas, el cristianismo era considerado como una doctrina sectaria más entre las tradiciones judías e
israelitas, al igual que otros cuerpos de ideas y creencias de esa parte del mundo en esa época. Desde que el cristianismo se
convirtió en la religión oficial del Imperio romano en el siglo IV, ha influido de manera significativa en la cultura occidental y
en muchas otras culturas a través del mundo. En la actualidad posee más de 2.100 millones de fieles, o cerca de un tercio de
la población mundial, siendo la religión con más seguidores del mundo.

Los hechos que acontecieron en los primeros años del cristianismo se relatan en el libro de los Hechos de los Apóstoles.
Actualmente se cuestiona la veracidad de estos relatos debido a la gran proliferación de libros falsos sobre los Hechos (o
Actos) de los apóstoles que abundaban durante el cristianismo primitivo.

El criterio general para basar las creencias se encuentra en sus escritos sagrados, entre los que destaca la Biblia, siendo la
única fuente doctrinal válida de muchas denominaciones, en particular las de corriente protestante.
Otra fuente doctrinal importante son los credos, aunque no poseen necesariamente la unicidad de criterios para su
aceptación, ya que pueden ser aceptados total o parcialmente, o rechazados en su totalidad, dependiendo de la
denominación. Algunas tradiciones cristianas, tales como los bautistas y las Iglesias de Cristo, aceptan estas creencias, pero
no el credo mismo, debido a que los credos son considerados en estos grupos como no pertenecientes a las escrituras. Todo
lo anterior sucede también con otros escritos aunque no poseen tanta aceptación como la Biblia.

En esta manifestación religiosa se observan variadas influencias, tales como el misticismo griego, en la idea de que el
hombre puede "fundirse" con Dios y en la forma en que se puede purificar a los incrédulos; las de religiones orientales en
las que un Dios masculino muere y renace; en la astrología babilónica, en las creencias persas en un "salvador" procedente
de regiones celestiales y también, en elementos de la tradición hebraica, como la de un Dios único, espíritu puro y
garantizador del orden moral y en la idea de un Mesías, entre otras influencias.

Siglos más tardes surgió el Islamismo específicamente en el norte de África y gran parte de Asia, pero puede estar presente
en gran parte del mundo. Se considera que nació en Arabia en el siglo VII n.e. y su fundador fue el árabe Mahoma. El
Islamismo dejo de ser sólo una religión para convertirse casi en el símbolo de la civilización árabe. Su dogma es muy sencillo
y se basa ante todo en la creencia de un solo Dios: Alá, en considerar a Mahoma como su profeta. Y trata de inculcar en sus
adeptos los sentimientos de caridad y justicia y la práctica de la oración.

Del Corán, libro escrito por él, y el Sunna (tradiciones posteriores), han nacido prácticamente todas las reglas de la vida
política y social del mundo árabe. La concepción filosófica del universo que expone el Corán es parecida a la de las grandes
concepciones semíticas, el judaísmo y el cristianismo que le precedieron

El Islam rechaza la Santísima Trinidad y el carácter divino de Jesús, aunque cree en la vida eterna, el Juicio Final y la
resurrección de los muertos. Exige cuatro prácticas: la oración, el ayuno durante el mes de Ramadán, la limosna a los pobres
y la peregrinación a La Meca. Se dividió el islamismo en numerosas sectas, pero el Corán y la lengua árabe han servido
siempre de lazo de unión y en los últimos años es evidente en una cantidad de pueblos de África y de Asia el deseo de una
resurrección del islamismo como poder político firmemente unificado.

Tal tendencia se designa con el nombre genérico de panislamismo y se revela en la acción y principios de determinados
pactos y conferencias internacionales de países islámicos, sobre todo frente al problema de Palestina.

En resumen, el islamismo es una religión monoteísta que encuentra su expresión en la frase: no hay más dios que Dios y
Mahoma es su profeta.

En todas estas manifestaciones religiosas universales están presentes diferentes expresiones religiosa que aparecen desde
los niveles de desarrollo de menor complejidad, formando todas a su vez parte de la conciencia social

 Herramientas
o Haz de ACI tu Home
o Logo y banner
o Podcast/MP3
o RSS
o Ticker de noticias
o Wallpapers
 Blog

00782042123703 UTF-8

<iframe src="https://www.googletagmanager.com/ns.html?id=GTM-P5HTKG2" height="0" width="0"


style="display:none;visibility:hidden"></iframe>
Inicio » Recursos » Familia

El diálogo en torno a la sexualidad y


los adolescentes
subscribe html Suscribir

Nota: este artículo está dirigido en primera instancia para docentes. También pensamos en que los
docentes son padres y es un escrito también para padres. Finalmente es para adolescentes, alumnos de
los primeros e hijos de los segundos)
El diálogo en el hogar es elemental para que los adolescentes (y los hijos de todas las edades) vayan
descubriendo en forma tranquila y segura todos los "secretos" de la vida personal, muy especialmente
los referidos a su sexualidad. Vale decir que es necesario y fundamental que ellos aprendan en el seno
familiar el sentido de su cuerpo (reafirmando su identidad de hombres o mujeres), el significado de la
convivencia, la alteridad y el amor. Además acceden así de una manera humana y personalizada a
todos los conocimientos que tienen que ver con las etapas de la procreación y el valor que el amor
tiene en la transmisión de la vida.
Lógicamente estos son conceptos que debemos transmitirle a los padres pero no podemos descuidar el
lugar de los hijos, pues muchas veces ellos son los que se alejan. Más allá de las explicaciones acerca
de esta conducta, lo cierto es que no podemos dejar de insistirles que la mejor manera de resolver sus
inquietudes es con sus padres. De este modo estaremos haciendo una labor doble, que es la única que
nos puede dar resultado: decirle tanto a padres como a hijos que se acerquen mutuamente y refuercen
y hagan crecer de este modo el núcleo familiar. El impacto de este tipo de diálogos no es solamente un
problema de convivencia, sino que además tiene connotaciones en todos los órdenes de la persona: un
chico que descubre la sexualidad en sí mismo de la mano de las personas que desde su amor le dieron
la vida tiene más posibilidades de crecer con un cuerpo sano, con un claro sentido de la intimidad, con
una emotividad y afectividad a la altura de cada circunstancia y con un espíritu cada vez más abierto y
receptivo al amor y sus múltiples manifestaciones.
En este marco es bueno manejar algunas pautas de cómo es más conveniente establecer este diálogo.
La siguiente cita es un desarrollo evidentemente para padres, pero lógicamente el mensaje para los
adolescentes es la exacta contraparte y complementación.
Aquí al alumno se le hace un juego complementario interesante. Según nos dice la experiencia,
muchas de las ideas que adquirimos cuando somos más curiosos en un tema nos acompañan siempre.
De este modo puede suceder que pasados muchos años y luego incluso de múltiples oportunidades de
cambiar, corregir o mejorar nuestras ideas, seguimos pensando de la misma manera que entonces. Tal
es el caso de muchas de las cosas que comentaremos con nuestros alumnos en torno a este tema (ni se
diga la magnitud que tienen las expresiones de los padres sobre los hijos).
Aprovechando esto le hacemos un gran beneficio educativo. Los impulsamos a que comprendan que
el diálogo padre-hijo es la herramienta que mejores resultados da en la educación. Los motivaremos a
que acrecienten el diálogo, a la vez que podrán incorporar este valioso concepto para el momento en
que, ya maduros y jefes de familia, lo utilicen.
Veamos lo que dice el Dr. Carlos Ray a propósito:
"En la adolescencia vuelven a cobrar importancia los asuntos relacionados con el sexo. Con fuerte
tono subjetivo debido al despertar de las fuerzas hasta entonces dormidas.
Contribuye a formarlos que Usted hable de estos temas, con sus hijos e hijas adolescentes. Además, es
un medio eficaz para contrarrestar los estímulos erotizantes anormales que nos envuelven a jóvenes y
adultos. Los padres tenemos que estar cerca de nuestros hijos para ayudarlos a consolidar sus
conocimientos y a canalizar las emociones: afianzar la personalidad, su actitud con jóvenes del otro
sexo, búsqueda de libertad e independencia, necesidad de amigos íntimos, diarios de vida, novelas
sentimentales, etc.
1. Es oportuno que los jóvenes conozcan lo vinculado a características y fines de la sexualidad. Tienen
que reconocer, comprender y dominar sus instintos sexuales con alegría y orgullo de la propia
sexualidad y con amor a la virtud de la castidad. Hay que invitarlos a sublimar los instintos y a
desechar lo fácil y permisivo para afianzar la personalidad y evitar la aparición de complejos y
tensiones.
2. Se los debe ayudar en el estudio o trabajo y a adquirir costumbres y hobbies interesantes: lectura,
periodismo, coleccionar, etc. En la adolescencia la adecuada educación física (gimnasia, atletismo y
deportes) y la vida al aire libre (excursiones, campamentos) contribuyen a educar el carácter, templar
la voluntad y dominar las pasiones.
3. En las conversaciones ponga Usted la mayor objetividad posible, sin apreciaciones subjetivas ni
adjetivos calificativos.
4. En forma prudente converse sobre el tema de los amigos y amigas y la futura elección de novio o
novia.
5. Cualquiera escena y episodio de la vida real es bueno para comentarlo entre todos (con intervención
de los jóvenes) y sacar las conclusiones oportunas. La crítica en común de las películas
cinematográficas es buena oportunidad.
6. Cuando Usted hable con sus hijos sobre temas vinculados a la cuestión sexual y genital, es positivo
que lo haga en forma optimista, alegre y verídica.
7. A ambos sexos les interesan los temas generales como el trato con los jóvenes del mismo y otro
sexo, las relaciones sexuales, la posibilidad de la castidad, la regulación natural de la paternidad, la
homosexualidad, las enfermedades de transmisión genital, sobretodo el SIDA, las drogas, el problema
de la prostitución, la masturbación, los anticonceptivos, el aborto, la fecundación artificial, los
embarazos en madres sustitutas y temas ligados a estos puntos.
8. Los padres tienen que conversar francamente con sus hijos de estos puntos en la mesa y sobremesa,
específicos lugares de encuentro y reunión y en otros momentos oportunos que se presentan a raíz de
situaciones concretas de la vida real o al comentar programas de televisión, artículos de diarios o
revistas o películas de cine. Ofrescámosles también oportunidades para que se encuentren en
ambientes sanos y alegres.
Démosle el ejemplo y presentemos a los y las jóvenes una visión alegre y optimista de lo que es el
noviazgo y el matrimonio y de la felicidad que en estos períodos se encuentra si se busca un amor
verdadero." (Cf. Carlos Ray. "Para padres". Editorial Claretiana - Editorial Vida. Buenos Aires, 1993.
p. 280. He seguido puntualmente el escrito del Dr. Ray con pequeñas adaptaciones al contexto del
artículo que no alteran su contenido. Recomiendo enormemente la lectura de este libro para todo padre
preocupado por sus hijos.)
Esto es necesario para que al chico le vaya mejor en la vida. Por tanto no es sólo una labor del padre.
Se tiene que quitar la idea de que como es importante que "los padres dialoguen con los hijos" resulta
que ahora ya no es importante que los hijos se acerquen a los padres. En última instancia son ellos los
más beneficiados de esta actitud. Hablar con los papás y discutir todos estos puntos que hemos
mencionados son un negocio extraordinario para los adolescentes. Si ellos lo entienden así es más
probable que se acerquen y busquen el consejo y la ayuda.

Discusión:Sexualidad
De Wikipedia, la enciclopedia libre
Ir a la navegaciónIr a la búsqueda
Este artículo fue sometido a una consulta de borrado, el 29 de septiembre de 2017.
El resultado de la discusión fue mantener.
Wikipedia no es un foro de discusión. Las páginas de discusión de los artículos están destinadas al
diálogo acerca de la edición de su contenido. Por favor, abstente de escribir reflexiones personales o no
enfocadas al desarrollo del artículo; apoya tu información añadiendo referencias.

Índice
 1 Crear página de desambiguación
 2 Verdades a medias
 3 Masturbación
 4 Fusión
 5 masturbacion
 6 Apartado borrado que deseo que se recupere
 7 Pudor
 8 Sociedades sexualmente sanas
 9 Faltan referencias
Crear página de desambiguación[editar]
Esta página debería de, al igual que la wiki inglesa (en:Sexuality) ser una página de desambiguación hacia
diferentes y amplios conceptos de la sexualidad (animal, humana..). Quizás ahora me pongo en ello, pero sino lo
dejo aquí anotado por si alguien se anima :-) -- AlbertoDV (mi buzón de sugerencias..) 14:54 31 ago 2006
(CEST)

Te apoyo, compañero. Cuales serían los pasos necesarios para eliminar este artículo redundante (Sexualidad
humana ya existe) y reemplazarlo por algo acorde? ~ escrito por Genoskill (discusión) 03:01 28 sep 2017
(UTC)

Verdades a medias[editar]
Me ha decepcionado lo poco que se explica este tema. Me sorprende que se diga que la homosexualidad ya se da
desde hace tiempo (se nombra a los griegos) sin nombrar lo que ello supuso la civilización griega (colaboró en la
decadencia de esa cultura). Es lo que se dice "verdades a medias" (mentiras!). Consideró un tanto partidista, poco
imparcial.. no muy propio de la enciclopedia libre. — El comentario anterior es obra de 85.55.0.229 (disc. · contr.),
quien olvidó firmarlo. Suomi (Pase... está abierto) 16:13 6 jun 2007 (CEST)

¿La homosexualidad "colaboró en la decadencia de esa cultura"? Al menos deberías dar primero unos
argumentos. Esa concepción es, a mi parecer, muy subjetiva, por ello no creo que sería posible insertar eso
en el artículo. Si tú, tal y como está, dices que es poco imparcial, con lo que has dicho lo harías todavía más
imparcial. Además, aunque se diga que la homosexualidad se remonta a "tiempos remotos", es de saber que
en verdad la homosexualidad no existía, es decir, que no era visto como "anormal" (lo que no era normal
era que justamente no hubiera hombres que fueran con otros hombres) o diferente ni nada parecido (y ello
se puede demostrar en temas como la mitología, los famosos dibujos griegos,las orgías de emperadores, etc)
, por lo que no sería lógico decir que algo que en verdad no era ningún tabú y era visto de forma natural
ayudó a la decadencia de la cultura griega. No, no estoy de acuerdo con que se deba nombrar lo que has
dicho. Gracias a Dios, todos somos libres de opinar ^^Palak de la Vila 22:24 3 dic 2006 (CET)

Masturbación[editar]
En la sección sexualidad humana dentro del tema general Sexualidad, hay un último párrafo planteando que la
masturbación es dañina. ¡Nada más absurdo! Además, se contradice con los conocimientos suministrados por
wikipedia cuando buscamos la palabra Masturbación. Lauralhc

Fusión[editar]
Considero que el artículo debería de ser fusionado con Sexualidad humana, ya que, es de lo único que trata y gran
Deja un mensaje
cantidad de temas se repiten ¿ustedes que opinan?--LyingB Contribuciones 06:15 16 abr 2009 (UTC)

Concuerdo contigo. Este tema deberia ser eliminado a que aborda la sexualidad desde humana y no de la
sexualidad general ede los eres vivos. Además el articulo "sexualidad humana" ya existente es mucho
mejor. ~ Genoskill (discusión) 02:44 28 sep 2017 (UTC)

masturbacion[editar]
La verdad es mentira eso que dicen que es mala y dañina ,es mentira no es verdad .La verdad es que asta es buena
por que asi se previenen muchas cosas,como: las enfermedades de transmicion sexual , los embarazoz no deseados
iy muchas cosas mas. --Lady raxz (discusión) 01:11 4 sep 2009 (UTC)--Lady raxz (discusión) 01:11 4 sep 2009
(UTC)lady raxz 03 de sep del 2009.

Apartado borrado que deseo que se recupere[editar]


Un sondeo realizado en el Reino Unido con 1.000 jóvenes de distintos antecedentes y con edades comprendidas
entre 12 y 19 reveló que casi el cincuenta por ciento solía participar en alguna actividad sexual. Más del veinte por
ciento apenas tenía 12 años. El psiquiatra Dylan Griffiths, que dirigió la investigación, dice: “Las restricciones que
ejercían tradicionalmente la familia, la Iglesia y otras instituciones han desaparecido, lo que deja a los jóvenes
como víctimas desprotegidas”. ref: ¡Despertad!, de septiembre de 2009; ¿Cuáles son los problemas?.

Un equipo de investigadores, formado por R. Rector, L. Noyes y K. Johnson, estableció en 2003 una relación
directa entre estar sexualmente activo, la depresión y el incremento de las tentativas de suicidio. Tras efectuar
6.500 entrevistas, el equipo llegó a la conclusión de que “las chicas que están sexualmente activas tienen más del
triple de probabilidades de deprimirse que las que no lo están”, mientras que los chicos “tienen más del doble de
probabilidades”.ref: ¡Despertad!, de septiembre de 2009; ¿Cuáles son los problemas?.

Deseo que Rastrojo explique por qué no considera válido este apartado introducido. --88.31.16.36 (discusión)
19:27 27 feb 2010 (UTC)

¡Despertad! no es una fuente fiable—Ignacio Icke (aka Chabacano) 20:38 27 feb 2010 (UTC)

¿Dónde se indica expresamente esto que usted menciona?. ¡Despertad! ciertamente es una publicación global
editada seriamente y rigurosamente, con exactitud, fiabilidad y precisión internacional. Se edita en decenas de
idiomas y se distribuye en 236 países de toda la tierra. Su tirada media alcanza los 38.451.000 ejemplares en 82
idiomas (datos de 01/2010). Indique usted lo contrario por favor. ¿Cree usted que una publicación de esta
embergadura y magnitud puede permitirse el lujo de no ser fuente fiable? --88.31.16.36 (discusión) 20:46 27 feb
2010 (UTC)

Pues claro que no, una publicación tan sesgada como ¡Despertad! no es una fuente fiable. Rastrojo
Siémbrame 13:28 28 feb 2010 (UTC)

Copio de Wikipedia:Fuentes fiables:

1.
o Las fuentes fiables son materiales creíbles en cuanto a que están publicados bajo un proceso que
ofrece seguridad respecto de su veracidad; sus autores están generalmente considerados como
dignos de confianza o de autoridad en relación con el tema en cuestión.
o Fuentes independientes son aquellas creadas por personas o entidades no supeditadas a otras
personas o entidades. Su estilo tiende a ser de carácter neutral: están dirigidas a la mayor parte de la
sociedad. La propia Wikipedia, que se acoge a la política sobre neutralidad, tiene como objetivo
permanente constituir una fuente independiente.

Ni los autores de despertad están considerados dignos de confianza o de autoridad en relación al tema en cuestión,
ni están dirigidas a la mayor parte de la sociedad ni es independiente. ¡Despertad! puede servir de referencia al
punto de vista de los Testigos de Jehová sobre los temas, pero nada más.—Ignacio Icke (aka Chabacano) 15:39 28
feb 2010 (UTC)

Precisamente esta publicación es rigurosa y veraz. Esta publicación ofrece seguridad sobre su veracidad. Si cree
usted que no es así presente pruebas. Los autores de ¡Despertad! son considerados dignos de confianza y autoridad.
Si usted no lo cree, presente pruebas. Esta publicación es independiente y no está supeditada a otras personas y
entidades. Como que se distribuye de forma voluntaria y directamente a toda persona, está entonces dirigida a toda
la sociedad de todos estos países. Para cada artículo en cuestión se consultan a los mejores especialistas en el tema
y se hace una profunda investigación, nada de lo que se afirma en la revista ha sido probado como falso. ¿Creen
ustedes que lo que se dice que afirma Dylan Griffiths, que dirigió la investigación, y dice: “Las restricciones que
ejercían tradicionalmente la familia, la Iglesia y otras instituciones han desaparecido, lo que deja a los jóvenes
como víctimas desprotegidas”. Es falso? si usted tiene pruebas preséntelas. Todo lo que dice la revista es
verdadero, pues señala a estudios, autores, fechas y declaraciones específicas. Vaya por ejemplo a ver el artículo
Libro, el apartado El libro como indicador de celebridad, ha sido redactado por los testigos de Jehová, de la
revista Despertad, y al compararlo con el artículo de The Guardian, se observa que todo es verdad. Voy a recuperar
el apartado. --88.31.136.231 (discusión) 18:50 28 feb 2010 (UTC)

Pudor[editar]
"El pudor no indica miedo irracional a exponer el cuerpo. Supone mas bien respeto a lo más personal del hombre."
¿qué es pudor? Es ante todo el respeto a tu propio cuerpo y esencia. De ahí radica la forma en la que conduces tus
actos (tu forma de hablar, de vestir, de comunicarte, etc).

Propiedad comunitaria
Problemas de la página
Para otros usos de este término, véase propiedad colectiva.

La propiedad comunitaria, de activos u organizaciones, es aquella donde éstas se poseen y se controlan a través
de ciertos mecanismos deliberativos o de participación democrática que permitan a una comunidad ser parte de su
gestión, ya sea, usando o disfrutando de los beneficios que se presentasen con dicho activo. El desarrollo de la
propiedad comunitaria, como concepto y herramienta social, representa un símbolo de la emancipación colectiva
para diversas teorías políticas, económicas y sociales, tal como lo es, el anarcocomunismo, donde es base esencial
de este sistema. También se puede encontrar su defensa en otras corrientes anarquistas, socialistas y
anticapitalistas.

Índice
 Orígenes y fundamento para la propiedad comunitaria
 Posturas y visión anarcocomunista de la propiedad comunitaria
 Similitudes de la propiedad comunitaria frente al comunismo estatista
 Posición libertaria de mercado ante la propiedad pública
 Aplicación de la propiedad comunitaria
 Críticas a la propiedad comunitaria
 Referencias
 Véase también

Orígenes y fundamento para la propiedad comunitariaEditar


Para millones de personas, la sociedad moderna es un ente que no auspicia las actividades relacionadas con la
propiedad comunitaria, puesto que la actual vigencia del capitalismo como sistema-económico-mundial, impide, en
gran medida, posturas tan “radicales” como lo son la propiedad comunitaria. Pero aun así, y basados en las teorías
sociales y antropológicas, las cuales plantean que la sociedad no siempre ha sido como se presenta actualmente, se
concibe la idea de que la propiedad, más que un bien privado, es un bien público/colectivo.

Dentro del marxismo se describe el concepto de comunismo primitivo que fue un estado socioeconómico donde
diversos grupos humanos poseían en común los medios de producción y existía una distribución igualitaria de los
productos. “Antes del surgimiento del Estado y de que apareciese la desigualdad social, la gente vivió durante
miles de años en grupos sociales de pequeña escala y basados en parentesco, en que las instituciones fundamentales
para la vida económica incluyeron la propiedad colectiva o común de la tierra y de los recursos, la reciprocidad
generalizada en la distribución de alimento y las relaciones políticas relativamente igualitarias.”[1]

En una concepción kropotkiniana del apoyo mutuo, la propiedad comunitaria surge como necesidad de individuos
interdependentes para unir esfuerzos y cooperar:

[...] Se ha creado sobre la conciencia —aunque sea instintiva— de la solidaridad humana y de la dependencia recíproca de los
hombres. Se ha creado sobre el reconocimiento inconsciente o semiconsciente de la fuerza que la práctica común de
dependencia estrecha de la felicidad de cada individuo de la felicidad de todos, y sobre los sentimientos de justicia o de
equidad, que obligan al individuo a considerar los derechos de cada uno de los otros como iguales a sus propios derechos.

Piotr Kropotkin, Introducción a El apoyo mutuo

Dentro de estas sociedades primitivas es indudable pensar que la actividad junto con los actos colectivos eran
muchísimo más crucibles que la competencia individualista que se ve hoy en día en la sociedad del siglo XXI. “Se
esperaba que cada uno compartiera el alimento con los otros, de manera que ninguna vivienda (familia) sufriera a
causa del fracaso de una cosecha o de que tuviera más niños que las demás. El prestigio no se fundaba en la
cantidad de consumo individual, sino en la capacidad de ayudar a subsanar lo que le faltase a los otros.”[2]
Tomando en cuenta el altruismo social que imperaba sobre estos primeros grupos sociales, es claro, que para
algunos pensadores del movimiento anarcocomunista sea viable la instauración de la Propiedad Comunitaria como
un elemento básico e indispensable dentro de la vida social moderna.

Posturas y visión anarcocomunista de la propiedad comunitariaEditar


Conociendo este origen o surgimiento del ser humano con relación a sus actividades de producción dentro de la
historia del hombre; cabe señalar, que era inevitable que el pensar anarquista se plantease el conflicto acerca del
bien común dentro de los organismos sociales. Piotr Kropotkin, teórico anarcocomunista, señaló en su obra La
conquista del pan, el siguiente pensamiento acerca de la propiedad: "Todo se entrelaza: ciencia e industria, saber y
aplicación. Los descubrimientos y las realizaciones prácticas que conducen a nuevas invenciones, el trabajo
intelectual y el trabajo manual, la idea y los brazos. Cada descubrimiento, cada progreso, cada conjunción del
trabajo manual e intelectual del pasado y del presente. Entonces, ¿con qué derecho se apropia de la menor parcela
de ese inmenso todo y dice: "Esto es sólo mío y no de todos?"[3]

Con el fin de señalar el concepto y la necesidad de la propiedad comunitaria, el anarcocomunismo procura hacer
mención de las injusticias sociales en las que se ve afectado el proletariado debido a la legalización de la propiedad
individual en la sociedad. “El suelo, que precisamente saca su valor de las necesidades de una población que crece
sin cesar, pertenece hoy a minorías que pueden impedir e impiden al pueblo el cultivarlo o le impiden el cultivarlo
de acuerdo con los requerimientos actuales.”[4]

Según Karl Marx, precursor de las ideas marxistas y del comunismo en sí, postula que el Capitalismo sólo “se trata
de epidemia de la súper producción”,[5] por lo cual el proletariado, bajo este sistema, deberá someterse de manera
involuntaria al trabajo, debido a su falta de propiedad/activos dentro de la sociedad burguesa.

“En virtud de esta organización monstruosa, cuando el hijo del trabajador entra en la vida, no halla campo que
cultivar, máquina que conducir ni mina que acometer con el pico, si no cede a un patrón la mayor parte de lo que él
pueda producir. Tiene que vender su fuerza de trabajo por una ración mezquina e insegura.”[4] Conforme con el
anarcocomunismo, la propiedad comunitaria lograría evitar los roces de clases que existen en la sociedad, ya que
no habría distinción ni clasificación en cuando al uso de las diversos recursos de producción que el conocimiento
humano ha alcanzado a través de los años de historia. Procurando dar algún tipo de visión social, Kropotkin, afirma
que: "Toda sociedad que rompa con la propiedad privada se verá forzada, según creemos, a organizarse de acuerdo
con el comunismo anárquico",[6] lo cual, eventualmente, haría alusión con la propiedad comunitaria, eliminando de
manera absoluta la propiedad privada y el capital.

Similitudes de la propiedad comunitaria frente al comunismo


estatistaEditar
Para muchos anarquistas el comunismo, al igual que el capitalismo, son fuerza que cuartan las libertades
individual, es por esto que pueden existir ciertas discusiones sobre el verdadero sentido del “anarcocomunismo” y
su propiedad y relevancia con las teorías del anarquismo. Pero dentro de los estudios que se desarrollan, surge un
señalamiento por parte del concepto de comunismo anárquico; pues, al comunismo que se hace alusión no es el que
procura construir un sistema estatista sobre la sociedad, más bien, plantea que el anarquismo debe procurar el
comunismo ideal.

Teóricamente hablando, el Manifiesto del Partido Comunista, al igual que el anarcocomunismo denota una serie de
similitudes, en cuando, al interés de instaurar la propiedad comunitaria como un sistema económico. Según el
manifiesto, "ser capitalista significa ocupar no sólo una posición puramente personal en la producción, sino
también una posición social. El capital es un producto colectivo; sólo puede ponerse en movimiento mediante la
actividad conjunta de muchos miembros de la sociedad, y en última instancia, sólo por la actividad conjunta de
todos los miembros de la sociedad. El capital no es, por tanto, una fuerza personal; es una fuerza social."[7] Es
evidente, que de la misma forma que el anarcocomunismo se ampara en las ideas colectivistas para alcanzar el
mecanismo económico de propiedad comunitaria, el comunismo no estatista, se asemeja a su visión. Sin embargo
varían en los métodos para alcanzar los objetivos.

Posición libertaria de mercado ante la propiedad públicaEditar


Pese a que los anarcocapitalistas de derechas como Hans-Hermann Hoppe y Walter Block escriban sobre un punto
óptimo donde toda la propiedad se encontraría privatizada varios libertarios influidos por las perspectivas clásicas
rechazan esta posición. Roderick Long en A plea for public property (en inglés) parte del concepto lockeano de
homestead para explicar que la única opción legítima y práctica para los espacios comunes es mantenerse en
dominio público. Al ser resultado de la apropiación y el mantenimiento colectivo las calles, rutas, plazas, lugares
comunitarios, etc... pertenecen a los habitantes que los usan. Esto no es sinónimo de propiedad estatal, más bien
entra en oposición a que la minoría que gobierna disponga de los bienes comunes.

Aplicación de la propiedad comunitariaEditar


Hay ejemplos de esto en Escocia, en las islas de Eigg y Assynt. Otras formas de propiedad comunitaria son los
ejidos, tierras comunitarias que pueden ser usufructuadas particularmente sin perder su estatus de bien social,
aparece en algunos lugares de Latinoamérica con mayor tradición indígena.

Críticas a la propiedad comunitariaEditar


Para algunos anarquistas creyentes en la economía de mercado y en el anarquismo individualista los posibles
planteamientos en contra que se puede hacer acerca la propiedad comunitaria, puede deberse al alejamiento propio
del anarcocomunismo, procursor de esta idea, con relación al ideal clásico del Anarquismo, el cual procura evitar
las acciones de nivel colectivo; pues las entiende como una herramienta de opresión en cuando al deseo individual
de cada sujeto dentro de la sociedad. De todas formas anarco-individualistas como Oscar Wilde rechazan la
propiedad privada como garante de la individualidad, como se puede observar en su obra El alma del hombre bajo
el socialismo.[8]
Comunidad
Problemas de la página
grupo o conjunto de individuos que comparten elementos en común
Para otros usos de este término, véase Comunidad (desambiguación).

Un ejemplo de Comunidad de intereses sin duda fue Stonehenge en Inglaterra.

¿Hasta qué punto los participantes en las actividades conjuntas experimentan un sentido de comunidad?

Una comunidad es un grupo de individuos que tienen ciertos elementos en común, tales como idioma, costumbres,
valores, tareas, visión del mundo, edad, ubicación geográfica (un barrio, por ejemplo), estatus social y/o roles. Por
lo general, en una comunidad se crea una identidad común, mediante la diferenciación con otros grupos o
comunidades (generalmente por signos o acciones), que es compartida y elaborada entre sus integrantes y
socializada. Generalmente, una comunidad se une bajo la necesidad o mejora de un objetivo en común, como
puede ser el bien común; aunque esto no es algo absolutamente necesario, pues basta una identidad común para
conformar una comunidad, sin necesidad de plantearse un objetivo específico.

Una comunidad también puede referirse a una sociedad en unión, ya sea tanto personas como animales que son
también seres vivos y pueden realizar una comunidad como las personas.

Por extensión, también se llama comunidad a un conjunto de animales (o de cualquier otro tipo de vida) que
comparten ciertos elementos.

En términos de administración o de división territorial, una comunidad puede considerarse una entidad singular de
población, una mancomunidad, un suburbio, etc.

La creación práctica de un sistema de vida con personas que viven juntas no es una casualidad sino una necesidad
para subsistir en el logro de objetivos comunes, otra característica es que debe ser auto-suficiente en medios de
producción y en algunos casos en capacidad de defensa. Es un grupo autárquico. Probablemente debe incluir muy
poca gente para poderles controlar dentro del territorio. Seguramente el nivel de cambio social no será muy grande.
La interdependencia muy necesaria. El sistema social será muy obvio y predecible. Los valores pudieran ser
opresivos. La especialidad productiva será básica para poder sobrevivir, habrá muchos bienes que no puedan ser
suplidos por la comunidad y deberán de adquirirse desde fuera de ella. El tipo de gobernabilidad sería de asamblea
y democrático. Tendría un nivel de servicios mínimo para poder dedicar el mayor número de recursos a la
actividad principal y el número de personas (o familias) que lo componen, probablemente como máximo de unos
pocos cientos.

Ejemplos de comunidades utópicas o comunas fueron las creadas por socialistas utópicos como Charles Fourier,
Robert Owen, Étienne Cabet y otros en los Estados Unidos durante el siglo XIX.

El antropólogo español Javier León ha dedicado un amplio estudio en su tesis doctoral sobre Comunidades
Utópicas de todos los tiempos. Véase su libro "Apoyo Mutuo y Cooperación en las Comunidades Utópicas".

Como se ha observado la categoría de comunidad presenta variadas expresiones, conceptos y representaciones que
corresponden a distintos enfoques teóricos y de saberes populares, asimismo hay una infinidad de comunidades en
lo real, por tanto es necesario identificar desde dónde se refiere a comunidad, problematizar el término, sus
significados en las prácticas de las instituciones públicas, privadas, en las organizaciones sociales, políticas,
religiosas, académicas, entre otras desde las cuales se refiere a lo comunitario con fines distintos y hasta
contrapuestos. Usualmente y de manera irreflexiva la palabra “comunidad”, se le “identifica con formas unitarias y
homogéneas de vida social en las que prevalecen rasgos, intereses y fines comunes. Por lo general se le asocia a un
territorio pequeño (barrio, localidad) o una población homogénea (pobladores, beneficiarios de un programa,
usuarios de un servicio), generalmente pobre o marginal, que comparte alguna propiedad (necesidades, intereses,
ideales). Dicha imagen unitaria y esencialista de comunidad invisibiliza las diferencias, tensiones y conflictos
propios de lo colectivo o entidad social.” Torres Carrillo (2013: 12)

Es probable que tal simplificación de lo comunitario se utilice para justificar la aplicación de políticas públicas, de
programas e intervenciones sobre las comunidades por parte de dependencias gubernamentales, filantrópicas e
incluso universitarias, sin embargo, así concebida la comunidad, representa una imagen fallida de unidad en la que
se invisibilizan las relaciones sociales en tensión tales como los conflictos socioambientales por el uso y
apropiación de los recursos naturales y construidos, por lo cual se expresan relaciones de poder en lo social, lo
político, y en lo económico.

El contexto histórico social es el que funda la existencia de multitud de comunidades, en el contexto


latinoamericano actual Torres Carrillo plantea la categoría de la comunidad como resistencia y utopía en caminos
distintos a la racionalidad económica dominante. Se reconocen las comunidades ancestrales o emergentes, cuyas
prácticas reafirman sus valores culturales, formas sociales e ideales políticos, por ejemplo, los pueblos indígenas.
Así pensamos en Cherán, Michoacán, cuyos pobladores se han organizado en la defensa de sus bosques y de su
seguridad, no sin dificultades de respeto a sus derechos culturales y territoriales por parte del estado.

De manera general, Raúl Olmedo (2013) ubica a la comunidad como: el territorio que comparten las personas y
las familias en la vida cotidiana, se identifican procesos socioculturales singulares como en México donde existe
una larga tradición de organización vecinal o comunitaria, particularmente en los pueblos indígenas o bien en
barrios urbano-populares. Así se encuentra que la satisfacción de las necesidades locales se genera con la
organización comunitaria.

Comunidad es más que un grupo, es la complejidad de relaciones sociales de una población entre sí, con su
territorio local y el ecosistema, con las poblaciones del ámbito municipal, y con contextos socioambientales más
amplios que la propia localidad. En el territorio local se expresan las relaciones de poder en tensión de diferentes
grupos y clases sociales, así como relaciones de cohesión para distintos fines colectivos. Integra diversas formas
organizativas para atender sus necesidades vitales, cuenta con una estructura organizativa de instituciones públicas,
de organizaciones sociales, de organismos privados, ayuntamiento municipal, agencia, delegación política,
subdelegación, centro de salud, escuelas, mercados, asociaciones civiles, entre otras.
La comunidad no es estática, es movimiento, sufre crisis, se reorganiza, hay épocas de resistencia, y de búsqueda
de alternativas comunes localmente y de manera autónoma. Sus procesos socioambientales, socioculturales,
socioeconómicos son singulares que las distinguen de otras comunidades, aunque la comunidad llega a presentar
expresiones de procesos más amplios como las formas globales dominantes del consumo y desecho generalizadas
por la modernidad que trastocan su integridad vital en su salud, su cultura, la economía y en los ecosistemas. Desde
las tres últimas décadas del siglo XX hasta la actualidad se ha extendido la introducción de alimentos
industrializados y bebidas embotelladas que han generado drásticos efectos en la salud comunitaria de localidades
rurales y urbanas, así como enormes cantidades de residuos sólidos en el ambiente; las intervenciones de
megaproyectos de extracción minera, petrolera o de supercarreteras ha provocado contaminación ambiental
degradando los mantos acuíferos, deforestación y con ello procesos de abandono de prácticas agrícolas de
autosuficiencia alimentaria y de migración en busca de fuentes de empleo.

Frente a estas y otras situaciones amenazadoras a la vida de las poblaciones locales, resurge el sentido comunitario,
la identidad a la cultura, a las artes, a la comida tradicional, se busca defender la biodiversidad de las semillas, las
relaciones ancestrales y renovadas de solidaridad como el tequio y la participación ciudadana, expresiones que
representan un camino distinto a las fallas del mercado, a la incertidumbre de la violencia. La recreación
comunitaria, la construcción de normas, de acuerdos comunes sobre la base de la participación de hombres, de
mujeres en condiciones de igualdad y equidad son emergentes a estudiar, conocer, reconocer y experimentar, al
igual que la necesidad de renombrar lo que significa comunidad, sobre

CIENCIAS SOCIALES

Movimiento social
De Wikipedia, la enciclopedia libre
Ir a la navegaciónIr a la búsqueda
«Movimiento ciudadano» redirige aquí. Para el partido político mexicano, véase Movimiento Ciudadano (partido
político).

Asamblea de Indignados en 2012.

Un movimiento social es un grupo no formal de individuos u organizaciones que tiene como finalidad el cambio
social. Durante el siglo XIX, el concepto de movimiento social estaba ligado a un tipo de cambio social particular
(revolucionario) y a un fin específico (la instauración de un régimen socialista o comunista), así como a una
identidad en concreto (identidad de clase) y a un grupo social en particular (la clase obrera).1 A lo largo del siglo
XX, el término comenzó a utilizarse para englobar movimientos que se sitúan en diferentes contextos, en esferas
tan distintas como la cultural, social, política, económica o personal, y cuya composición incluye a clases, sectores
o colectivos como obreros, campesinos, mujeres, estudiantes, vecinos y grupos étnicos.2

Índice
 1 Definición
 2 Historia
 3 Tipos de movimiento social
 4 Concepciones teóricas
 5 Participantes
 6 Movimientos y medios de comunicación
o 6.1 Medios de comunicación de masas
o 6.2 Nuevos medios
 7 Véase también
 8 Referencias
 9 Bibliografía
 10 Enlaces externos

Definición[editar]
En su idea más general, movimiento social es definido como “una forma de acción colectiva no efímera, en la cual
un grupo más o menos organizado recurre a acciones extra institucionales a fin de promover o impedir ciertos
cambios".3

En el campo político de la palabra, el término se utiliza para referirse a un grupo transitorio de personas que busca
la defensa ocasional de un principio, una tesis o de un orden determinado de intereses. Este grupo es de naturaleza
transitoria y desaparece una vez logrado su objetivo4.

El concepto de movimiento social es resultado de la síntesis innovadora y trascendental de tres elementos:

1. Campañas: esfuerzo público por trasladar a las autoridades pertinentes las exigencias colectivas.
2. Repertorios: creaciones de coaliciones y asociaciones con un fin específico, reuniones públicas,
manifestaciones, declaraciones a y en los medios públicos, propaganda.
3. Demostraciones WUNC: Valor (en inglés Worthiness), conducta sobria, atuendo cuidado; Unidad,
insignias idénticas, pancartas; Número, recuento de asistentes, firma de peticiones; y Compromiso,
desafiar al mal tiempo, participación visible.5

Historia[editar]
Los movimientos sociales como estructuras de cambio social surgieron históricamente como consecuencia de
distintas crisis sociales y presentaron distintas orientaciones ideológicas: tanto revolucionarias como reaccionarias,
y todos los estadios intermedios hasta los marginados, a veces identificados con un campo político más o menos
concreto, y en otras ocasiones de forma interclasista y multipartidista.

Algunos ejemplos de estos movimientos son el movimiento feminista, movimiento ecologista, el movimiento
obrero, el movimiento pacifista o antimilitarista, o, más reciente en su surgimiento, el movimiento okupa y el
movimiento antiglobalización.

El término fue introducido al vocabulario académico por Lorenz von Stein en 1846 ("Historia de los Movimientos
Sociales Franceses desde 1789 hasta el Presente (1850)"). Stein entiende un movimiento social básicamente como,
una aspiración de sectores sociales (clases) para lograr alguna influencia sobre el Estado, debido a las
desigualdades económicas. Así por ejemplo, la aspiración del proletariado a lograr representación en los sistemas
de gobierno. El libro ha sido traducido al inglés (por ejemplo, Bedminster Press in 1964) pero no totalmente al
castellano.6
La vocación de los movimientos sociales es muy grande por su diversidad, por sus muchos objetivos, desde su
auge en la década de 1960. Su prestigio también es grande. Es una de las vías lógicas de participación ciudadana.
No son fundaciones sociales u organizaciones no gubernamentales (ONG), que son unidades asistenciales.

Marcha sobre Washington por el trabajo y la libertad, donde Martin Luther King pronunció su famoso discurso
"Yo tengo un sueño (I have a dream)".

El concepto revivió en Alemania hacia los años 1970 con la formación de los grupos de acción cívica
(Bürgerinitiativen). Los movimientos sociales rara vez confluyen en un partido político; su labor se basa en
presionar al poder político mediante reivindicaciones concretas o en crear alternativas. Estas alternativas o
reivindicaciones se convierten en su principal identidad, sin tener que llegar a plasmar un ideario completo. De
acuerdo con Hangan, existen cinco tipos de relaciones entre los movimientos sociales y los partidos políticos:
articulación, permeabilidad, alianza, independencia y transformación. Las primeras dos limitan seriamente la
autonomía del movimiento; las últimas dos son menos restrictivas.7

Son el equivalente a acción afirmativa o grupo de presión para la modificación de la opinión pública y de las
políticas públicas (similar al lobby -cabildeo-). Tienen un carácter de permanencia en el tiempo y con un número
de personas representativo, con relación a los que sufren o ignoran el problema. Su recuerdo histórico es muy
antiguo, por ejemplo, los Comuneros de Castilla. Son algunas veces el nacimiento de una idea con líderes
carismáticos memorables y su génesis puede derivar hacia un movimiento o iniciar una revuelta o, más
contundentemente, una revolución, como la Revolución mexicana y asimismo la eventual plataforma para un
partido hacia el poder.

Es una forma instantánea y continuada de insertarse en el ámbito político, con inicialmente poco esfuerzo
organizativo, sin pertenecer a él, pero sí con fuerza de cambio político, como la restauración de la democracia
perdida en regímenes autoritarios. Su análisis incluye su objetivo, el tipo de clientela y es interesante el desarrollo
de su proceso organizativo. El impacto en la sociedad es desde meramente presencial, como una fuerza de choque
perturbadora, o hasta resultar muy definitorio, como grupos de interés y presión hacia el poder instituido. Deben
cuidar su progreso organizativo para ser eficaces y continuar perseverando y merecerse el honor de coartífices de
eventos democráticos en las instituciones u otros más modestos, como la información de los ciudadanos.

Tipos de movimiento social[editar]


Los cientistas sociales distinguen entre varios tipos de movimientos sociales:

Alcance:

 reformista: movimientos que abogan por cambiar algunas normas o leyes. Ejemplos de tal movimiento
incluirían un sindicato con el objetivo de aumentar los derechos de los trabajadores, un movimiento
ecologista que defienda un conjunto de leyes ecológicas, o un movimiento que apoye la introducción de la
pena capital o el derecho al aborto. Algunos movimientos de reforma pueden aspirar a un cambio en las
normas de costumbre y morales, como la condena de la pornografía o la proliferación de alguna religión.
 radical: movimientos dedicados a cambiar los sistemas de valores de una manera fundamental. Los
ejemplos incluirían el movimiento de Solidaridad polaca (Solidarność) que exigía la transformación de un
sistema político y económico estalinista en una democracia; o el movimiento sudafricano de moradores de
cabañas Abahlali baseMjondolo, que exige la inclusión total de los habitantes de las chozas en la vida de las
ciudades.

Tipo de cambio:

 innovador: movimientos que quieren introducir o cambiar normas particulares, valores, etc. El movimiento
de singularitarianismo, que aboga por acciones deliberadas para lograr y garantizar la seguridad de la
singularidad tecnológica es un ejemplo de movimiento de innovación.
 conservador: movimientos que quieren preservar las normas, valores, etc. existentes. Por ejemplo, el
movimiento ludista antitecnología del siglo XIX o el movimiento moderno que se opone a la propagación
de los alimentos modificados genéticamente podrían considerarse movimientos conservadores, en el sentido
de que tienen como objetivo luchar contra cambios específicos.

Objetivos:

 grupales: enfocados en grupos que afectan a la sociedad en general, por ejemplo, abogando por el cambio
del sistema político. Algunos de estos grupos se transforman o se unen a un partido político, pero muchos
permanecen fuera del sistema político del partido reformista.
 individuales: se centran en afectar a las personas. La mayoría de los movimientos religiosos caerían bajo
esta categoría.

Métodos:

 pacíficos: varios movimientos que utilizan medios no violentos de protesta como parte de una campaña de
resistencia no violenta, también llamada resistencia civil. El movimiento por los Derechos Civiles de los
Estados Unidos, el movimiento de Solidaridad de Polonia o el ala no violenta del movimiento de
independencia de la India orientado hacia la desobediencia civil entrarían en esta categoría.
 violentos: varios movimientos que recurren a la violencia; generalmente están armados y en casos extremos
pueden tomar la forma de una organización paramilitar o terrorista.

Viejo o nuevo:

 antiguos: los movimientos para el cambio han existido durante muchos siglos. La mayoría de los
movimientos más antiguos reconocidos, que datan de fines del siglo XVIII y XIX, lucharon por grupos
sociales específicos, como la clase trabajadora, los campesinos, los blancos, los aristócratas, los protestantes
y los hombres. Por lo general, se centraban en algunos objetivos materialistas, como mejorar el nivel de
vida o, por ejemplo, la autonomía política de la clase trabajadora.
 nuevos: movimientos que se volvieron dominantes a partir de la segunda mitad del siglo XX. Ejemplos
notables incluyen el feminismo de la segunda ola, el movimiento por los derechos de los homosexuales, el
ecologismo y los esfuerzos de conservación, la oposición a la vigilancia masiva, etc. Generalmente se
centran en cuestiones que van más allá pero no están separadas de la clase.
Extensión:

 globales: movimientos sociales con objetivos y metas globales (transnacionales). Movimientos como la
primera internacional (donde se encontraron Marx y Bakunin), la segunda, tercer y cuarta internacionales,
el Foro Social Mundial, la Acción Global de los Pueblos y el movimiento anarquista buscan cambiar la
sociedad a nivel global.
 locales: la mayoría de los movimientos sociales tienen un alcance local. Están enfocados en objetivos
locales o regionales, como proteger un área natural específica, cabildear para bajar los peajes en una
autopista determinada o preservar un edificio a punto de ser demolido para su gentrificación y convertirlo
en un centro social.

Concepciones teóricas[editar]
Artículo principal: Teoría de los movimientos sociales

Se han desarrollado varias teorías relacionadas con los movimientos sociales. Algunos de los enfoques más
conocidos son los siguientes:

 comportamiento colectivo
 teoría de la privación
 teoría de la sociedad de masas
 teoría de la tensión estructural
 teoría de movilización de recursos
 teoría del proceso político
 perspectiva de encuadre
 nuevos movimientos sociales

Participantes[editar]
Una dificultad para entender los movimientos sociales es que, para la mayoría de ellos, ni los iniciados a un
movimiento ni los de afuera aplican etiquetas consistentes o incluso frases descriptivas. A menos que haya un solo
líder que haga eso, o un sistema formal de acuerdos de membresía, los activistas típicamente usarán diversas
etiquetas y frases descriptivas que requieren que los académicos disciernan cuándo se están refiriendo a las mismas
ideas o similares, declaran objetivos similares, adoptan programas similares de acción u utilizan métodos similares.
Puede haber grandes diferencias en la forma en que se reconoce quién es y quién no es miembro o un grupo aliado:

 Partidarios: a menudo exageran el nivel de apoyo al considerar personas que apoyan cuyo nivel de actividad
o apoyo es débil, pero también rechazan aquellos que los foráneos podrían considerar partidarios porque
desacreditan la causa, o incluso son vistos como adversarios.
 Antagonistas: Aquellos que no son partidarios y que pueden tender a subestimar o sobreestimar el nivel o el
apoyo o la actividad de los elementos de un movimiento, al incluir o excluir aquellos que los iniciados
excluirían o incluirían.

A menudo son personas externas, en lugar de personas con información privilegiada, las que aplican las etiquetas
de identificación para un movimiento, que los iniciados pueden o no adoptar y usar para autoidentificarse. Por
ejemplo, la etiqueta para el movimiento político nivelador en la Inglaterra del siglo XVII les fue aplicada por sus
antagonistas, como un término peyorativo. Sin embargo, los admiradores del movimiento y sus objetivos más tarde
llegaron a utilizar el término, y es por el cual se les conocen en la historia.

Se debe tener precaución siempre en distinguir entre los puntos de vista de personas internas y externas, partidarios
y antagonistas
El Tribunal Supremo Electoral (TSE) aprobó y difundió ayer una lista de ocho requisitos que los
ciudadanos interesados en postular para las elecciones del 29 de marzo deben cumplir para inscribir sus
nombres como parte de alguna organización política.

De acuerdo con el boletín, las organizaciones políticas deberán presentar los documentos habilitantes
desde el 30 de diciembre del 2014 al 4 de enero del 2015.

Los requisitos definidos por el TSE son los siguientes:

1. Certificado de nacimiento original actualizado.

2. Fotocopia simple de cédula de identidad.

3. Declaración voluntaria ante Notario de Fe Pública que acredite residencia de forma permanente en el
departamento, región o municipio correspondiente, al menos dos años inmediatamente anteriores a la
elección y Certificado actualizado de estar inscrita o inscrito en el Padrón Electoral Biométrico en el lugar
donde se postula, emitido por el Servicio de Registro Cívico (Sereci).

Cualquiera de los siguientes documentos para acreditar el cumplimiento de los deberes militares:

4. Libreta de Servicio Militar en Original, en cualquiera de sus modalidades. O, copia legalizada de la


Libreta de Servicio Militar, extendida por la Dirección General Territorial Militar o Regiones Militares.

6. Certificación Especial de la Libreta de Servicio Militar, extendida por la Dirección General Territorial
Militar o Regiones Militares

7. Certificado de Solvencia Fiscal, extendido por la Contraloría General del Estado, en original y
actualizado.

8. Certificado Antecedentes Penales, extendido por la Dirección Nacional del Registro Judicial de
Antecedentes Penales (Rejap) dependiente del Consejo de la Magistratura, en original y actualizado.

9. Declaración voluntaria ante Notario de Fe Pública de no estar comprendida ni comprendido en los


casos de prohibición y de incompatibilidad establecidos en la Constitución.

Certificado emitido por el Sistema Integral Plurinacional de Prevención, Atención, Sanción y Erradicación
de la Violencia en razón de Género – Sippase del Ministerio de Justicia, o Declaración voluntaria ante
Notario de Fe Pública de no tener antecedentes de violencia ejercida contra una mujer o cualquier
miembro de su familia, que tenga sentencia ejecutoriada en calidad de cosa juzgada.

13 NEOLIBERALISMO EN BOLIVIA

1. 1. ¿QUE ES NEOLIBERALISMO? Es un término que se define como aquella teoría política con la que se
pretende lograr la máxima reducción de la intervención del Estado. Se encuentra asociado al libre mercado
y al capitalismo, en términos económicos.
2. 2. 1. CARACTERISTICAS DEL AMBITO POLITICO La estrategia neoliberalista abarca varios puntos en
el ámbito Político , tales como:  La privatización: intentado eliminar las deficiencias de las empresas
públicas con el objetivo de proponer un mayor interés de desarrollo productivo. El sector privado llega a ser
el dominante.  Restaurar los precios de mercado en las utilidades: intentando estimular a los productores a
animarse producir mas.  La liberación total del comercio exterior.  La configuración de un sistema
jurídico: que proteja y garantice eficazmente la propiedad y los beneficios del esfuerzo empresarial, con
cargas fiscales escasas.  Reducción del Estado: buscando disminuir su intervención en los medios de
producción, con la única finalidad de cumplir las “reglas del juego”.
3. 3. 2. CARACTERISTICAS DEL AMBITO ECONOMICO El nuevo modelo económico en Bolivia
contempla la economía plural que consiste en un modelo económico, social, comunitario y productivo, y
está constituida por las formas de organización económica, comunitaria, estatal, privada y social
cooperativa. Existen distintos modelos de producción (pre-capitalista, capitalista y la propiedad social), los
cuales determinan una economía mixta donde el Estado ejerce la dirección integral del desarrollo
económico y sus procesos de planificación. El Estado tiene fuerte presencia diredcta en la economía, a
través de las empresas públicas y estratégicas para garantizar una economía solida y para la provisión de
alimentos de consumo masivo.
4. 4. La intervención del Estado en sectores estratégicos, va ligado al Plan Nacional de Desarrollo y genera
mayor espacio para el desarrollo de la actividad privada campesina, comunitaria y empresarial, lo que se
expresa en menores presiones fiscales, monetarias, y por ende aumenta la oferta interna y las exportaciones.
La meta –dicen- fue detener la inflación y llevarnos en forma austera hacia el progreso ya sea mediante
incentivos a la empresa nacional o bien mediante la exportación y venta de nuestros recursos nacionales. El
camino que eligieron es evidente y los resultados los miramos día a día.
5. 5. 3. CARACTERISTICAS DEL AMBITO SOCIAL En estos años se produjeron mas de un millar de
huelgas: • Lucha organizada por medio de sindicatos.  La guerra del agua  los bloqueos  la guerra del
gas • la libre contratación (despidos) • el control de la hiperinflación (dolarización) veamos ahora los
resultados: Corrupción estatal, cuoteo político, dietas parlamentarias, déficit estatal permanente, desempleo
alarmante, aumento al 60% del trabajo informal, desmantelamiento de las empresas capitalizadas,
impuestazo.
6. 6. 4. IDEOLOGIA IMPERANTE El “Neoliberalismo” es una doctrina político económica así como
también es ideológica que surge en la década de los 80 a partir de la crisis del populismo nacional y la
derrota del socialismo, esto a nivel nacional, El neoliberalismo nace después de la Segunda Guerra
Mundial, específicamente en Europa Occidental donde la economía estaba muy desarrollada y no así en
América, pues los grandes inversionistas y las grandes empresas son las principales impulsoras de esta
ideología. Pero también se puede decir que esta ideología es una política reaccionaria en contra del modelo
del intervencionismo estatal, pues al ser una política liberal donde tiene sus raíces, esta es una nueva
política donde no acepta intromisiones por parte del Estado, mostrando así una figura de independencia y
libertad, sobre todo en el campo económico.

Neoliberalismo
De Wikipedia, la enciclopedia libre
Ir a la navegaciónIr a la búsqueda
En el plano económico, se asocia a Milton Friedman (1ª imagen) y al Austríaco Friedrich von Hayek (2ª imagen)
como los principales exponentes de lo que se ha venido a llamar neoliberalismo, mientras que en el plano político
el presidente de Estados Unidos Ronald Reagan, junto a la antigua primera ministra británica Margaret Thatcher.

El neoliberalismo —también llamado nuevo liberalismo— es una corriente económica y política capitalista,
inspirada y a la que se atribuye en ocasiones el resurgimiento de ideas asociadas al liberalismo clásico (laissez
faire) o primer liberalismo desde las décadas de 1970 y 1980, aunque existe información que data la aparición del
término desde la década de 1930 con el significado de un liberalismo clásico reformado y amigable con algún nivel
limitado de intervencionismo.123 El término neoliberalismo en el presente suele ser asociado con políticas que
implican apoyar una amplia liberalización de la economía, el libre comercio en general, grandes reducciones del
gasto público y de impuestos así como disminución de la intervención del Estado en la sociedad y economía en
favor del sector privado conformado principalmente por consumidores y empresarios, estos últimos quienes
podrían pasar a desempeñar roles que en determinados países asume y financia el Estado con impuestos del
contribuyente.45657 Sin embargo, el uso y definición del término ha ido cambiando con el paso del tiempo y en la
actualidad no hay un criterio unificado para determinar qué es «neoliberalismo», por lo que generalmente se lo
utiliza como un término asociado a la derecha o ultraderecha y es empleado, principalmente por aquellos afines a la
izquierda política, para englobar una gran diversidad de ideas muy dispares presentes dentro de los espectros del
liberalismo, conservadurismo, feudalismo o fascismo. 897101112

Originalmente el neoliberalismo era una filosofía económica surgida entre los eruditos liberales europeos en la
década de 1930 que trataban de encontrar un «tercer camino» o un «camino entre medias» de la disputa que en ese
momento se libraba entre el liberalismo clásico y la planificación económica propuesta por el socialismo.13 El
impulso de desarrollar esta nueva doctrina surgió del deseo de evitar nuevos fracasos económicos tras la Gran
Depresión y el hundimiento económico vivido en los primeros años de la década de 1930, fracasos atribuidos en su
mayoría al liberalismo clásico. En las décadas siguientes la teoría neoliberal tendió a estar en contra de la doctrina
laissez-faire del liberalismo, promoviendo una economía de mercado tutelada por un Estado fuerte, modelo que
llegó a ser conocido como la economía social de mercado. Sin embargo, el neoliberalismo con algunas de las
variantes por las que en la actualidad se le reconoce tiene su origen en la llamada Sociedad Mont Pélerin formada
en Suiza a fines de la década de los 40 por iniciativa de economistas como Friedrich von Hayek o Ludwing Von
Mises. Allí se reunieron algunos de sus principales pensadores, como Karl Popper o Henry Hazlitt. La Sociedad
Mont Pelerin es una asociación multidisciplinaria creada, en palabras de sus propios fundadores y seguidores, para
preservar los derechos humanos amenazados por la difusión de ideologías relativistas y afines a la extensión del
poder arbitrario.14 No obstante, en la práctica, la SMP estuvo conformada por individuos con ideas muy divididas
en cuanto a la libertad e intervencionismo como relató el propio Milton Friedman respecto a Ludwig von Mises
quien en el primer encuentro celebrado por la Mont Pelerin Society, en el año 1947, en un punto del debate sobre la
distribución del ingreso y un sistema tributario progresivo Mises se levantó, se dirigió a los presentes, entre quienes
se encontraban Hayek, y proclamó «todos ustedes son un grupo de socialistas»; y salió de la habitación.15 También
se aprecia esta división de ideas en lo que recoge Jorg Guido Hulsmann en su ensayo “Contra los neoliberales”16:
La coexistencia dentro de la Sociedad Mont Pèlerin de grupos con orientaciones tan distintas era conocida por sus miembros. También era
bastante evidente incluso para las incorporaciones. Un buen ejemplo fue Jean-Pierre Hamilius, un joven catedrático de empresa y
economía en Luxemburgo, a quien Mises conocía por correspondencia. [...] El joven catedrático de Luxemburgo estuvo tomando notas y
discutiendo ansiosamente los planes intervencionistas de diversos miembros que no eran todavía parte de “la vieja guardia”. Así, John van
Sickle proponía gravar a los herederos ricos, Wilhelm Röpke estaba a favor de subsidios a los propietarios de viviendas y Otto Veit
argumentaba que unos impuestos más duros no impedirían que los empresarios trabajaran. 17

En la década de 1960, el uso del término disminuyó en gran medida. Aunque se reintrodujo de nuevo en la década
de 1980, debido a las reformas económicas realizadas en Chile durante la dictadura de Augusto Pinochet quien,
aunque inicialmente tuvo una mirada estatista, en medio de la crisis con una inflación de aproximadamente 340% y
escasez de productos decide recibir economistas de la llamada Escuela de Chicago, quienes impulsarían y
supervisarían las reformas en el plano económico; luego se conocerían como los Chicago Boys.18 A partir de aquí,
el término empezó a adoptar connotaciones peyorativas y a ser empleado por los críticos de estas reformas y, al
tiempo que el neoliberalismo se comenzó a asociar con una postura liberal moderada a una más radical que incluía
la defensa a ultranza del laissez-faire. Aunque los defensores de estas ideas, no así de la dictadura, alegan que la
mayoría de políticas económicas se conservaron en los subsiguientes gobiernos democráticos gracias al aumento de
bienestar y disminución de la pobreza resultante de esas reformas económicas, el llamado Milagro de Chile19202122
Debido a las medidas económicas adoptadas por la dictadura el término neoliberal es a menudo asociado a los
trabajos de los economistas liberales Friedrich Hayek y Milton Friedman, especialmente en el caso de este último,
aunque ellos eran críticos del neoliberalismo.7 También representa y se asocia al conjunto de políticas económicas
introducidas por Margaret Thatcher en el Reino Unido y Ronald Reagan en los Estados Unidos.2 Una vez que se
estableció el nuevo significado del término entre los estudiosos de habla hispana, pronto empezó a ser habitual en
los estudios económicos y políticos de autores anglosajones. Sin embargo, el concepto acuñado y usado en la
actualidad sigue siendo objeto de rechazo entre los autodenominados liberales contemporáneos, debido a lo
ambiguo y/o confuso de su definición, utilización y connotaciones negativas asociadas.237

Para el otro sector de críticas, muchas de las medidas acusadas de neoliberales, entre las que se incluyen la
globalización, lejos de ser negativas han sido las que han empujado a los países que se adherían a ellas un
crecimiento medio 1,5 puntos superior al de aquellos otros países que no lo hicieron. [cita requerida]Para estos grupos,
en su mayoría liberales, ha quedado demostrado que los países que más se adhirieron a lo que se conoce
popularmente cómo "neoliberalismo globalista" tienen menos pobreza extrema que los que no han adherido.
Afirman que los países que adoptan medidas de libre mercado reducen su pobreza y su desigualdad. Para esto,
aquellos defensores de muchas de las ideas, catalogadas popularmente, de neoliberales se apoyan en la correlación
existente entre los países con mayor Libertad Económica y su tendencia a liderar el Índice de Desarrollo Humano,
también aclarando, que el crecimiento económico es una condición necesaria pero no suficiente para el desarrollo
humano.24252627282930

Índice
 1 Historia del término
o 1.1 Uso inicial
o 1.2 Consolidación del término
o 1.3 Otros usos
 2 Orígenes
o 2.1 Coloquio Walter Lippmann
o 2.2 Posguerra
 3 Políticas neoliberales
 4 Críticas
o 4.1 Neoliberalismo como proyecto de clase
o 4.2 Abandono de la infraestructura
o 4.3 Populismo neoliberal
 5 Usos divergentes del término
o 5.1 Uso liberal
o 5.2 Usos históricos del término
o 5.3 Usos actuales del término
 6 Véase también
 7 Referencias
o 7.1 Notas
o 7.2 Bibliografía

Historia del término[editar]


Uso inicial[editar]

El término «neoliberalismo» fue acuñado por el académico alemán Alexander Rüstow en 1938, en un coloquio.
Entonces se definió el concepto de neoliberalismo como «la prioridad del sistema de precios, el libre
emprendimiento, la libre empresa y un Estado fuerte e imparcial». Para ser neoliberal es necesario requerir una
política económica moderna con la intervención del Estado. El intervencionismo estatal neoliberal trajo consigo un
enfrentamiento con los liberales clásicos laissez faire, como Ludwig von Mises o Friedrich Hayek. En los años
1960 el término dejó de usarse regularmente, para referirse a políticas defendidas por economistas como Milton
Friedman o Robert Lucas.

Consolidación del término[editar]

Durante el Régimen Militar de Augusto Pinochet en Chile, los estudiosos opositores usaron el término para
describir un conjunto de reformas políticas y económicas efectuadas bajo este gobierno, usando el término de
forma peyorativa. El gobierno de Pinochet contó con la asesoría directa de Milton Friedman y personas que habían
estudiado con él en la Universidad de Chicago, razón por la que se les denominó los Chicago boys. El término
«neoliberalismo» y la expresión Chicago boys acabaron difundiéndose entre los hispanohablantes. En las últimas
dos décadas el término no se define sino que se utiliza para describir una ideología o una teoría económica y,
además, es usado por los críticos de izquierda para condenar la liberalización económica.

Según Boas y Gans-Morse, el término neoliberalismo es utilizado por la izquierda peyorativamente para criticar las
políticas de liberalización del sector privado tendentes a aumentar su rol en la economía. Hoy en día el uso del
término se orienta a describir las políticas económicas que «eliminan los controles de precios, desregulan los
mercados de capital y reducen las barreras al comercio», además de reducir la influencia del Estado en la
economía, especialmente mediante la privatización y la austeridad fiscal.

Otros usos[editar]

El movimiento anterior no debe confundirse con otro movimiento surgido en 1981 en EE. UU. y que se denominó
también neoliberal. Este otro movimiento nació como movimiento de izquierda y se usaba el término neoliberal
para describir su ideología. Los "neoliberales" de este otro movimiento se unieron alrededor de dos publicaciones,
The New Republic y el Washington Monthly. El vocero de este neoliberalismo era el periodista Charles Peters, que
en 1983 publicaba el Manifiesto Neoliberal. Los dos políticos más influyentes de este movimiento fueron Bill
Clinton, 42º presidente del gobierno, y el exvicepresidente Al Gore.

Orígenes[editar]
Coloquio Walter Lippmann[editar]
En la década de los 30 el estado de ánimo general era antiliberal por la Gran Depresión. Para unir fuerzas un grupo
de 25 liberales organizaron el coloquio Walter Lippman, un encuentro internacional que tuvo lugar en París en
agosto de 1938. Entre estos liberales se encontraban Louis Rougier, Walter Lippmann, Friedrich von Hayek,
Ludwig von Mises, Wilhelm Röpke y Alexander Rüstow. Rüstow, Lipmann y Rougier concluyeron que el
liberalismo laissez faire había fracasado y que el nuevo liberalismo debía tomar el relevo. No obstante, Mises y
Hayek no estaban convencidos de ello. Aun así, todos los participantes del coloquio se unieron en su llamado para
un nuevo proyecto liberal. Sobre la base de la recomendación de Rüstow llamaron a este proyecto
neoliberalismo.[cita requerida]

El planteamiento que emanó del coloquio estaba de acuerdo en alejarse de la idea de una libertad sin restricciones
propia del liberalismo clásico y orientar la economía de mercado hacia una economía regentada por un estado
fuerte. Fue, en definitiva, una forma de formular una «tercera vía».

Durante el coloquio las diferencias entre los verdaderos liberales y los "liberales clásicos" se hicieron patentes.
Mientras que los verdaderos liberales exigían la intervención del estado para corregir las estructuras del mercado
indeseables, Mises siempre había insistido en que el único papel legítimo del Estado era abolir las barreras para la
entrada en el mercado libre. También existían diferencias de opinión similares en otras cuestiones, como la política
social y las posibilidades de intervencionismo.

Posguerra[editar]

En teoría, el neoliberalismo suele defender algunos conceptos filosóficos del viejo liberalismo clásico del siglo
XIX, aunque sus alineamientos políticos y su implicación con ideas posteriores, hace de él una doctrina diferente
de dicho liberalismo clásico.31

Entre las cuestiones ampliamente promovidas por el neoliberalismo están la extensión de la iniciativa privada a
todas las áreas de la actividad económica o la limitación del papel del Estado. Entre las ideas y los principios
introducidos por el neoliberalismo y ausentes en el liberalismo clásico, están el principio de subsidiariedad del
Estado (desarrollado por los ordoliberales alemanes, que habían puesto en marcha algunas de sus propuestas en el
denominado Milagro alemán de posguerra), y en especial, el monetarismo de la Escuela de Chicago encabezada
por Milton Friedman que, desde mediados de los años 50, se convirtió en crítico opositor de las políticas de
intervención económica que se adoptaban en todo el mundo, junto con aportaciones del enfoque macroeconómico
keynesiano.

A finales de los años 70, estas teorías ganaron amplia popularidad en el mundo académico y político como
alternativa al fracaso del keynesianismo en la gestión de la crisis de 1973. Las ideas keynesianas sugerían una
relación inversa entre inflación y desempleo, tal como sugiere la curva de Phillips. Sin embargo Milton Friedman
había señalado que esa relación no era necesaria, como quedó demostrado por el fenómeno de la estanflación. El
nuevo escenario estanflacionario desafiaba los postulados keynesianos, en esas circunstancias, las ideas
monetaristas revivieron audiencia y credibilidad, como consecuencia se implementaron nuevas medidas
antikeynesianas como simultanear acciones antirrecesivas y antiinflacionarias. La crítica de los monetaristas tenía
tres vertientes:

1. Discutían el uso del aumento de la masa monetaria como instrumento para crear demanda agregada,
recomendando mantener fija dicha magnitud;
2. Desaconsejaban el uso de la política fiscal, especialmente el uso del constante déficit presupuestario,
poniendo en duda el multiplicador keynesiano; y
3. Recomendaban una reducción en los gastos del Estado como única forma práctica de incrementar la
demanda agregada.

La mayor parte de los aportes teóricos fueron rápidamente aceptados poniendo fin a la predominancia que el
keynesianismo tenía en la mayoría de las escuelas de pensamiento económico desde la década de 1930. Tanto
Margaret Thatcher como la administración de Ronald Reagan pusieron en práctica estas teorías con resultados
desiguales[cita requerida]. En el Reino Unido, se realizó una fuerte reducción en el tamaño del sector público que, si
bien tuvo consecuencias negativas en el corto plazo en el terreno social, reactivó la economía y dio un gran
dinamismo al sector productivo. En los Estados Unidos, similares medidas chocaron con el aparato político y la
vocación militarista del entorno de Reagan, por lo que solo se logró crear un gran déficit fiscal (las iniciativas de
reducción de impuestos prosperaron pero no las de control del gasto social o del gasto militar, que eran las
principales partidas del gasto público).

Se aprecia en el régimen militar de Augusto Pinochet en Chile, un modelo económico monetarista con algunos
rasgos keynesianos, siendo estos manejados por su equipo de economistas, los "Chicago Boys". Estos serían vitales
para la reestructuración económica de Chile marcada por las crisis mundiales y la nacionalización del cobre
realizada durante el gobierno popular de Salvador Allende en el año 1971, siendo llamado este proceso el Milagro
de Chile.

De estas experiencias y de las dificultades para aplicar esas políticas a países en desarrollo, surge una versión
keynesiana con inclinación monetarista, que incorporaba la aversión al déficit presupuestario y a la fabricación de
dinero, pero no al concepto de intervención pública en la economía (ejemplo Consenso de Washington, término
acuñado en 1989 por el economista John Williamson, para referirse al tipo de políticas fiscales y monetarias
recomendadas para los países en desarrollo por los organismos con sede en Washington, léase Banco Mundial,
FMI, y Tesoro estadounidense, entre otros).

Por ello se lo relaciona con la burocracia de los organismos públicos internacionales, debido a que sus políticas son
principalmente impulsadas desde el Banco Mundial, la Organización Mundial del Comercio, y el Fondo Monetario
Internacional (FMI), organismos que no dependen de las Naciones Unidas y están por ello exentos del control
directo de la comunidad internacional de países y a los que en ocasiones se acusa de ejercer presión política y
extorsión. En la práctica, estas políticas toman como modelo de economía (salvo en lo referente al proteccionismo)
a la estadounidense (véase: sistema americano, capitalismo democrático).32

El neoliberalismo, como política burocrática y macroeconómica (y no propiamente filosófica), tiene una dimensión
geopolítica mercantilista ajena en la práctica al liberalismo económico propiamente dicho, es decir el
neoliberalismo no es necesariamente sinónimo de mercado libre –sin trabas burocráticas ni privilegios sectoriales–,
razón que explicaría que sea asociado al corporativismo internacional.

Políticas neoliberales[editar]

Ronald Reagan, presidente de Estados Unidos (1981-1989)


Margaret Thatcher, primera ministra del Reino Unido (1979-1990)

El neoliberalismo propone que se deje en manos de los particulares o empresas privadas el mayor número de
actividades económicas posible. Igualmente propone una limitación del papel del Estado en la economía; la
privatización de empresas públicas y la reducción del tamaño del Estado, es decir, una reducción del porcentaje del
PIB controlado o administrado directamente por el Estado. Respecto al derecho laboral, mercantil y las
regulaciones económicas generales el neoliberalismo propone la "flexibilización" laboral, la eliminación de
restricciones y regulaciones a la actividad económica, la apertura de fronteras para mercancías, capitales y flujos
financieros.

Las políticas macroeconómicas recomendadas por teóricos o ideólogos neoliberales (en principio recomendaciones
a países tanto industrializados, como en desarrollo) incluyen:

 Políticas monetarias restrictivas: Aumentar tasas de interés o reducir la oferta de dinero hasta lograr una
inflación cercana a cero y evitar el riesgo de devaluaciones de la moneda. Los partidarios del
neoliberalismo creen que estas medidas, evitan los llamados ciclos del mercado.
 Políticas fiscales restrictivas: Aumentar los impuestos sobre el consumo[cita requerida] y reducir los impuestos
sobre la producción, la renta personal y los beneficios empresariales. También proponen eliminar
regímenes especiales y disminuir el gasto público.
 Liberalización/desregulación: Los partidarios de políticas neoliberales defienden la liberalización o
desregulación para el comercio como para las inversiones por considerarlas positivas para el crecimiento
económico. Igualmente se considera positiva la eliminación de muchas reglas y restricciones, reduciéndolas
a un mínimo necesario (sobre todo la garantía del régimen de propiedad y de la seguridad). En particular
abogan por aumentar la movilidad de capitales y la flexibilidad laboral.
 Privatización: Se considera que los agentes privados tienden a ser más productivos y eficientes que los
públicos y que el Estado debe achicarse para ser más eficiente y permitir que el sector privado sea el
encargado de la generación de riqueza.

En todos los casos, los teóricos denominados neoliberales afirman que la mejor manera de alcanzar la distribución
de la riqueza y el bienestar de los individuos es mediante un crecimiento total del producto, que por su propia
dinámica permea al total de los integrantes de la sociedad (la llamada trickle down policy política del derrame
económico); como liberales promueven «mediante el beneficio individual, alcanzar el beneficio de toda la
sociedad».

Críticas[editar]
Manifestantes el 19 de junio de 2011 en Madrid, dirigiéndose hacia Atocha por la calle Ronda de Valencia. La
pancarta reza: «Neoliberalismo: Tóxico, para el hombre, para el planeta.»

El neoliberalismo ha recibido críticas tanto de la izquierda política como desde la derecha, a lo que hay que añadir
las objeciones de miles de activistas y académicos.33

El economista Joseph Stiglitz denomina al neoliberalismo "fundamentalismo del libre mercado" ya que es una
ideología que sirve a los intereses de una minoría saltándose los controles y el funcionamiento de las
democracias.34

El término es usado tanto por detractores del capitalismo (socialistas, comunistas, etc.) como algunos partidarios
críticos del capitalismo (proteccionistas, postkeynesianos, Nueva economía internacional). Estos y otros grupos
suelen usar el concepto como una generalización para referirse a cualquier posición que se oponga a limitar los
mercados o reducir la intervención del Estado en la economía. En ocasiones el término se ha usado como término
peyorativo o descalificatorio para personas que arguyen en favor de una economía de mercado, usando la palabra
como sinónimo de corporativismo.

Según algunos autores, el neoliberalismo es un liberalismo heterodoxo, desgajado del tronco principal de la
ideología burguesa del que procede.35 Considera al neoliberalismo propio del Estado de bienestar implantado en los
países capitalistas más desarrollados después de 1945, del que sería uno de los tres pilares básicos, junto a la
democracia cristiana y la socialdemocracia, con los que considera que hubo una convergencia ideológica tras 1945
en torno al Estado social.36 Sectores sindicales lo usan asimismo como epíteto frente a los intentos de recortar
derechos laborales, conseguidos tras largos años de lucha.

Los proteccionistas sostienen que el neoliberalismo multiplica dramáticamente el impacto de las crisis de
confianza, culpabilizándolo del alcance de diversas crisis financieras a escala más o menos global, ocurridas entre
1990 y 2008 (ponen de ejemplo el Efecto Tequila de 1994 o la Crisis asiática de 1997). También consideran sus
críticos que las políticas de control del gasto público generan problemas crecientes de tensión, exclusión y
violencia social en determinados países.37 En América Latina por ejemplo es común identificar el término
«neoliberal» con las recomendaciones del Consenso de Washington.

Algunos economistas institucionalistas consideran que las políticas neoliberales minusvaloran la influencia que el
gasto público ha tenido históricamente en muchos casos tanto en el crecimiento como para el desarrollo (comparar
históricamente ejemplos de países industrializados); para la protección de nuevos sectores vulnerables de la
economía y la población; y para la estabilidad social y económica en general. También se ha señalado que las
políticas neoliberales minusvaloran los efectos negativos de la desigualdad económica38 y el hecho de que los
impuestos sobre el consumo son regresivos y castigan más a los contribuyentes de menos ingresos.
Por otro lado, el llamado neoliberalismo ha recibido numerosas críticas positivas. Cuando analizamos la manera en
que el liberalismo y su ampliación en su vertiente económica, el capitalismo, ha contribuido en la consecución de
los estándares de vida más altos jamás alcanzados por el ser humano39

Neoliberalismo como proyecto de clase[editar]

La mano invisible del mercado y el


puño de hierro del Estado se
combinan y complementan entre sí
para hacer que las clases más bajas
acepten trabajos asalariados
desocializadores y la inestabilidad
social que ello trae en su estela.
Después de un largo eclipse, la
prisión vuelve a estar de este modo
en la primera línea de las
instituciones encargadas de
mantener el orden social.

—Loïc Wacquant

David Harvey describió al neoliberalismo como un proyecto de clase diseñado para imponer un determinado
sistema de clases en la sociedad a través del liberalismo. El economista David M. Kotz sostiene que el
neoliberalismo se basa «en la dominación completa del trabajo por el capital».40 La aparición del llamado
«precariado», una nueva clase fruto de la inseguridad socioeconómica aguda y la alienación, se ha atribuido a la
globalización del neoliberalismo.41

El sociólogo Thomas Volscho, afirmó que la imposición del neoliberalismo en los Estados Unidos surgió de una
movilización política premeditada por parte de las élites capitalistas en la década de 1970 ante la necesidad de
abordar dos crisis: la legitimidad del capitalismo y la rápida reducción de la rentabilidad en la industria.42 Diversas
líneas de pensamiento neoliberales, como el monetarismo o la economía de la oferta, habrían ganado influencia
gracias a su impulso por parte de las élites en las políticas de la Administración Reagan, y que en última instancia
habría conducido a una menor regulación gubernamental y un cambio en el modelo de financiación del Estado, que
habría pasado de depender de los impuestos a depender de la deuda.42 Mientras que la rentabilidad de la industria y
la tasa de crecimiento económico alcanzados en el ciclo alcista de la década de 1960 nunca se volverían a ver, el
poder político y económico de las grandes corporaciones (Wall Street) y del capital financiero se habría
incrementado enormemente debido a la necesidad del Estado de financiar su deuda.42

Evolución de la tasa de encarcelamiento en Estados Unidos entre 1925 y 2013

Numerosos investigadores han vinculado el auge del neoliberalismo con un aumento en masa de la tasa de
encarcelamiento de personas pobres en Estados Unidos.43444546 El influyente sociólogo Loïc Wacquant, argumenta
que el resultado de las políticas neoliberales respecto a la inestabilidad social en las poblaciones económicamente
marginadas, fruto de la aplicación de las propias políticas neoliberales, han conducido a una reducción del estado
del bienestar, que se ha sustituido por un sistema punitivo workfare (ayudas sociales condicionadas), al aumento de
la gentrificación de las zonas urbanas, a la privatización de servicios públicos, a la disminución de las protecciones
colectivas de la clase obrera, debido a la desregulación de la economía, y al aumento de los trabajos asalariados
mal pagados. Por lo tanto concluye que se ha instaurado una «precarización del trabajo que encierra una
criminalización de la pobreza que deriva en una encarcelación masiva».45 Mientras, el sistema es muy indulgente
con las clases más altas de la sociedad, y delitos económicos propios de las clases privilegiadas y las empresas
como el fraude, la malversación, el abuso de información privilegiada, el fraude crediticio o a los seguros, el
lavado de dinero, la violación de las leyes de comercio o del trabajo, apenas son castigados.4547 De acuerdo con
Wacquant, el neoliberalismo no encoge al gobierno, sino que crea un Estado centauro que supervisa escasamente a
quienes se encuentran en niveles superiores, mientras impone un estricto control sobre los desfavorecidos.4548

En la ampliación de su tesis, el sociólogo y economista político John L. Campbell, del Dartmouth College, sugiere
que la privatización en Estados Unidos del sistema penintenciario ejemplifica el concepto de Estado centauro:

Por un lado, se castiga a la clase baja, que llena las cárceles. Por otro lado, esto beneficia a la clase alta, propietaria de las
prisiones, mientras que los empleados que ejecutan el trabajo son la clase media.49

Añade que el sistema penitenciario estadounidense beneficia a las empresas gracias a la externalización, y los
internos pasan poco a poco a convertirse en una fuente de mano de obra barata para algunas corporaciones de
Estados Unidos. Tanto a través de la privatización como de la externalización, el «Estado penal» que impera en
Estados Unidos es un reflejo del neoliberalismo, sostiene Campbell.50 El mismo autor dice que además de que el
neoliberalismo estadounidense estableció un «Estado penal» para los pobres, también estableció un «Estado
deudor» para la clase media, con efectos negativos para ambos en sus respectivos objetivos: crecientes tasas de
encarcelamiento entre la clase baja y aumento de las tasas de endeudamiento —y recientemente de las ejecuciones
hipotecarias—, entre las clases medias.50

El profesor de ciencias políticas de la Universidad de York, David McNally, sostiene que si bien se han reducido
las inversiones en programas de bienestar social, los gastos en la construcción de prisiones han aumento
significativamente durante la era neoliberal, con ejemplos como el de California, que puso en marcha «el mayor
programa de construcción de prisiones en toda la historia del mundo».51 El académico Bernard Harcourt afirma que
la posición neoliberal de que el «Estado es inepto a la hora de regular la economía, pero eficiente en el ámbito
policial y penal» ha facilitado la encarcelación en masa en Estados Unidos.52 Tanto Wacquant como Harcourt han
denominado a este fenómeno «penalti neoliberal».5354

Abandono de la infraestructura[editar]

Nicolás Firzli argumentó que el auge del neoliberalismo erosionó el consenso político de posguerra en Reino
Unido y el centrismo republicano en Estados Unidos propio del gobierno de Eisenhower, que había hecho posible
la asignación masiva de capital público para proyectos de infraestructura a gran escala en las décadas de 1950,
1960 y 1970, tanto en Europa como en América del Norte:55

En la era pre-Reagan, la inversión en infraestructura tenía connotaciones apolíticas y se veía como algo positivo, visión
compartida por tecnócratas, economistas y políticos (...) entre ellos el presidente Eisenhower, un líder republicano pretoriano
que había defendido la inversión en el sistema nacional de carreteras de Estados Unidos (...) Pero Reagan, Thatcher, Delors y
sus admiradores: «clintonianos», el Nuevo Laborismo y los socialdemócratas de la Unión Europea, que toman las decisiones
en Bruselas, trataron de desmantelar las generosas subvenciones estatales para infraestructura social y el transporte público en
Estados Unidos, Reino Unido y la Unión Europa, centrándose en las llamadas «autopistas de la información», redes sociales y
videojuegos de nueva creación, la especulación inmobiliaria generosamente alimentada por subsidios públicos masivos,
vacaciones fiscales para invasores corporativos (como el capitalismo buitre de Lakshmi Mittal, que destruyó la industria del
acero en Francia e Inglaterra con la bendición de Bruselas) y los derivados crediticios tóxicos que intentan pasar por
«innovación financiera».55

Populismo neoliberal[editar]
Macron addressing the World Economic Forum 2018 in Davos, Switzerland

Varios autores recogen el término populismo neoliberal56575859606162 para referirse a aquellos movimientos políticos
surgidos tras la posmodernidad que pregonan que la economía capitalista y orientada al corte neoliberal es la única
posible y tiene como objetivo final la desmantelación de las instituciones del Estado del Bienestar a través de una
retórica anti-establishment y anti-marxista.6364 También está presente la crítica al sindicalismo656667, la inmigración,
la política institucional en favor del libre mercado desrregularizado y los gobiernos tecnocráticos, así como el
desarrollo de las teorías del fin de la historia de Francis Fukuyama son sus bases ideológicas. Se asemeja a la teoría
del Capitalismo como religión y al Fundamentalismo de mercado.

Emmanuel Macron686970, Albert Rivera7172 y Mauricio Macri73 suelen ser catalogados como algunos de sus
exponentes. 74757677

En cuanto a los valores éticos se les acusa de desear una sociedad regida por los valores predominantes en el
darwinismo social,78 como la competencia, la propiedad, el individualismo y la libertad negativa.

En materia económica están a favor del productivismo, el crecimiento económico y la acumulación por
desposesión.[cita requerida]

El filósofo Jaques Derrida79 llamó a estos incipientes movimientos tardo-capitalistas y neo-capitalistas.

Algunos autores consideran que esta tendencia política pone en peligro la democracia.80

Usos divergentes del término[editar]


Uso liberal[editar]

Originalmente la teoría que limitaba el poder del Estado y entregaba la economía a los agentes privados era el
liberalismo, y hasta bien entrado el siglo XX los partidarios de estas ideas siguieron siendo llamados liberales. Sin
embargo, la crisis de 1929, el New Deal, el auge del keynesianismo, el incremento del gasto público y el rol del
Estado en Occidente, condujeron a que el “liberalismo” modificado y adoptado por diversos gobiernos de los años
1980 recibiese otro nombre, siendo este el de neoliberalismo.
Con neoliberalismo no se está haciendo alusión a una teoría política o económica en particular, sino más bien se
está refiriendo a una generalización de escuelas y teorías económicas (muchas veces opuestas entre sí), por lo que
resulta algo complejo compararlo con el liberalismo ortodoxo. Mientras el antiguo concepto de liberalismo resulta
más claro de limitar.81

Los defensores del liberalismo político y económico, especialmente el asociado al liberalismo clásico y el
liberalismo libertario (p. ej. minarquismo) sostienen opiniones divergentes en general al respecto del
neoliberalismo:

 Rechazan el uso antimercado o intervencionista del término neoliberalismo como una etiqueta falaz usada
por algunos sectores de izquierda y de centro, e incluso de derecha, para descalificar sumariamente a sus
adversarios políticos.

Me considero liberal y conozco a muchas personas que lo son y a otras muchísimas más que no lo son. Pero, a lo largo de una
trayectoria que comienza a ser larga, no he conocido todavía a un solo neo-liberal. [...] Un “neo” es alguien que es algo sin
serlo, alguien que está a la vez dentro y fuera de algo, un híbrido escurridizo, un comodín que se acomoda sin llegar a
identificarse nunca con un valor, una idea, un régimen o una doctrina. Decir “neo-liberal” equivale a decir “semi” o “seudo”
liberal, es decir, un puro contrasentido. O se está a favor o seudo a favor de la libertad, como no se puede estar “semi
embarazada”, “semi muerto”, o “semi vivo”. La fórmula no ha sido inventada para expresar una realidad conceptual, sino
para devaluar semánticamente, con el arma corrosiva de la irrisión, la doctrina que simboliza, mejor que ninguna otra, los
extraordinarios avances que al aproximarse este fin de milenio, ha hecho la libertad en el largo transcurso de la civilización
humana.

Mario Vargas Llosa82

[...] El sentido predominante que se le atribuye al término “neoliberalismo” es consecuencia de que los enemigos de la
libertad han utilizado esa palabra como una sinécdoque, como anteriormente otros hicieron con la palabra social a la que
convirtieron en una antífrasis. Y otros, antes aún, con la palabra liberal, a la que le pasó lo mismo.

De esta manera, a través de la retórica y sus mecanismos, los liberales perdemos en el debate político lo que ganamos en el
campo de las contribuciones científicas. Probablemente haya muy pocas doctrinas que, como el liberalismo, hayan perdido
tantos términos a manos de sus enemigos en el debate político. [...] Despojar al liberalismo de una cierta arrogancia
intelectual resulta, así imprescindible. Con ejemplos como lo sucedido con el término “neoliberalismo” debería bastarnos
para entenderlo, porque aunque “words are signals for ideas, not ideas”, como quería Spencer . Perder nuestros términos por
una mayor habilidad de nuestros oponentes se presenta como un error muy lamentable que amenaza periódicamente nuestra
identidad.

Ser liberal no significa lo mismo en todos los países. Algunos de nuestros conceptos más preciados, como justicia, estado de
derecho o propiedad, han sido tergiversados por adjetivos semánticamente predatorios. Y, en el colmo de la paradoja, quieren
nuestros rivales asociarnos con ideas, políticas o gobiernos que nos resultan ajenos. Todo ello es de por sí un precio muy alto
a pagar por no haber advertido la importancia de este debate y el daño que pueden causar las palabras cuando son
retóricamente manejadas. [...]

Enrique Ghersi

83

 En general unos opinan que la reducción del Estado debe ser real hasta limitarlo a lo completamente
imprescindible mientras otros, inspirados por pensadores como Hayek, no son contrarios a ciertos efectos
redistributivos o que el gobierno pueda proveer de ciertos bienes que el mercado es incapaz. Todo esto,
siguiendo como base los principios liberales clásicos y no los neoliberales (aquí algunos liberales
identificarían el término neoliberalismo con el fenómeno del corporativismo). Consideran que parte
importante de la derecha política, a la cual se oponen, se reduce al mercantilismo empresarial y político,
esto es la entrega de preferencias a grupos de presión, multinacionales, o a socios del sector privado del
poder político.84
De igual forma, los liberales rechazan a los organismos internacionales o públicos supraestatales (FMI, OMC, BM,
etc.) debido a que los consideran “monstruos burocráticos, intervencionistas e inútiles” que serían responsables del
mantenimiento de regímenes corruptos e ineficientes que no podrían conseguir crédito en el mercado libre,8586 y de
establecer una liberalización del comercio internacional regulada, planificada por instancias keynesianas y no por
agentes privados, lo cual conduciría al corporativismo en vez de al capitalismo.87

Usos históricos del término[editar]

No se puede dar una definición estática de neoliberalismo debido a que su significado ha ido cambiando en el
transcurso del tiempo y no es idéntico en todos los países del planeta.[cita requerida] Las pesquisas realizadas sobre el
tema88 revelan que la palabra fue usada por primera vez, de manera asistemática, por destacados economistas
liberales, entre los que se cuentan:

 Ludwig von Mises. La edición inglesa (1927) de su libro Liberalismus usa el término neoliberalism para
traducir lo que en alemán Mises denominó neuen Liberalismus (nuevo liberalismo). En este libro, Mises
usa el término para designar a los socialistas que se hacen pasar por liberales (término que después
reemplazó por seudoliberales), mientras que en su posterior libro, Socialismo, lo aplica a los liberales
partidarios de la entonces nueva teoría subjetiva del valor, como Carl Menger.
 Louis Baudin, en su obra de 1953, L'aube d'un nouveau libéralisme (El alba de un nuevo liberalismo),
relata que el término neoliberalismo fue deliberadamente acuñado y usado para su posterior difusión en el
coloquio de destacados pensadores liberales realizado en París en agosto de 1938, cuando ya se anunciaba
la inevitabilidad de la Segunda Guerra Mundial. Su objetivo fue diferenciarse del entonces desacreditado
liberalismo político, al que se atribuía una importante responsabilidad por haber llegado a ese callejón sin
salida. Participaron en el coloquio destacados líderes de opinión del movimiento liberal como Friedrich
Hayek, Ludwig von Mises, Jacques Rueff, Alexander Rüstow, Wilhelm Röpke, Detauoff, John Bell
Condliffe, Michael Polanyi y el propio Baudin.
 Edgar Nawroth, en su libro Die Sozial-und Wirtschaftsphilosophie des Neoliberalismus (1961), califica
como neoliberales a los partidarios de la Escuela de Friburgo y de Múnich, destacando las contribuciones
de Wilhelm Röpke y de Alexander Rüstow, partidarios de la Economía Social de Mercado y de la
coordinación del libre mercado, así como del Estado de Bienestar
 Economistas del Centro de Investigación para la Comparación de Sistemas de Dirección Económica de la
Universidad de Marburgo definieron al neoliberalismo como:

Un concepto global bajo en que se incluyen los programas de la renovación de la mentalidad liberal
clásica, cuyas concepciones básicas del orden están marcadas por una inequívoca renuncia a las
ideas genéricas del laissez faire y por un rechazo total a los sistemas totalitarios.[cita requerida]

Entre los rasgos esenciales del neoliberalismo incluyen la garantía legal de la libre competencia y la
convicción de que al libre mercado deben agregarse otras consideraciones sociales.

 Alfred Müller-Armack, uno de los teóricos de la Economía social de mercado, acusa a los neoliberales (que
no identifica con precisión) de "no haber prestado la debida atención a los problemas sociales y
sociológicos".89 De su obra surgen como posturas extremas el liberalismo tradicional o paleoliberalismo, el
neoliberalismo que se le opone, y la intermedia Economía Social de Mercado.

 En Latinoamérica el término suele usarse por sus detractores para hacer referencia al conjunto de políticas
recomendadas en la década de 1990 por el Consenso de Washington, a las que consideran responsables de
los problemas sociales de años posteriores a su aplicación, poniendo como ejemplo la crisis financiera de
Ecuador de 1999 o la crisis argentina del 2001.

 En la última década del siglo XX y la primera del siglo XXI, el término ha sido crecientemente usado con
carácter peyorativo. El escritor Mario Elgue, por ejemplo, afirma:
Ya no quedan dudas de que el modelo neoliberal es incapaz de dar respuesta a los principales problemas que siguen
aquejando a la sociedad: altos índices de desempleo, trabajo en negro, pobreza y exclusión social. Su debacle fue el resultado
de la aplicación de las políticas del "derrame", según las cuales bastaba con el crecimiento de los grandes grupos
concentrados ya que estos últimos difundirían los beneficios hacia el resto de la sociedad productiva y laboral. Pues bien,
ahora está claro que este "goteo" no llegó; que no hubo un correlato distributivo y de cohesión de la base social.90

En consecuencia, y como es también usual con las diferentes acepciones del término liberal, no se puede hablar de
una definición universalmente aceptada, uniforme en el espacio y constante en el tiempo, sino sólo de usos del
término neoliberalismo en diferentes contextos.

Usos actuales del término[editar]

Diversos términos a los que se suele hacer referencia con la palabra "neoliberalismo":

 Neomercantilismo: una vuelta a las ideas mercantilistas que combatió Adam Smith y los liberales clásicos.
Estas ideas consistían en defender a determinadas empresas (sobre todo dedicadas a la exportación) de la
competencia extranjera.
 Corporativismo, lobbismo o amiguismo: que el estado defienda los intereses de algunos familiares, amigos,
conocidos o aliados del gobernante o de grupos de poder especialmente poderosos para el chantaje.
 Anarcocapitalismo: es una postura política que pide la eliminación del estado pero no de la propiedad
privada. Defiende que los tratos sean voluntarios. También reciben el nombre de "ultraliberales" por parte
de sus detractores.
 Monetarismo neoclásico: es una escuela económica, que tuvo su centro en Chicago y cuyo más famoso
representante es Milton Friedman, que surgió en una época donde la economía capitalista era keynessiana
mayoritariamente. Abogaban por volver al liberalismo clásico en algunas cosas. Ronald Reagan encarnó en
la política de forma más o menos fiel esta idea económica. Algunos llamaron "revolución neoliberal" a esta
vuelta parcial al liberalismo clásico. En esta acepción el neoliberalismo sería una mezcla de keynesianismo
y liberalismo clásico.
 Socioliberalismo: Una mezcla de la socialdemocracia y el liberalismo progresista. Frente al liberalismo
clásico donde el estado se limitaba a garantizar seguridad y justicia, hay hoy corrientes liberales (las
mayoritarias) que abogan porque el estado garantice igualdad, progreso y bienestar a través de la educación,
la investigación y la sanidad pública sin dejar de defender las libertad individuales y derechos civiles. Un
ejemplo de libre mercado y estado del bienestar lo presentan los países nórdicos.
 Minarquismo: Reducción del estado al mínimo. Esta es la definición de neoliberalismo en la RAE aunque
no aclara cual es ese mínimo o si se trata de algo subjetivo que decide cada uno

14 Constitución de Bolivia
De Wikipedia, la enciclopedia libre
(Redirigido desde «Constitución Política del Estado de Bolivia de 2009»)
Ir a la navegaciónIr a la búsqueda

Constitución Política del Estado


Escudo del Estado Plurinacional de Bolivia

Tipo de texto Texto constitucional

Ratificación 25 de enero de 2009, mediante referéndum


popular

Promulgación 7 de febrero de 2009, en El Alto, Bolivia

Autor(es) Asamblea Constituyente de Bolivia

Ubicación Descargar documento

[editar datos en Wikidata]

La Constitución Política del Estado es el decimoséptimo texto constitucional en la historia republicana de


Bolivia.1 Entró en vigencia el 7 de febrero de 2009, fecha en que fue publicada en la Gaceta Oficial de Bolivia,
luego de ser promulgada por el Presidente Evo Morales23 tras ser aprobada en un referéndum con un 90,24% de
participación. La consulta fue celebrada el 25 de enero de 2009 y el voto aprobatorio alcanzó un 61,43% del total,
es decir, 2.064.417 votos. El "no", por su parte, alcanzó 1.296.175 sufragios (es decir, un 38,57%). Los votos en
blanco sumaron 1,7% y los nulos, un 2,61%.4

Índice
 1 Contexto y promulgación
 2 Composición
 3 Preámbulo
 4 Principales puntos
o 4.1 Reconocimiento indígena
o 4.2 Reivindicación marítima
o 4.3 Autonomía y organización territorial
o 4.4 Administración de tierras y latifundio
o 4.5 Derechos
o 4.6 Economía
o 4.7 Estado
o 4.8 Recursos naturales
o 4.9 Religión
o 4.10 Elecciones
o 4.11 Coca
 5 Leyes Estructurales
 6 Econstitucional - Enciclopedia Constitucional
 7 Véase también
 8 Referencias
 9 Enlaces externos

Contexto y promulgación[editar]

Evo Morales, presidente de Bolivia.


Véase también: Referéndum constitucional de Bolivia de 2009

Tras ser pospuesto en dos ocasiones, el 25 de enero de 2009 se realizó el referéndum constitucional convocado por
el congreso del país.5 En el referéndum se votó de manera popular la aprobación del nuevo texto constitucional, y
la redacción de este artículo sobre el latifundio. Los resultados otorgaron un 61,43% de votos favorables a la
aprobación de la nueva constitución4 y un 80,65% de votos favorables a la opción que establece un máximo de
propiedad de 5.000 hectáreas por ciudadano (limitación que rige a partir de la promulgación, pero que no modifica
a las numerosas propiedades mayores de esa cifra existentes anteriormente a 2009).

Finalmente, en febrero de 2009 la nueva constitución fue promulgada por el presidente Evo Morales en un
multitudinario evento en la ciudad de El Alto.6 En el juramento, Morales dio su misión «por cumplida»
pronunciando la siguiente frase:

"Algunos grupos permanentemente intentaron sacarme del Palacio. Ustedes saben, algunos grupos permanentemente
intentaron matarme. Ahora quiero decirles: pueden sacarme del Palacio, pueden matarme, misión cumplida con la
refundación de una nueva Bolivia unida"6

En el mismo juramento también habló de la «refundación del país»:

"Es impresionante lo que estamos haciendo: de la rebelión de nuestros antepasados a la revolución democrática y cultural, a
la refundación de Bolivia y a la reconciliación entre originarios milenarios y originarios contemporáneos" 7
Y tras firmar el nuevo documento, lo promulgó diciendo:

"En este día histórico proclamo promulgada la nueva constitución política del Estado boliviano, la vigencia del estado
plurinacional unitario, social y, económicamente, el socialismo comunitario."6

Con el objeto de adecuarse a las nuevas disposiciones de la constitución, Morales renovó su gabinete creando los
ministerios de Autonomía,8 Culturas,910 y de Transparencia y Lucha contra la Corrupción.11

Composición[editar]
El texto constitucional se divide en cinco amplias partes:

 Primera Parte: Bases Fundamentales del Estado, Derechos, Deberes y Garantías


 Segunda Parte: Estructura y Organización Funcional del Estado
 Tercera Parte: Estructura y Organización Territorial del Estado
 Cuarta Parte: Estructura y Organización Económica del Estado

 Quinta Parte: Jerarquía Normativa y Reforma de la Constitución

Cada parte se divide en títulos y éstos en capítulos. Algunos capítulos también están divididos en secciones. En
total la constitución cuenta con 411 artículos.12

Preámbulo[editar]
En tiempos inmemoriales se erigieron montañas, se desplazaron ríos, se formaron lagos. Nuestra amazonia, nuestro chaco,
nuestro altiplano y nuestros llanos y valles se cubrieron de verdores y flores. Poblamos esta sagrada Madre Tierra con rostros
diferentes, y comprendimos desde entonces la pluralidad vigente de todas las cosas y nuestra diversidad como seres y
culturas. Así conformamos nuestros pueblos, y jamás comprendimos el racismo hasta que lo sufrimos desde los funestos
tiempos de la colonia.

El pueblo boliviano, de composición plural, desde la profundidad de la historia, inspirado en las luchas del pasado, en la
sublevación indígena anticolonial, en la independencia, en las luchas populares de liberación, en las marchas indígenas,
sociales y sindicales, en las guerras del agua y de octubre, en las luchas por la tierra y territorio, y con la memoria de nuestros
mártires, construimos un nuevo Estado.

Un Estado basado en el respeto e igualdad entre todos, con principios de soberanía, dignidad, complementariedad,
solidaridad, armonía y equidad en la distribución y redistribución del producto social, donde predomine la búsqueda del vivir
bien; con respeto a la pluralidad económica, social, jurídica, política y cultural de los habitantes de esta tierra; en convivencia
colectiva con acceso al agua, trabajo, educación, salud y vivienda para todos.

Dejamos en el pasado el Estado colonial, republicano y neoliberal. Asumimos el reto histórico de construir colectivamente el
Estado Unitario Social de Derecho Plurinacional Comunitario, que integra y articula los propósitos de avanzar hacia una
Bolivia democrática, productiva, portadora e inspiradora de la paz, comprometida con el desarrollo integral y con la libre
determinación de los pueblos.

Nosotros, mujeres y hombres, a través de la Asamblea Constituyente y con el poder originario del pueblo, manifestamos
nuestro compromiso con la unidad e integridad del país.

Cumpliendo el mandato de nuestros pueblos, con la fortaleza de nuestra Pachamama y gracias a Dios, refundamos Bolivia.

Honor y gloria a los mártires de la gesta constituyente y liberadora, que han hecho posible esta nueva historia.

Preámbulo, Nueva Constitución Política del Estado


Principales puntos[editar]
Reconocimiento indígena[editar]

La Wiphala, bandera tradicional de algunos pueblos andinos, es reconocida también como símbolo del Estado en la
Constitución de 2009, artículo 6 (II).

La nueva constitución establece, entre otros cambios:

 Una cuota de parlamentarios indígenas, la que se establecerá por circunscripciones a definirse por ley.13
 Un sistema judicial indígena campesino, al mismo nivel que la justicia ordinaria, junto con un nuevo
Tribunal Constitucional plurinacional que tendrá que elegir miembros de los dos sistemas.131
 El derecho a la autonomía y el autogobierno indígena, junto con el reconocimiento oficial de sus entidades
territoriales e instituciones.14
 Propiedad exclusiva de los indígenas de los recursos forestales de su comunidad.6

La oposición ha señalado que estas modificaciones crean ciudadanos «de primera y segunda categoría».6

Reivindicación marítima[editar]

La constitución plantea lo siguiente:

Artículo 267
I. El Estado boliviano declara su derecho irrenunciable e imprescriptible sobre el territorio que le dé acceso al océano Pacífico
y su espacio marítimo.

II. La solución efectiva al diferendo marítimo a través de medios pacíficos y el ejercicio pleno de la soberanía sobre dicho
territorio constituyen objetivos permanentes e irrenunciables del Estado boliviano.

Segunda Parte, Título VIII, Capítulo Cuarto: Reivindicación Marítima, Nueva Constitución Política del Estado (p. 62)

Autonomía y organización territorial[editar]

En la constitución se establecen cuatro niveles de administración: departamental (en departamentos), regional (en
provincias), municipal (en municipios) y territorios indígena originarios campesinos.1516

La nueva autonomía implica además la elección directa de las autoridades y el derecho a administrar sus recursos
naturales. En contraparte, la oposición ha señalado que estas reformas dividen al país en 36 territorios, junto con
restarle a los departamentos sus competencias autonómicas.15

Administración de tierras y latifundio[editar]


La nueva constitución prohíbe el latifundio, y, de acuerdo a los resultados obtenidos en el referéndum dirimitorio,
no se permitirá la apropiación de más de cinco mil hectáreas de terreno. Al respecto, el texto establece lo siguiente:

Artículo 398 (opción B)

Se prohíbe el latifundio y la doble titulación por ser contrarios al interés colectivo y al desarrollo del país. Se entiende por
latifundio la tenencia improductiva de la tierra; la tierra que no cumpla la función económica social; la explotación de la tierra
que aplica un sistema de servidumbre, semiesclavitud o esclavitud en la relación laboral o la propiedad que sobrepasa la
superficie máxima zonificada establecida en la ley. En ningún caso la superficie máxima podrá exceder de cinco mil
hectáreas.

Cuarta Parte, Título II, Capítulo Noveno: Tierra y Territorio, Nueva Constitución Política del Estado (p. 92)

Se estableció que estos límites de tierra no serán retroactivos.17

Derechos[editar]

La nueva constitución reconoce en casi 100 artículos los derechos de los grupos sociales del país, incorporando un
lenguaje de género que iguala en condiciones a bolivianas y bolivianos.18 Entre las novedades, establece como
servicios básicos el agua potable, alcantarillado, la electricidad, el gas domiciliario, el servicio postal y los
servicios de telecomunicaciones, estableciendo como una responsabilidad del Estado la provisión de estos
servicios, aunque algunos podrán ser proveídos mediante empresas privadas. Además, convierte el acceso al agua y
el alcantarillado en derechos humanos, siendo estos servicios que no serán objeto de privatización o concesión.19

Economía[editar]

En el nuevo texto se establece un modelo económico social y comunitario constituido por organizaciones estatales,
privadas y sociales cooperativas, que garantiza la iniciativa privada y la libertad de empresa y establece como uno
de los roles de las organizaciones estatales administrar los recursos naturales y sus procesos asociados, junto con
los servicios públicos que la constitución establece como derechos.202122

Respecto a la inversión privada, se pasa a privilegiar la nacional frente a la extranjera, y promueve en la economía
cooperativa la partipación de cooperativas y grupos sin fines de lucro.23

Estado[editar]

Se establece a Bolivia como un estado plural y unitario:

Artículo 1

Bolivia se constituye en un Estado Unitario Social de Derecho Plurinacional Comunitario, libre, independiente, soberano,
democrático, intercultural, descentralizado y con autonomías. Bolivia se funda en la pluralidad y el pluralismo político,
económico, jurídico, cultural y lingüístico, dentro del proceso integrador del país.

Primera Parte, Título I, Capítulo Primero: Modelo de Estado, Nueva Constitución Política del Estado (p. 2)

El estado pasa a organizarse en cuatro poderes: Ejecutivo, Legislativo, Judicial y Electoral.24

Bolivia también pasa a convertirse en un «estado pacifista» que rechaza la guerra, aunque se reserva el derecho a la
«legítima defensa». El texto constitucional prohíbe la instalación de bases militares extranjeras en el país.25
Se establece que la constitución es la norma suprema del estado boliviano,26 y se declaran como idiomas oficiales a
36 lenguas indígenas además del Español. Todos los gobiernos departamentales del país deberán utilizar, como
idiomas oficiales, una de éstas lenguas además del español.

Artículo 5
I. Son idiomas oficiales del Estado el castellano y todos los idiomas de las naciones y pueblos indígena originario
campesinos, que son el aymara, araona, baure, bésiro, canichana, cavineño, cayubaba, chácobo, chimán, ese ejja, guaraní,
guarasu’we, guarayu, itonama, leco, machajuyai-kallawaya, machineri, maropa, mojeño-trinitario, mojeño-ignaciano, moré,
mosetén, movina, pacawara, puquina, quechua, sirionó, tacana, tapiete, toromona, uru-chipaya, weenhayek, yaminawa, yuki,
yuracaré y zamuco.

II. El Gobierno plurinacional y los gobiernos departamentales deben utilizar al menos dos idiomas oficiales. Uno de ellos
debe ser el castellano, y el otro se decidirá tomando en cuenta el uso, la conveniencia, las circunstancias, las necesidades y
preferencias de la población en su totalidad o del territorio en cuestión. Los demás gobiernos autónomos deben utilizar los
idiomas propios de su territorio, y uno de ellos debe ser el castellano.

Primera Parte, Título I, Capítulo Primero: Modelo de Estado, Nueva Constitución Política del Estado (p. 2)

La constitución asigna el papel de capital del país a Sucre, no señalándose a La Paz en el texto. Sin embargo, y
debido a que el Palacio Quemado (sede del poder ejecutivo boliviano) se encuentra en La Paz, esta última pasa a
convertirse en la capital administrativa de facto, mientras que Sucre se mantiene como la capital histórica
constitucional.

Artículo 6
I. Sucre es la Capital de Bolivia.

II. [...]

Primera Parte, Título I, Capítulo Primero: Modelo de Estado, Nueva Constitución Política del Estado (p. 3)

Recursos naturales[editar]

Los recursos naturales pasan por derecho constitucional a manos del estado:

Artículo 349
I. Los recursos naturales son de propiedad y dominio directo, indivisible e imprescriptible del pueblo boliviano, y
corresponderá al Estado su administración en función del interés colectivo.

II. El Estado reconocerá, respetará y otorgará derechos propietarios individuales y colectivos sobre la tierra, así como
derechos de uso y aprovechamiento sobre otros recursos naturales.

Cuarta Parte, Título II, Capítulo Segundo: Tierra y Territorio, Nueva Constitución Política del Estado (p. 83)

Respecto a los hidrocarburos, su administración y las ganancias producidas con ellos se convierten en propiedad
del estado.23

Artículo 359

Los hidrocarburos, cualquiera sea el estado en que se encuentren o la forma en la que se presenten, son de propiedad
inalienable e imprescriptible del pueblo boliviano. El Estado, en nombre y representación del pueblo boliviano, ejerce la
propiedad de toda la producción de hidrocarburos del país y es el único facultado para su comercialización. La totalidad de
los ingresos percibidos por la comercialización de los hidrocarburos será propiedad del Estado.

Cuarta Parte, Título II, Capítulo Tercero: Hidrocarburos, Nueva Constitución Política del Estado (p. 84)
Religión[editar]

A diferencia de la constitución anterior, en la actual la religión católica pierde su carácter de oficial.27

Se establece la libertad de religión y credo, y la independencia del estado de la religión.28 La Iglesia Católica del
país ha señalado que este artículo pone en riesgo la espiritualidad del pueblo de Bolivia.27

El texto establece el derecho a la vida,29 pero sin especificar si éste aplica desde la fecundación, lo que a criterio de
grupos conservadores podría permitir la legalización del aborto.27

Elecciones[editar]

Respecto a la reelección, la constitución establece lo siguiente:

Artículo 168

El periodo de mandato de la Presidenta o del Presidente y de la Vicepresidenta o del Vicepresidente del Estado es de cinco
años, y pueden ser reelectas o reelectos de manera continua por una sola vez.

Segunda Parte, Título II, Capítulo Primero, Sección II: Presidencia y Vicepresidencia del Estado, Nueva Constitución
Política del Estado (p. 40)

La constitución anterior permitía la relección pero solamente tras haber concurrido un período presidencial.30 La
nueva constitución también instala el mecanismo de la segunda vuelta en caso de que ninguna candidatura obtenga
una mayoría contundente (sobre el 50% de los votos, o sobre el 40% con una ventaja de 10% frente a la segunda
candidatura), la que deberá realizarse en un plazo de 60 días.31

El nuevo mecanismo sustituirá al anterior, el que establecía una votación por parte del Congreso Nacional para
decidir al candidato ganador. La constitución también establece la figura de la revocación, permitiendo someter a
referendo algún cargo que esté objetado.30

El texto incluye además el requerimiento de referendos populares para aprobar algunos temas sensibles, lo que se
establece en el siguiente artículo:

Artículo 258
I. [...]
II. Requerirán de aprobación mediante referendo popular vinculante previo a la ratificación los tratados internacionales que
impliquen:

1. Cuestiones limítrofes.
2. Integración monetaria.
3. Integración económica estructural.
4. Cesión de competencias institucionales a organismos internacionales o supranacionales, en el marco de
procesos de integración.
Cuarta Parte, Título VIII, Capítulo Primero: Relaciones internacionales, Nueva Constitución Política del
Estado (p. 60)

Coca[editar]

Un cambio importante en la nueva constitución es la introducción de todo un artículo dedicado a la coca. El


artículo señala:

Artículo 384
El Estado protege a la coca originaria y ancestral como patrimonio cultural, recurso natural renovable de la biodiversidad de
Bolivia, y como factor de cohesión social; en su estado natural no es estupefaciente.La revalorización, producción,
comercialización e industrialización se regirá mediante la ley.

Cuarta Parte, Título II, Capítulo Séptimo, Sección II: Coca, Nueva Constitución Política del Estado (p. 89)

Leyes Estructurales[editar]
Para la adecuada aplicación de la nueva Constitución Política del Estado fueron aprobadas las siguientes leyes
estructurales:

 Ley Marco de Autonomías y Descentralización "Andrés Ibáñez


 Ley del Tribunal Constitucional Plurinacional
 Ley del Órgano Judicial
 Ley del Órgano Electoral Plurinacional
 Ley del Régimen Electoral

Econstitucional - Enciclopedia Constitucional[editar]


Econstitucional

En coordinación con la vicepresidencia del Estado Plurinacional de Bolivia, se funda a la cabeza del expresidente
de Bolivia Dr. Eduardo Rodríguez Veltze y del Dr. Farit Rojas Tudela, el Centro de Estudios Constitucionales,
encargado de realizar una ardua investigación que permitió desarrollar un documento anotado, comentado y
concordado del documento constitucional.

La Constitución Política del Estado es un texto, a saber un tejido, en consecuencia no es una colección de órdenes
de cumplimiento inmediato, sino una combinación sugerente de posibilidades, de materiales con fuerza
performativa, pues son materiales constitucionales. Cualquier discurso sea oral o escrito es un tejido y atraviesa
una serie de capas, de hebras. En este caso una Constitución, como se decía, es un texto, y no hay nada fuera de
este texto, pues este mismo texto está afuera, convocando archivos, convocando instrumentos internacionales de
derechos humanos, convocando derecho comunitario, convocando a las normas y procedimientos propios de las
naciones y pueblos indígena originario campesinos, convocando pluralismo.

El texto supone una serie de significaciones múltiples, capas sobre capas de textualidad. Cajas dentro de cajas,
significantes dentro de significantes, esto nos puede dar una imagen de lo que es un texto, un tejido múltiple. Los
constituyentes empacaron en la Constitución Política del Estado, una serie de derechos, de condiciones de
estatalidad, de instituciones, de realidades posibles, de valores, de principios, de complejidad, de derechos propios
de pueblos indígenas, de derechos de tradición republicana, de neoconstitucionalismos. De lo que trata esta
Constitución anotada, concordada y comentada es de presentar varios despliegues de la Constitución, es decir de
desempacar esto que se encuentra en cada uno de los artículos de la Constitución y que sólo puede ser
comprendido al analizar los archivos del proceso constituyente, la historia constitucional boliviana, los
instrumentos de derechos humanos, la doctrina, la jurisprudencia, las categorías políticas y jurídicas que respiran
en cada uno de los artículos de la Constitución.

Todo texto está estructurado, inferido, de capas sobre capas, pliegues sobre pliegues, hebras sobre hebras. De
manera que leer un texto es siempre un despliegue, un abrir el texto a su multitextualidad. Realizar estos
despliegues es a lo que invita este trabajo.

Esta multiplicidad textual es siempre anterior a todo texto, es decir, en tanto tejido lo está sobre la base de otras
textualidades, por ello nunca hubo una primera vez para una Constitución, la primera vez, es ya, una segunda vez o
una repetición. La multiplicidad textual supone un lugar en el cual se inscriben lugares múltiples. Esta
multiplicidad es imposible de determinar de manera final, es decir determinarlo ya de una vez y para siempre, pues
lo múltiple se abre detrás de ella en devenir. Por ello es una singularidad radical, un /frágil absoluto/, un despliegue
que no es general ni universal, pero tampoco es particular, sino múltiple.

Detrás de cada uno de los cuatrocientos once artículos, diez disposiciones transitorias, una disposición abrogatoria
y una disposición final, se abren los pliegues de la Constitución.

Entonces la Constitución Política del Estado se abre porque justamente ha sido construida, y a la vez se construye
constantemente, en su aplicación, interpretación y en la búsqueda constante de significaciones.

Desplegar la Constitución entonces no significa destruirla, ni tampoco alisarla o simplificarla, ni mucho menos ir
en busca del verdadero significado o la verdadera intención del Derecho que anida en sus artículos. La
multiplicidad siempre se abre, y ello es ir en busca de sus despliegues es ir en busca de la justicia que se aplique al
caso concreto.

Para el Centro de Estudios Constitucionales la justicia no es el Derecho. La justicia es aquello que pretende el
Derecho, pero que a la vez es imposible. La justicia es imposible, y sólo puede sentirse en su ausencia, en su
imposibilidad.

El despliegue que aquí se practica no busca la esencia de la justicia, el significado final de aquello que podría ser lo
justo, porque la Constitución siempre puede ser algo más, ya sea de manera flexible, dúctil, porosa, pero ante todo
este algo más es internamente amigable, modificable, en sí mismo. Un intento de decidir, de decir lo que la justicia
es, pero a la vez sin cerrar su decibilidad, sino más bien reafirmando su carácter de indecible.

Por lo señalado, a momento de tomar el despliegue como método, es preciso tomar las siguientes precauciones:

Primero, ir al texto mismo de la Constitución. Leerlo íntegramente, estar atento a cómo un término se convierte en
categoría construida por la intertextualidad interna del texto constitucional. Como un artículo, un término, una
categoría comienzan a ser invadidos, asediados, cercados, inscriptos por otros artículos, otros términos, otras
categorías de la Constitución, es decir como un texto se abre. Esta tarea debe posibilitar descentrar y abrir las
categorías, en los artículos, en los términos del mismo, para abrir un horizonte más rico de posibilidades de
interpretación. Entonces una parte del despliegue se abre, es decir la multiplicidad se configura en las posibilidades
de interpretación siempre abiertas. Pues la letra, por su estructura, es respetable, diseminadora, pública,
incontenible, no está encadenada a cualquier sentido, definición, destino o contextos fijos. No se sostiene que el
discurso no tenga sentido, o que todo valga sino, por el contrario, que tiene demasiados sentidos por lo cual se
puede fijar su sentido sólo de manera tentativa y en cierta medida, para su aplicabilidad a un caso concreto.

Segundo, ir a aquello que está fuera del texto, pero que a la vez impacta en el mismo, es decir convocar al exterior
constitutivo. Inicialmente este exterior constitutivo se encuentra conformado por los archivos del proceso
constituyente, conforme a lo dispuesto en el parágrafo II del Artículo 196 de la Constitución, en los cuales es
posible advertir una multiplicidad de posibilidades que pueden jugar como /voluntad del constituyente/.
Respetamos la idea de /documentos, actas y resoluciones /señalado en el parágrafo II del Artículo 196, referido. Sin
embargo pluralizamos su comprensión, pues de esta manera el horizonte de posibilidades se enriquece aún más y
las posibilidades de descentrar la comprensión unívoca de un término se abre a mayores posibilidades. Asimismo
este exterior constitutivo se encuentra en la condición de despliegue del texto a partir de la formación de la
tradición constitucional. Toda tradición se sumerge en la historia, es decir toda tradición supone una colección de
textos, de teorizaciones que pueden desplegarse en la lectura y análisis de la Constitución.

Tercero, la pluralidad en la interpretación constitucional no debe posibilitar el cierre, es decir no debe tratarse de
cerrar la interpretación hacia la interpretación final o correcta, sino todo lo contrario, debe abrirla. En este sentido
no se trata de tomar una definición final de lo que concierne a un artículo o a una categoría constitucional, esta
tarea la deberá realizar una política constitucional y no así un despliegue de la Constitución. La falta, la ausencia de
cierre es lo que posibilita pensar al Derecho y los derechos de manera múltiple, de manera dúctil, y es lo que
permite pensar en una política constitucional futura, decidida por las posibilidades de lo performativo.

Cuarto, convocar a la densidad histórica de la Constitución, tanto a partir de la tradición constitucional boliviana
desde el primer Decreto de 13 de agosto de 1825 considerado como la primera Constitución boliviana, pasando por
los textos constitucionales bolivianos del siglo XIX y del siglo XX y las reformas constitucionales recientes.
Convocar su densidad histórica supone también tratar de diseminar en el texto lo que pertenece a la reverberación
de las luchas sociales y políticas que permiten comprender de mejor manera las categorías que posee un artículo de
la Constitución.

Finalmente acercar la Constitución a la vida cotidiana, allí donde sus preceptos deben causar efecto, deben ser
comprensibles. La Constitución, también llamada utopía concreta, debe ser la idea rectora, el mapa de navegación
de una sociedad, de un Estado, de un conjunto de pueblos que buscan, con todos sus esfuerzos, vivir bien.

15
Wiki Loves Monuments: ¡Fotografía un monumento, ayuda a Wikipedia y gana!

Diplomacia
De Wikipedia, la enciclopedia libre
Ir a la navegaciónIr a la búsqueda
Para otros usos de este término, véase Diplomacia (desambiguación).
«Asuntos exteriores» redirige aquí. Para otras acepciones, véase Ministro de Asuntos Exteriores.

Las Naciones Unidas es la mayor organización diplomática del mundo.

Ger van Elk, Symmetry of Diplomacy, 1975, Groninger Museum.

La diplomacia es una profesión cuyo objetivo es representar y velar por los intereses de un Estado y de su nación
en relación a otro Estado u organismo internacional.1
El concepto agrupa distintas acepciones de acuerdo con el mayor o menor grado de inclusión de objetivos y
prácticas que a través de ella se desarrollan. La práctica diplomática se remonta hasta la Grecia clásica, dándose su
evolución paulatinamente de acuerdo con el proporcional incremento de las relaciones internacionales, proceso que
se intensifica en nuestros días. La importancia de la práctica diplomática radica en la versatilidad de las funciones
desempeñadas por la figura de los embajadores residentes, cuyas funciones giran en torno a la generación de
información fidedigna, la minimización de las fricciones potenciales y el fomento de las relaciones amistosas entre
los Estados soberanos.

La práctica diplomática contemporánea se puede distinguir en cuatro formas: la diplomacia bilateral, la d. ad hoc,
la d. directa y aquella llamada multilateral.

Índice
 1 Etimología y evolución histórica del término diplomacia
 2 La figura del agente diplomático
 3 Tipología de las misiones diplomáticas
o 3.1 Diplomacia bilateral
 3.1.1 Ante estados
 3.1.2 Ante organizaciones internacionales
o 3.2 Diplomacia ad hoc
o 3.3 Diplomacia directa o de cumbre
 3.3.1 En serie
 3.3.2 Ad hoc
o 3.4 Diplomacia multilateral
 4 Véase también
 5 Referencias
 6 Bibliografía
 7 Enlaces externos

Etimología y evolución histórica del término diplomacia[editar]


La palabra diplomacia proviene del francés diplomatie, que a su vez derivan del latín diploma y éste del griego
διπλομα (diploma). El término διπλομα se compone del vocablo δίπλο (diplo), que significa doblado en dos, y del
sufijo μα (ma), que hace referencia a un objeto.2

Un diploma era un documento oficial, “una carta de recomendación o que otorgaba una licencia o privilegio”,3
remitida por la autoridad suprema de una entidad política soberana a las autoridades de otra, para informarles que
el poseedor desempeñaba funciones de representación oficial y para solicitarles ciertos privilegios para el
funcionario en la jurisdicción del destinatario. Dicho documento se caracterizaba por estar doblado ,4 y en algunas
ocasiones cosido5 en razón de que el contenido era una comunicación privada entre el remitente y el destinatario.
El documento se entregaba doblado, y contenía una recomendación oficial –con ciertos poderes– para aquellos
funcionarios que se dirigían a otro país o provincia de un Imperio. El portador del ‘pliego’ o diploma era ipso facto
un diplomático.6

En su proceso evolutivo, al pasar por el latín, la palabra diploma fue adquiriendo distintos significados, entre los
que se pueden destacar, “carta doblada en dos partes”, “documento emitido por un magistrado, asegurando al
poseedor algún favor o privilegio”, y “carta de recomendación emitida por el Estado, otorgada a personas que
viajaban a las provincias”.7
Siglos más tarde, en su tránsito por el francés y el inglés, el término diplomacia amplió su alcance a otras
actividades que guardaban relación con el manejo de documentos oficiales entre soberanos. En Francia, la
diplomatie hacía referencia «a todos los documentos solemnes emitidos por las cancillerías, especialmente aquellos
que contenían acuerdos entre soberanos».2 El término inglés «diplomatics» se utilizó específicamente en lo relativo
a la ciencia de la autenticación de documentos antiguos y a la conservación de archivos. El «oficio de tratar con
archivos y diplomas» fue conocido entre los gobiernos europeos como res diplomatica o asuntos diplomáticos, un
elemento que según Harold Nicolson, «es aún vital para el funcionamiento de cualquier servicio exterior
eficiente».8

Hacia finales del siglo XVIII, comenzaron a utilizarse los vocablos diplomatie, en Francia, y diplomacy,9 diplomat
y diplomatist, en el Reino Unido, en referencia al “manejo de las relaciones y negociaciones entre naciones a través
de oficiales del gobierno”.10 Desde entonces, en palabras de algunos autores, un diplomático es “una persona
autorizada a negociar en nombre de un Estado”.2

La figura del agente diplomático[editar]


Un diplomático es aquel agente que envía un Estado (acreditante) ante otro Estado (receptor) para desarrollar las
relaciones entre ambos. Las normas de regulación de la actividad fueron, en su mayoría, de origen consuetudinario,
cristalizándose en la Convención de Viena sobre Relaciones Diplomáticas del 18 de abril de 1961. De acuerdo con
este elemento del derecho internacional público, las funciones del agente diplomático son:

a) Normales

 proteger los intereses del Estado acreditante en el Estado receptor


 fomentar las relaciones amistosas
 ejercer (ciertas) funciones consulares

b) Excepcionales

 representar los intereses de un tercer Estado en el Estado receptor


 representar a un tercer Estado, el cual no posea representación en el Estado que lo recibe

Para la consecución de estos objetivos, los medios de los cuales se sirve son:

 Representar al Estado del cual es originario.


 Negociar con el Estado receptor.
 Informar a su Estado, por todos los medios lícitos.

Tipología de las misiones diplomáticas[editar]


Diplomacia bilateral[editar]

Ante estados[editar]

Eisemberg define las misiones diplomáticas permanentes como el conjunto de la representación del Estado
acreditante en el Estado receptor. La misión permanente es un órgano en el cual se deposita potencialmente toda la
representación del Estado acreditante, comprendiendo todas las funciones, actividades y poderes, por tiempo
ilimitado.

Ese "conjunto de representación" se integra con elementos materiales (locales, archivos, documentos, vehículos,
diversos bienes) y con un grupo de personas (los miembros de la misión); así como, por el estatuto jurídico especial
que los regula, que establece los derechos y las obligaciones de la misión y de sus miembros, regulando además la
relación con el Estado acreditante y el receptor.

Las funciones de las misiones diplomáticas permanentes ante los Estados se enuncian (no taxativamente) en el
artículo 3 de la Convención de Viena de 1961 y son: la representación del Estado acreditante, la protección de los
intereses de Estado acreditante y de sus nacionales, la negociación, la observación por todos los medios lícitos de
las condiciones y acontecimientos del Estado receptor para luego informar de ella a su Estado y el fomento y
desarrollo de las relaciones amistosas, diplomáticas, económicas, culturales y científicas, etc.

Ante organizaciones internacionales[editar]

Doctrinalmente se define a las misiones permanentes ante las organizaciones internacionales como el órgano
encargado de la representación y de la conducción de la actividad diplomática entre un Estado miembro de la
organización, ante ella y en relación con los demás Estados miembros. La misión permanente de observación
puede definirse de igual forma, aunque sus cometidos son más limitados, cuando la acredita un Estado no miembro
de la organización.

Las funciones de las misiones ante las Organizaciones Internacionales se enuncian el artículo 6 de la Convención
de Viena de 1975 y son: la representación del Estado que envía, la negociación, la observación e información, la
protección de sus intereses, así como el enlace con la organización.

Diplomacia ad hoc[editar]

El conjunto no es la totalidad y de ahí que puedan coexistir con ellas otras misiones como las especiales cuya
representatividad es otorgada por un tiempo y para un cometido determinados, los que podrán ser más o menos
amplios, limitación que se pactará en el acuerdo en que se dispone su envío y recepción. El artículo 1 de la
Convención de Nueva York de 1969 define a las misiones especiales. Se entenderá por una misión temporal, que
tenga carácter representativo del Estado, enviada por un Estado ante otro Estado con el consentimiento de este
último, para tratar con él asuntos determinados o realizar ante él un cometido determinado.

Las funciones de las misiones diplomáticas especiales acreditadas ante Estados, «serán determinadas por el
consentimiento mutuo del Estado que envía y del Estado receptor». Las actividades de las misiones especiales se
clasifican en: funciones protocolares (rendir homenajes, participar en un cambio de gobierno, asistir a una boda
real), funciones técnicas (coordinar actividades pesqueras, militares, comerciales, etc.), funciones de naturaleza
política (coordinar la acción internacional de los Estados, firmar un tratado de paz, arreglar una alianza) y
funciones técnico-políticas, aquellas de desarrollo técnico pero cuyos resultados posean un marcado contenido y
una fuerte repercusión política (ej. determinación de una frontera). Las delegaciones (misiones especiales en
órganos y conferencias), no tienen fijado a través de ninguna disposición sus funciones. Debe pensarse entonces
que las funciones de las delegaciones ante un Congreso o Conferencia están determinadas por la naturaleza de
estos y el motivo de la convocatoria. Cuando se tratar de una Delegación en un órgano de la organización, sus
funciones consisten en participar de las deliberaciones representando al Estado que envía.

Diplomacia directa o de cumbre[editar]

En serie[editar]

Aquella a la cual pertenecen las llamadas oficinas temporales o permanentes que los Estados crean para fines
específicos, el envío de funcionarios técnicos para la discusión de asuntos concretos y las llamadas «misiones
especiales».

Ad hoc[editar]
Es aquella que se establece entre varios países con el mismo objetivo. Es utilizada para crear convenios
comerciales con varios estados al mismo tiempo

Diplomacia multilateral[editar]

La diplomacia multilateral está marcada por dos elementos esenciales: las posiciones que un país toma en cuando a
cierto temas o problemas y el proceso por el que un acuerdo acerca de estas situaciones se alcanza. La relación
entre estos dos elementos es la naturaleza dinámica de las actividades diplomáticas en las Naciones Unidas. Como
una relación de negocios, las transacciones diplomáticas dependen de la confianza entre gobiernos y aún más, entre
embajadores (agentes autorizados) de estos gobiernos. Las relaciones diplomáticas multilaterales entre dos
gobiernos en la arena multilateral engloban todos los aspectos de la actividad humana – la política, la economía, las
leyes, la seguridad social, los valores, la lengua, la cultura, el arte, la religión, etcétera.

La diplomacia multilateral es como una tela de araña, con un país jalando en una dirección y otros más en una
dirección opuesta. Cuando se trata de construir un consenso en un ambiente multilateral, los diplomáticos
constantemente tienen que ajustar el proceso de negociaciones mientras este está en marcha. El proceso demanda,
tanto a los gobiernos como a las Naciones Unidas, a encontrar un punto común entre intereses nacionales que
compiten y se contraponen. A través de la discusión, la negociación y el compromiso, el consenso internacional
emerge. Mientras el consenso es el objetivo fundamental de las Naciones Unidas, la complejidad de los intereses y
los puntos de vista hace que sea extremadamente difícil lograrlo en muchas áreas. La divergencia de las posiciones
nacionales son la razón principal por la que el consenso algunas veces tarda años en lograrse

Wiki Loves Monuments: ¡Fotografía un monumento, ayuda a Wikipedia y gana!

Historia de la diplomacia
De Wikipedia, la enciclopedia libre
Ir a la navegaciónIr a la búsqueda
Archivo:Nixon Mao 1972-02-29.png
Encuentro del presidente republicano estadounidense
Richard Nixon con el líder Mao Zedong el 29 de febrero de 1972, durante la histórica visita del primero a China
comunista.

La historia diplomática, o historia de las relaciones internacionales, o historia de la diplomacia, es una


disciplina histórica orientada a estudiar las relaciones entre los estados en un determinado período de tiempo.

La palabra diplomacia deriva del término « diploma » que en los tiempos modernos y contemporáneos significaba
y aún significa « acto jurídico ». En resumidas cuentas, la diplomacia engloba las negociaciones que tienen por
objetivo generar actos y normativas de planificación y regulación de las relaciones entre estados.

Índice
 1 Etimología y evolución histórica del término diplomacia
 2 Orígenes de la diplomacia en la cultura europea
 3 Bibliografía
 4 Notas y referencias
 5 Véase también
 6 Referencias externas

Etimología y evolución histórica del término diplomacia[editar]

Tanques estadounidenses enfrentados a tanques soviéticos en el paso Checkpoint Charlie, en Berlín, durante la
crisis de 1961.

La palabra diplomacia proviene del francés diplomatie y del inglés diplomatics, que a su vez derivan del latín
diploma y éste del griego διπλομα (diploma). El término διπλομα se compone del vocablo δίπλο (diplo), que
significa doblado en dos, y del sufijo μα (ma), que hace referencia a un objeto.1

Un diploma era un documento oficial, “una carta de recomendación o que otorgaba una licencia o privilegio”,2
remitida por la autoridad suprema de una entidad política soberana a las autoridades de otra, para informarles que
el poseedor desempeñaba funciones de representación oficial y para solicitarles ciertos privilegios para el
funcionario en la jurisdicción del destinatario. Dicho documento se caracterizaba por estar doblado,3 y en algunas
ocasiones cosido4 en razón de que el contenido era una comunicación privada entre el remitente y el destinatario.
El documento se entregaba doblado, y contenía una recomendación oficial –con ciertos poderes– para aquellos
funcionarios que se dirigían a otro país o provincia de un Imperio. El portador del ‘pliego’ o diploma era ipso facto
un diplomático.5

En su proceso evolutivo, al pasar por el latín, la palabra diploma fue adquiriendo distintos significados, entre los
que se pueden destacar, “carta doblada en dos partes”, “documento emitido por un magistrado, asegurando al
poseedor algún favor o privilegio”, y “carta de recomendación emitida por el Estado, otorgada a personas que
viajaban a las provincias”.6

Siglos más tarde, en su tránsito por el francés y el inglés, el término diplomacia amplió su alcance a otras
actividades que guardaban relación con el manejo de documentos oficiales entre soberanos. En Francia, la
diplomatie hacía referencia «a todos los documentos solemnes emitidos por las cancillerías, especialmente aquellos
que contenían acuerdos entre soberanos».1 El término inglés «diplomatics» se utilizó específicamente en lo relativo
a la ciencia de la autenticación de documentos antiguos, y a la conservación de archivos. El «oficio de tratar con
archivos y diplomas» fue conocido entre los gobiernos europeos como res diplomatica o asuntos diplomáticos, un
elemento que según Harold Nicolson, «es aún vital para el funcionamiento de cualquier servicio exterior
eficiente».7

Hacia finales del siglo XVIII, comenzaron a utilizarse los vocablos diplomatie (en Francia), y diplomacy,8
diplomat, diplomatist (en el Reino Unido), en referencia al “manejo de las relaciones y negociaciones entre
naciones a través de oficiales del gobierno”.9 Desde entonces, en palabras de algunos autores, un diplomático es
“una persona autorizada a negociar en nombre de un Estado”.1

Orígenes de la diplomacia en la cultura europea[editar]

El Cardenal Richelieu en el sitio de La Rochelle, detalle de una pintura de Henri-Paul Motte (1881).

Al inicio de los tiempos modernos (aproximadamente hasta el Renacimiento), la diplomacia tal como la conocemos
hoy día no existía. Los emisarios enviados por los diferentes estados (ciudades griegas, tribus celtas, imperio
romano, imperios orientales, imperio carolingio y sus missi dominici, etc), se limitaban al rol de mensajeros, no
teniendo verdadero carácter como negociadores.

Es precisamente en los tiempos modernos, con la teorización del Derecho y del rol y base de los estados (Jus
gentium), que la noción de diplomacia surgió, proponiendo una alternativa a la guerra. Así y en ciertos casos, los
embajadores remplazaban a los generales, sin que por en cuanto se desestimara completamente el recurso de la
fuerza con la participación de las fuerzas armadas. La amenaza con la guerra era (y aún lo es) un argumento
convincente en una negociación, complementario de los aspectos diplomáticos.

La lengua francesa fue promovida lengua oficial en Francia, por la ordenanza de Villers-Cotterêts, promulgada por
Francisco I de Francia en 1539, y entonces el francés se convirtió en lengua del Derecho y de la administración en
los actos oficiales. Y ello, a pesar de que el francés era entonces una lengua poco hablada en Francia, en
comparación con algunos de los dialectos regionales entonces existentes.

Según el diplomático americano de la Guerra Fría, Henry Kissinger, autor de Diplomacia, el primer diplomático
digno de ese nombre fue el cardenal Richelieu (1586-1642), primer ministro del rey Luis XIII de Francia. Fue
precisamente él, en efecto, quien aplicó una noción inédita en materia de política extranjera : razón de Estado. Este
principio consiste en privilegiar la seguridad del Estado y de su territorio (y así, de facto también de la población),
respecto de cualquier otra cosa, por más importante o prioritaria que pareciera.

La aplicación directa, y seguramente una de las más representativas, de esta regla, precisamente tuvo lugar durante
el pseudo-reino del cardenal. Entonces Francia aún no había olvidado las terribles consecuencias de las guerras de
religión del siglo XVI, ni al Sacro Imperio Romano Germánico aún en pleno caos (pues el emperador católico
luchaba con fuerza contra los príncipes germánicos protestantes). En ese mismo tiempo, la situación internacional
de Francia era bastante precaria, en la medida que el reino de España y el Sacro Imperio, estaban en manos de la
poderosa familia de los Habsbourg.

En efecto, tomada en tenaza, Francia a cada instante temía una doble invasión por los Pirineos y por el Rhin. Con
el fin de poner fin a esta situación tan preocupante, que no permitía entrever un porvenir estable y venturoso, el
astuto cardenal tomó una decisión, que incluso iba en contra de su propio hábito rojo : ordenó poner a disposición
de los príncipes protestantes germánicos, tanto medios financieros como militares y materiales, con el fin de lograr
desestabilizar al emperador Habsbourg, y, si fuera posible, debilitar duraderamente el poder del Sacro Imperio. Las
órdenes fueron cumplidas, a pesar de las recriminaciones de todo tipo que debió sufrir Richelieu — de la curia
romana y desde el propio territorio francés. Esta decisión diplomático-estratégica permitió a Francia estabilizar la
seguridad de sus fronteras este y suroeste, puesto que España ya no se mostró más amenazante al observar la
debilidad de su aliado, y puesto que del otro lado del Rhin la prioridad entonces eran los propios asuntos internos.
Fue esta supremacía francesa en el continente lograda como se indicó, que entre otras cosas permitió a Luis XIV de
Francia extender su reinado hasta Holanda. En el curso del siglo XVII, la regla de la razón de Estado fue
finalmente adoptada por todos los países europeos, dando entonces a Francia mayor prestigio y cierta ventaja en
política exterior.

En realidad, no fue exactamente Richelieu quien inventó el concepto de razón de Estado; esta idea se la debemos a
dos autores italianos: Nicolás Maquiavelo10 en la obra El Príncipe (De Principatibus, 1513); y Giovanni Botero en
la obra De la Razón de Estado (Della Ragione del Stato, 1589). Machiavelo (o Maquiavelo) en realidad jamás citó
la expresión razón de Estado, aunque toda su doctrina es concordante con este principio. Y como prueba, basta por
ejemplo con mencionar un lacónico pasaje del capítulo XV11 de su obra mayor (El Príncipe): Bien des gens ont
imaginé des républiques et des principautés telles qu'on n'en a jamais vu ni connu. Mais à quoi servent ces
imaginations ? Il y a si loin de la manière dont on vit à celle dont on devrait vivre, qu'en n'étudiant que cette
dernière on apprend plutôt à se ruiner qu'à se conserver ; et celui qui veut en tout et partout se montrer homme de
bien ne peut manquer de périr au milieu de tant de méchants. L'homme d'État n'est donc pas l'homme de bien rêvé
par nombre de philosophes mais en réalité un être rompu à la turpitude des évènements socio-politiques et
n'hésitant pas à faire acte de cynisme le cas échéant. (traducción al español:12)

Carl von Clausewitz, oficial durante las guerras napoleónicas, evocará en una fórmula lapidaria el rol de la
diplomacia, en los siguientes términos : La guerre est le prolongement de la politique par d'autres moyens (en
español: La guerra es prolongación de la política por otros medios); donde aquí política debe ser comprendida en
el marco de los asuntos internacionales. Así, guerra y diplomacia no son necesariamente antinómicas en el espíritu
de Clausewitz

Primera parte. relaciones diplomáticas de bolivia

1. 1. Relaciones diplomáticas de Bolivia Tema 7 Ethel Chávez de Vandergriff


2. 2. ¿La diplomacia ? “La conducción de las relaciones internacionales por negociación, más que por la
fuerza, la propaganda, o el recurso del derecho, y por otros medios pacíficos – como recabar información o
generar buena voluntad- que están directa o indirectamente diseñados para promover la negociación. Una
actividad esencialmente política y una institución del sistema internacional” (Berridge)
3. 3. Ámbito de las relaciones diplomáticas de Bolivia • Se destacan las relaciones con los países vecinos pero
se han ampliado las relaciones con otros países y regiones del mundo. • Bolivia es miembro de
organizaciones internacionales como la OEA o el Grupo de Río y es parte de acuerdos economicos como
CAN , MERCOSUR, ALADI, ALCA, entre otros. • Además Bolivia es receptora de Cooperación
Internacional, de ONGs y organismos de desarrollo.
4. 4. Relaciones diplomáticas con los países vecinos • A través del tiempo Bolivia ha sufrido perdidas
territoriales que han marcado a su vez las relaciones diplomáticas con los países vecinos. • Asi, la geografia
límitrofe forma parte del estudio de las relaciones diplomáticas de los países. • La geografía limítrofe es la
que estudia los tratados, convenios, protocolos y acuerdos internacionales en general que han determinado
los límites históricos de los Estados.
5. 5. Relaciones diplomáticas con Chile • A partir de la perdida del litoral, las relaciones con Chile han sido
marcadas por la demanda de una salida al mar. • La pérdida del litoral fue establecida en el tratado de Paz y
Amistad de 1904 en la gestión del presidente Ismael Montes.
6. 6. Relaciones diplomáticas con Chile • Chile ofreció varias veces la recuperación de una salida pero no han
surgido efecto por ser realizadas solo por urgencias del momento. • En 1962 se dio la primera protesta por
la desviación de las aguas del río Lauca. Desde entonces las relaciones se han mantenido
semiinterrumpidas. “si de números se trata, fuentes diplomáticas señalan que el litro de agua por segundo
cuesta 1,40 centavos de dólar. Y, Chile desvía unos 3.000 litros por segundo, por lo que, según la lógica de
la fuente diplomática, debe pagar al menos por la mitad tratándose de un río internacional. Pero, los
reclamos bolivianos quedaron en sólo eso. Chile nunca los escuchó siquiera”. Lauca, Quetena, Caquena,
Irpa; el agua que Chile utiliza sin pagar. 2004 http://www.bolivia.com/noticias/autonoticia
s/DetalleNoticia22425.asp#
7. 7. Relaciones diplomáticas con Chile El Gobierno de Bolivia creó la Dirección de Reivindicación Marítima
(Diremar) en 2011. El agente encargado de defender la demanda en la CIJ de La Haya es el expresidente
del país Eduardo Rodríguez Veltzé (2005-2006), que también tiene el puesto de embajador en Holanda. Se
esta exigiendo se obligue a Santiago a dialogar sobre una salida al Pacífico en el marco de los ofrecimientos
chilenos a lo largo de la historia de resolver el diferendo arrastrado desde 1879, tras la guerra del Pacífico. •
Entre 1975 y 1978 los presidentes restablecen las embajadas. Se discutió la petición boliviana pero
finalmente se rompen relaciones al no ver una intención verdadera para alcanzar un acuerdo. • En el 2006
se da un acercamiento de cancilleres donde se discuten temas como: Salida al mar, venta de gas natural a
Chile, uso de las aguas del Silala.
8. 8. Relaciones diplomáticas con Perú • Las relaciones son generalmente de acercamiento y cordialidad. •
Solo a finales del Siglo XIX hubo un problema por zonas gumiferas al norte del país. Pero en 1902 se
solucionó mediante dos tratados: Arbitraje Juris y Daniel Sanchez- Solon Polo en 1909. • Se comparte con
Perú el Lago Titicaca y la salida al mar que Perú otorgó a Bolivia en 1992 a través del Puerto de Ilo.
9. 9. Relaciones diplomáticas con Perú • Ambos países participan en organismos económicos como la CAN
10. 10. Relaciones diplomáticas con Brasil • En 1866 el hábil gobierno brasilero logro firmar un tratado con
Bolivia por el cual se apoderaba del territorio del Mato Groso y una parte de la región del Acre. Ambas
importantes por sus reservas de hierro y Caucho.
11. 11. Relaciones diplomáticas con Brasil • Otros puntos importantes son: o la Declaración Presidencial del
Acre en 2004. o La exportación de gas natural boliviano al Brasil.
12. 12. Relaciones diplomáticas con Argentina • Las relaciones con Argentina han sido tranquilas a excepción
de los problemas limítrofes sobre Tarija, el Chaco Central y la Punta de Atacama. • Actualmente las
relaciones se realizan en el marco del Acuerdo de Complementariedad económica con el MERCOSUR
13. 13. Relaciones diplomáticas con Argentina Se destaca en las relaciones con Argentina el Acuerdo de
compra- venta de Gas natural boliviano firmado el 2006.
14. 14. Tarea de investigación http://internacional.universia.net/latinoamerica/minist erios/ • Del link superior
investigar los nombres de los cancilleres de los países sudamericanos y sus respectivos presidentes.
Elaborar una lista y memorizarlos.

BTH Electricidad
De Wikipedia, la enciclopedia libre
Ir a la navegaciónIr a la búsqueda

Los Rayos son un ejemplo de fenómeno eléctrico natural.

La electricidad (del griego ήλεκτρον élektron, cuyo significado es ‘ámbar’)1 es el conjunto de fenómenos físicos
relacionados con la presencia y flujo de cargas eléctricas. Se manifiesta en una gran variedad de fenómenos como
los rayos, la electricidad estática, la inducción electromagnética o el flujo de corriente eléctrica. Es una forma de
energía tan versátil que tiene un sinnúmero de aplicaciones, por ejemplo: transporte, climatización, iluminación y
computación.2

La electricidad se manifiesta mediante varios fenómenos y propiedades físicas:

 Carga eléctrica: una propiedad de algunas partículas subatómicas, que determina su interacción
electromagnética. La materia eléctricamente cargada produce y es influida por los campos
electromagnéticos.
 Corriente eléctrica: un flujo o desplazamiento de partículas cargadas eléctricamente por un material
conductor. Se mide en amperios.
 Campo eléctrico: un tipo de campo electromagnético producido por una carga eléctrica, incluso cuando no
se está moviendo. El campo eléctrico produce una fuerza en toda otra carga, menor cuanto mayor sea la
distancia que separa las dos cargas. Además, las cargas en movimiento producen campos magnéticos.
 Potencial eléctrico: es la capacidad que tiene un campo eléctrico de realizar trabajo. Se mide en voltios.
 Magnetismo: la corriente eléctrica produce campos magnéticos, y los campos magnéticos variables en el
tiempo generan corriente eléctrica.

La electricidad se usa para generar:

 luz, mediante bombillas en lámparas y otros objetos lumínicos.


 calor, aprovechando el efecto Joule
 movimiento, mediante motores que transforman la energía eléctrica en energía mecánica
 señales, mediante sistemas electrónicos, compuestos de circuitos eléctricos que incluyen componentes
activos (tubos de vacío, transistores, diodos y circuitos integrados) y componentes pasivos como resistores,
inductores y condensadores.

Índice
 1 Historia de la electricidad
 2 Conceptos
o 2.1 Carga eléctrica
o 2.2 Corriente eléctrica
o 2.3 Campo eléctrico
o 2.4 Potencial eléctrico
o 2.5 Electromagnetismo
o 2.6 Circuitos eléctricos
 3 Propiedades eléctricas de los materiales
o 3.1 Origen microscópico
o 3.2 Conductividad y resistividad
 4 Producción y usos de la electricidad
o 4.1 Generación y transmisión
o 4.2 Aplicaciones de la electricidad
 5 Electricidad en la naturaleza
o 5.1 Mundo inorgánico
 5.1.1 Descargas eléctricas atmosféricas
 5.1.2 Campo magnético terrestre
o 5.2 Mundo orgánico
 5.2.1 Uso biológico
 6 Véase también
 7 Referencias
 8 Bibliografía
 9 Enlaces externos

Historia de la electricidad[editar]
Artículo principal: Historia de la electricidad

El fenómeno de la electricidad se ha estudiado desde la antigüedad, pero su estudio científico comenzó en los
siglos XVII y XVIII. A finales del siglo XIX, los ingenieros lograron aprovecharla para uso doméstico e industrial.
La rápida expansión de la tecnología eléctrica la convirtió en la columna vertebral de la sociedad industrial
moderna.3

Michael Faraday relacionó el magnetismo con la electricidad.

Mucho antes de que existiera algún conocimiento sobre la electricidad, la humanidad era consciente de las
descargas eléctricas producidas por peces eléctricos. Textos del Antiguo Egipto que datan del 2750 a. C. se referían
a estos peces como «los tronadores del Nilo», descritos como los protectores de los otros peces. Posteriormente, los
peces eléctricos también fueron descritos por los romanos, griegos, árabes, naturalistas y físicos.4 Autores antiguos
como Plinio el Viejo o Escribonio Largo, describieron el efecto adormecedor de las descargas eléctricas producidas
por peces eléctricos y rayas eléctricas. Además, sabían que estas descargas podían transmitirse por materias
conductoras.5 Los pacientes de enfermedades como la gota y el dolor de cabeza se trataban con peces eléctricos,
con la esperanza de que la descarga pudiera curarlos.6 La primera aproximación al estudio del rayo y a su relación
con la electricidad se atribuye a los árabes, que antes del siglo XV tenían una palabra para rayo (raad) aplicado al
rayo eléctrico.

En culturas antiguas del mediterráneo se sabía que ciertos objetos, como una barra de ámbar, al frotarla con una
lana o piel podía atraer objetos livianos como plumas. Hacia el año 600 a. C., Tales de Mileto hizo una serie de
observaciones sobre electricidad estática. Concluyó que la fricción dotaba de magnetismo al ámbar, al contrario
que minerales como la magnetita, que no necesitaban frotarse.789 Tales se equivocó al creer que esta atracción la
producía un campo magnético, aunque más tarde la ciencia probaría la relación entre el magnetismo y la
electricidad. Según una teoría controvertida, los partos podrían haber conocido la electrodeposición, basándose en
el descubrimiento en 1936 de la Batería de Bagdad, similar a una celda voltaica, aunque es dudoso que el artefacto
fuera de naturaleza eléctrica.10

En el siglo XVII, mientras la electricidad aún se consideraba poco más que un espectáculo de salón, William
Gilbert realizó un estudio cuidadoso de electricidad y magnetismo. Diferenció el efecto producido por trozos de
magnetita, de la electricidad estática producida al frotar ámbar.9 Además, acuñó el término neolatino electricus
(que, a su vez, proviene de ήλεκτρον [elektron], la palabra griega para ámbar) para referirse a la propiedad de atraer
pequeños objetos después de haberlos frotado.11 Esto originó los términos eléctrico y electricidad, que aparecen
por vez primera en 1646 en la publicación Pseudodoxia Epidemica de Thomas Browne.12

En el siglo XVIII, se producen nuevas aproximaciones científicas al fenómeno, por parte de investigadores
sistemáticos como Henry Cavendish,1314 Du Fay,15 van Musschenbroek16 y Watson.17 Sus observaciones empiezan
a dar sus frutos con Galvani,18 Volta,19 Coulomb20 y Franklin,21 y, ya a comienzos del siglo XIX, con Ampère,22
Faraday23 y Ohm.24 No obstante, el desarrollo de una teoría que unificara la electricidad con el magnetismo como
dos manifestaciones de un mismo fenómeno llegó con la formulación de las ecuaciones de Maxwell en 1865.25

Los desarrollos tecnológicos que produjeron la Primera Revolución Industrial no hicieron uso de la electricidad. Su
primera aplicación práctica generalizada fue el telégrafo eléctrico de Samuel Morse (1833), que revolucionó las
telecomunicaciones.26 La generación industrial de electricidad comenzó a fines del siglo XIX. cuando se extendió
la iluminación eléctrica de las calles y las casas. La creciente sucesión de aplicaciones de esta forma de energía
hizo de la electricidad una de las principales fuerzas motrices de la Segunda Revolución Industrial.27 Fue un tiempo
de grandes inventores, como Gramme,28 Westinghouse,29 von Siemens30 o Alexander Graham Bell.31 Entre ellos
destacaron Nikola Tesla y Thomas Alva Edison, cuya revolucionaria manera de entender la relación entre
investigación y mercado capitalista convirtió la innovación tecnológica en una actividad industrial.3233

Conceptos[editar]
Carga eléctrica[editar]

Interacciones entre cargas de igual y distinta naturaleza.


Artículo principal: Carga eléctrica. Véanse también: Electrón, Protón e Ion.

La carga eléctrica es una propiedad de la materia que se manifiesta mediante fuerzas de atracción y repulsión. La
carga se origina en el átomo, que está compuesto de partículas subatómicas cargadas como el electrón y el protón.34
La carga puede transferirse entre los cuerpos por contacto directo o al pasar por un material conductor,
generalmente metálico.35 El término electricidad estática se refiere a la presencia de carga en un cuerpo, por lo
general causado por dos materiales distintos que se frotan entre sí, transfiriéndose carga uno al otro.36

La presencia de carga da lugar a la fuerza electromagnética: una carga ejerce una fuerza sobre las otras. Este efecto
era conocido en la antigüedad, pero no comprendido.37 Una bola liviana, suspendida de un hilo, podía cargarse al
contacto con una barra de vidrio cargada previamente por fricción con un tejido. Se encontró que si una bola
similar se cargaba con la misma barra de vidrio, se repelían entre sí. A finales del siglo XVIII, Charles-Augustin de
Coulomb investigó este fenómeno. Dedujo que la carga se manifiesta de dos formas opuestas.38 Este
descubrimiento trajo el conocido axioma «objetos con la misma polaridad se repelen y con diferente polaridad se
atraen».3739

La fuerza actúa en las partículas cargadas entre sí, y además la carga tiene tendencia a extenderse sobre una
superficie conductora. La magnitud de la fuerza electromagnética, ya sea atractiva o repulsiva, se expresa por la ley
de Coulomb, que relaciona la fuerza con el producto de las cargas y tiene una relación inversa al cuadrado de la
distancia entre ellas.4041 La fuerza electromagnética es muy fuerte, la segunda después de la interacción nuclear
fuerte,42 con la diferencia que esa fuerza opera sobre todas las distancias.43 En comparación con la débil fuerza
gravitacional, la fuerza electromagnética que aleja a dos electrones es 1042 veces más grande que la atracción
gravitatoria que los une.44

Una carga puede expresarse como positiva o negativa. Las cargas de los electrones y de los protones tienen signos
contrarios. Por convención, la carga que tiene electrones se asume negativa y la de los protones, positiva, una
costumbre que empezó con el trabajo de Benjamin Franklin.45 La cantidad de carga se representa por el símbolo Q
y se expresa en culombios.46 Todos los electrones tienen la misma carga, aproximadamente de -1.6022×10−19
culombios. El protón tiene una carga igual pero de signo opuesto +1.6022×10−19 coulombios. La carga no solo está
presente en la materia, sino también en la antimateria: cada antipartícula tiene una carga igual y opuesta a su
correspondiente partícula.47

La carga puede medirse de diferentes maneras. Un instrumento muy antiguo es el electroscopio, que aún se usa
para demostraciones en las aulas, aunque ahora está superado por el electrómetro electrónico.48

Corriente eléctrica[editar]
Artículo principal: Corriente eléctrica

Un arco eléctrico permite una demostración de la energía de la corriente eléctrica.

Se conoce como corriente eléctrica al movimiento de cargas eléctricas. La corriente puede estar producida por
cualquier partícula cargada eléctricamente en movimiento. Lo más frecuente es que sean electrones, pero cualquier
otra carga en movimiento se puede definir como corriente.49 Según el Sistema Internacional, la intensidad de una
corriente eléctrica se mide en amperios, cuyo símbolo es A.50

Históricamente, la corriente eléctrica se definió como un flujo de cargas positivas y se fijó como sentido
convencional de circulación de la corriente el flujo de cargas desde el polo positivo al negativo. Más adelante se
observó que, en los metales, los portadores de carga son electrones, con carga negativa, y que se desplazan en
sentido contrario al convencional.51 Lo cierto es que, dependiendo de las condiciones, una corriente eléctrica puede
consistir en un flujo de partículas cargadas en una dirección, o incluso simultáneamente en ambas direcciones. La
convención positivo-negativo se usa normalmente para simplificar esta situación.49

El proceso por el cual la corriente eléctrica circula por un material se llama conducción eléctrica. Su naturaleza
varía, dependiendo de las partículas cargadas y el material por el cual están circulando. Ejemplos de corrientes
eléctricas son la conducción metálica, donde los electrones recorren un conductor eléctrico, como un metal; y la
electrólisis, donde los iones (átomos cargados) fluyen a través de líquidos. Mientras que las partículas pueden
moverse muy despacio, algunas veces con una velocidad media de deriva de solo fracciones de milímetro por
segundo,52 el campo eléctrico que las controla se propaga cercano a la velocidad de la luz, permitiendo que las
señales eléctricas se transmitan rápidamente por los cables.53

La corriente produce muchos efectos visibles, que han hecho que su presencia se reconozca a lo largo de la
historia. En 1800, Nicholson y Carlisle descubrieron que el agua podía descomponerse por la corriente de una pila
voltaica, en un proceso que se conoce como electrólisis. En 1833, Michael Faraday amplió este trabajo.54 En 1840,
James Prescott Joule descubrió que la corriente a través de una resistencia eléctrica aumenta la temperatura,
fenómeno que en la actualidad se denomina Efecto Joule.54

Campo eléctrico[editar]
Artículo principal: Campo eléctrico

Líneas de campo saliendo de una carga positiva hacia un conductor plano.

El concepto de campo eléctrico fue introducido por Michael Faraday. Un campo eléctrico se crea por un cuerpo
cargado en el espacio que lo rodea, y produce una fuerza que ejerce sobre otras cargas ubicadas en el campo. Un
campo eléctrico actúa entre dos cargas de modo muy parecido al campo gravitatorio que actúa sobre dos masas.
Como él, se extiende hasta el infinito y su valor es inversamente proporcional al cuadrado de la distancia.43 Sin
embargo, hay una diferencia importante: mientras la gravedad siempre actúa como atracción, el campo eléctrico
puede producir atracción o repulsión. Si un cuerpo grande como un planeta no tiene carga neta, el campo eléctrico
a una distancia determinada es cero. Por ello, la gravedad es la fuerza dominante en el universo, a pesar de ser
mucho más débil.44

Un campo eléctrico varía en el espacio, y su intensidad en cualquier punto se define como la fuerza (por unidad de
carga) que percibiría una carga si estuviera ubicada en ese punto.55 La carga de prueba debe de ser insignificante,
para evitar que su propio campo afecte el campo principal y también debe ser estacionaria para evitar el efecto de
los campos magnéticos. Como el campo eléctrico se define en términos de fuerza, y una fuerza es un vector,
entonces el campo eléctrico también es un vector, con magnitud y dirección. Específicamente, es un campo
vectorial.55

El motor eléctrico aprovecha un efecto importante del electromagnetismo: una corriente a través de un campo
magnético experimenta una fuerza en el mismo ángulo del campo y la corriente.

Potencial eléctrico[editar]
Artículo principal: Potencial eléctrico

El concepto de potencial eléctrico tiene mucha relación con el de campo eléctrico. Una carga pequeña ubicada en
un campo eléctrico experimenta una fuerza, y para llevar esa carga a ese punto en contra de la fuerza necesita hacer
un trabajo. El potencial eléctrico en cualquier punto se define como la energía requerida para mover una carga de
ensayo ubicada en el infinito a ese punto.56 Por lo general se mide en voltios, donde un voltio es el potencial que
necesita un julio de trabajo para atraer una carga de un culombio desde el infinito. Esta definición formal de
potencial tiene pocas aplicaciones prácticas. Un concepto más útil es el de diferencia de potencial, que se define
como la energía requerida para mover una carga entre dos puntos específicos. El campo eléctrico tiene la propiedad
especial de ser conservativo, es decir que no importa la trayectoria realizada por la carga de prueba; todas las
trayectorias entre dos puntos específicos consumen la misma energía, y además con un único valor de diferencia de
potencial.56

Electromagnetismo[editar]
Artículo principal: Electromagnetismo

Se denomina electromagnetismo a la teoría física que unifica los fenómenos eléctricos y magnéticos. Sus
fundamentos son obra de Faraday, pero fueron formulados por primera vez de modo completo por Maxwell,5758
mediante cuatro ecuaciones diferenciales vectoriales, conocidas como ecuaciones de Maxwell. Relacionan el
campo eléctrico, el campo magnético y sus respectivas fuentes materiales: densidad de carga eléctrica, corriente
eléctrica, desplazamiento eléctrico y corriente de desplazamiento.59

A principios del siglo XIX, Ørsted encontró evidencia empírica de que los fenómenos magnéticos y eléctricos
estaban relacionados. A partir de esa base, en 1861 Maxwell unificó los trabajos de Ampère, Sturgeon, Henry,
Ohm y Faraday, en un conjunto de ecuaciones que describían ambos fenómenos como uno solo, el fenómeno
electromagnético.60

Se trata de una teoría de campos. Sus explicaciones y predicciones se basan en magnitudes físicas vectoriales, que
dependen de la posición en el espacio y del tiempo. El electromagnetismo describe los fenómenos físicos
macroscópicos en los que intervienen cargas eléctricas en reposo y en movimiento, usando para ello campos
eléctricos y magnéticos y sus efectos sobre la materia.

Historia de la electricidad
De Wikipedia, la enciclopedia libre
Ir a la navegaciónIr a la búsqueda

Un fragmento de ámbar como el que pudo utilizar Tales de Mileto en su experimentación del efecto triboeléctrico.
El nombre en griego de este material (ελεκτρον, elektron) se utilizó para nombrar al fenómeno y la ciencia que lo
estudia, a partir del libro De Magnetes, Magneticisque Corporibus, et de Magno Magnete Tellure, de William
Gilbert (1600).
Grabado mostrando la teoría del galvanismo según los experimentos de Luigi Galvani. De viribus electricitatis in
motu musculari commentarius, 1792.

La historia de la electricidad se refiere al estudio y uso humano de la electricidad, al descubrimiento de sus leyes
como fenómeno físico y a la invención de artefactos para su uso práctico.

El fenómeno en sí, fuera de su relación con el observador humano, no tiene historia; y si se la considerase como
parte de la historia natural, tendría tanta como el tiempo, el espacio, la materia y la energía. Como también se
denomina la electricidad a la rama de la ciencia que estudia el fenómeno y a la rama de la tecnología que lo aplica,
la historia de la electricidad es la rama de la historia de la ciencia y de la historia de la tecnología que se ocupa de
su surgimiento y evolución.

Uno de sus hitos iniciales puede situarse hacia el año 600 a. C., cuando el filósofo griego Tales de Mileto observó
que frotando una varilla de ámbar con lana o piel, se obtenían pequeñas cargas (efecto triboeléctrico) que atraían
pequeños objetos, y frotando mucho tiempo podía causar la aparición de una chispa. Cerca de la antigua ciudad
griega de Magnesia se encontraban las denominadas piedras de Magnesia, que incluían magnetita. Los antiguos
griegos observaron que los trozos de este material se atraían entre sí, y también a pequeños objetos de hierro. Las
palabras magneto (equivalente en español a imán) y magnetismo derivan de ese topónimo.

La electricidad evolucionó históricamente desde la simple percepción del fenómeno, a su tratamiento científico,
que no se haría sistemático hasta el siglo XVIII. Se registraron a lo largo de la Edad Antigua y Media otras
observaciones aisladas y simples especulaciones, así como intuiciones médicas (uso de peces eléctricos en
enfermedades como la gota y el dolor de cabeza) referidas por autores como Plinio el Viejo y Escribonio Largo,1 u
objetos arqueológicos de interpretación discutible, como la Batería de Bagdad,2 un objeto encontrado en Irak en
1938, fechado alrededor de 250 a. C., que se asemeja a una celda electroquímica. No se han encontrado
documentos que evidencien su utilización, aunque hay otras descripciones anacrónicas de dispositivos eléctricos en
muros egipcios y escritos antiguos.

Esas especulaciones y registros fragmentarios son el tratamiento casi exclusivo (con la notable excepción del uso
del magnetismo para la brújula) que hay desde la Antigüedad hasta la Revolución científica del siglo XVII; aunque
todavía entonces pasa a ser poco más que un espectáculo para exhibir en los salones. Las primeras aportaciones
que pueden entenderse como aproximaciones sucesivas al fenómeno eléctrico fueron realizadas por investigadores
sistemáticos como William Gilbert, Otto von Guericke, Du Fay, Pieter van Musschenbroek (botella de Leyden) o
William Watson. Las observaciones sometidas a método científico empiezan a dar sus frutos con Luigi Galvani,
Alessandro Volta, Charles-Augustin de Coulomb o Benjamin Franklin, proseguidas a comienzos del siglo XIX por
André-Marie Ampère, Michael Faraday o Georg Ohm. Los nombres de estos pioneros terminaron bautizando las
unidades hoy utilizadas en la medida de las distintas magnitudes del fenómeno. La comprensión final de la
electricidad se logró recién con su unificación con el magnetismo en un único fenómeno electromagnético descrito
por las ecuaciones de Maxwell (1861-1865).

El telégrafo eléctrico (Samuel Morse, 1833, precedido por Gauss y Weber, 1822) puede considerarse como la
primera gran aplicación en el campo de las telecomunicaciones, pero no será en la primera revolución industrial,
sino a partir del cuarto final del siglo XIX cuando las aplicaciones económicas de la electricidad la convertirán en
una de las fuerzas motrices de la segunda revolución industrial. Más que de grandes teóricos como Lord Kelvin,
fue el momento de ingenieros, como Zénobe Gramme, Nikola Tesla, Frank Sprague, George Westinghouse, Ernst
Werner von Siemens, Alexander Graham Bell y sobre todo Thomas Alva Edison y su revolucionaria manera de
entender la relación entre investigación científico-técnica y mercado capitalista. Los sucesivos cambios de
paradigma de la primera mitad del siglo XX (relativista y cuántico) estudiarán la función de la electricidad en una
nueva dimensión: atómica y subatómica.

Multiplicador de tensión Cockcroft-Walton utilizado en un acelerador de partículas de 1937, que alcanzaba un


millón de voltios.

La electrificación no sólo fue un proceso técnico, sino un verdadero cambio social de implicaciones
extraordinarias, comenzando por el alumbrado y siguiendo por todo tipo de procesos industriales (motor eléctrico,
metalurgia, refrigeración...) y de comunicaciones (telefonía, radio). Lenin, durante la Revolución bolchevique,
definió el socialismo como la suma de la electrificación y el poder de los soviets,3 pero fue sobre todo la sociedad
de consumo que nació en los países capitalistas, la que dependió en mayor medida de la utilización doméstica de la
electricidad en los electrodomésticos, y fue en estos países donde la retroalimentación entre ciencia, tecnología y
sociedad desarrolló las complejas estructuras que permitieron los actuales sistemas de I+D e I+D+I, en que la
iniciativa pública y privada se interpenetran, y las figuras individuales se difuminan en los equipos de
investigación.

La energía eléctrica es esencial para la sociedad de la información de la tercera revolución industrial que se viene
produciendo desde la segunda mitad del siglo XX (transistor, televisión, computación, robótica, internet...).
Únicamente puede comparársele en importancia la motorización dependiente del petróleo (que también es
ampliamente utilizado, como los demás combustibles fósiles, en la generación de electricidad). Ambos procesos
exigieron cantidades cada vez mayores de energía, lo que está en el origen de la crisis energética y medioambiental
y de la búsqueda de nuevas fuentes de energía, la mayoría con inmediata utilización eléctrica (energía nuclear y
energías alternativas, dadas las limitaciones de la tradicional hidroelectricidad). Los problemas que tiene la
electricidad para su almacenamiento y transporte a largas distancias, y para la autonomía de los aparatos móviles,
son retos técnicos aún no resueltos de forma suficientemente eficaz.

El impacto cultural de lo que Marshall McLuhan denominó Edad de la Electricidad, que seguiría a la Edad de la
Mecanización (por comparación a cómo la Edad de los Metales siguió a la Edad de Piedra), radica en la altísima
velocidad de propagación de la radiación electromagnética (300 000 km/s) que hace que se perciba de forma casi
instantánea. Este hecho conlleva posibilidades antes inimaginables, como la simultaneidad y la división de cada
proceso en una secuencia. Se impuso un cambio cultural que provenía del enfoque en "segmentos especializados de
atención" (la adopción de una perspectiva particular) y la idea de la "conciencia sensitiva instantánea de la
totalidad", una atención al "campo total", un "sentido de la estructura total". Se hizo evidente y prevalente el
sentido de "forma y función como una unidad", una "idea integral de la estructura y configuración". Estas nuevas
concepciones mentales tuvieron gran impacto en todo tipo de ámbitos científicos, educativos e incluso artísticos
(por ejemplo, el cubismo). En el ámbito de lo espacial y político, "la electricidad no centraliza, sino que
descentraliza... mientras que el ferrocarril requiere un espacio político uniforme, el avión y la radio permiten la
mayor discontinuidad y diversidad en la organización espacial".4

Índice
 1 Siglo XVII
o 1.1 William Gilbert: materiales eléctricos y materiales aneléctricos (1600)
o 1.2 Otto von Guericke: las cargas eléctricas (1660)
 2 Siglo XVIII: la Revolución industrial
o 2.1 Stephen Gray: los efluvios (1729)
o 2.2 Charles François de Cisternay Du Fay: carga vítrea y carga resinosa (1733)
o 2.3 Pieter van Musschenbroek: la botella de Leyden (1745)
o 2.4 William Watson: la corriente eléctrica (1747)
o 2.5 Benjamin Franklin: el pararrayos (1752)
o 2.6 Charles-Augustin de Coulomb: fuerza entre dos cargas (1777)
o 2.7 Luigi Galvani: el impulso nervioso (1780)
o 2.8 Alessandro Volta: la pila de Volta (1800)
 3 Principios del siglo XIX: el tiempo de los teóricos
o 3.1 Humphry Davy: la electrólisis (1807) y el arco eléctrico (1808)
o 3.2 Hans Christian Ørsted: el electromagnetismo (1819)
o 3.3 Thomas Johann Seebeck: la termoelectricidad (1821)
o 3.4 André-Marie Ampère: el solenoide (1822)
o 3.5 William Sturgeon: el electroimán (1825), el conmutador (1832) y el galvanómetro (1836)
o 3.6 Georg Simon Ohm: la ley de Ohm (1827)
o 3.7 Joseph Henry: inducción electromagnética (1830)
o 3.8 Johann Carl Friedrich Gauss: Teorema de Gauss de la electrostática
o 3.9 Michael Faraday: inducción (1831), generador (1831-1832), leyes y jaula de Faraday
o 3.10 Heinrich Friedrich Lenz: ley de Lenz (1834)
o 3.11 Jean Peltier: efecto Peltier (1834), inducción electrostática (1840)
o 3.12 Samuel Morse: telégrafo (1833-1837)
o 3.13 Ernst Werner M. von Siemens: Locomotora eléctrica (1879)
o 3.14 Charles Wheatstone: puente de Wheatstone (1843)
o 3.15 James Prescott Joule: relaciones entre electricidad, calor y trabajo (1840-1843)
o 3.16 Gustav Robert Kirchhoff: leyes de Kirchhoff (1845)
o 3.17 William Thomson (Lord Kelvin): relación entre los efectos Seebeck y Peltier (1851), cable
flexible (1858)
o 3.18 Heinrich Daniel Ruhmkorff: la bobina de Ruhmkorff genera chispas de alto voltaje (1851)
o 3.19 Léon Foucault: corrientes de Foucault (1851)
o 3.20 Zénobe-Théophile Gramme: la primera dinamo (1870)
o 3.21 Johann Wilhelm Hittorf: el primer tubo de rayos catódicos (1872)
o 3.22 James Clerk Maxwell: las cuatro ecuaciones de Maxwell (1875)
 4 Finales del siglo XIX: el tiempo de los ingenieros
o 4.1 Alexander Graham Bell: el teléfono (1876)
o 4.2 Thomas Alva Edison: desarrollo de la lámpara incandescente (1879), Menlo Park y
comercialización
o 4.3 John Hopkinson: el sistema trifásico (1882)
o 4.4 Heinrich Rudolf Hertz: demostración de las ecuaciones de Maxwell y la teoría electromagnética
de la luz (1887)
o 4.5 George Westinghouse: el suministro de corriente alterna (1886)
o 4.6 Nikola Tesla: desarrollo de máquinas eléctricas, la bobina de Tesla (1884-1891) y el
radiotransmisor (1893)
o 4.7 Charles Proteus Steinmetz: la histéresis magnética (1892)
o 4.8 Wilhelm Conrad Röntgen: los rayos X (1895)
o 4.9 Michael Idvorsky Pupin: la bobina de Pupin (1894) y las imágenes de rayos X (1896)
o 4.10 Joseph John Thomson: los rayos catódicos (1897)
o 4.11 Hermanos Lumière: el inicio del cine (1895)
o 4.12 Guglielmo Marconi: la telegrafía inalámbrica (1899)
o 4.13 Peter Cooper Hewitt: la lámpara de vapor de mercurio (1901-1912)
o 4.14 Gottlob Honold: el magneto de alta tensión, la bujía (1902) y los faros parabólicos (1913)
 5 Los cambios de paradigma del siglo XX
o 5.1 Hendrik Antoon Lorentz: Las transformaciones de Lorentz (1900) y el efecto Zeeman (1902)
o 5.2 Albert Einstein: El efecto fotoeléctrico (1905)
o 5.3 Robert Andrews Millikan: El experimento de Millikan (1909)
o 5.4 Heike Kamerlingh Onnes: Superconductividad (1911)
o 5.5 Vladimir Zworykin: La televisión (1923)
o 5.6 Edwin Howard Armstrong: Frecuencia modulada (FM) (1935)
o 5.7 Robert Watson-Watt: El radar (1935)
 6 La segunda mitad del siglo XX: Era Espacial o Edad de la Electricidad
o 6.1 Ordenadores
o 6.2 Transistor, Electrónica digital y Superconductividad
o 6.3 El reto de la generación de electricidad
 6.3.1 Centrales nucleares
 6.3.2 Combustibles fósiles y fuentes renovables
o 6.4 Robótica y máquinas CNC
o 6.5 Láser
o 6.6 Electrificación de los ferrocarriles
o 6.7 Electromedicina
o 6.8 Telecomunicaciones e Internet
 7 Véase también
 8 Bibliografía
 9 Referencias
 10 Enlaces externos
o 10.1 Vídeos

Siglo XVII[editar]
La Revolución científica que se venía produciendo desde Copérnico en la astronomía y Galileo en la física no va a
encontrar aplicaciones muy tempranas al campo de la electricidad, limitándose la actividad de los pocos autores
que tratan sobre ella a la recopilación baconiana de datos experimentales, que por el momento no alcanzan a
inducir modelos explicativos también en la era de la electricidad se produjeron grandes cambios importantes.

William Gilbert: materiales eléctricos y materiales aneléctricos (1600)[editar]


Artículo principal: De Magnete

William Gilbert
El científico inglés William Gilbert (1544-1603) publicó su libro De Magnete, en donde utiliza la palabra latina
electricus, derivada del griego elektron, que significa ámbar, para describir los fenómenos descubiertos por los
griegos.5 Previamente, el italiano Gerolamo Cardano había ya distinguido, quizá por primera vez, entre las fuerzas
magnéticas y las eléctricas (De Subtilitate 1550). Gilbert estableció las diferencias entre ambos fenómenos a raíz
de que la reina Isabel I de Inglaterra le ordenara estudiar los imanes para mejorar la exactitud de las brújulas usadas
en la navegación, consiguiendo con este trabajo la base principal para la definición de los fundamentos de la
electrostática y magnetismo. A través de sus experiencias clasificó los materiales en eléctricos (conductores) y
aneléctricos (aislantes) e ideó el primer electroscopio. Descubrió la imantación por influencia, y observó que la
imantación del hierro se pierde cuando se calienta al rojo. Estudió la inclinación de una aguja magnética
concluyendo que la Tierra se comporta como un gran imán. El Gilbert es la unidad de medida de la fuerza
magnetomotriz.6

Véase también: William Gilbert

Otto von Guericke: las cargas eléctricas (1660)[editar]


Artículo principal: Electrostática

Otto von Guericke

Las investigaciones de Gilbert fueron continuadas por el físico alemán Otto von Guericke (1602-1686). En las
investigaciones que realizó sobre electrostática observó que se producía una repulsión entre cuerpos electrizados
luego de haber sido atraídos. Ideó la primera máquina electrostática y sacó chispas de un globo hecho de azufre, lo
cual le llevó a especular sobre la naturaleza eléctrica de los relámpagos. Fue la primera persona que estudió la
luminiscencia.7

Véase también: Otto von Guericke

Siglo XVIII: la Revolución industrial[editar]


La crisis de la conciencia europea renueva el panorama intelectual de finales del siglo XVII a principios del siglo
XVIII y abre las puertas al llamado Siglo de las luces o de la Ilustración. Instituciones científicas de nuevo cuño,
como la Royal Academy inglesa, y el espíritu crítico que los enciclopedistas franceses extienden por todo el
continente, conviven con el inicio de la Revolución industrial. No obstante, la retroalimentación entre ciencia,
tecnología y sociedad, aún no se había producido. Aparte del pararrayos, ninguna de las innovaciones técnicas del
siglo tuvo que ver con las investigaciones científicas sobre la electricidad, hecho que no es exclusivo de este
campo: la mismísima máquina de vapor precedió en cien años a la definición de la termodinámica por Sadi
Carnot.8

Stephen Gray: los efluvios (1729)[editar]


Artículo principal: Conductividad eléctrica

El físico inglés Stephen Gray (1666-1736) estudió principalmente la conductividad eléctrica de los cuerpos y,
después de muchos experimentos, fue el primero en 1729 en transmitir electricidad a través de un conductor. En
sus experimentos descubrió que para que la electricidad, o los "efluvios" o "virtud eléctrica", como él la llamó,
pudiera circular por el conductor, éste tenía que estar aislado de tierra. Posteriormente estudió otras formas de
transmisión y, junto con los científicos G. Wheler y J. Godfrey, clasificó los materiales en conductores y aislantes
de la electricidad.

Véase también: Stephen Gray

Charles François de Cisternay Du Fay: carga vítrea y carga resinosa (1733)[editar]


Artículo principal: Carga eléctrica

Charles François du Fay

El científico francés Charles François de Cisternay Du Fay (1698-1739) al enterarse de los trabajos de Stephen
Gray, dedicó su vida al estudio de los fenómenos eléctricos. Du Fay, entre otros muchos experimentos, observó
que una lámina de oro siempre era repelida por una barra de vidrio electrificada. Publicó sus trabajos en 1733
siendo el primero en identificar la existencia de dos tipos de cargas eléctricas (denominadas hoy en día positiva y
negativa), que él denominó carga vítrea y carga resinosa, debido a que ambas se manifestaban de una forma al
frotar, con un paño de seda, el vidrio (carga positiva) y de forma distinta al frotar, con una piel, algunas substancias
resinosas como el ámbar o la goma (carga negativa).

Véase también: C.F.Du Fay

Pieter van Musschenbroek: la botella de Leyden (1745)[editar]


Artículo principal: Botella de Leyden

Pieter van Musschenbroek

El físico holandés Pieter van Musschenbroek (1692-1761), que trabajaba en la Universidad de Leiden, efectuó una
experiencia para comprobar si una botella llena de agua podía conservar cargas eléctricas. Esta botella consistía en
un recipiente con un tapón al cual se le atraviesa una varilla metálica sumergida en el líquido. La varilla tiene una
forma de gancho en la parte superior al cual se le acerca un conductor cargado eléctricamente. Durante la
experiencia un asistente separó el conductor y recibió una fuerte descarga al aproximar su mano a la varilla, debida
a la electricidad estática que se había almacenado en la botella. De esta manera fue descubierta la botella de
Leyden y la base de los actuales condensadores eléctricos, llamados incorrectamente capacitores por anglicismo.9

Véase también: Pieter van Musschenbroek

William Watson: la corriente eléctrica (1747)[editar]


Artículo principal: Corriente eléctrica
William Watson

Sir William Watson (1715-1787), médico y físico inglés, estudió los fenómenos eléctricos. Realizó reformas en la
botella de Leyden agregándole una cobertura de metal, descubriendo que de esta forma se incrementaba la
descarga eléctrica. En 1747 demostró que una descarga de electricidad estática es una corriente eléctrica. Fue el
primero en estudiar la propagación de corrientes en gases enrarecidos.10

Véase también: William Watson

Benjamin Franklin: el pararrayos (1752)[editar]


Artículo principal: Pararrayos

Retrato de Benjamin Franklin

1752 El polifacético estadounidense Benjamin Franklin (1706-1790) investigó los fenómenos eléctricos naturales.
Es particularmente famoso su experimento en el que, haciendo volar una cometa durante una tormenta, demostró
que los rayos eran descargas eléctricas de tipo electrostático. Como consecuencia de estas experimentaciones
inventó el pararrayos. También formuló una teoría según la cual la electricidad era un fluido único existente en
toda materia y calificó a las substancias en eléctricamente positivas y eléctricamente negativas, de acuerdo con el
exceso o defecto de ese fluido.11

Véase también: Benjamin Franklin

Charles-Augustin de Coulomb: fuerza entre dos cargas (1777)[editar]


Artículo principal: Ley de Coulomb

Charles-Augustin de Coulomb

El físico e ingeniero francés Charles-Augustin de Coulomb (1736 - 1806) fue el primero en establecer las leyes
cuantitativas de la electrostática, además de realizar muchas investigaciones sobre magnetismo, rozamiento y
electricidad. Sus investigaciones científicas están recogidas en siete memorias, en las que expone teóricamente los
fundamentos del magnetismo y de la electrostática. En 1777 inventó la balanza de torsión para medir la fuerza de
atracción o repulsión que ejercen entre sí dos cargas eléctricas y estableció la función que liga esta fuerza con la
distancia. Con este invento, culminado en 1785, Coulomb pudo establecer la expresión de la fuerza entre dos
cargas eléctricas q y Q en función de la distancia d que las separa, actualmente conocida como Ley de Coulomb:
F = k (q Q) / d2. Coulomb también estudió la electrización por frotamiento y la polarización e introdujo el concepto
de momento magnético. El Coulomb (símbolo C), castellanizado a Culombio, es la unidad del SI para la medida
de la cantidad de carga eléctrica.12

Véase también: Charles-Augustin de Coulomb

Luigi Galvani: el impulso nervioso (1780)[editar]


Artículos principales: Impulso nervioso y Galvanismo.

Luigi Galvani.

El médico y físico italiano Luigi Galvani (1737-1798) se hizo famoso por sus investigaciones sobre los efectos de
la electricidad en los músculos de los animales. Mientras disecaba una rana halló accidentalmente que sus patas se
contraían al tocarlas con un objeto cargado de electricidad. Por ello se le considera el iniciador de los estudios del
papel que desempeña la electricidad en el funcionamiento de los organismos animales. De sus discusiones con otro
gran científico italiano de su época, Alessandro Volta, sobre la naturaleza de los fenómenos observados, surgió la
construcción de la primera pila, o aparato para producir corriente eléctrica continua, llamado pila de Volta. El
nombre de Luigi Galvani sigue hoy asociado con la electricidad a través de términos como galvanismo y
galvanización. Sus estudios preludiaron una ciencia que surgiría mucho después: la neurofisiología, estudio del
funcionamiento del sistema nervioso en la que se basa la neurología.13

Véase también: Luigi Galvani

Alessandro Volta: la pila de Volta (1800)[editar]


Artículo principal: Pila de Volta

Alessandro Volta

El físico italiano Alessandro Volta (1745-1827) inventa la pila, precursora de la batería eléctrica. Con un
apilamiento de discos de zinc y cobre, separados por discos de cartón humedecidos con un electrólito, y unidos en
sus extremos por un circuito exterior, Volta logró, por primera vez, producir corriente eléctrica continua a
voluntad.14 Dedicó la mayor parte de su vida al estudio de los fenómenos eléctricos, inventó el electrómetro y el
eudiómetro y escribió numerosos tratados científicos. Por su trabajo en el campo de la electricidad, Napoleón le
nombró conde en 1801. La unidad de tensión eléctrica y de la fuerza electromotriz, el Volt (símbolo V),
castellanizado como Voltio, recibió ese nombre en su honor.14

Véase también: Alessandro Volta


Principios del siglo XIX: el tiempo de los teóricos[editar]
El propósito de la ciencia optimista surgida de la Ilustración era la comprensión total de la realidad. En el ámbito
de la electricidad la clave sería describir estas fuerzas a distancia como en las ecuaciones de la mecánica
newtoniana. Pero la realidad era mucho más compleja como para dar fácil cumplimiento a este programa. La
capacidad de desviar agujas imantadas, descubierta por Oersted (1820), y la inducción electromagnética
descubierta por Faraday (1821), acabaron por interrelacionar la electricidad con el magnetismo y los movimientos
mecánicos. La teoría completa del campo electromagnético tuvo que esperar a Maxwell, e incluso entonces (1864),
al comprobarse que una de las constantes que aparecían en su teoría tenía el mismo valor que la velocidad de la luz,
se apuntó la necesidad de englobar también la óptica en el electromagnetismo.15

El romanticismo, con su gusto por lo tétrico y su desconfianza en la razón, añadió un lado oscuro a la
consideración de la electricidad, que excitaba la imaginación de la forma más morbosa: ¿el dominio humano de tal
fuerza de la naturaleza le pondría al nivel creador que hasta entonces sólo se imaginaba al alcance de seres divinos?
Con cadáveres y electricidad Mary Wollstonecraft Shelley compuso la trama de Frankenstein o el moderno
Prometeo (1818), novela precursora tanto del género de terror como de la ciencia ficción.

Humphry Davy: la electrólisis (1807) y el arco eléctrico (1808)[editar]


Artículo principal: Electroquímica

Humphry Davy

1807 Sir Humphry Davy (1778-1829). Químico británico. Se le considera el fundador de la electroquímica, junto
con Volta y Faraday. Davy contribuyó a identificar experimentalmente por primera vez varios elementos químicos
mediante la electrólisis y estudió la energía involucrada en el proceso. Entre 1806 y 1808 publica el resultado de
sus investigaciones sobre la electrólisis, donde logra la separación del magnesio, bario, estroncio, calcio, sodio,
potasio y boro. En 1807 fabrica una pila con más de 2000 placas dobles con la que descubre el cloro y demuestra
que se trata de un elemento químico, dándole ese nombre debido a su color amarillo verdoso. Junto a W.T. Brande
consigue aislar al litio de sus sales mediante electrólisis del óxido de litio (1818). Fue jefe y mentor de Michael
Faraday. Creó además una lámpara de seguridad para las minas que lleva su nombre (1815) y fue pionero en el
control de la corrosión mediante la protección catódica. En 1805 le fue concedida la Medalla Copley.16

Véase también: Humphry Davy

Hans Christian Ørsted: el electromagnetismo (1819)[editar]

Hans Christian Ørsted


Artículo principal: Electromagnetismo
El físico y químico danés Hans Christian Ørsted (1777-1851) fue un gran estudioso del electromagnetismo. En
1813 predijo la existencia de los fenómenos electromagnéticos y en 1819 logró demostrar su teoría empíricamente
al descubrir, junto con Ampère, que una aguja imantada se desvía al ser colocada en dirección perpendicular a un
conductor por el que circula una corriente eléctrica. Este descubrimiento fue crucial en el desarrollo de la
electricidad, ya que puso en evidencia la relación existente entre la electricidad y el magnetismo. En homenaje a
sus contribuciones se denominó Oersted (símbolo Oe) a la unidad de intensidad de campo magnético en el sistema
Gauss. Se cree que también fue el primero en aislar el aluminio, por electrólisis, en 1825. En 1844 publicó su
Manual de Física Mecánica.17

Véase también: Hans Christian Ørsted

Thomas Johann Seebeck: la termoelectricidad (1821)[editar]


Artículo principal: Efecto Peltier-Seebeck

Thomas Johann Seebeck

El médico e investigador físico natural de Estonia, Thomas Johann Seebeck (1770-1831) descubrió el efecto
termoeléctrico. En 1806 descubrió también los efectos de radiación visible e invisible sobre sustancias químicas
como el cloruro de plata. En 1808, obtuvo la primera combinación química de amoníaco con óxido mercúrico. A
principios de 1820, Seebeck realizó variados experimentos en la búsqueda de una relación entre la electricidad y
calor. En 1821, soldando dos alambres de metales diferentes (cobre y bismuto) en un lazo, descubrió
accidentalmente que al calentar uno a alta temperatura y mientras el otro se mantenía a baja temperatura, se
producía un campo magnético. Seebeck no creyó, o no divulgó que una corriente eléctrica era generada cuando el
calor se aplicaba a la soldadura de los dos metales. En cambio, utilizó el término termomagnetismo para referirse a
su descubrimiento. Actualmente se lo conoce como efecto Peltier-Seebeck o efecto termoeléctrico y es la base del
funcionamiento de los termopares.18

Véase también: Thomas Johann Seebeck

André-Marie Ampère: el solenoide (1822)[editar]


Artículo principal: Corriente eléctrica

André-Marie Ampère

El físico y matemático francés André-Marie Ampère (1775-1836) está considerado como uno de los descubridores
del electromagnetismo. Es conocido por sus importantes aportaciones al estudio de la corriente eléctrica y el
magnetismo que constituyeron, junto con los trabajos del danés Hans Chistian Oesterd, el desarrollo del
electromagnetismo. Sus teorías e interpretaciones sobre la relación entre electricidad y magnetismo se publicaron
en 1822, en su Colección de observaciones sobre electrodinámica y en 1826, en su Teoría de los fenómenos
electrodinámicos. Ampère descubrió las leyes que determinan el desvío de una aguja magnética por una corriente
eléctrica, lo que hizo posible el funcionamiento de los actuales aparatos de medida. Descubrió las acciones mutuas
entre corrientes eléctricas, al demostrar que dos conductores paralelos por los que circula una corriente en el mismo
sentido, se atraen, mientras que si los sentidos de la corriente son opuestos, se repelen. La unidad de intensidad de
corriente eléctrica, el Ampère (símbolo A), castellanizada como Amperio, recibe este nombre en su honor.19

Véase también: André-Marie Ampère

William Sturgeon: el electroimán (1825), el conmutador (1832) y el galvanómetro (1836)[editar]

William Sturgeon
Artículo principal: Electroimán

El físico británico William Sturgeon (1783-1850) inventó en 1825 el primer electroimán. Era un trozo de hierro
con forma de herradura envuelto por una bobina enrollada sobre él mismo. Sturgeon demostró su potencia
levantando 4 kg con un trozo de hierro de 200 g envuelto en cables por los que hizo circular la corriente de una
batería. Sturgeon podía regular su electroimán, lo que supuso el principio del uso de la energía eléctrica en
máquinas útiles y controlables, estableciendo los cimientos para las comunicaciones electrónicas a gran escala.
Este dispositivo condujo a la invención del telégrafo, el motor eléctrico y muchos otros dispositivos que fueron
base de la tecnología moderna. En 1832 inventó el conmutador para motores eléctricos y en 1836 inventó el primer
galvanómetro de bobina giratoria.20

Véase también: William Sturgeon

Georg Simon Ohm: la ley de Ohm (1827)[editar]


Artículo principal: Ley de Ohm

Georg Simon Ohm

Georg Simon Ohm (1789-1854) fue un físico y matemático alemán que estudió la relación entre el voltaje V
aplicado a una resistencia R y la intensidad de corriente I que circula por ella. En 1827 formuló la ley que lleva su
nombre (la ley de Ohm), cuya expresión matemática es V = I · R. También se interesó por la acústica, la
polarización de las pilas y las interferencias luminosas. En su honor se ha bautizado a la unidad de resistencia
eléctrica con el nombre de Ohm (símbolo Ω), castellanizado a Ohmio.21

Véase también: Georg Simon Ohm

Joseph Henry: inducción electromagnética (1830)[editar]


Joseph Henry
Artículo principal: Electroimán

El estadounidense Joseph Henry (1797-1878) fue un físico que investigó el electromagnetismo y sus aplicaciones
en electroimanes y relés. Descubrió la inducción electromagnética, simultánea e independientemente de Faraday,
cuando observó que un campo magnético variable puede inducir una fuerza electromotriz en un circuito cerrado.
En su versión más simple, el experimento de Henry consiste en desplazar un segmento de conductor
perpendicularmente a un campo magnético, lo que produce una diferencia de potencial entre sus extremos. Esta
fuerza electromotriz inducida se explica por la fuerza de Lorentz que ejerce el campo magnético sobre los
electrones libres del conductor. En su honor se denominó Henry (símbolo H) a la unidad de inductancia,
castellanizada como Henrio.22

Véase también: Joseph Henry

Johann Carl Friedrich Gauss: Teorema de Gauss de la electrostática[editar]


Artículo principal: Ley de Gauss

Carl Friedrich Gauss

1832-1835. El matemático, astrónomo y físico alemán Johann Carl Friedrich Gauss (1777-1855), hizo importantes
contribuciones en campos como la teoría de números, el análisis matemático, la geometría diferencial, la geodesia,
la electricidad, el magnetismo y la óptica. Considerado uno de los matemáticos de mayor y más duradera
influencia, se contó entre los primeros en extender el concepto de divisibilidad a conjuntos diferentes de los
numéricos. En 1831 se asoció al físico Wilhelm Weber durante seis fructíferos años durante los cuales investigaron
importantes problemas como las Leyes de Kirchhoff y del magnetismo, construyendo un primitivo telégrafo
eléctrico. Su contribución más importante a la electricidad es la denominada Ley de Gauss, que relaciona la carga

eléctrica q contenida en un volumen V con el flujo del campo eléctrico sobre la cerrada superficie S que
encierra el volumen V, cuya expresión matemática es:

En su honor se dio el nombre de Gauss (símbolo G) a la unidad de intensidad de campo magnético del Sistema
Cegesimal de Unidades (CGS). Su relación con la correspondiente unidad del Sistema Internacional de Unidades
(SI), el Tesla (símbolo T), es 1 G = 10-4 T.23

Véase también: Johann Carl Friedrich Gauss


Michael Faraday: inducción (1831), generador (1831-1832), leyes y jaula de Faraday[editar]

Michael Faraday
Artículo principal: Ley de Faraday

El físico y químico inglés Michael Faraday (1791-1867), discípulo de Humphry Davy, es conocido principalmente
por su descubrimiento de la inducción electromagnética, que ha permitido la construcción de generadores y
motores eléctricos, y de las leyes de la electrólisis por lo que es considerado como el verdadero fundador del
electromagnetismo y de la electroquímica. En 1831 trazó el campo magnético alrededor de un conductor por el que
circula una corriente eléctrica, ya descubierto por Oersted, y ese mismo año descubrió la inducción
electromagnética, demostró la inducción de una corriente eléctrica por otra, e introdujo el concepto de líneas de
fuerza para representar los campos magnéticos. Durante este mismo periodo, investigó sobre la electrólisis y
descubrió las dos leyes fundamentales que llevan su nombre: 1ª). La masa de sustancia liberada en una electrólisis
es directamente proporcional a la cantidad de electricidad que ha pasado a través del electrólito [masa =
equivalente electroquímico, por la intensidad y por el tiempo (m = c I t)]; 2ª) Las masas de distintas sustancia
liberadas por la misma cantidad de electricidad son directamente proporcionales a sus pesos equivalentes. Con sus
investigaciones se dio un paso fundamental en el desarrollo de la electricidad al establecer que el magnetismo
produce electricidad a través del movimiento. En su honor se denominó Farad (símbolo F), castellanizado como
Faradio, a la unidad de capacidad del SI de unidades. El Faradio se define como la capacidad de un condensador tal
que cuando su carga es un Culombio, adquiere una diferencia de potencial electrostático de un voltio.24

Véase también: Michael Faraday

Heinrich Friedrich Lenz: ley de Lenz (1834)[editar]


Artículo principal: Ley de Lenz

Heinrich Lenz

El físico estonio Heinrich Friedrich Lenz (1804-1865) formuló en 1834 la ley de la oposición de las corrientes
inducidas, conocida como Ley de Lenz, cuyo enunciado es el siguiente: El sentido de las corrientes, o fuerza
electromotriz inducida, es tal que siempre se opone a la variación del flujo que la produce. También realizó
investigaciones significativas sobre la conductividad de los cuerpos, en relación con su temperatura, descubriendo
en 1843 la relación entre ambas; lo que luego fue ampliado y desarrollado por James Prescott Joule, por lo que
pasaría a llamarse Ley de Joule.25

Jean Peltier: efecto Peltier (1834), inducción electrostática (1840)[editar]


Artículo principal: Efecto Peltier
Jean Peltier

Jean Peltier (1785-1845) descubrió el efecto Peltier en 1834 y definió la inducción electrostática en 1840.

Samuel Morse: telégrafo (1833-1837)[editar]


Artículo principal: Telégrafo

Morse con un prototipo de su invención

El inventor estadounidense Samuel Finley Breese Morse (1791-1872) es principalmente conocido por la invención
del telégrafo eléctrico y la invención del código Morse. El 6 de enero de 1833, Morse realizó su primera
demostración pública con su telégrafo mecánico óptico y efectuó con éxito las primeras pruebas en febrero de 1837
en un concurso convocado por el Congreso de los Estados Unidos. También inventó un alfabeto, que representa las
letras y números por una serie de puntos y rayas, conocido actualmente como código Morse, para poder utilizar su
telégrafo. En el año 1843, el Congreso de los Estados Unidos le asignó 30 000 dólares para que construyera la
primera línea de telégrafo entre Washington y Baltimore, en colaboración con Joseph Henry. El 24 de mayo de
1844 Morse envió su famoso primer mensaje: «¿Que nos ha traído Dios?». Fue objeto de muchos honores y en sus
últimos años se dedicó a experimentar con la telegrafía submarina por cable.26

Véase también: Samuel Finley Breese Morse

Ernst Werner M. von Siemens: Locomotora eléctrica (1879)[editar]


Artículo principal: Siemens AG

Werner von Siemens

El ingeniero alemán, Ernst Werner von Siemens (1816-1892) construyó en 1847 un nuevo tipo de telégrafo,
poniendo así la primera piedra en la construcción de la empresa Siemens AG junto a Johann Georg Halske. En
1841 desarrolló un proceso de galvanización, en 1846 un telégrafo de aguja y presión y un sistema de aislamiento
de cables eléctricos mediante gutapercha, lo que permitió, en la práctica, la construcción y tendido de cables
submarinos. Fue uno de los pioneros de las grandes líneas telegráficas transoceánicas, responsable de la línea
Irlanda-EE.UU (comenzada en 1874 a bordo del buque Faraday) y Gran Bretaña-India (1870). Aunque
probablemente no fue el inventor de la dínamo, la perfeccionó hasta hacerla confiable y la base de la generación de
la corriente alterna en las primeras grandes usinas. Fue pionero en otras invenciones, como el telégrafo con
puntero/teclado para hacer transparente al usuario el código Morse o la primera locomotora eléctrica, presentada
por su empresa en 1879. Dentro de sus muchos inventos y descubrimientos eléctricos se destacan la dinamo y el
uso de la gutapercha, sustancia plástica extraída del látex, usada como aislador eléctrico en el recubrimiento de
cables conductores. En homenaje a sus contribuciones en el SI se denomina siemens (símbolo S) a la unidad de
conductancia eléctrica (inversa de la resistencia), previamente llamada mho.27

Véase también: Ernst Werner von Siemens

Charles Wheatstone: puente de Wheatstone (1843)[editar]


Artículo principal: Puente de Wheatstone

Charles Wheatstone

El físico e inventor inglés Charles Wheatstone (1802-1875) es especialmente conocido por ser el primero en aplicar
el circuito eléctrico que lleva su nombre (puente de Wheatstone) para medir resistencias eléctricas. En realidad
había sido diseñado previamente por Samuel Hunter Christie en 1832, con lo que el papel de Wheatstone fue la
mejora y popularización, a partir de 1843. Se utiliza para medir resistencias desconocidas mediante el equilibrio de
los brazos de un puente en H formado por cuatro resistencias, una de las cuales es la resistencia a medir.
Wheatstone fue un autodidacta que llegó a convertirse en profesor de filosofía experimental de la Universidad de
Londres, en 1834. En colaboración con el ingeniero William Fothergill Cooke, patentó en 1837 el primer telégrafo
eléctrico británico, simultáneamente con el inventado por Morse. Charles Wheatstone inventó también un
instrumento óptico para la fotografía en tres dimensiones (estereoscopio), un telégrafo automático y un péndulo
electromagnético.28

Véase también: Charles Wheatstone

James Prescott Joule: relaciones entre electricidad, calor y trabajo (1840-1843)[editar]

James Prescott Joule


Artículo principal: Efecto Joule

James Prescott Joule (1818-1889), físico inglés, es conocido por sus estudios sobre la energía y sus aplicaciones
técnicas. Su principal contribución a la electricidad es la cuantificación de la generación de calor producido por una
corriente eléctrica que atraviesa una resistencia, ley que lleva su nombre (Ley de Joule): Todo cuerpo conductor
recorrido por una corriente eléctrica, desprende una cantidad de calor equivalente al trabajo realizado por el
campo eléctrico para transportar las cargas de un extremo a otro del conductor durante ese tiempo, formulada

como: . También descubrió la equivalencia entre el trabajo mecánico y la cantidad de calor (cuya unidad
histórica es la caloría). Junto con su compatriota, el físico William Thomson (conocido posteriormente como lord
Kelvin), Joule descubrió que la temperatura de un gas desciende cuando se expande sin realizar trabajo. Este
fenómeno, que se conoce como efecto Joule-Thomson, es el principio constructivo de los refrigeradores. Alrededor
de 1841, junto con el científico alemán Hermann von Helmholtz, demostró que la electricidad es una forma de
energía y que los circuitos eléctricos cumplen la ley de la conservación de la energía. El Joule (símbolo J),
castellanizado a Julio, es la unidad del Sistema Internacional para la energía y el trabajo mecánico. Se define como
el trabajo realizado por una fuerza de 1 Newton cuando se desplaza paralelamente a sí misma en un 1 metro.29

Véase también: James Prescott Joule

Gustav Robert Kirchhoff: leyes de Kirchhoff (1845)[editar]

Gustav Robert Kirchhoff


Artículo principal: Leyes de Kirchhoff

Las principales contribuciones a la ciencia del físico alemán Gustav Robert Kirchhoff (1824-1887), estuvieron en
el campo de los circuitos eléctricos, la teoría de placas, la óptica, la espectroscopia y la emisión de radiación de
cuerpo negro. Kirchhoff propuso el nombre de radiación de cuerpo negro en 1862. Es responsable de dos conjuntos
de leyes fundamentales en la teoría clásica de circuitos eléctricos y en la emisión térmica. Aunque ambas se
denominan Leyes de Kirchhoff, probablemente esta denominación es más común en el caso de las Leyes de
Kirchhoff de la ingeniería eléctrica. Estas leyes permiten calcular la distribución de corrientes y tensiones en las
redes eléctricas con derivaciones y establecen lo siguiente: 1ª) La suma algebraica de las intensidades que
concurren en un punto es igual a cero. 2ª) La suma algebraica de los productos parciales de intensidad por
resistencia, en una malla, es igual a la suma algebraica de las fuerzas electromotrices en ella existentes, cuando la
intensidad de corriente es constante. Junto con los químicos alemanes Robert Wilhelm Bunsen y Joseph von
Fraunhofer, fue de los primeros en desarrollar las bases teóricas y experimentales de la espectroscopia,
desarrollando el espectroscopio moderno para el análisis químico. En 1860 Kirchhoff y Bunsen descubrieron el
cesio y el rubidio mediante la espectroscopia. Kirchhoff también estudio el espectro solar y realizó importantes
investigaciones sobre la transferencia de calor.30

Véase también: Gustav Robert Kirchhoff

William Thomson (Lord Kelvin): relación entre los efectos Seebeck y Peltier (1851), cable
flexible (1858)[editar]

William Thomson (Lord Kelvin)


Artículo principal: Efecto Thomson

El matemático inglés William Thomson (Lord Kelvin) (1824-1907), realizó muchos trabajos de investigación
física, por ejemplo, el análisis teórico sobre transmisión por cable, que hizo posible el desarrollo del cable
transatlántico. En 1851 definió la Segunda Ley de la Termodinámica. En 1858 inventó el cable flexible. Kelvin
destacó por sus importantes trabajos en el campo de la termodinámica y la electrónica gracias a sus profundos
conocimientos de análisis matemático. Es uno de los científicos que más hizo por llevar a la física a su forma
moderna. Es especialmente famoso por haber desarrollado la escala de temperatura Kelvin. También descubrió en
1851 el llamado efecto Thomson, por el que logró demostrar que el efecto Seebeck y el efecto Peltier están
relacionados. Así, un material sometido a un gradiente térmico y recorrido por una intensidad intercambia calor
con el medio exterior. Recíprocamente, una corriente eléctrica es generada por el material sometido a un gradiente
térmico y recorrido por un flujo de calor. La diferencia fundamental entre los efectos Seebeck y Peltier con
respecto al efecto Thomson es que este último existe para un solo material y no necesita la existencia de una
soldadura. Recibió el título de barón Kelvin en honor a los logros alcanzados a lo largo de su carrera. El Kelvin es
la unidad de medida de temperatura absoluta.31

Véase también: Lord Kelvin

Heinrich Daniel Ruhmkorff: la bobina de Ruhmkorff genera chispas de alto voltaje


(1851)[editar]

El físico alemán Heinrich Daniel Ruhmkorff o Rühmkorff (1803-1877) se dedicó principalmente a la construcción
de aparatos e instrumentos eléctricos de gran calidad y precisión. Ideó en 1851 la bobina de inducción o bobina de
Ruhmkorff, popular instrumento del siglo XIX. De invención anterior a la de los transformadores de corriente
alterna, es un verdadero transformador polimorfo y elevador en el que se obtiene, a partir de una corriente primaria
continua y de poca fuerza electromotriz suministrada por una pila o batería, otra de alta tensión y alterna. Las
elevadas diferentes de potencial producidas podían ser aplicadas sobre los extremos de un tubo de Crookes para
provocar la emisión de unos rayos que, por su carácter desconocido, fueron denominados rayos X y que empezaron
a ser empleados para realizar fotografías a través de los cuerpos opacos. Estas bobinas fueron las precursoras de las
que se instalan en los automóviles para elevar la tensión en la bujía de los motores de gasolina para realizar el
encendido de la mezcla de combustible.32

Véase también: Heinrich Daniel Ruhmkorff

Léon Foucault: corrientes de Foucault (1851)[editar]


Artículo principal: Corriente de Foucault

Jean Bernard Léon Foucault

El físico francés Léon Foucault (1819-1868) inventó el giroscopio, demostró la rotación de la tierra mediante un
péndulo que creó al efecto y midió la velocidad de la luz mediante espejos giratorios. En el campo de la
electricidad, se dedicó al estudio del electromagnetismo y descubrió las corrientes que llevan su nombre. En
septiembre de 1855 descubrió que la fuerza requerida para la rotación de un disco de cobre aumenta cuando se lo
hace rotar entre los polos de un imán. Al mismo tiempo el disco comienza a calentarse por las corrientes (llamadas
"de Foucault") inducidas en el metal.33

Véase también: Jean Bernard Léon Foucault

Zénobe-Théophile Gramme: la primera dinamo (1870)[editar]


Artículo principal: Dinamo
Estatua de Zenobe Gramme en París

El científico belga Zénobe-Théophile Gramme (1826-1901) construyó la primera máquina de corriente continua
denominada dinamo que fue un punto de partida de la nueva industria eléctrica. Una dinamo es una máquina
destinada a la transformación de energía mecánica en eléctrica mediante el fenómeno de la inducción
electromagnética. La corriente generada es producida cuando el campo magnético creado por un imán o un
electroimán fijo (inductor) atraviesa una bobina rotatoria (inducido) colocada en su seno. La corriente inducida en
esta bobina giratoria, en principio alterna es transformada en continua mediante la acción de un conmutador
giratorio, solidario con el inducido, denominado colector, constituido por unos electrodos denominados delgas. De
aquí es conducida al exterior mediante otros contactos fijos llamados escobillas que hacen contacto por frotamiento
con las delgas del colector. La dinamo fue el primer generador eléctrico apto para uso industrial. Zénobe Gramme
perfeccionó los inventos de dinamos que existían y reinventó el diseño al proyectar los primeros generadores
comerciales a gran escala, que operaban en París en torno a 1870. Su diseño se conoce como la dinamo de
Gramme.34

Véase también: Zénobe Gramme

Johann Wilhelm Hittorf: el primer tubo de rayos catódicos (1872)[editar]


Artículo principal: Tubo de Crookes

Johann Wilhelm Hittorf

El catedrático de física y química alemán Johann Wilhelm Hittorf (1824-1914) contribuyó poderosamente al
desarrollo de la electroquímica con innumerables inventos. Por uno de sus trabajos (tubo de Hittorf, 1872) es
considerado precursor del tubo de Crookes con el que William Crookes dedujo la existencia de los rayos catódicos
(1878). Estudió también las variaciones del espectro al variar la atmósfera. Determinó la íntima dependencia entre
la conductividad eléctrica y la acción química y la división de las sales complejas por la vía de la corriente. Estudió
la alotropía del selenio y del fósforo, describió el comportamiento electroquímico del cromo y registró la velocidad
de emigración de los iones sometidos a la acción de la corriente eléctrica. Es autor de Über die Wanderung der
Ionen während der Elektrolyse.35

Véase también: Johann Wilhelm Hittorf

James Clerk Maxwell: las cuatro ecuaciones de Maxwell (1875)[editar]


Artículo principal: Ecuaciones de Maxwell

James Clerk Maxwell en su juventud

El físico y matemático escocés James Clerk Maxwell (1831-1879) es conocido principalmente por haber
desarrollado un conjunto de ecuaciones que expresan las leyes fundamentales de la electricidad y el magnetismo
así como por la estadística de Maxwell-Boltzmann en la teoría cinética de gases. También se dedicó a la
investigación de la visión de los colores y los principios de la termodinámica. Formuló teóricamente que los anillos
de Saturno estaban formados por materia disgregada. Maxwell amplió las investigaciones que Michael Faraday
había realizado sobre los campos electromagnéticos, formulando la relación matemática entre los campos eléctricos
y magnéticos por medio de cuatro ecuaciones diferenciales (llamadas hoy "las ecuaciones de Maxwell")36 que
relacionan el campo eléctrico y el magnético para una distribución espacial de cargas y corrientes. También
demostró que la naturaleza de los fenómenos luminosos y electromagnéticos era la misma y que ambos se
propagan a la velocidad de la luz. Su obra más importante es el Treatise on Electricity and Magnetism (Tratado de
electricidad y magnetismo, 1873), en el que publicó sus famosas ecuaciones. También escribió: Matter and motion
(Materia y movimiento, 1876) y Theory of Heat (Teoría del calor, 1877). La teoría de Maxwell obtuvo su
comprobación definitiva cuando Heinrich Rudolf Hertz obtuvo en 1888 las ondas electromagnéticas de radio. Sus
investigaciones posibilitaron la invención del telégrafo sin cables y la radio. La unidad de flujo magnético en el
sistema cegesimal, el maxwell, recibe este nombre en su honor.37

Véase también: James Clerk Maxwell

Finales del siglo XIX: el tiempo de los ingenieros[editar]


Los años centrales del siglo XIX habían presenciado extraordinarios avances en la aplicación de la electricidad a
las comunicaciones y en 1881 se organizó en París una Exposición Internacional de Electricidad y un Congreso
Internacional de Electricistas.38 Aunque para todo ello el conocimiento científico de la electricidad y el
magnetismo había sido imprescindible, los técnicos o inventores adquirieron un sentimiento de superioridad, e
incluso de reticencia hacia los científicos puros. Incluso la teoría de Maxwell era ignorada por la mayoría de los
ingenieros eléctricos, que en su práctica tecnológica no la necesitaban. Esto no pudo mantenerse a partir de la
demostración experimental de la radiación electromagnética (Heinrich Hertz, 1888), y en la década de los noventa
las nuevas generaciones de ingenieros incorporaron con mayor confianza las aportaciones teóricas y estuvieron
mejor preparados para las nuevas tecnologías eléctricas que aplicaban los efectos del campo electromagnético,
como la corriente alterna.15

Dos invenciones que aplicaban el motor eléctrico a la tracción de vehículos revolucionaron particularmente la vida
urbana, permitiendo una movilidad en el espacio que se convirtió en movilidad social: el ascensor eléctrico y el
tranvía eléctrico (ambas con participación de Frank J. Sprague). Hasta entonces era habitual que pobres y ricos
compartieran la misma casa en los ensanches burgueses (unos en la planta principal y otros en las buhardillas), con
alturas que no solían superar las cinco o seis plantas. El urbanismo del siglo XX permitió el crecimiento de
megaciudades, con nítidas diferencias entre barrios de ricos y pobres, y con desplazamientos horizontales
kilométricos y de decenas de plantas en vertical (los rascacielos). El Metro de Londres, que funcionaba con
locomotoras de vapor desde 1863, aplicó la tracción eléctrica para permitir líneas a más profundidad sin tantos
requisitos de ventilación (llamadas deep-level) desde 1890, y el sistema se difundió por otras ciudades europeas y
americanas (Budapest y Glasgow, 1886; Boston, 1897; subte de Buenos Aires, 1913; metro de Madrid, 1919). La
electrificación de los ferrocarriles fue posterior (véase sección Electrificación de los ferrocarriles).
Alexander Graham Bell: el teléfono (1876)[editar]

Alexander Graham Bell


Artículo principal: Teléfono

El escocés-estadounidense Alexander Graham Bell, científico, inventor y logopeda (1847-1922), se disputó con
otros investigadores la invención del teléfono y consiguió la patente oficial en los Estados Unidos en 1876.39
Previamente habían sido desarrollados dispositivos similares por otros investigadores, entre quienes destacó
Antonio Meucci (1871), que entabló pleitos fallidos con Bell hasta su muerte, y a quien suele reconocerse
actualmente la prelación en el invento.

Bell contribuyó de un modo decisivo al desarrollo de las telecomunicaciones a través de su empresa comercial
(Bell Telephone Company, 1877, posteriormente AT&T). También fundó en la ciudad de Washington el
Laboratorio Volta, donde, junto con sus socios, inventó un aparato que transmitía sonidos mediante rayos de luz (el
fotófono, 1880); y desarrolló el primer cilindro de cera para grabar (1886), lo que sentó las bases del gramófono.
Participó en la fundación de la National Geographic Society y de la revista Science.40

Véase también: Alexander Graham Bell

Thomas Alva Edison: desarrollo de la lámpara incandescente (1879), Menlo Park y


comercialización[editar]

Thomas Alva Edison


Artículo principal: Lámpara incandescente

El inventor norteamericano Thomas Alva Edison (1847-1931) ha sido considerado como el mayor inventor de
todos los tiempos. Aunque se le atribuye la invención de la lámpara incandescente, su intervención es más bien el
perfeccionamiento de modelos anteriores (Heinrich Göbel, relojero alemán, había fabricado lámparas funcionales
tres décadas antes). Edison logró, tras muchos intentos, un filamento que alcanzaba la incandescencia sin fundirse:
no era de metal, sino de bambú carbonizado. El 21 de octubre de 1879 consiguió que su primera bombilla luciera
durante 48 horas ininterrumpidas, con 1,7 lúmenes por vatio. La primera lámpara incandescente con un filamento
de algodón carbonizado construida por Edison fue presentada, con mucho éxito, en la Primera Exposición de
Electricidad de París (1881) como una instalación completa de iluminación eléctrica de corriente continua; sistema
que inmediatamente fue adoptado tanto en Europa como en Estados Unidos. En 1882 desarrolló e instaló la
primera gran central eléctrica del mundo en Nueva York. Sin embargo, más tarde, su uso de la corriente continua
se vio desplazado por el sistema de corriente alterna desarrollado por Nikola Tesla y George Westinghouse.
Su visión comercial de la investigación científico-técnica le llevó a fundar el laboratorio de Menlo Park, donde
consiguió un eficaz trabajo en equipo de un gran número de colaboradores. Gracias a ello llegó a registrar 1093
patentes de inventos desarrollados por él y sus ayudantes, inventos cuyo desarrollo y mejora posterior han marcado
profundamente la evolución de la sociedad moderna, entre ellos: el fonógrafo, un sistema generador de
electricidad, un aparato para grabar sonidos y un proyector de películas (el kinetoscopio), uno de los primeros
ferrocarriles eléctricos, unas máquinas que hacían posible la transmisión simultánea de diversos mensajes
telegráficos por una misma línea (lo que aumentó enormemente la utilidad de las líneas telegráficas existentes), el
emisor telefónico de carbón (muy importante para el desarrollo del teléfono, que había sido inventado
recientemente por Alexander Graham Bell), etc. Al sincronizar el fonógrafo con el kinetoscopio, produjo en 1913
la primera película sonora.

En el ámbito científico descubrió el efecto Edison, patentado en 1883, que consistía en el paso de electricidad
desde un filamento a una placa metálica dentro de un globo de lámpara incandescente. Aunque ni él ni los
científicos de su época le dieron importancia, este efecto sería uno de los fundamentos de la válvula de la radio y
de la electrónica. En 1880 se asoció con el empresario J. P. Morgan para fundar la General Electric.41

Véase también: Thomas Alva Edison

John Hopkinson: el sistema trifásico (1882)[editar]


Artículo principal: Corriente trifásica

El ingeniero y físico inglés John Hopkinson (1849-1898) contribuyó al desarrollo de la electricidad con el
descubrimiento del sistema trifásico para la generación y distribución de la corriente eléctrica, sistema que patentó
en 1882. Un sistema de corrientes trifásicas es el conjunto de tres corrientes alternas monofásicas de igual
frecuencia y amplitud (y por consiguiente, valor eficaz) que presentan un desfase entre ellas de 120° (un tercio de
ciclo). Cada una de las corrientes monofásicas que forman el sistema se designa con el nombre de fase. También
trabajó en muchas áreas del electromagnetismo y la electrostática. De sus investigaciones estableció que "el flujo
de inducción magnética es directamente proporcional a la fuerza magnetomotriz e inversamente proporcional a la
reluctancia", expresión muy parecida a la establecida en la Ley de Ohm para la electricidad, y que se conoce con el
nombre de Ley de Hopkinson42 También se dedicó al estudio de los sistemas de iluminación, mejorando su
eficiencia, así como al estudio de los condensadores. Profundizó en los problemas de la teoría electromagnética,
propuestos por James Clerk Maxwell. En 1883 dio a conocer el principio de los motores síncronos.43

Véase también: John Hopkinson

Heinrich Rudolf Hertz: demostración de las ecuaciones de Maxwell y la teoría electromagnética


de la luz (1887)[editar]

Heinrich Rudolf Hertz


Artículo principal: Efecto fotoeléctrico

El físico alemán Heinrich Rudolf Hertz (1857-1894) demostró la existencia de las ondas electromagnéticas
predichas por las ecuaciones de Maxwell. Fue el primer investigador que creó dispositivos que emitían ondas
radioeléctricas y también dispositivos que permitía detectarlas. Hizo numerosos experimentos sobre su modo y
velocidad de propagación (hoy conocida como velocidad de la luz), en los que se fundamentan la radio y la
telegrafía sin hilos, que él mismo descubrió. En 1887 descubrió el efecto fotoeléctrico. La unidad de medida de la
frecuencia fue llamada Hertz (símbolo Hz) en su honor, castellanizada como Hercio.44
Véase también: Heinrich Rudolf Hertz

George Westinghouse: el suministro de corriente alterna (1886)[editar]


Artículo principal: Corriente alterna

George Westinghouse

El inventor e industrial norteamericano George Westinghouse (1846-1914) se interesó inicialmente por los
ferrocarriles (freno automático de aire, sistema de señales ferroviarias, aguja de cruce).Posteriormente con la ayuda
de Nikolas Tesla dedicó sus investigaciones hacia la electricidad, siendo el principal responsable de la adopción de
la corriente alterna para el suministro de energía eléctrica en Estados Unidos. En ese empeño tecnológico y
comercial hubo de vencer la oposición del popular inventor Thomas Alva Edison, que basaba sus investigaciones y
expansión comercial en la corriente continua y llegaría a sugerir la invención de la silla eléctrica de corriente
alterna como estrategia en esa competencia.

Westinghouse compró al científico croata Nikola Tesla su patente para la producción y transporte de corriente
alterna, que impulsó y desarrolló. Posteriormente perfeccionó el transformador, desarrolló un alternador y adaptó
para su utilización práctica el motor de corriente alterna inventado por Tesla. En 1886 fundó la compañía eléctrica
Westinghouse Electric & Manufacturing Company, que contó en los primeros años con la decisiva colaboración de
Tesla, con quien logró desarrollar la tecnología necesaria para desarrollar un sistema de suministro de corriente
alterna. Westinghouse también desarrolló un sistema para transportar gas natural, y a lo largo de su vida obtuvo
más de 400 patentes, muchas de ellas de maquinaria de corriente alterna.45

Véanse también: George Westinghouse y Guerra de las corrientes.

Nikola Tesla: desarrollo de máquinas eléctricas, la bobina de Tesla (1884-1891) y el


radiotransmisor (1893)[editar]

Estatua de Nikola Tesla en las cataratas del Niágara


Artículos principales: Ingeniería electromecánica, Bobina de Tesla y Máquina eléctrica.

El ingeniero e inventor de origen croata Nikola Tesla (1856-1943) emigró en 1884 a los Estados Unidos. Es
reconocido como uno de los investigadores más destacados en el campo de la energía eléctrica. El Gobierno de
Estados Unidos lo consideró una amenaza por sus opiniones pacifistas y sufrió el maltrato de otros investigadores
mejor reconocidos como Marconi o Edison.46

Desarrolló la teoría de campos rotantes, base de los generadores y motores polifásicos de corriente alterna. En 1887
logra construir el motor de inducción de corriente alterna y trabaja en los laboratorios Westinghouse, donde
concibe el sistema polifásico para transmitir la electricidad a largas distancias. En 1893 consigue transmitir energía
electromagnética sin cables, construyendo el primer radiotransmisor (adelantándose a Guglielmo Marconi). Ese
mismo año en Chicago hizo una exhibición pública de la corriente alterna, demostrando su superioridad sobre la
corriente continua de Edison. Los derechos de estos inventos le fueron comprados por George Westinghouse, que
mostró el sistema de generación y transmisión por primera vez en la World's Columbian Exposition de Chicago de
1893. Dos años más tarde los generadores de corriente alterna de Tesla se instalaron en la central experimental de
energía eléctrica de las cataratas del Niágara. Entre los muchos inventos de Tesla se encuentran los circuitos
resonantes de condensador más inductancia, los generadores de alta frecuencia y la llamada bobina de Tesla,
utilizada en el campo de las comunicaciones por radio.

La unidad de inducción magnética del sistema MKS recibe el nombre de Tesla en su honor.47

Véase también: Nikola Tesla

Charles Proteus Steinmetz: la histéresis magnética (1892)[editar]

Charles Proteus Steinmetz


Artículo principal: Histéresis magnética

El ingeniero e inventor de origen alemán Charles Proteus Steinmetz (1865-1923) es conocido principalmente por
sus investigaciones sobre la corriente alterna y por el desarrollo del sistema trifásico de corrientes alternas.
También inventó la lámpara de arco con electrodo metálico. Sus trabajos contribuyeron en gran medida al impulso
y utilización de la electricidad como fuente de energía en la industria. En 1902 fue designado profesor de la
Universidad de Schenectady, Nueva York, donde permaneció hasta su muerte. Trabajó para la empresa General
Electric.48

Véase también: Charles Proteus Steinmetz

Wilhelm Conrad Röntgen: los rayos X (1895)[editar]

Wilhelm Conrad Röntgen


Artículo principal: Rayos X

El físico alemán Wilhelm Conrad Röntgen (1845-1923). Utilizando un tubo de Crookes, fue quien produjo en 1895
la primera radiación electromagnética en las longitudes de onda correspondientes a los actualmente llamados
Rayos X. Gracias a su descubrimiento fue galardonado con el primer Premio Nobel de Física en 1901. El premio se
concedió oficialmente: "en reconocimiento de los extraordinarios servicios que ha brindado para el descubrimiento
de los notables rayos que llevan su nombre." Sin embargo, Röntgen no quiso que los rayos llevaran su nombre
aunque en Alemania el procedimiento de la radiografía se llama "röntgen" debido al hecho de que los verbos
alemanes tienen la desinencia "en". Los rayos X se comienzan a aplicar en todos los campos de la medicina entre
ellos el urológico. Posteriormente otros investigadores utilizaron la radiología para el diagnóstico de la enfermedad
litiásica. Es uno de los puntos culminantes de la medicina de finales del siglo XIX, sobre el cual se basaron
numerosos diagnósticos de entidades nosológicas, hasta ese momento difíciles de diagnosticar, y siguieron dándose
desarrollos posteriores en el siglo XX y hasta nuestros días (Véase la sección Electromedicina).

En su honor recibe su nombre la unidad de medida de la exposición a la radiación, establecida en 1928: Roentgen
(unidad).49

Véase también: Wilhelm Conrad Röntgen

Michael Idvorsky Pupin: la bobina de Pupin (1894) y las imágenes de rayos X (1896)[editar]
Artículos principales: Bobina de Pupin y Radiografía.

El físico y electrotécnico serbio Michael Idvorsky Pupin (1854-1935) desarrolló en 1896 un procedimiento para
obtener la fotografía rápida de una imagen obtenida mediante rayos X, que solamente requería una exposición de
una fracción de segundo en lugar de una hora o más que se empleaba anteriormente. Entre sus numerosos inventos
destaca la pantalla fluorescente que facilitaba la exploración y registro de las imágenes radiológicas obtenidas con
los rayos X. También desarrolló en 1894 un sistema para aumentar en gran medida el alcance de las
comunicaciones telefónicas a través de líneas de hilo de cobre, mediante la inserción a intervalos regulares a lo
largo de la línea de transmisión de unas denominadas bobinas de carga. Estas bobinas reciben en su honor el
nombre de bobina de Pupin y el método también se denomina pupinización.50

Véase también: Michael Pupin

Joseph John Thomson: los rayos catódicos (1897)[editar]


Artículo principal: Electrón

Joseph John Thomson

El físico inglés Joseph John Thomson (1856-1940) descubrió que los rayos catódicos podían desviarse aplicando
un campo magnético perpendicular a su dirección de propagación y calculó las leyes de dicha desviación.
Demostró que estos rayos estaban constituidos por partículas atómicas de carga negativa que llamó corpúsculos y
hoy en día conocemos como electrones. Demostró que la nueva partícula que había descubierto era
aproximadamente mil veces más ligera que el hidrógeno. Esta fue la primera identificación de partículas
subatómicas, con las grandes consecuencias que esto tuvo en el consiguiente desarrollo de la ciencia y de la
técnica. Posteriormente, midiendo la desviación en campos magnéticos, obtuvo la relación entre la carga y la masa
del electrón. También examinó los rayos positivos y, en 1912, descubrió la manera de utilizarlos para separar
átomos de diferente masa. El objetivo se consiguió desviando los rayos positivos con campos electromagnéticos
(espectrometría de masa). Así descubrió que el neón tiene dos isótopos (el neón-20 y el neón-22). Todos estos
trabajos sirvieron a Thomson para proponer una estructura del átomo, que más tarde se demostró incorrecta, ya que
suponía que las partículas positivas estaban mezcladas homogéneamente con las negativas. Thomson también
estudió y experimentó sobre las propiedades eléctricas de los gases y la conducción eléctrica a través de los
mismos, y fue justamente por esa investigación que recibió el Premio Nobel de Física en 1906.51

Véase también: Joseph John Thomson

Hermanos Lumière: el inicio del cine (1895)[editar]


Artículo principal: Historia del cine

Los Hermanos Lumière

A finales del siglo XIX varios inventores estuvieron trabajando en varios sistemas que tenían un objetivo común: el
visionado y proyección de imágenes en movimiento. Entre 1890 y 1895, son numerosas las patentes que se
registran con el fin de ofrecer al público las primeras "tomas de vistas" animadas. Entre los pioneros se encuentran
los alemanes Max y Emil Skladanowski, los estadounidenses Charles F. Jenkins, Thomas Armat y Thomas Alva
Edison (kinetoscopio), y los franceses hermanos Lumière (cinematógrafo). Sin embargo, aunque ya existían
películas no era posible proyectarlas en una sala cinematográfica. El cine fue oficialmente inaugurado con la
primera exhibición pública, en París, el 28 de diciembre de 1895. La conexión del nuevo invento con la
electricidad no fue inmediata, porque los movimientos mecánicos se producían manualmente (lo que producía
problemas de variación de la velocidad, pero también era utilizado como parte de los efectos especiales); mientras
que la luz de las primeras linternas provenía de una llama generada por la combustión de éter y oxígeno. Pero usar
una llama junto al celuloide (que era empleado como soporte para las películas, y que es muy inflamable)
constituía una fuente constante de graves peligros para proyeccionistas y espectadores, por lo que se buscaron
sustitutos a la fuente luminosa. Al extenderse las redes eléctricas se empleó el arco eléctrico incandescente.
Inicialmente se usaban dos electrodos de carbón alimentados con una corriente continua, uno con carga positiva y
otra con carga negativa. En la actualidad se realiza el paso de la corriente continua a través de dos conductores,
encerrados en una cápsula de gas, normalmente xenón. Estas lámparas de xenón llevan en su interior dos
electrodos entre los que salta el arco voltaico que produce la luz. En cuanto a la motorización eléctrica del
funcionamiento de la cámara y del proyector se hizo ineludible con el tiempo, sobre todo tras el paso al cine sonoro
(primera proyección experimental en París, 1900, y de un modo eficaz en Nueva York, 1923, siendo la primera
película El cantante de jazz, 1927), lo que implicaba también a las tecnologías del registro y reproducción del
sonido, inicialmente obtenido a partir de una banda lateral de opacidad variable detectada por una celda
fotoeléctrica (la banda sonora). A partir de entonces surgió el concepto de medio audiovisual.

La tecnología del cine ha evolucionado mucho hasta el cine digital del siglo XXI y simultáneamente ha
evolucionado el lenguaje cinematográfico, incluyendo las convenciones del género y los géneros cinematográficos.
Más trascendente aún ha sido la evolución conjunta de cine y sociedad, y el surgimiento de distintos movimientos
cinematográficos, cinematografías nacionales, etc. En Estados Unidos, Edison fue el máximo impulsor del cine,
consolidando una industria en la que deseaba ser el protagonista indiscutible al considerarse como el único inventor
y propietario del nuevo espectáculo. En España, la primera proyección la ofreció un enviado de los Lumière a
Madrid, el 15 de mayo de 1896.52

Véase también: Hermanos Lumière

Guglielmo Marconi: la telegrafía inalámbrica (1899)[editar]

Guglielmo Marconi
Artículo principal: Historia de la radio

El ingeniero y físico italiano Guglielmo Marconi (1874-1937), es conocido, principalmente, como el inventor del
primer sistema práctico de señales telegráficas sin hilos, que dio origen a la radio actual. En 1899 logró establecer
comunicación telegráfica sin hilos a través del canal de la Mancha entre Inglaterra y Francia, y en 1903 a través del
océano Atlántico entre Cornualles, y Saint John's en Terranova, Canadá. En 1903 estableció en los Estados Unidos
la estación WCC, en cuya inauguración cruzaron mensajes de salutación el presidente Theodore Roosevelt y el rey
Eduardo VIII de Inglaterra. En 1904 llegó a un acuerdo con el Servicio de Correos británico para la transmisión
comercial de mensajes por radio. Las marinas italiana y británica pronto adoptaron su sistema y hacia 1907 había
alcanzado tal perfeccionamiento que se estableció un servicio trasatlántico de telegrafía sin hilos para uso público.
Para la telegrafía fue un gran impulso el poder usar el código Morse sin necesidad de cables conductores.

Aunque se le atribuyó la invención de la radio, ésta fue posible gracias a una de las patentes de Nikola Tesla, tal y
como fue reconocido por la alta corte de los Estados Unidos, seis meses después de la muerte de Tesla, hacia el año
1943. También inventó la antena Marconi. En 1909 Marconi recibió, junto con el físico alemán Karl Ferdinand
Braun, el Premio Nobel de Física por su trabajo.53

Véase también: Guglielmo Marconi

Peter Cooper Hewitt: la lámpara de vapor de mercurio (1901-1912)[editar]


Artículo principal: Lámpara de vapor de mercurio

El ingeniero eléctrico e inventor estadounidense Peter Cooper Hewitt (1861-1921) se hizo célebre por la
introducción de la lámpara de vapor de mercurio, uno de los más importantes avances en iluminación eléctrica. En
la década de 1890 trabajó sobre las experimentaciones realizadas por los alemanes Julius Plücker y Heinrich
Geissler sobre el fenómeno fluorescente, es decir, las radiaciones visibles producidas por una corriente eléctrica
que pasa a través de un tubo de cristal relleno de gas. Los esfuerzos de Hewitt se encaminaron a hallar el gas que
resultase más apropiado para la producción de luz, y lo encontró en el mercurio. La luz obtenida, por este método,
no era apta para uso doméstico, pero encontró aplicación en otros campos de la industria, como en medicina, en la
esterilización de agua potable y en el revelado de películas. En 1901 inventó el primer modelo de lámpara de
mercurio (aunque no registró la patente hasta 1912). En 1903 fabricó un modelo mejorado que emitía una luz de
mejor calidad y que encontró mayor utilidad en el mercado. El desarrollo de las lámparas incandescentes de
filamento de tungsteno, a partir de la década de 1910, supuso una dura competencia para la lámpara de Hewitt, ya
que, a pesar de ser ocho veces menos eficientes que esta, poseían una luminosidad mucho más atractiva.54

Véanse también: Peter Cooper Hewitt y Temperatura de color.

Gottlob Honold: el magneto de alta tensión, la bujía (1902) y los faros parabólicos (1913)[editar]

Gottlob Honold
Artículos principales: Imán (física) y Bujía.

El ingeniero alemán Gottlob Honold (1876-1923), que trabajaba en la empresa Robert Bosch, fue el primero que
fabricó una bujía económicamente viable que, conectada a una magneto de alta tensión, hizo posible el desarrollo
de los motores de combustión interna de ciclo Otto con velocidades de giro de varios miles de revoluciones por
minuto y elevadas potencias específicas. Una bujía es el elemento donde se produce una chispa provocando el
encendido de la mezcla de combustible y aire en los cilindros de un motor de ciclo Otto. Las primeras patentes para
la bujía datan de Nikola Tesla (Patente USPTO nº 609,250 en la que se diseña un sistema temporizado de ignición
repetida, en el año 1898), casi al mismo tiempo que Frederik Richard Simms (GB 24859/1898, 1898) y Robert
Bosch (GB 26907/1898). Karl Benz también inventó su propia versión de bujía. Sin embargo, la bujía de Honold
de 1902 era comercialmente viable, de alta tensión y podía realizar un mayor número de chispas por minuto, razón
por la que fue adoptada por Daimler. La bujía tiene dos funciones primarias: producir la ignición de la mezcla de
aire y combustible y disipar parte del calor de la cámara de combustión hacia el bloque motor por conducción
térmica. Las bujías se clasifican por lo que se conoce como rango térmico en función de su conductancia térmica.
Las bujías transmiten energía eléctrica que convierten al combustible en un sistema que libera energía. Una
cantidad suficiente de voltaje se debe de proveer al sistema de ignición para que pueda generar la chispa a través de
la calibración de la bujía.55

En 1913, Honold participó en el desarrollo de los faros parabólicos. Aunque se habían utilizado anteriormente
algunos sistemas de alumbrado para la conducción nocturna, los primeros faros apenas alumbraban y servían poco
más que como sistema de señalización. Honold concibió la idea de colocar espejos parabólicos detrás de las
lámparas para concentrar el haz luminoso, lo que mejoraba la iluminación del camino sin necesidad de usar un
sistema eléctrico más potente.

Véase también: Gottlob Honold

Los cambios de paradigma del siglo XX[editar]


El efecto fotoeléctrico ya había sido descubierto y descrito por Heinrich Hertz en 1887. No obstante, carecía de
explicación teórica y parecía ser incompatible con las concepciones de la física clásica. Esa explicación teórica
solo fue posible con la obra de Albert Einstein (entre los famosos artículos de 1905) quien basó su formulación de
la fotoelectricidad en una extensión del trabajo sobre los cuantos de Max Planck. Más tarde Robert Andrews
Millikan pasó diez años experimentando para demostrar que la teoría de Einstein no era correcta pero terminó
demostrando que sí lo era. Eso permitió que tanto Einstein como Millikan recibiesen el premio Nobel en 1921 y
1923 respectivamente.

En 1893 Wilhelm Weber logró combinar la formulación de Maxwell con las leyes de la termodinámica para tratar
de explicar la emisividad del llamado cuerpo negro, un modelo de estudio de la radiación electromagnética que
tendrá importantes aplicaciones en astronomía y cosmología.

En 1911 se prueba experimentalmente el modelo atómico de Ernest Rutherford (núcleo con masa y carga positiva y
corona de carga negativa), aunque tal configuración había sido predicha en 1904 por el japonés Hantarō Nagaoka,
cuya contribución había pasado desapercibida.56

La llamada Gran Ciencia ligada a la investigación atómica necesitó superar retos tecnológicos cuantitativamente
impresionantes, pues era necesario hacer chocar partículas con el núcleo atómico con cada vez mayor energía. Esta
fue una de las primeras carreras tecnológicas del siglo XX y que, independientemente del origen nacional de las
ideas o procesos puestos en práctica (muchos de ellos europeos: alemanes, austrohúngaros, italianos, franceses ,
belgas o británicos), fueron ganadas por el eficaz e inquietante complejo científico-técnico-productivo-militar de
los Estados Unidos. En 1928 Merle Tuve utilizó un transformador Tesla para alcanzar los tres millones de voltios.
En 1932 John Cockcroft y Ernest Walton observaron la desintegración de átomos de litio con un multiplicador
voltaico que alcanzaba los 125 000 voltios. En 1937 Robert van de Graaff construyó generadores de cinco metros
de altura para generar corrientes de 5 millones de voltios. Ernest Lawrence, inspirado por el noruego Rolf Wideröe,
construyó entre 1932 y 1940 sucesivos y cada vez mayores ciclotrones, confinadores magnéticos circulares, para
averiguar la estructura de las partículas elementales a base de someterlas a choques a enormes velocidades.57

Los quarks (bautizados así en 1963 y descubiertos sucesivamente en los años 1970 y hasta fechas tan próximas
como 1996), así como las particularidades de su carga eléctrica aún son una incógnita de la física de hoy en día.
La industria eléctrica crece con la sociedad de consumo de masas y pasa a la fase del capitalismo monopolista de
las grandes corporaciones multinacionales de tipo holding, como las norteamericanas General Electric (derivada de
la compañía de Edison) y Westinghouse Electric (derivada de la de Westinghouse y Tesla), la Marconi Company
(más puramente multinacional que italiana), las alemanas AEG, Telefunken, Siemens AG y Braun (esta última,
más tardía, debe su nombre a Max Braun, no al físico Carl Ferdinand Braun) o las japonesas Mitsubishi,
Matsushita (Panasonic) Sanyo o Sony (éstas últimas posteriores a la segunda guerra mundial). Incluso en países
pequeños, pero desarrollados, el sector eléctrico y la electrónica de consumo tuvo presencia temprana y destacada
en los procesos de concentración industrial, como son los casos de la holandesa Philips y la finlandesa Nokia.

Hendrik Antoon Lorentz: Las transformaciones de Lorentz (1900) y el efecto Zeeman


(1902)[editar]

Lorentz con Einstein en 1921


Artículo principal: Efecto Zeeman

El físico holandés Hendrik Antoon Lorentz (1853-1928) realizó un gran número de investigaciones en los campos
de la termodinámica, la radiación, el magnetismo, la electricidad y la refracción de la luz, entre las que destaca el
estudio de la expresión de las ecuaciones de Maxwell en sistemas inerciales y sus consecuencias sobre la
propagación de las ondas electromagnéticas. Formuló, conjuntamente con George Francis FitzGerald, una
explicación del experimento de Michelson y Morley sobre la constancia de la velocidad de la luz, atribuyéndola a
la contracción de los cuerpos en la dirección de su movimiento. Este efecto, conocido como contracción de
Lorentz-FitzGerald, sería luego expresado como las transformaciones de Lorentz, las que dejan invariantes las
ecuaciones de Maxwell, posterior base del desarrollo de la teoría de la relatividad. Nombró a Pieter Zeeman su
asistente personal, estimulándolo a investigar el efecto de los campos magnéticos sobre las transiciones de spin, lo
que lo llevó a descubrir lo que hoy en día se conoce con el nombre de efecto Zeeman, base de la tomografía por
resonancia magnética nuclear. Por este descubrimiento y su explicación, Lorentz compartió en 1902 el Premio
Nobel de Física con Pieter Zeeman58

Véase también: Hendrik Antoon Lorentz

Albert Einstein: El efecto fotoeléctrico (1905)[editar]


Artículo principal: Efecto fotoeléctrico

Albert Einstein Parque de las Ciencias de Granada

Al alemán nacionalizado norteamericano Albert Einstein (1879 – 1955) se le considera el científico más conocido e
importante del siglo XX. El resultado de sus investigaciones sobre la electricidad llegó en 1905 (fecha
trascendental que se conmemoró en el Año mundial de la física 2005), cuando escribió cuatro artículos
fundamentales sobre la física de pequeña y gran escala. En ellos explicaba el movimiento browniano, el efecto
fotoeléctrico y desarrollaba la relatividad especial y la equivalencia entre masa y energía.

El efecto fotoeléctrico consiste en la emisión de electrones por un material cuando se le ilumina con radiación
electromagnética (luz visible o ultravioleta, en general). Ya había sido descubierto y descrito por Heinrich Hertz en
1887, pero la explicación teórica no llegó hasta que Albert Einstein le aplicó una extensión del trabajo sobre los
cuantos de Max Planck. En el artículo dedicado a explicar el efecto fotoeléctrico, Einstein exponía un punto de
vista heurístico sobre la producción y transformación de luz, donde proponía la idea de quanto de radiación (ahora
llamados fotones) y mostraba cómo se podía utilizar este concepto para explicar el efecto fotoeléctrico. Una
explicación completa del efecto fotoeléctrico solamente pudo ser elaborada cuando la teoría cuántica estuvo más
avanzada. A Albert Einstein se le concedió el Premio Nobel de Física en 1921.59

El efecto fotoeléctrico es la base de la producción de energía eléctrica por radiación solar y de su aprovechamiento
energético. Se aplica también para la fabricación de células utilizadas en los detectores de llama de las calderas de
las grandes usinas termoeléctricas. También se utiliza en diodos fotosensibles tales como los que se utilizan en las
células fotovoltaicas y en electroscopios o electrómetros. En la actualidad (2008) los materiales fotosensibles más
utilizados son, aparte de los derivados del cobre (ahora en menor uso), el silicio, que produce corrientes eléctricas
mayores.

Véase también: Albert Einstein

Robert Andrews Millikan: El experimento de Millikan (1909)[editar]


Artículo principal: Experimento de Millikan

Robert Andrews Millikan

El físico estadounidense Robert Andrews Millikan (1868-1953) es conocido principalmente por haber medido la
carga del electrón, ya descubierta por J. J. Thomson. Estudió en un principio la radioactividad de los minerales de
uranio y la descarga en los gases. Luego realizó investigaciones sobre radiaciones ultravioletas.

Mediante su experimento de la gota de aceite, también conocido como experimento de Millikan, determinó la carga
del electrón: 1,602 × 10-19 coulomb. La carga del electrón es la unidad básica de cantidad de electricidad y se
considera la carga elemental porque todos los cuerpos cargados contienen un múltiplo entero de la misma. El
electrón y el protón tienen la misma carga absoluta, pero de signos opuestos. Convencionalmente, la carga del
protón se considera positiva y la del electrón negativa. Entre sus otras aportaciones a la ciencia destacan su
importante investigación sobre los rayos cósmicos, como él los denominó, y sobre los rayos X, así como la
determinación experimental de la constante de Planck, midiendo la frecuencia de la luz y la energía de los
electrones liberados en el efecto fotoeléctrico. En 1923 fue galardonado con el Premio Nobel de Física por sus
trabajos para determinar el valor de carga del electrón y el efecto fotoeléctrico.60

Véase también: Robert Andrews Millikan

Heike Kamerlingh Onnes: Superconductividad (1911)[editar]


Heike Kamerlingh Onnes
Artículo principal: Superconductividad

El físico holandés Heike Kamerlingh Onnes (1853-1926) se dedicó principalmente al estudio de la física a bajas
temperaturas, realizando importantes descubrimientos en el campo de la superconductividad eléctrica, fenómeno
que sucede cuando algunos materiales están a temperaturas cercanas al cero absoluto. Ya en el siglo XIX se
llevaron a cabo diversos experimentos para medir la resistencia eléctrica a bajas temperaturas, siendo James Dewar
el primer pionero en este campo. Sin embargo, la superconductividad como tal no se descubriría hasta 1911, año en
que Onnes observó que la resistencia eléctrica del mercurio desaparecía bruscamente al enfriarse a 4K (-269 °C),
cuando lo que se esperaba era que disminuyera gradualmente. En 1913 fue galardonado con el Premio Nobel de
Física por, en palabras del comité, "sus investigaciones en las características de la materia a bajas temperaturas que
permitieron la producción del helio líquido".61

Véase también: Heike Kamerlingh Onnes

Vladimir Zworykin: La televisión (1923)[editar]


Artículos principales: Televisión e Historia de la televisión.

Diseño de la patente del iconoscopio de Vladimir Zworykin.

El ingeniero ruso Vladimir Zworykin (1889-1982) dedicó su vida al desarrollo de la televisión, la electrónica y la
óptica. Desde muy joven estaba persuadido de que la solución práctica de la televisión no sería aportada por un
sistema mecánico, sino por la puesta a punto de un procedimiento que utilizara los tubos de rayos catódicos.
Emigró a Estados Unidos y empezó a trabajar en los laboratorios de la Westinghouse Electric and Manufacturing
Company, en Pittsburg. En la Westinghouse tuvo libertad para continuar con sus proyectos personales, es decir, sus
trabajos sobre la televisión, especialmente sobre el iconoscopio (1923), un dispositivo que convertía imágenes
ópticas en señales eléctricas. Otro de sus inventos, que posibilitó una televisión enteramente electrónica, fue el
kinescopio que transformaba las señales eléctricas del iconoscopio en imágenes visibles, aunque de baja
resolución. Los trabajos de investigación de Zworykin y de su grupo de colaboradores no se limitaron sólo a la
televisión, abarcaron muchos otros aspectos de la electrónica, sobre todo los relacionados con la óptica. Su
actividad en este campo permitió el desarrollo de dispositivos tan importantes como los tubos de imágenes y
multiplicadores secundarios de emisión de distintos tipos. Un gran número de aparatos electrónicos militares
utilizados en la segunda guerra mundial son resultado directo de las investigaciones de Zworykin y de sus
colaboradores, quien también participó en la invención del microscopio electrónico.62

Véase también: Vladimir Zworykin

Edwin Howard Armstrong: Frecuencia modulada (FM) (1935)[editar]


Artículo principal: Frecuencia modulada
Edwin Howard Armstrong

El ingeniero eléctrico estadounidense Edwin Howard Armstrong (1890-1954) fue uno de los inventores más
prolíficos de la era de la radio, al desarrollar una serie de circuitos y sistemas fundamentales para el avance de este
sistema de comunicaciones. En 1912 desarrolló el circuito regenerativo, que permitía la amplificación de las
débiles señales de radio con poca distorsión, mejorando mucho la eficiencia de los circuitos empleados hasta el
momento. En 1918 desarrolló el circuito superheterodino, que dio un gran impulso a los receptores de amplitud
modulada (AM). En 1920 desarrolló el circuito super-regenerador, muy importante en las comunicaciones con dos
canales. En 1935 desarrolló el sistema de radiodifusión de frecuencia modulada (FM) que, además de mejorar la
calidad de sonido, disminuyó el efecto de las interferencias externas sobre las emisiones de radio, haciéndolo muy
inferior al del sistema de amplitud modulada (AM). El sistema de frecuencia modulada (FM), que es hoy el más
empleado en radio y televisión, no se empezó a emplear comercialmente hasta después de su muerte. Muchas
invenciones de Armstrong fueron reclamadas por otros en pleitos de patente.63

Véase también: Edwin Howard Armstrong

Robert Watson-Watt: El radar (1935)[editar]


Artículo principal: Radar

Robert Watson-Watt

El radar (acrónimo de radio detection and ranging, detección y medición de distancias por radio) fue creado en
1935 y desarrollado principalmente en Inglaterra durante la Segunda Guerra Mundial. Su mayor impulsor fue el
físico Robert Watson-Watt (1892-1973), director del Laboratorio de Investigación de Radio. Ya en 1932, la
Oficina Postal Británica publicó un informe en el que sus científicos documentaron fenómenos naturales que
afectaban la intensidad de la señal electromagnética recibida: tormentas eléctricas, vientos, lluvia y el paso de un
aeroplano en la vecindad del laboratorio. Arnold Wilkins (1907-1985), físico ayudante de Watson-Watts, conoció
este informe de manera accidental, conversando con la gente de la Oficina Postal, que se quejaba por la
interferencia. Cuando Wilkins sugirió la posibilidad de utilizar el fenómeno de interferencia de ondas de radio para
detectar aviones enemigos, Watson-Watt lo comisionó inmediatamente para trabajar en el cálculo de los aspectos
cuantitativos.

El radar dio a la aviación británica una notable ventaja táctica sobre la alemana durante la Batalla de Inglaterra,
cuando aún era denominado RDF (Radio Direction Finding). En la actualidad es una de las principales ayudas a la
navegación con que cuenta el control de tráfico aéreo de todo tipo, militar y civil.64

Véase también: Robert Watson-Watt

La segunda mitad del siglo XX: Era Espacial o Edad de la


Electricidad[editar]
Artículo principal: Era espacial

Después de la segunda guerra mundial, el mundo bipolar enfrentado a la guerra fría entre los Estados Unidos y la
Unión Soviética presenció la frenética carrera de armamentos y la carrera espacial que impulsó de modo
extraordinario la competencia científica y tecnológica entre ambos países- En la sociedad de consumo capitalista,
orientada al mercado, algunos de estos logros encontraron aplicación a la vida cotidiana como retorno tecnológico
de lo invertido en las áreas de investigación puntera; caso de algunos rubros de la industria ligera y los servicios
(terciarización), mientras que en el bloque soviético la planificación estatal privilegiaba la industria pesada. La
reconstrucción de Europa Occidental y Japón permitió que en ambos espacios se pudiera continuar a la vanguardia
de la ciencia y la tecnología, además de contribuir con la fuga de cerebros a los espacios centrales.

Al científico y el inventor individual, ahora reemplazados en prestigio por el empresario schumpeteriano, le


sucedieron los equipos científicos vinculados a instituciones públicas o privadas, cada vez más interconectadas y
retroalimentadas en lo que se denomina investigación y desarrollo (I+D) o incluso I+D+I (investigación, desarrollo
e innovación). Los programas de investigación se han hecho tan costosos, con tantas implicaciones y a tan largo
plazo que las decisiones que les afectan han de ser tomadas por instancias políticas y empresariales de alto nivel, y
su publicidad o su mantenimiento en secreto (con fines estratégicos o económicos) constituyen un problema serio
de control social (con principios democráticos o sin ellos).

La segunda mitad del siglo XX se caracterizó, entre otras cosas, por la denominada Revolución científico-técnica
de la tercera revolución industrial, con avances de las tecnologías (especialmente la electrónica y la medicina) y las
ciencias, que ha dado lugar al desarrollo de una numerosísima serie de inventos -dependientes de la electricidad y
la electrónica en su diseño y funcionamiento- que transformaron la vida social, primero en las clases medias de los
países desarrollados, y posteriormente en todo el mundo con el proceso de globalización. El desarrollo de las
telecomunicaciones e internet permite hablar de una sociedad de la información en la que, en los países
industrialmente más desarrollados las decisiones económicas (como consumir, producir y distribuir), sociales
(como el establecimiento de todo tipo de relaciones personales, redes sociales y redes ciudadanas) y políticas
(como informarse y opinar, aunque la democracia electrónica sólo está esbozada) se transmiten instantáneamente,
lo que permitió a Marshall McLuhan hablar de la Edad de la Electricidad.

La automatización (en estadios más avanzados la robótica, que aún no se ha desarrollado plenamente) transformó
radicalmente los procesos de trabajo industrial. Es posible hablar ya no de una sociedad industrial opuesta a la
sociedad preindustrial, sino incluso una sociedad postindustrial basada en parámetros completamente nuevos. Entre
los inventos que han contribuido a la base material de esa nueva forma de vida caben destacar: electrodomésticos,
electrónica digital, ordenadores, robótica, satélites artificiales de comunicación, energía nuclear, trenes eléctricos,
refrigeración y congelación de alimentos, electromedicina, etc.

Ordenadores[editar]
Artículo principal: Historia de la informática
Véase también: Microprocesador

ENIAC

1941 La primera computadora electrónica funcional de que se tiene noticia fue la alemana Z3 de Konrad Zuse,
construida en 1941 y destruida en los bombardeos aliados de 1943. La utilización comercial de este tipo de
aparatos, que revolucionaron la gestión de la información y toda la vida social, económica y científica, tuvo que
esperar a los años cincuenta, tras su desarrollo en Estados Unidos.
La británica Colossus (diseñada por Tommy Flowers en la Estación de Investigación de la Oficina Postal) y la
estadounidense Harvard Mark I (construida por Howard H. Aiken en la Universidad de Harvard con subvención de
IBM entre 1939 y 1943), llegaron a tiempo de usarse en la fase final de la Segunda Guerra Mundial; la primera en
el descifrado de mensajes alemanes y la segunda para el cálculo de tablas de balística.

Inmediatamente después de la guerra, el Electronic Numerical Integrator And Computer (Computador e Integrador
Numérico Electrónico, ENIAC)65 utilizado por el Laboratorio de Investigación Balística del Ejército de los Estados
Unidos fue construido en 1946 en la Universidad de Pensilvania por John Presper Eckert y John William Mauchly.
Consumía una potencia eléctrica suficiente para abastecer una pequeña ciudad, ocupaba una superficie de 167 m² y
operaba con un total de 17 468 válvulas electrónicas o tubos de vacío, 7200 diodos de cristal, 1500 relés, 70 000
resistencias, 10 000 condensadores y 5 millones de soldaduras. Pesaba 27 tn, medía 2,4 m x 0,9 m x 30 m; utilizaba
1500 conmutadores electromagnéticos y relés; requería la operación manual de unos 6000 interruptores, y su
programa o software, cuando requería modificaciones, tardaba semanas de instalación manual. La ENIAC podía
resolver 5000 sumas y 360 multiplicaciones en un segundo. Se desactivó en 1955.

Le sustituyó en la misma institución la Electronic Discrete Variable Automatic Computer (EDVAC),66 en 1949. A
diferencia de la ENIAC, no era decimal, sino binaria y tuvo el primer programa diseñado para ser almacenado. Este
diseño se convirtió en el estándar de arquitectura para la mayoría de las computadoras modernas y un hito en la
historia de la informática. A los diseñadores anteriores se les había unido el gran matemático John von Neumann.
La EDVAC recibió varias actualizaciones, incluyendo un dispositivo de entrada/salida de tarjetas perforadas en
1953, memoria adicional en un tambor magnético en 1954 y una unidad de aritmética de punto flotante en 1958.
Dejó de estar en activo en 1961.

La UNIVAC I (UNIVersal Automatic Computer I, computadora automática universal I), también debida a J.
Presper Eckert y John William Mauchly, fue la primera computadora comercial y la primera diseñada desde el
principio para su uso en administración y negocios. El primer UNIVAC fue entregado a la Oficina de Censos de
los Estados Unidos (United States Census Bureau) en 1951 y fue puesto en servicio ese mismo año. Competía
directamente con las máquinas de tarjeta perforada hechas principalmente por IBM. Para facilitar la compatibilidad
de ambos tipos de máquina se construyó un equipo de procesamiento de tarjetas fuera de línea, el convertidor
UNIVAC de tarjeta a cinta y el convertidor UNIVAC de cinta a tarjeta, para la transferencia de datos entre las
tarjetas y las cintas magnéticas que empleaba alternativamente.

IBM anunció en 1953 la primera producción a gran escala de una computadora, el IBM 650: 2000 unidades desde
1954 hasta 1962. Era un diseño orientado hacia los usuarios de máquinas contables anteriores, como las
tabuladoras electromecánicas (con tarjetas perforadas) o el modelo IBM 604. Pesaba alrededor de 900 kg, y su
unidad de alimentación unos 1350. Cada unidad estaba en un armario separado, de 1,5 x 0,9 x 1,8 metros. Costaba
500 000 dólares, pero podía alquilarse por 3500 al mes.

La tercera generación de este tipo de máquinas se inició con IBM 360, la primera en la historia en ser atacada con
un virus informático. Comercializada a partir de 1964, fue la primera que usaba el término byte para referirse a 8
bits (con cuatro bytes creaba una palabra de 32-bits). Su arquitectura de computación fue la que a partir de este
modelo siguieron todos los ordenadores de IBM. El sistema también hizo popular la computación remota, con
terminales conectadas a un servidor, por medio de una línea telefónica. Fue una de las primeras computadoras
comerciales que usó circuitos integrados, y podía realizar tanto análisis numéricos como administración o
procesamiento de archivos.

El Intel 4004 (i4004, primero de Intel), un CPU de 4 bits, fue lanzado en un paquete de 16 pines CERDIP en 1971,
siendo el primer microprocesador en un simple chip, así como el primero disponible comercialmente. Daría paso a
la construcción de los ordenadores personales. El circuito 4004 fue construido con 2300 transistores, y fue seguido
el año siguiente por el primer microprocesador de 8 bits, el 8008, que contenía 3300 transistores, y el 4040, versión
revisada del 4004. El CPU que comenzó la revolución del microcomputador, sería el 8080, usado en el Altair 880.
El microprocesador es un circuito integrado que contiene todos los elementos necesarios para conformar una
"unidad central de procesamiento" (UCP o CPU: Central Process Unit). En la actualidad este tipo de componente
electrónico se compone de millones de transistores, integrados en una misma placa de silicio.

Transistor, Electrónica digital y Superconductividad[editar]


Artículos principales: Transistor, Circuito integrado y Superconductividad.

Detalle de un circuito integrado

1948 La electrónica, que estudia y emplea sistemas cuyo funcionamiento se basa en la conducción y el control del
flujo microscópico de los electrones u otras partículas cargadas eléctricamente, comenzó con el diodo de vacío
inventado por John Ambrose Fleming en 1904, dispositivo basado en el efecto Edison. Con el tiempo las válvulas
de vacío se fueron perfeccionando y mejorando, apareciendo otros tipos y miniaturizándose. El paso esencial lo dio
el físico estadounidense Walter Houser Brattain (1902-1987), incorporado en 1929 a los laboratorios Bell, donde
fue partícipe junto con John Bardeen (1908-1991) -incorporado en 1945- y William Bradford Shockley del invento
de un pequeño dispositivo electrónico semiconductor que cumplía funciones de amplificador, oscilador,
conmutador o rectificador: el transistor. La palabra elegida para denominarlo es la contracción en inglés de transfer
resistor ("resistencia de transferencia"). Sustituto de la válvula termoiónica de tres electrodos o triodo, el primer
transistor de puntas de contacto funcionó en diciembre de 1947; se anunció por primera vez en 1948 pero no se
terminó de fabricar hasta 1952, tras lograr construir un dispositivo con germanio el 4 de julio de 1951, culminando
así su desarrollo. El transistor de unión bipolar apareció algo más tarde, en 1949, y es el dispositivo utilizado
actualmente para la mayoría de las aplicaciones electrónicas. Sus ventajas respecto a las válvulas son entre otras
menor tamaño y fragilidad, mayor rendimiento energético, menores tensiones de alimentación y consumo de
energía. El transistor no funciona en vacío como las válvulas, sino en un estado sólido semiconductor (silicio),
razón por la que no necesitan centenares de voltios de tensión para funcionar.

El transistor ha contribuido, como ninguna otra invención, al gran desarrollo actual de la electrónica y la
informática, empleándose comercialmente en todo tipo de aparatos electrónicos, tanto domésticos como
industriales. La primera aplicación de estos dispositivos se hizo en los audífonos. Por su trabajo con los
semiconductores y por el descubrimiento del transistor, Walter Houser Brattain compartió con Shockley y Bardeen
en 1956 el Premio Nóbel de Física.67

La construcción de circuitos electrónicos permitió resolver muchos problemas prácticos (control, procesado y
distribución de información, conversión y distribución de la energía eléctrica, etc.). En 1958 se desarrolló el primer
circuito integrado, que integraba seis transistores en un único chip, y en 1970 se desarrolló el primer
microprocesador (Intel 4004).

En la actualidad, los campos de desarrollo de la electrónica son tan vastos que se ha dividido en varias ciencias
especializadas, partiendo de la distinción entre electrónica analógica y electrónica digital; y en los campos de la
ingeniería electrónica, la electromecánica, la informática (diseño de software para su control), la electrónica de
control, las telecomunicaciones y la electrónica de potencia.68

En 1951 Bardeen, uno de los diseñadores del transistor, ingresó en la Universidad de Illinois, nombrando asistente
personal al físico Nick Holonyak, el cual posteriormente diseñaría el primer Diodo LED en 1962. Trabajó junto a
Leon N. Cooper y John Robert Schrieffer para crear la teoría estándar de la superconductividad, es decir, la
desaparición de la resistencia eléctrica en ciertos metales y aleaciones a temperaturas cercanas al cero absoluto. Por
estos trabajos compartió nuevamente, en 1972, el Premio Nobel de Física con los físicos estadounidenses Leon N.
Cooper y John R. Schrieffer. Esto hizo que él fuera el primer científico que ganó dos premios Nobel en la misma
disciplina.69 Las aplicaciones de la superconductividad están todavía en las primeras fases de su desarrollo, pero ya
han permitido los electroimanes más poderosos (que se usan en los trenes maglev, resonancia magnética nuclear y
aceleradores de partículas); circuitos digitales y filtros de radiofrecuencia y microondas para estaciones base de
telefonía móvil; o los magnetómetros más sensibles (uniones Josephson, de los SQUIDs -dispositivos
superconductores de interferencia cuántica-).

El reto de la generación de electricidad[editar]

Centrales nucleares[editar]

Torres de refrigeración de la central nuclear de Cofrentes, España


Artículo principal: Energía nuclear

1951 Una central nuclear es una instalación industrial empleada para la generación de energía eléctrica a partir de
energía nuclear, que se caracteriza por el empleo de materiales fisionables que mediante reacciones nucleares
proporcionan calor. Este calor es empleado por un ciclo termodinámico convencional para mover un alternador y
producir energía eléctrica. Las centrales nucleares constan de uno o varios reactores.

Se llama energía nuclear a aquella que se obtiene al aprovechar las reacciones nucleares espontáneas o
provocadas por el hombre. Estas reacciones se dan en algunos isótopos de ciertos elementos químicos, siendo el
más conocido de este tipo de energía la fisión del uranio-235 (235U), con la que funcionan los reactores nucleares.
Sin embargo, para producir este tipo de energía aprovechando reacciones nucleares pueden ser utilizados muchos
otros isótopos de varios elementos químicos, como el torio, el plutonio, el estroncio o el polonio. Los dos sistemas
con los que puede obtenerse energía nuclear de forma masiva son la fisión nuclear y la fusión nuclear.

El 2 de diciembre de 1942, como parte del proyecto Manhattan dirigido por J. Robert Oppenheimer, se construyó
el Chicago Pile-1 (CP-1), primer reactor nuclear hecho por el hombre (existió un reactor natural en Oklo). El
Departamento de Defensa de los Estados Unidos propuso el diseño y construcción de un reactor nuclear utilizable
para la generación eléctrica y propulsión en los submarinos a dos empresas distintas norteamericanas: General
Electric y Westinghouse. Estas empresas desarrollaron los reactores de agua ligera tipo BWR y PWR
respectivamente. Los mismos diseños de reactores de fisión se trasladaron a diseños comerciales para la generación
de electricidad. Los únicos cambios producidos en el diseño con el transcurso del tiempo fueron un aumento de las
medidas de seguridad, una mayor eficiencia termodinámica, un aumento de potencia y el uso de las nuevas
tecnologías que fueron apareciendo.

El 20 de diciembre de 1951 fue el primer día que se consiguió generar electricidad con un reactor nuclear (en el
reactor americano EBR-I, con una potencia de unos 100 kW), pero no fue hasta 1954 cuando se conectó a la red
eléctrica una central nuclear (fue la central nuclear rusa de Obninsk, generando 5 MW con solo un 17 % de
rendimiento térmico). La primera central nuclear con un rendimiento comercial fue la británica de Calder Hall, en
Sellafield, abierta en 1956 con una capacidad de 50 MW (ampliada posteriormente a 200 MW).70 El desarrollo de
la energía nuclear en todo el mundo experimentó a partir de ese momento un gran crecimiento, de forma muy
particular en Francia y Japón, donde la crisis del petróleo de 1973 influyó definitivamente, ya que su dependencia
en el petróleo para la generación eléctrica era muy marcada. En 1986 el accidente de Chernóbil, en un reactor
RBMK de diseño ruso que no cumplía los requisitos de seguridad que se exigían en occidente, acabó radicalmente
con ese crecimiento. A partir de entonces, con la caída del bloque del este desde 1989, el movimiento antinuclear,
que se opone por un lado al arma nuclear y por otra parte a la utilización de la energía nuclear, se ha visto
desplazado de la vanguardia del movimiento ecologista por otras cuestiones, como el cambio climático.

En octubre de 2007 existían 439 centrales nucleares en todo el mundo que generaron 2,7 millones de MWh en
2006. La potencia instalada en 2007 era de 370.721 MWe. Aunque solo 30 países en el mundo poseen centrales
nucleares, aproximadamente el 15 % de la energía eléctrica generada en el mundo se produce a partir de energía
nuclear, aunque el porcentaje está actualmente en disminución.71 La mayoría de los países con centrales nucleares
han suspendido nuevas construcciones debido a los problemas de disposición final de los combustibles nucleares,
cuya actividad (y riesgos para la vida humana) perdura durante muchos miles de años. Algunos científicos, como el
galardonado físico Freeman Dyson, sostienen que la exageración de los beneficios de la energía nuclear provienen
de una combinación de factores económicos y del sentido de culpa por los bombardeos atómicos sobre Hiroshima
y Nagasaki.

Véase también: Controversia sobre la energía nuclear

Combustibles fósiles y fuentes renovables[editar]

El primer uso industrial de la energía hidráulica para la generación de electricidad alimentaba mediante una turbina
fueron dieciséis lámparas de arco de la fábrica Wolverine en Grand Rapids (Estados Unidos, 1880).72 La primera
central hidroeléctrica entró en funcionamiento ese mismo año en Northumberland, Gran Bretaña,73 y la primera
ciudad en tener un suministro eléctrico fue Godalming, en Surrey (Inglaterra), ese mismo año, a corriente alterna
con un alternador Siemens y una dinamo conectada a una rueda hidráulica, que funcionó sólo tres años.74

Dos años más tarde se abrió la primera central hidráulica estadounidense (río Fox, Appleton, Wisconsin). El mismo
año (1882), Edison abría la primera central eléctrica urbana comercial. No utilizaba fuentes renovables, sino la
generación térmica a petróleo (con tres veces mayor eficiencia que los modelos anteriores, no comerciales), en
Pearl Street (Nueva York), de 30 kW de potencia a 220-110 V de corriente continua. En 1895, su competidor,
Westinghouse, abre la primera central de corriente alterna en el Niágara.75 La desconfianza de Edison hacia la
corriente alterna se mantuvo hasta 1892 y hasta finales del siglo XIX se usaba principalmente corriente continua
para la iluminación.76 El desarrollo del generador eléctrico y el perfeccionamiento de la turbina hidráulica
respondieron al aumento de la demanda de electricidad del siglo XX, de modo que desde 1920 el porcentaje la
hidroelectricidad en la producción total de electricidad era ya muy significativo. Desde entonces la tecnología de
las principales instalaciones no ha variado sustancialmente. Una central hidroeléctrica es aquella que se utiliza para
la generación de energía eléctrica mediante el aprovechamiento de la energía potencial del agua embalsada en una
presa situada a más alto nivel que la central. El agua se lleva por una tubería de descarga a la sala de máquinas de
la central, donde mediante enormes turbinas hidráulicas se produce la generación de energía eléctrica en
alternadores.

Las dos características principales de una central hidroeléctrica, desde el punto de vista de su capacidad de
generación de electricidad son:

1. La potencia, que es función del desnivel existente entre el nivel medio del embalse y el nivel medio de las
aguas debajo de la central, y del caudal máximo turbinable, además de las características de la turbina y del
generador.
2. La energía garantizada en un lapso de tiempo determinado, generalmente un año, que está en función del
volumen útil del embalse, de la pluviometría anual y de la potencia instalada.

Esta forma de obtener energía eléctrica no está libre problemas medioambientales al necesitar la construcción de
grandes embalses en los que acumular el agua, modificando el paisaje y los anteriores usos, tanto naturales como
humanos, del agua y el entorno afectado. Proyectos gigantescos (presa de Asuán en Egipto, de Itaipú entre Brasil y
Paraguay, o de las Tres Gargantas en China) tienen repercusiones de todo tipo, e incluso su viabilidad a largo plazo
es cuestionada. Las minicentrales hidráulicas suelen ser mejor consideradas desde ese punto de vista, aunque su
capacidad de generación es mucho más limitada.
Capacidad eólica mundial total instalada 1996-2012 [MW]. Fuente: GWEC

Actualmente se encuentra en desarrollo la explotación comercial de la conversión en electricidad del potencial


energético que tiene el oleaje del mar, en las llamadas Centrales mareomotrices. Estas utilizan el flujo y reflujo de
las mareas. En general pueden ser útiles en zonas costeras donde la amplitud de la marea sea amplia, y las
condiciones morfológicas de la costa permitan la construcción de una presa que corte la entrada y salida de la
marea en una bahía. Se genera energía tanto en el momento del llenado como en el momento del vaciado de la
bahía.

Otras energías renovables, como la energía solar;77 tienen una historia muy anterior a su utilización como
generadoras de electricidad, e incluso en este campo surgieron tecnologías ya en el siglo XIX: solar con Edmund
Becquerel en 1839 y Augustin Mouchet en 1861; eólica desde 1881, aunque el desarrollo de rotores verticales
eficaces llegó con Klemin, Savoius y Darrieus, diseñados en 1925, 1929 y 1931).

El impulso actual de las energías renovables proviene de las necesidades energéticas de la crisis del petróleo de
1973 y, más recientemente, del hecho de que no emitan gases causantes de efecto invernadero, contrariamente a los
combustibles fósiles (carbón, petróleo o gas natural). La producción de electricidad solar y, sobre todo, eólica está
en fuerte auge aunque aún no ha desarrollado todo su potencial.

Las tecnologías utilizadas en las centrales termoeléctricas que utilizan combustibles fósiles se han perfeccionado,
tanto para obtener una mayor eficiencia energética (ciclo combinado) como para reducir su impacto contaminante
(lluvia ácida). Sin embargo, la supresión de las emisiones de gases de efecto invernadero mediante la captura y
almacenamiento de carbono) aún no ha sido desarrollada industrialmente y constituye un tema controvertido.78

La pila de combustible79 ligada a las tecnologías del hidrógeno es uno de los últimos diseños propuestos para la
sustitución de las energías tradicionales.

Robótica y máquinas CNC[editar]


Artículos principales: Robot y Control numérico por computadora.

1952 Una de las innovaciones más importantes y trascendentales en la producción de todo tipo de objetos en la
segunda mitad del siglo XX ha sido la incorporación de robots, autómatas programables80y máquinas guiadas por
control numérico por computadora (CNC) en las cadenas y máquinas de producción, principalmente en tareas
relacionadas con la manipulación, trasiego de objetos, procesos de mecanizado y soldadura. Estas innovaciones
tecnológicas han sido viables entre otras cosas por el diseño y construcción de nuevas generaciones de motores
eléctricos de corriente continua controlados mediante señales electrónicas de entrada y salida, y el giro que pueden
tener en ambos sentidos, así como la variación de su velocidad de acuerdo con las instrucciones contenidas en el
programa de ordenador que los controla. En estas máquinas se utilizan tres tipos de motores eléctricos: motores
paso a paso, servomotores o motores encoder y motores lineales. El primer desarrollo en el área del control
numérico por computadora (CNC) lo realizó el inventor norteamericano John T. Parsons (Detroit 1913-2007)81
junto con su empleado Frank L. Stulen, en la década de 1940, realizando la primera demostración práctica de
herramienta con movimiento programado en 1952.

La robótica es una rama de la tecnología (y que integra el álgebra, los autómatas programables, las máquinas de
estados, la mecánica, la electrónica y la informática), que estudia el diseño y construcción de máquinas capaces de
desempeñar tareas repetitivas, tareas en las que se necesita una alta precisión, tareas peligrosas para el ser humano
o tareas irrealizables sin intervención de una máquina. Esas máquinas, los robots mantienen la conexión de
retroalimentación inteligente entre el sentido y la acción directa bajo el control de un ordenador previamente
programado con las tareas que tiene que realizar. Las acciones de este tipo de robots son generalmente llevadas a
cabo por motores o actuadores que mueven extremidades o impulsan al robot. Hacia 1942, Isaac Asimov82 da una
versión humanizada a través de su conocida serie de relatos, en los que introduce por primera vez el término
robótica con el sentido de disciplina científica encargada de construir y programar robots. Además, este autor
plantea que las acciones que desarrolla un robot deben ser dirigidas por una serie de reglas morales, llamadas las
Tres leyes de la robótica.

Los robots son usados hoy en día (2008) para llevar a cabo tareas sucias, peligrosas, difíciles, repetitivas o
embotadas para los humanos. Esto usualmente toma la forma de un robot industrial usado en las líneas de
producción. Otras aplicaciones incluyen la limpieza de residuos tóxicos, exploración espacial, minería, búsqueda y
rescate de personas y localización de minas terrestres. La manufactura continúa siendo el principal mercado donde
los robots son utilizados. En particular, robots articulados (similares en capacidad de movimiento a un brazo
humano) son los más usados comúnmente. Las aplicaciones incluyen soldado, pintado y carga de maquinaria. La
industria automotriz ha tomado gran ventaja de esta nueva tecnología donde los robots han sido programados para
reemplazar el trabajo de los humanos en muchas tareas repetitivas. Recientemente, se ha logrado un gran avance en
los robots dedicados a la medicina que utiliza robots de última generación en procedimientos de cirugía invasiva
mínima. La automatización de laboratorios también es un área en crecimiento. Los robots parecen estar
abaratándose y empequeñeciéndose en tamaño, todo relacionado con la miniaturización de los componentes
electrónicos que se utilizan para controlarlos. También, muchos robots son diseñados en simuladores mucho antes
de que sean construidos e interactúen con ambientes físicos reales.83

Láser[editar]
Artículo principal: Láser

En 1960 el físico norteamericano Charles Townes (1915 - 2015) realizó en la Universidad de Columbia el
descubrimiento que le proporcionaría su salto a la fama científica: fue descrito como Microwave Amplification by
Stimulated Emission of Radiation (máser). Sin embargo fue el físico norteamericano Gordon Gould (1920-2005)
quien patentó los primeros láseres para usos industriales y militares, a pesar de que hubo muchos pleitos porque
varios científicos estaban estudiando la posibilidad de tecnologías similares a partir de las teorías desarrolladas por
Einstein sobre la emisión estimulada de radiación. Ello fue así porque Gould fue el científico que primero lo
fabricó y le puso el nombre: Light Amplification by Stimulated Emission of Radiation (Amplificación de Luz por
Emisión Estimulada de Radiación, LASER)84 No obstante, fue a Charles Townes a quien le fue concedido el
premio Nobel de Física en 1964.

Un láser es un dispositivo que utiliza un efecto de la mecánica cuántica, la emisión inducida o estimulada, para
generar un haz de luz coherente de un medio adecuado y con el tamaño, la forma y la pureza controlados. El
tamaño de los láseres varía ampliamente, desde diodos láser microscópicos con numerosas aplicaciones, al láser de
cristales dopados con neodimio con un tamaño similar al de un campo de fútbol, usado para la fusión de
confinamiento inercial, la investigación sobre armamento nuclear u otros experimentos físicos en los que se
presenten altas densidades de energía. Desde su invención en 1960 se han vuelto omnipresentes y se pueden
encontrar en miles de variadas aplicaciones en cualquier sector de la sociedad actual, incluyendo campos tan
dispares como la electrónica de consumo y las tecnologías de la información (sistemas de lectura digital de los
discos duros, los CD y los DVD y del código de barras), hasta análisis científicos y métodos de diagnóstico en
medicina, así como el mecanizado, soldadura o sistemas de corte en sectores industriales y militares. 85

Electrificación de los ferrocarriles[editar]


Artículo principal: Locomotora
Véase también: Tren eléctrico

Train à Grande Vitesse

Una de las aplicaciones más significativas de la electricidad fue la casi total electrificación de los ferrocarriles en
los países más industrializados. La primera fase de este proceso, más generalizada que la segunda, fue la
sustitución de las locomotoras que utilizaban carbón, por las locomotoras llamadas diésel que usan combustible
obtenido del petróleo. Las locomotoras diésel-eléctricas consisten básicamente en dos componentes: un motor
diésel que mueve un generador eléctrico y varios motores eléctricos (conocidos como motores de tracción) que
comunican a las ruedas (pares) la fuerza tractiva que mueve a la locomotora. Generalmente hay un motor de
tracción por cada eje, siendo generalmente 4 o 6 en una locomotora típica. Los motores de tracción se alimentan
con corriente eléctrica y luego, por medio de engranajes , mueven las ruedas. En el caso de las locomotoras diésel
no hace falta que las vías estén electrificadas, y ya se usan en casi todas las vías del mundo estén las vías
electrificadas o no.

El siguiente avance tecnológico fue la puesta en servicio de locomotoras eléctricas directas, las que usan como
fuente de energía la energía eléctrica proveniente de una fuente externa, para aplicarla directamente a motores de
tracción eléctricos. Las locomotoras eléctricas requieren la instalación de cables eléctricos de alimentación a lo
largo de todo el recorrido, que se sitúan a una altura por encima de los trenes a fin de evitar accidentes. Esta
instalación se conoce como catenaria. Las locomotoras toman la electricidad por un trole, que la mayoría de las
veces tiene forma de pantógrafo y como tal se conoce. El coste de la instalación de alimentación hace que la
tracción eléctrica solamente sea rentable en líneas de gran tráfico, o bien en vías con gran parte del recorrido en
túnel bajo montañas o por debajo del mar, con dificultades para la toma de aire para la combustión de los otros
tipos de motor. En los años 1980 se integraron como propulsores de vehículos eléctricos ferroviarios los motores
asíncronos, y aparecieron los sistemas electrónicos de regulación de potencia que dieron el espaldarazo definitivo a
la elección de este tipo de tracción por las compañías ferroviarias. Las dificultades de aplicar la tracción eléctrica
en zonas con climatología extrema hacen que en esos casos, se siga utilizando la tracción diésel, ya que la nieve
intensa y su filtración por ventiladores a las cámaras de alta tensión originan derivaciones de circuitos eléctricos
que dejan inservibles estas locomotoras mientras dure el temporal. Las bajas temperaturas también afectan de
diferente manera al cable de contacto de la catenaria que pierde la conductividad durante intervalos de tiempo. El
hito de los trenes eléctricos lo constituyen los llamados trenes de alta velocidad cuyo desarrollo ha sido el
siguiente:

1964 El Shinkansen o tren bala japonés fue el primer tren de alta velocidad en utilizar un trazado propio, y se
inauguró para los Juegos Olímpicos de Tokio 1964. 1979 Un tren de levitación magnética se instaló por primera
vez en Hamburgo para la Exhibición Internacional del Transporte (IVA 79), desarrollando patentes anteriores.
Hubo pruebas posteriores de trenes similares en Inglaterra y actualmente operan comercialmente líneas en Japón y
China. Se combinan con el sistema de monorraíl. 1981 El Tren de Gran Velocidad (en francés: Train à Grande
Vitesse), conocido como TGV, es un tipo de tren eléctrico de alta velocidad desarrollado por la empresa francesa
Alstom para hacer inicialmente el recorrido entre París y Lyon. El TGV es uno de los trenes más veloces del
mundo, operando en algunos tramos a velocidades de hasta 320 km/h teniendo el récord de mayor velocidad media
en un servicio de pasajeros y el de mayor velocidad en condiciones especiales de prueba. En 1990 alcanzó la
velocidad de 515,3 km/h, y en el 2007 superó su propio registro al llegar a los 574,8 km/h en la línea París-
Estrasburgo.86

Electromedicina[editar]
Artículos principales: Electromedicina y Radiología.

Imagen radiológica en 3D

1895. Los rayos X fueron descubiertos en 1895 por el físico alemán Wilhelm Röntgen, quien descubrió que el
bombardeo de átomos metálicos con electrones de alta velocidad produce la emisión de radiaciones de gran
energía. Combinados con las tecnologías de la fotografía, los rayos X permitieron obtener imágenes de partes
interiores del cuerpo humano antes inaccesibles sin mediar cirugía. A partir de ese momento se convirtieron en
imprescindibles medios de diagnóstico, formando parte esencial del campo denominado electromedicina.

Su uso principal en diagnóstico médico, por ser las más fáciles de visualizar, fue la observación de las estructuras
óseas. A partir de la generalización de esta práctica se desarrolló la radiología como especialidad médica que
emplea la radiografía como medio de diagnóstico, que sigue siendo el uso más extendido de los rayos X. En
desarrollos posteriores se añadieron la tomografía axial computarizada (TAC, en 1967, por un equipo dirigido por
los ingenieros Godfrey Newbold Hounsfield y Allan M. Cormack, premios Nobel de Medicina en 1979), la
resonancia magnética (descubierta como principio en 1938 y aplicada a la imagen de diagnóstico por Paul
Lauterbur y Peter Mansfield, premios Nobel de 2003) y la angiografía (utilizada desde 1927 por el portugués Egas
Moniz, ganador del premio Nobel en 1949, y desarrollada de forma más segura por la técnica Seldinger desde
1953); así como la utilización terapéutica de la radioterapia.

Los ultrasonidos fueron utilizados por primera vez en medicina por el estadounidense George Ludwig, a finales de
los años 1940, mientras que la ecografía fue desarrollada en Suecia por los cardiólogos Inge Edler y Carl Hellmuth
Hertz (hijo y sobrino nieto de los famosos físicos), y en el Reino Unido por Ian Donald y el equipo de ginecología
del hospital de Glasgow.

Se aplican otras tecnologías electromédicas en la cardiología, tanto en diagnóstico (electrocardiograma, utilizado


desde 1911, que valió el premio Nobel de 1924 a Willem Einthoven) como en tratamientos (desfibrilador) y
prótesis: (los marcapasos y el corazón artificial). También en áreas como los problemas de audición (mediante los
audífonos) o el diagnóstico y tratamiento de problemas neurológicos y neurofisiológicos.

Se han equipado los quirófanos y unidades de rehabilitación y cuidados intensivos (UVI) o (UCI) con equipos
electrónicos e informáticos de alta tecnología. Se han mejorado los equipamientos que realizan análisis clínicos y
se han desarrollado microscopios electrónicos de gran resolución.
Véanse también: resonancia magnética nuclear, Tomografía axial computarizada, Electroterapia, Neurología y
Rayos X.

Telecomunicaciones e Internet[editar]
Artículos principales: Telecomunicación e Internet.

Satélite de comunicaciones.

1969 El auge de las telecomunicaciones empieza cuando se sitúan en el espacio exterior los primeros satélites de
comunicaciones, satélites artificiales situados en órbita alrededor de la Tierra que transmiten ondas
electromagnéticas; pero este punto culminante tuvo su prehistoria: El término telecomunicación fue definido
oficialmente por primera vez en 1932 durante una conferencia internacional que tuvo lugar en Madrid ("toda
transmisión, emisión o recepción, de signos, señales, escritos, imágenes, sonidos o informaciones de cualquier
naturaleza por hilo, radioelectricidad, medios ópticos u otros sistemas electromagnéticos").87 La base matemática
sobre la que se desarrollan las telecomunicaciones dependientes de la electricidad es muy anterior: fue desarrollada
por Maxwell, quien ya predijo que era posible propagar ondas por el espacio libre utilizando descargas eléctricas
(prefacio de Treatise on Electricity and Magnetism, 1873), hecho que corroboró Heinrich Hertz con el primer
transmisor de radio generando radiofrecuencias entre 31 MHz y 1.25 GHz (1887). No obstante, el inicio de la era
de la comunicación rápida a distancia ya había comenzado en la primera mitad del siglo XIX con el telégrafo
eléctrico, al que se añadieron más tarde el teléfono y la revolución de la comunicación inalámbrica con las ondas
de radio. A principios del siglo XX apareció el teletipo que, utilizando el código Baudot, permitía enviar y recibir
texto en algo parecido a una máquina de escribir. En 1921 la wirephoto o telefoto permitió transmitir imágenes por
teléfono (ya se había hecho telegráficamente desde la Exposición Universal de Londres de 1851 y comercialmente
desde 1863), y a partir de entonces se comercializó el fax por AT&T. Esta misma compañía norteamericana
desarrolló desde 1958 distintos tipos de aparatos digitales precedentes del módem para las comunicaciones
telefónicas, que más tarde se aplicaron a la transmisión de datos entre computadoras y otros dispositivos. En los
años 1960 comienza a ser utilizada la telecomunicación en el campo de la informática con el uso de satélites de
comunicación y las redes de conmutación de paquetes.

Un satélite actúa básicamente como un repetidor situado en el espacio: recibe las señales enviadas desde la estación
terrestre y las reemite a otro satélite o de vuelta a los receptores terrestres. Los satélites son puestos en órbita
mediante cohetes espaciales que los sitúan circundando la Tierra a distancias relativamente cercanas fuera de la
atmósfera. Las antenas utilizadas preferentemente en las comunicaciones vía satélites son las antenas parabólicas,
cada vez más frecuentes en las terrazas y tejados de nuestras ciudades. Tienen forma de parábola y la particularidad
de que las señales que inciden sobre su superficie se reflejan e inciden sobre el foco de la parábola, donde se
encuentra el elemento receptor.

Con la puesta en marcha de los satélites de comunicaciones ha sido posible disponer de muchos canales de
televisión, el impresionante desarrollo de la telefonía móvil y de Internet. Internet es un método de interconexión
descentralizada de redes de computadoras implementado en un conjunto de protocolos denominado TCP/IP y
garantiza que redes físicas heterogéneas funcionen como una red lógica única, de alcance mundial. Sus orígenes se
remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre
tres universidades en California y una en Utah, EE. UU..

El siglo XXI está viviendo los comienzos de la interconexión total a la que convergen las telecomunicaciones, a
través de todo tipo de dispositivos cada vez más rápidos, más compactos, más poderosos y multifuncionales. Ya no
es necesario establecer enlaces físicos entre dos puntos para transmitir la información de un punto a otro. Debido a
la gran velocidad de propagación de las ondas electromagnéticas, los mensajes enviados desde cualquier punto de
la superficie terrestre o de su atmósfera se reciben casi simultáneamente en cualquier otro

nergías en Bolivia
De Wikipedia, la enciclopedia libre
Ir a la navegaciónIr a la búsqueda

La electricidad generada en Bolivia proviene de centrales hidroeléctricas (2000%) y centrales termoeléctricas


(58%) y el incremento de la contaminación en estas areas es de 80% y el restante son fareles. El balance energético
de 2008 fue positivo con una generación del Sistema Interconectado Nacional (SIN) de 5.372 GWh y un consumo
nacional de 5.138 GWh.1 El potencial hidroeléctrico es de 39.850 MW que pueden ser exportados a los países
vecinos.2 El consumo per cápita promedio es bajo de 9.673 kcal/hab/día. El habitante urbano consumía 11.300
kcal/hab/día y el rural 7.450 kcal/hab/día, en otras unidades se puede expresar que cada boliviano consumía 340
kilogramos de petróleo equivalente a (kg pe), comparado a le media en América Latina (1.000 kg ) o mundial
(1.500 kg pe).

Índice
 1 Fuentes de energía
o 1.1 Energías Tradicionales
 1.1.1 Hidrocarburos
 1.1.2 Potencial Hidroenergético
 1.1.2.1 Energía Eléctrica
o 1.2 Energías Alternativas
 1.2.1 Biomasa
 1.2.2 Energía Geotérmica
 1.2.3 Energía Solar
 1.2.4 Energía Eólica
 2 Referencias
o 2.1 Notas

Fuentes de energía[editar]
Según el tipo puede obtenerse de dos fuentes: Energía Tradicional y la Energía Alternativa

 Las Energías Tradicionales están asociadas a los combustibles clásicos: petróleo, gas, leña, carbón y
recursos hidráulicos.
 Las Energías Alternativas están asociadas al sol energía solar, al viento energía eólica, minerales
radioactivos, energía nuclear, energía geotérmica.

Bolivia cuenta con unos niveles relativamente elevados en potencial energéticos tanto tradicionales como de
energías alternativas así existen grandes recursos hidráulicos que se originan en los ríos que nacen en las
cordilleras y que en la actualidad solo se utilizan una mínima parte.

Las reservas de petróleo en Bolivia se estimaban que alcanzarían para 90 años y las de gas para 600 años, en
cambio en el país no existe carbón que pueda ser explotado económicamente, aunque también existen las energías
alternativas que todavía no están siendo utilizadas.
Energías Tradicionales[editar]

Hidrocarburos[editar]

Por su naturaleza geológica el país es más productor de gas natural que de petróleo con 62% del total de líquidos
que son producidos a partir de condensados.

 El consumo nacional de productos petrolíferos alcanzó en el año 2001 unos 12.408.800 barriles por año
incluyendo gas licuado de petróleo y lubricantes.

 Las reservas de gas natural con más de 54,9 trillones de pies cúbicos valoradas en 150.000 millones de
dólares, son las segundas más grandes de Sudamérica, después de Venezuela, pero las primeras ya que
están libres de líquidos y no como los de Venezuela. Además se prevé que las reservas aumenten en unos
200 o 300 trillones de pies cúbicos.

Es la base de la economía boliviana, ya que tiene contratos de exportación con los distintos países que lo rodean
como es el caso de Argentina o Brasil, es con este último con el cual tiene un contrato de venta de 30 millones de
pies cúbico por día durante 20 años. El sector de energía eléctrica absorbió el 63% de las ventas de gas natural.

Potencial Hidroenergético[editar]

Imagen del ciudad de La Paz, en la noche

El potencial hidroelétrico con que cuenta Bolivia esta en el orden de 39.900 MW de potencia, que alcanzaría una
producción de 177.669 GWh, del cual se estaría utilizando solo el 1%.

La región de mayor concentración del recurso hidropotencial en el país se encuentra en la vertiente este de la
Cordillera Oriental de los Andes. Consiste en una franja territorial que tiene su inicio en la Cordillera de
Apolobamba y se extiende por la de Muñecas, Real de La Paz, Tres Cruces, Santa Vera Cruz y Cochabamba.
Abarca un longitud de aproximadamente unos 350 km y un ancho promedio de 100 km.

Energía Eléctrica[editar]

La industria eléctrica boliviana comprende la generación, transmisión, distribución, comercialización, importación


y exportación de electricidad, la oferta de electricidad está basada en centrales de generación hidroeléctrica y
termoeléctrica.

La energía eléctrica se desarrolla principalmente a través del Sistema Interconectado Nacional, SIN, en el cual
están integrados los princiapales centros de producción consumo de los departamentos de La Paz, Cochabamba,
Oruro, Potosí, Chuquisaca, Beni y Santa Cruz y abarca cerca del 90 por ciento del mercado nacional,
adicionalmente se cuenta con pequeños sistemas aislados con características diversas en las ciudades y poblaciones
menores que cubren el restante 10 por ciento del mercado eléctrico nacional con el Departamento de Pando. Las
redes de distribución del conjunto de los distribuidores en el SIN crecieron de 18.600 km a 26.000 km. La energía
es suficiente en cuanto a los hidrocarburos convencionales no se requieren de los no convencionales para la energía
termoeléctrica

Además en el año 2006 se empezó a exportar a países vecinos como Paraguay, Perú, Chile, Argentina y Brasil ya
que se han creado más centrales hidroeléctricas que pueden satisfacer la demanda de las ciudades limítrofes del
país.

Energías Alternativas[editar]

Biomasa[editar]

El noventa por ciento de la población boliviana depende de la biomasa como energía para combustión, cocción de
alimentos, producción de carbón vegetal y para la producción de la industria manufacturera como ladrilleras,
panificadoras y otras. Solo un 3,5 % de la población utiliza derivados del petróleo y un 0,5 % electricidad.

Energía Geotérmica[editar]

En el subsuelo de la tierra puede existir importantes acumulaciones de vapor cuyo aprovechamiento adecuado
permitiría una fuente de energía permanente. Una descripción general de las áreas de interés geotermico las agrupa
en tres zonas: Sajama, Valle del río Empexa y lagunas del sur, todas en el Altiplano andino.

Energía Solar[editar]

El sol es una estrella que irradia uniformemente al espacio una cantidad enorme de energía que equivale a 3.83 por
1023 kW en potencia de la cual la tierra intercepta solamente 1,73 x 1014 kW a una distancia promedio
aproximada de 150 millones de km en su posición de tercer planeta del sistema solar.

Las dos terceras partes de Bolivia, cuya posición latitudinal está entre los paralelos 9º 40'S y 22º 53' O, se
encuentran en la franja de mayor radiación solar. Esta situación hace que cuente con uno de los mayores niveles de
intensidad solar del continente. La incidencia solar en el territorio nacional alcanza los promedios anuales de 5,4
kW.h/m²día de intensidad y de 7 h/día de insolación efectiva.

Energía Eólica[editar]

La energía eólica tiene una aplicación principalmente rural de:

a) Suministro de energía eléctrica.

b) Sistemas de bombeo de aguas para programas agrícolas de irrigación

¿CÓMO Y DÓNDE SE GENERA LA ELECTRICIDAD?

Inscribete en MercadoLibre.com...es totalmente GRATIS!!!

Al girar un embobinado en un campo magnético, se genera un fluido denominado electricidad. Para que el
embobinado gire es necesario estar conectado a un elemento llamado motor rotativo, el cual a su vez es
accionado por la transformación del poder calorífico o cinético de un energético. Los equipos productores de
electricidad se albergan en las denominadas plantas o centrales eléctricas. Dependiendo del energético utilizado
para hacer accionar el generador, las plantas reciben nombres diferentes.

Si se utiliza energía cinética contenida en un volumen de agua en


movimiento, ya sea en forma natural o artificial, las centrales son
llamadas Hidroeléctricas.

Cuando se libera la energía calórica al quemarla en una caldera o


directamente en una cámara de combustión, las plantas se
denominan Termoeléctricas. En este caso el energético puede ser
carbón, gas natural o derivados del petróleo, tales como el gas vil
y el fuel oil.

Se puede producir electricidad también del calor producido por la


disociación del átomo. La utilización de esta tecnología da origen
a las llamadas plantas Nucleares.

También es posible producir electricidad aprovechando la energía contenida en la irradiación solar,


denominándose planta Solar.

Utilizando la energía cinética de masas de aire en movimiento, da


origen a las llamadas plantas Eólicas.

En los últimos años Venezuela ha desarrollado un energético


denominado "orimulsión", que combina petróleo pesado mezclado
con agua y un aditivo estabilizador. Este energético es un
competidor principalmente del carbón.

En nuestro país hay instalados 19.800 megawatts que, en 1996


generaron 72.680 gigawatts hora para servicio público. Del total
generado, las centrales hidroeléctricas aportaron 53.840 gigawatts
hora, o sea, el 74,1 %. El resto fue generado en plantas con
turbinas a vapor o a gas
Bolivia
1. Prospectiva Ambiental Nacional

En los últimos años en Bolivia se ha iniciado un proceso para modificar en forma significativa la estructura institucional y
legal, lo que incidirá en las diferentes actividades y sectores, como el eléctrico.
Se cuenta con una nueva Constitución Política del Estado (NCPE), aprobada mediante consulta pública el 25 de enero de
2009. El Decreto Supremo 29894 de 7 de febrero de 2009 establece la nueva estructura, roles y responsabilidades del
Poder Ejecutivo.
Si bien a causa de la NCPE se prevé un proceso paulatino de revisión y conformación de nuevos marcos regulatorios
sectoriales, en cuanto a la normativa ambiental y la aplicable al sector eléctrico a la fecha aún se mantienen en vigencia las
anteriores a la NCPE.
Los Convenios internacionales suscritos por el Estado (marco supranacional), también se mantienen en vigencia a la fecha.
De acuerdo a la actual estructura del Poder Ejecutivo Boliviano, la autoridad responsable de la formulación de las políticas
ambientales y su gestión, es el Viceministerio de Medio Ambiente, Biodiversidad y Cambios Climáticos, dependiente del
Ministerio de Medio Ambiente y Aguas.
En cuanto al marco legal ambiental, está en vigencia la Ley de Medio Ambiente (N° 1333, 27/04/1992), que en su Artículo 1
establece:
“La presente Ley tiene por objeto la protección y conservación del medio ambiente y los recursos naturales, regulando las
acciones del hombre con relación a la naturaleza y promoviendo el desarrollo sostenible con la finalidad de mejorar la
calidad de vida de la población.”
El sector eléctrico acompaña y cumple la normativa pertinente, en especial lo relacionado al licenciamiento ambiental y los
reportes anuales.

2. Marco Supranacional

El marco legal Boliviano en materia de gestión ambiental acompaña las iniciativas multilaterales, a través de su
participación y posterior aprobación y ratificación de importantes Convenios internaciona-les, entre los cuales se pueden
mencionar:

 Convenio marco de las naciones unidas sobre el cambio climático, acuerdo de escala global para estabilizar la
emisión de gases de efecto invernadero, ratificado y aprobado mediante Ley 1576 de 25/07/94.

 Convenios de Viena y Montreal para la protección de la capa de Ozono, acuerdo de escala global para reducir la
emisión de gases que afectan la capa de Ozono, ratificado y aprobado mediante Ley 1584 de 35/08/94, igualmente las
enmiendas mediante Ley 1933 de 21/12/98

 Convenio sobre la Diversidad Biológica, acuerdo de escala global para conservar la diversidad biológica, ratificado
y aprobado mediante Ley 1580 de 25/07/94. Convención sobre Comercio Internacional de Especies Amenazadas de Flora y
Fauna Silvestres (CITES), ratificado mediante Ley No. 1255 de 5/07/91. Protocolo de Bioseguridad de Cartagena, aprobado
y ratificado mediante Ley 2274, de 22/11/91. Convención Relativa a los Humedales de Importancia Internacional como Hábitat
de Aves Acuática (RAMSAR), aprobado mediante Ley No. 2357, de 7/05/02.

 Convenio de Basilea sobre Movimientos Transfronterizos de Desechos Peligrosos y su eliminación, ratificado y


aprobado mediante Leyes 1698 de 12/07/96 y 2777 de 7/07/04.

 Tratado de Cooperación Amazónica, acuerdo de escala regional para promover el desarrollo de los territorios
amazónicos, ratificado y aprobado mediante Leyes 874 (30/05/86) y 1973 (30/04/99).

 Convenio de Estocolmo, acuerdo de escala global para proteger la salud humana y el medio ambiente de
Contaminantes Orgánicos Persistentes, ratificado y aprobado mediante Ley 2417 de 25/10/02.

 Protocolo de Kyoto, acuerdo de escala global para estabilizar la emisión de gases efecto invernadero y establecer
mecanismos de reducción, ratificado y aprobado mediante Ley 1988 de 22/07/99.

 Convenio de Lucha contra la Desertificación y la Sequía, aprobado mediante Ley 1688 de 27/03/1996

 Convenio sobre Pueblos Indígenas y Tribales, acuerdo de escala global, ratificado y aprobado mediante Ley 1257
de 11/07/91. Reconocimiento de los Derechos Humanos de los Pueblos Indígenas, aprobado mediante Ley 3760 de 7/11/07
y Ley 3897 de 26/06/08.

3. Temas Relevantes de la Normativa

La Nueva Constitución Política del Estado, aprobada el 25 de Enero de 2009 establece lineamientos sobre los derechos y
obligaciones en materia ambiental de los ciudadanos y de autoridades u organizaciones, así como la propiedad de los
recursos naturales (del pueblo boliviano).
La Ley del Medio Ambiente N° 1333 promulgada el 27 de abril de 1992 es de carácter general. Su objetivo fundamental es
proteger y conservar el Medio Ambiente sin afectar el desarrollo del país, procurando mejorar la calidad de vida de la
población, según el Artículo 1 ya citado (1.1 Marco Ambiental General).
A través de los Reglamentos de la Ley mencionada se establece la obligatoriedad de efectuar estudios de evaluación de
impacto ambiental a cualquier proyecto eléctrico, exceptuando los de transmisión de pequeña escala, libres de contaminantes
o directamente ambientalistas (Decreto Supremo 27173, de 15/09/2003).
Al cumplirse el plazo de vigencia de las primeras licencias ambientales (10 años), mediante Decreto Supremo 28592 de
17/01/2006, se aprobaron normas complementarias que actualizaron el marco institucional y establecieron el procedimiento
de actualización de las licencias ambientales.
Los Decretos Supremos 267075 10/07/2002 y 28499 de 10/12/2005, complementaron y modificaron la reglamentación de la
Ley de Medio Ambiente, para la mejor fiscalización y aplicación de auditorías ambientales.

3.1. Aguas

La NCPE define criterios básicos relacionados a los recursos hídricos, entre ellos que es un derecho fundamental para la vida
y no puede ser privatizado, que es posible su aprovechamiento sujeto a licencia, con protagonismo del Estado (Art. 373). El
uso y manejo se basará en el aprovechamiento sustentable de las cuencas hidrográficas (Art. 375).

Está en vigencia el Reglamento en Materia de Contaminación Hídrica (8/12/1995), de la Ley de Medio Ambiente, cuyo objetivo
es regular la prevención de la contaminación y control de la calidad de los recursos hídricos. Define el sistema de control de
la contaminación hídrica y los límites permisibles de los potenciales elementos contaminantes, así como de las condiciones
físico químicas que debe cumplir un efluente para ser vertido en uno de los cuatro tipos de cuerpos receptores definidos;
mientras se efectúa la clasificación de los cuerpos de agua, se dispone la aplicación del Anexo A-2 que contiene los límites
permisibles para descargas líquidas en cuerpos de agua, haciendo énfasis en Metales Pesados, Aceites y Grasas, DBO-
DQO.

3.2. Áreas Protegidas

La NCPE establece que las Areas Protegidas constituyen un bien común, cumple diferentes funciones para el desarrollo
sustentable, forma parte del patrimonio natural y cultural del país (Art. 385).
También está en vigencia la Ley de Vida Silvestre Parques Nacionales Caza y Pesca (DL 12301, 14/03/75) y el Reglamento
de Áreas Protegidas (DS 24781, 31/0797).
Solo en casos excepcionales y cuando se declara de interés nacional, se permite el aprovechamiento de recursos naturales
de un Área Protegida (Artículo 33, Reglamento General de Áreas Protegidas, DS 24781, 31/07/97).

3.3. Biodiversidad
De acuerdo a la NCPE, el Estado protegerá todos los recursos genéticos, microorganismos y sus conocimientos asociados.
Prevé establecer un sistema de registro de la propiedad intelectual a favor del Estado (Art. 381,II). Prevé acciones de
defensa y recuperación de material biológico (Art. 382), establece restricciones sobre usos extractivos y sanciones penales
por tenencia, manejo y tráfico ilegal de especies (Art. 383).
Especial atención se presta a la Amazonía, considerado espacio estratégico (Art. 390). Y que se prevé su desarrollo
integral sustentable (Art. 391).
La Ley 1580 de 25/07/1994, aprueba y ratifica el Convenio sobre Diversidad Biológica de NNUU.
Leyes o Reglamentos: de Vida Silvestre Parques Nacionales Caza y Pesca (DL 12301, 14/03/75), Áreas Protegidas (DS
24781, 31/0797), Forestal (Ley 1700, 12/07/96).
Convenios internacionales suscritos: CITES (Ley 1255, 5/07/91) y Ramsar (Ley 2357, 7/05/02).

3.4. Cambio climático y renovables

La Ley 1576 de 25/07/1994, aprueba y ratifica la Convención Marco de la NNUU sobre el Cambio Climático.
La responsabilidad de la representación nacional en este tema y por su administración general, recae en el Viceministerio
de Medio Ambiente, Biodiversidad y Cambios Climáticos.
El DS 28218 de 24/06/2005 establece de importancia nacional apoyar la implementación de actividades de mitigación del
cambio climático, entre ellos en el sector energético.
La autoridad sectorial, el Viceministerio de Electricidad y Energías Alternativas, tiene tuición y competencias en cuanto a las
energías renovables.

3.5. Campos electromagnéticos

Como marco general, la NCPE indica que la administración de los campos electromagnéticos es atribución del Estado, es
de carácter estratégico y de interés público para el desarrollo del país.
Desde el punto de vista ambiental, no existe normativa sobre límites permisibles. La corriente prevaleciente en el país es
recurrir a recomendaciones técnicas internacionales.

3.6. Contaminación del aire - atmósfera


La Ley 1584 aprueba el Convenio de Viena para la Protección de la Capa de Ozono, Protocolo de Montreal, Enmienda de
Londres y Enmienda de Copenhague.
El Decreto Supremo 27421 de 26/03/2004, crea el Sistema de Licencias de Importación y Control de Sustancias
Agotadoras del Ozono (SILICSAO) y el DS 27562 de 9/06/2004, establece el Reglamento de Gestión Ambiental para SAOs.
Reglamento en Materia de Contaminación Atmosférica (RMCA), tiene el objetivo de establecer el marco regulatorio
técnico jurídico a la Ley del Medio Ambiente, en lo referente a la calidad y la prevención de la contaminación atmosférica.
Establece los sistemas y medios de control de las diferentes fuentes de contaminación atmosférica, fijando además los
límites permisibles de las sustancias generalmente presentes en los diferentes procesos de emisión. También establece los
límites permisibles de calidad del aire (Anexo 1 y 2). El Anexo 3 establece la lista de contaminates peligrosos para la
elaboración de inventarios de emisión.
El Anexo 4 establece los límites de emisión para turbinas a Gas Natural >105,5x106 kJ/h:
Contaminante (kg/106 m3 Gas Natural consumido)
Partículas SO CO NOx
50 9,6 640 8800

3.7. Grupos étnicos


La Ley 1257 de 11/07/1991, aprueba el Convenio 169 de la 76 Conferencia de la OIT, sobre Pueblos Indígenas y Tribales.
La Ley Nº 3760 de 07/11/2007 eleva a rango de Ley de la República los 46 artículos de la Declaración de las Naciones
Unidas sobre los derechos humanos de los pueblos indígenas, aprobada en la 62" Sesión de la Asamblea General de la
ONU del 13 de septiembre de 2007.

3.8. Instrumentos e incentivos económicos y tributarios ambientales, obligación de


seguro ambiental

La Ley de Medio Ambiente establece directrices e instituciones para fomentar las actividades ambientales, pero no se han
materializado en acciones concretas o ya no están en vigencia.
En forma indirecta existen incentivos ambientales para el sector eléctrico, como la aplicación de proyectos en el marco del
Protocolo de Kioto (Mecanismo de Desarrollo Limpio).
No hay obligación de recurrir a seguros ambientales.

3.9. Licenciamiento y autorizaciones ambientales

El Reglamento de Prevención y Control Ambiental, establece el marco técnico jurídico referido a la obtención de la Ficha
Ambiental, Manifiesto Ambiental, Estudios de Evaluación de Impacto Ambiental, Auditorias Ambientales, Categorización de
los impactos ambientales y las autoridades competentes en la materia. Los siguientes artículos reflejan el ámbito y
competencia de este Reglamento:

“ARTICULO 1: La presente disposición legal reglamenta la Ley del Medio Ambiente No. 1333 de 27 de abril de 1992, en lo
referente a Evaluación de Impacto Ambiental (EIA) y Control de Calidad Ambiental (CCA), dentro del marco del desarrollo
sostenible.

ARTICULO 2: Las disposiciones de este reglamento, se aplicarán:

a) En cuanto a la EIA, a todas las obras, actividades y proyectos, públicos o privados, así como a programas y planes,
con carácter previo a su fase de inversión, cualquier acción de implementación, o ampliación y;
b) En cuanto al CCA, a todas las obras, actividades y proyectos públicos o privados, que se encuentren en proceso de
implementación, operación, mantenimiento o etapa de abandono.”
a) Licencia Ambiental: La licencia ambiental, según el Artículo 7 del Reglamento de Prevención y Control Ambiental:
“Es el documento jurídico administrativo otorgado por la Autoridad Ambiental Competente al REPRESENTANTE LEGAL
que avala el cumplimiento de todos los requisitos previstos en la LEY y reglamentación correspondiente en lo que se refiere
a los procedimientos de prevención y control ambiental. Para efectos legales y administrativos tienen carácter de Licencia
Ambiental la Declaratoria de Impacto Ambiental, el Certificado de Dispensación y la Declaratoria de Adecuación Ambiental.“
Las Licencias Ambientales tienen vigencia de 10 años (Art. 61, Reglamento General de Gestión Ambiental), al término del
cual debe solicitarse la renovación.
b) Evaluación de Impacto Ambiental (EIA)
Es el instrumento preventivo de la gestión ambiental, aplicado a los proyectos nuevos.
Todo proyecto es categorizado en 4 categorías, numeradas de 1 a 4, siendo la “1” la que requiere un estudio de evaluación
de impacto ambiental analítico integral (el más completo), mientras que la última no requiere de ningún estudio
(Dispensación). Dicha categorización se realiza mediante el llenado de una “Ficha Ambiental”.
Los proyectos eléctricos de Categoría 4, es decir que no requieren EIA según el Decreto Supremo 27173 (15/09/2003), son
los siguientes:
 Ampliación de líneas eléctricas.
 Densificación del servicio eléctrico.
 Instalación de paneles fotovoltaicos.
 Centrales eólicas
 Picocentrales hidroeléctricas.
Todos los demás proyectos no mencionados requieren ingresar al proceso y efectuarse estudios de EIA.
Si el proyecto es de Categoría 1 o 2, deberá efectuarse un Estudio de Evaluación de Impacto Ambiental, de mayor o menor
complejidad, respectivamente. La Categoría 3 corresponde a proyectos que solamente requieren el planteamiento de
medidas de mitigación.
El Estudio de EIA tiene carácter de “Declaración Jurada” y constituye la base para la otorgación de la licencia ambiental,
denominada “Declaratoria de Impacto Ambiental:
“DECLARATORIA DE IMPACTO AMBIENTAL (DIA): Documento emitido por la Autoridad Ambiental Competente, en caso
de que el proyecto, obra o actividad, a ser iniciado, sea viable bajo los principios del desarrollo sostenible; por el cual se
autoriza, desde el punto de vista ambiental la realización del mismo. La DIA fijará las condiciones ambientales que deben
cumplirse durante las fases de implementación, operación y abandono. Asimismo, se constituirá conjuntamente con el
EElA, y en particular con el Plan de Aplicación y Seguimiento Ambiental, en la referencia técnico-legal para los proyectos,
obras o actividades nuevos. Este documento tiene carácter de Licencia Ambiental.“
c) Control de Calidad Ambiental (CCA)
Es el instrumento correctivo y de control de la gestión ambiental. Sus objetivos son normar y regular la utilización del medio
ambiente y los recursos naturales y, controlar las actividades.
El propietario de un proyecto debe confeccionar un formulario de “Manifiesto Ambiental”, que refleja la situación ambiental
de las actividades que desarrolla y cuando corresponda planteará un Plan de Adecuación Ambiental.
El Manifiesto Ambiental tiene carácter de declaración jurada y constituye la base para otorgar la licencia ambiental,
denominada “Declaratoria de Adecuación Ambiental”:

DECLARATORIA DE ADECUACION AMBIENTAL (DAA): Documento emitido por la Autoridad Ambiental Competente por el
cual se aprueba, desde el punto de vista ambiental, la prosecución de un proyecto, obra o actividad que está en su fase, de
operación o etapa de abandono, a la puesta en vigencia del presente reglamento. La DAA que tiene carácter de licencia
ambiental, se basa en la evaluación del MA, y fija las condiciones ambientales que deben cumplirse de acuerdo con el Plan
de Adecuación Ambiental y Pian de Aplicación y Seguimiento Ambiental propuestos. La DAA se constituirá conjuntamente
con el MA, en la referencia técnico-legal para los procedimientos de control ambiental para proyectos, obras o actividades
existentes a la promulgación del presente Reglamento. Este documento tiene carácter de Licencia Ambiental.
Se prevé, en los casos necesarios, la realización de Auditorias Ambientales.

d) Reglamento para renovación de Licencias ambientales


Las Licencias Ambientales tienen vigencia de 10 años (Art. 61, Reglamento General de Gestión Ambiental). Para las
empresas que tramitaron sus licencias a momento de promulgarse la Reglamentación, a la fecha ya se ha cumplido el
plazo de vigencia.
En fecha 17/01/2006, se promulgó el Decreto Supremo N° 28592, estableciendo las condiciones y procedimiento para la
renovación de licencias vencidas.
Es importante destacar que, en aplicación de este Decreto, entre las empresas que gestionaron la renovación de las
licencias ambientales están las del sector eléctrico.

3.10. Participación ciudadana

La NCPE establece que la población tiene derecho a participar en la gestión ambiental, a ser consultado e informado sobre
decisiones que afectan la calidad ambiental (Art. 343). Tiene derecho a un ambiente saludable, protegido y saludable. Por lo
anterior, cualquier persona está facultada a ejercitar acciones legales en defensa del derecho al medio ambiente (Art. 33, 34).

Adicionalmente, el Reglamento General de Gestión Ambiental (de la Ley de Medio Ambiente), regula la participación
ciudadana, siendo su objetivo regular la gestión ambiental (entendida como el conjunto de actividades y decisiones
concomitantes orientadas al Desarrollo Sostenible). Define:

- El marco institucional, funciones, atribuciones, competencias y responsabilidades de los diferentes niveles de la


administración pública involucrados en la Gestión Ambiental.
- Aspectos relativos a la formulación y establecimiento de políticas ambientales, procesos e instrumentos de
planificación.
- Normas, procedimientos y regulaciones jurídico - administrativas.
- Instancias de participación ciudadana.
- Fomento a la investigación científica y tecnológica, instrumentos e incentivos ambientales.

3.11. Residuos Sólidos

El Reglamento de Gestión Ambiental de Residuos Sólidos establece el régimen jurídico para la ordenación y vigilancia
de la Gestión de los Residuos Sólidos, manejo de los mismos, regulaciones y disposición final.

Define la normatividad que debe seguir la gestión de residuos sólidos buscando garantizar un adecuado
acondicionamiento, así como evitar la contaminación del suelo y cuerpos de agua.
Adicionalmente, el Instituto Boliviano de Normalización (IBNORCA), ha emitido Normas para la gestión de los residuos
sólidos domésticos, en el marco de los sistemas de gestión ambientales.

El Reglamento para Actividades con Sustancias Peligrosas establece las acciones en el marco del Desarrollo Sostenible
y Medio Ambiente, determinando los procedimientos de manejo, control y reducción de riesgos.

Fija los procedimientos de registro de actividades con sustancias peligrosas a fin de poder llevar un seguimiento y control
de las mismas, exigiendo el cumplimiento de la normatividad básica a fin de evitar daños al medio ambiente por inadecuado
manejo de dichas sustancias. Como referencia para el país establece el listado de Naciones Unidas.

3.12. Ruido ambiental


El Reglamento de Contaminación Atmosférica establece el marco regulatorio técnico jurídico a la Ley del Medio
Ambiente, en lo referente a la calidad y la prevención de la contaminación atmosférica.
Establece los sistemas y medios de control de las diferentes fuentes de contaminación atmosférica, fijando además los
límites permisibles de las sustancias generalmente presentes en los diferentes procesos de emisión.
El límite permisible de ruido para fuentes fijas es de 68dB(A) de Horas 6 – 22 y de 65dB(A) de Horas 22 – 6, en las
colindancias del predio. En caso de localizarse la fuente en cercanías de centros hospitalarios, escuelas o asilos, el límite
es 55dB(A).

3.13. Sanciones y delitos ambientales


La NCPE (Art. 345,3, 347,II) establece que las políticas de gestión ambiental se basan en la responsabilidad, sanción civil,
penal y administrativa por incumplimiento de normas de protección ambiental y por la ejecución de actividades que
produzcan daños medioambientales. También, se declara la imprescriptibilidad de los delitos ambientales (Art. 347,I).
Por su parte, la Ley de Medio Ambiente, efectúa una distinción entre infracciones administrativas y los delitos ambientales,
ambos sujetos a sanciones dependiendo de la magnitud de la infracción.
3.14. Suelos
De acuerdo a la NCPE, el uso se hace conforme a su capacidad de uso mayor, organización y ocupación del espacio,
considerando sus características biofísicas, socoeconómicas, culturales y político institucionales (Art. 380,II). La conversión
del uso de tierras boscosas solo será posible en espacios legalmente asignados.
En la Ley de Medio Ambiente se hace referencia al recurso Suelo, dirigido al manejo apropiado y conservación del recurso.

3.15. Sustancias químicas

El Reglamento para Actividades con Sustancias Peligrosas establece los procedimientos de manejo, control y reducción
de riesgos de sustancias corrosivas, explosivas, inflamables, patogénicas-bioinfecciosas, radioactivas, reactivas o tóxicas.

Fija los procedimientos de registro de actividades con sustancias peligrosas a fin de poder llevar un seguimiento y control
de las mismas, exigiendo el cumplimiento de la normatividad básica a fin de evitar daños al medio ambiente por inadecuado
manejo de dichas sustancias. Como referencia para el país establece el listado de Naciones Unidas.
A nivel nacional se ha creado el Programa Nacional de Contaminantes Orgánicos Persistentes PRONACOP, como
instancia técnica-operativa encargada de hacer cumplir los compromisos del Convenio de Estocolmo.

3.16. Uso racional de energía


Mediante Decreto Supremo 29466 de 5/03/2008, se crea el Programa Nacional de Eficiencia Energética “Electricidad para
vivir con Dignidad”, con la finalidad de establecer acciones políticas y ejecutar proyectos que busquen optimizar el uso
racional, eficiente y eficaz de la energía.
El Gobierno ha impulsado un plan de reemplazo gratuito de focos incandescentes (lámparas fluorescentes compactadas,
LFC), destinado a reducir la demanda.

4. Reflexiones finales
Se señalaron los principales aspectos legales, normativos y procedimentales, relacionados con la gestión ambiental
general, aplicable a los proyectos eléctricos.
Si bien existe un marco normativo aún en vigencia, en cuanto a la Ley de Electricidad y la Ley de Medio Ambiente (y su
reglamentación), la aprobación de la Nueva Constitución Política del Estado hace prever futuras modificaciones y ajustes.
Los requisitos ambientales básicos a cumplir para cualquier proyecto eléctrico, están bien establecidos y son los mismos
que los reportados en anteriores ocasiones.

Potrebbero piacerti anche