Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Mecánica cuántica
En unos pocos años, aproximadamente entre 1924 y 1930, se desarrolló
un nuevo enfoque teórico de la dinámica para explicar el comportamiento
subatómico. El nuevo planteamiento, llamado mecánica cuántica o mecánica
ondulatoria, comenzó cuando el físico francés Louis de Broglie sugirió en
1924 que no sólo la radiación electromagnética, sino también la materia podía
presentar una dualidad onda-corpúsculo. La longitud de onda de las llamadas
ondas de materia asociadas con una partícula viene dada por la ecuación =
h/mv, donde m es la masa de la partícula y v su velocidad. Las ondas de
materia se concebían como ondas piloto que guiaban el movimiento de las
partículas, una propiedad que debería llevar a que en condiciones adecuadas
se produjera difracción. Ésta se confirmó en 1927 con los experimentos sobre
interacciones entre electrones y cristales realizados por los físicos
estadounidenses Clinton Joseph Davisson y Lester Halbert Germer y por el
físico británico George Paget Thomson. Posteriormente, los alemanes Werner
Heisenberg, Max Born y Ernst Pascual Jordan, y el austriaco Erwin
Schrödinger dieron a la idea planteada por de Broglie una forma matemática
que podía aplicarse a numerosos fenómenos físicos y a problemas que no
podían tratarse con la física clásica. Además de confirmar el postulado de
Bohr sobre la cuantización de los niveles de energía de los átomos, la
mecánica cuántica hace que en la actualidad podamos comprender los
átomos más complejos, y también ha supuesto una importante guía en la
física nuclear. Aunque por lo general la mecánica cuántica sólo se necesita en
fenómenos microscópicos (la mecánica newtoniana sigue siendo válida para
sistemas macroscópicos), ciertos efectos macroscópicos como las
propiedades de los sólidos cristalinos sólo pueden explicarse de forma
satisfactoria a partir de los principios de la mecánica cuántica.
Desde entonces se han incorporado nuevos conceptos importantes al
panorama de la mecánica cuántica, más allá de la idea de Broglie sobre la
dualidad onda-corpúsculo de la materia. Uno de estos conceptos es que los
electrones deben tener un cierto magnetismo permanente y por tanto un
momento angular intrínseco, o espín. Después se comprobó que el espín es
una propiedad fundamental de casi todas las partículas elementales. En
1925, el físico austriaco Wolfgang Pauli expuso el principio de exclusión, que
afirma que en un átomo no puede haber dos electrones con el mismo
conjunto de números cuánticos (hacen falta cuatro números cuánticos para
especificar completamente el estado de un electrón dentro de un átomo). El
principio de exclusión es vital para comprender la estructura de los elementos
y de la tabla periódica. En 1927, Heisenberg postuló el principio de
incertidumbre, que afirma la existencia de un límite natural a la precisión con
la que pueden conocerse simultáneamente determinados pares de
magnitudes físicas asociadas a una partícula (por ejemplo, la cantidad de
movimiento y la posición).
En 1928 el físico matemático británico Paul Dirac realizó una síntesis de la
mecánica cuántica y la relatividad, que le llevó a predecir la existencia del
positrón y culminó el desarrollo de la mecánica cuántica.
Las ideas de Bohr desempeñaron un papel muy importante para el
desarrollo de un enfoque estadístico en la física moderna. Las relaciones de
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 2
interacciones puedan unirse en una única teoría del campo unificado. Estos
intentos implican siempre el concepto de simetría. Las simetrías
generalizadas se extienden también a intercambios de partículas que varían
de un punto a otro en el espacio y en el tiempo. El problema para los físicos
es que estas simetrías no amplían el conocimiento científico de la naturaleza
de la materia. Por eso, muchos físicos están explorando las posibilidades de
las llamadas teorías de supersimetría, que relacionarían directamente los
fermiones y los bosones postulando nuevas parejas de partículas ‘gemelas’
además de las conocidas, que sólo se diferenciarían por el espín. Se han
expresado algunas reservas en relación con estos intentos; en cambio, otro
enfoque conocido como teoría de supercuerdas suscita mucho interés. En
esta teoría, las partículas fundamentales no se consideran objetos sin
dimensiones sino ‘cuerdas’ que se extienden en una dimensión con
longitudes menores de 10-35 metros. Todas estas teorías resuelven muchos
de los problemas con que se encuentran los físicos que trabajan en la teoría
del campo unificado, pero de momento sólo son construcciones bastante
especulativas.
Física nuclear
Durante los siglos XIII y XIV, la influencia de Aristóteles sobre todas las
ramas del pensamiento científico empezó a debilitarse. La observación del
comportamiento de la materia arrojó dudas sobre las explicaciones
relativamente simples que Aristóteles había proporcionado; estas dudas se
expandieron con rapidez después de la invención (en torno al 1450) de la
imprenta con tipos móviles. Después del 1500 aparecieron cada vez más
trabajos académicos, así como trabajos dedicados a la tecnología. El
resultado de este saber creciente se hizo más visible en el siglo XVI.
El nacimiento de los métodos cuantitativos
Entre los libros más influyentes que aparecieron en esa época había
trabajos prácticos sobre minería y metalurgia. Esos tratados dedicaban
mucho espacio a la extracción de los metales valiosos de las menas, trabajo
que requería el uso de una balanza o una escala de laboratorio y el desarrollo
de métodos cuantitativos (véase Análisis químico). Los especialistas de otras
áreas, especialmente de medicina, empezaron a reconocer la necesidad de
una mayor precisión. Los médicos, algunos de los cuales eran alquimistas,
necesitaban saber el peso o volumen exacto de la dosis que administraban.
Así, empezaron a utilizar métodos químicos para preparar medicinas.
Esos métodos fueron promovidos enérgicamente por el excéntrico médico
suizo Theophrastus von Hohenheim, conocido como Paracelso. Al crecer en
una región minera, se había familiarizado con las propiedades de los metales
y sus compuestos, que, según él, eran superiores a los remedios de hierbas
utilizados por los médicos ortodoxos. Paracelso pasó la mayor parte de su
vida disputando violentamente con los médicos de la época, y en el proceso
fundó la ciencia de la iatroquímica (uso de medicinas químicas), precursora
de la farmacología. Él y sus seguidores descubrieron muchos compuestos y
reacciones químicas. Modificó la vieja teoría del mercurio-azufre sobre la
composición de los metales, añadiendo un tercer componente, la sal, la parte
terrestre de todas las sustancias. Declaró que cuando la madera arde “lo que
se quema es azufre, lo que se evapora es mercurio y lo que se convierte en
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 16
cenizas es sal”. Al igual que con la teoría del azufre-mercurio, se refería a los
principios, no a las sustancias materiales que responden a esos nombres. Su
hincapié en el azufre combustible fue importante para el desarrollo posterior
de la química. Los iatroquímicos que seguían a Paracelso modificaron parte
de sus ideas más extravagantes y combinaron las fórmulas de él con las
suyas propias para preparar remedios químicos. A finales del siglo XVI,
Andreas Libavius publicó su Alchemia, que organizaba el saber de los
iatroquímicos y que se considera a menudo como el primer libro de química.
En la primera mitad del siglo XVII empezaron a estudiar
experimentalmente las reacciones químicas, no porque fueran útiles en otras
disciplinas, sino más bien por razones propias. Jan Baptista van Helmont,
médico que dejó la práctica de la medicina para dedicarse al estudio de la
química, utilizó la balanza en un experimento para demostrar que una
cantidad definida de arena podía ser fundida con un exceso de álcali
formando vidrio soluble, y cuando este producto era tratado con ácido,
regeneraba la cantidad original de arena (sílice). Ésos fueron los
fundamentos de la ley de conservación de la masa. Van Helmont demostró
también que en ciertas reacciones se liberaba un fluido aéreo. A esta
sustancia la llamó gas. Así se demostró que existía un nuevo tipo de
sustancias con propiedades físicas particulares.
Resurgimiento de la teoría atómica
En el siglo XVI, los experimentos descubrieron cómo crear un vacío, algo
que Aristóteles había declarado imposible. Esto atrajo la atención sobre la
antigua teoría de Demócrito, que había supuesto que los átomos se movían
en un vacío. El filósofo y matemático francés René Descartes y sus
seguidores desarrollaron una visión mecánica de la materia en la que el
tamaño, la forma y el movimiento de las partículas diminutas explicaban todos
los fenómenos observados. La mayoría de los iatroquímicos y filósofos
naturales de la época suponían que los gases no tenían propiedades
químicas, de aquí que su atención se centrara en su comportamiento físico.
Comenzó a desarrollarse una teoría cinético-molecular de los gases. En esta
dirección fueron notables los experimentos del químico físico británico Robert
Boyle, cuyos estudios sobre el ‘muelle de aire’ (elasticidad) condujeron a lo
que se conoce como ley de Boyle, una generalización de la relación inversa
entre la presión y el volumen de los gases.
Flogisto: teoría y experimento
Mientras muchos filósofos naturales especulaban sobre las leyes
matemáticas, los primeros químicos intentaban utilizar en el laboratorio las
teorías químicas para explicar las reacciones reales que observaban. Los
iatroquímicos ponían especial atención en el azufre y en las teorías de
Paracelso. En la segunda mitad del siglo XVII, el médico, economista y
químico alemán Johann Joachim Becher construyó un sistema químico en
torno a su principio. Becher anotó que cuando la materia orgánica ardía,
parecía que un material volátil salía de la sustancia. Su discípulo Georg Ernst
Stahl, hizo de éste el punto central de una teoría que sobrevivió en los
círculos químicos durante casi un siglo.
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 17
Stahl supuso que cuando algo ardía, su parte combustible era expulsada al
aire. A esta parte la llamó flogisto, de la palabra griega flogistós, ‘inflamable’.
La oxidación de los metales era análoga a la combustión y, por tanto, suponía
pérdida de flogisto. Las plantas absorbían el flogisto del aire, por lo que eran
ricas en él. Al calentar las escorias (u óxidos) de los metales con carbón de
leña, se les restituía el flogisto. Así dedujo que la escoria era un elemento y el
metal un compuesto. Esta teoría es casi exactamente la contraria al concepto
moderno de oxidación-reducción, pero implica la transformación cíclica de
una sustancia (aunque fuera en sentido inverso), y podía explicar algunos de
los fenómenos observados. Sin embargo, recientes estudios de la literatura
química de la época muestran que la explicación del flogisto no tuvo mucha
influencia entre los químicos hasta que fue recuperada por el químico Antoine
Laurent de Lavoisier, en el último cuarto del siglo XVIII.
El siglo XVIII
En esa época, otra observación hizo avanzar la comprensión de la
química. Al estudiarse cada vez más productos químicos, los químicos
observaron que ciertas sustancias combinaban más fácilmente o tenían más
afinidad por un determinado producto químico que otras. Se prepararon
tablas que mostraban las afinidades relativas al mezclar diferentes productos.
El uso de estas tablas hizo posible predecir muchas reacciones químicas
antes de experimentarlas en el laboratorio.
Todos esos avances condujeron en el siglo XVIII al descubrimiento de
nuevos metales y sus compuestos y reacciones. Comenzaron a desarrollarse
métodos analíticos cualitativos y cuantitativos, dando origen a la química
analítica. Sin embargo, mientras existiera la creencia de que los gases sólo
desempeñaban un papel físico, no podía reconocerse todo el alcance de la
química.
El estudio químico de los gases, generalmente llamados ‘aires’, empezó a
adquirir importancia después de que el fisiólogo británico Stephen Hales
desarrollara la cubeta o cuba neumática para recoger y medir el volumen de
los gases liberados en un sistema cerrado; los gases eran recogidos sobre el
agua tras ser emitidos al calentar diversos sólidos. La cuba neumática se
convirtió en un mecanismo valioso para recoger y estudiar gases no
contaminados por el aire ordinario. El estudio de los gases avanzó
rápidamente y se alcanzó un nuevo nivel de comprensión de los distintos
gases.
La interpretación inicial del papel de los gases en la química se produjo en
Edimburgo (Escocia) en 1756, cuando Joseph Black publicó sus estudios
sobre las reacciones de los carbonatos de magnesio y de calcio. Al
calentarlos, estos compuestos desprendían un gas y dejaban un residuo de lo
que Black llamaba magnesia calcinada o cal (los óxidos). Esta última
reaccionaba con el ‘álcali’ (carbonato de sodio) regenerando las sales
originales. Así, el gas dióxido de carbono, que Black denominaba aire fijo,
tomaba parte en las reacciones químicas (estaba “fijo”, según sus palabras).
La idea de que un gas no podía entrar en una reacción química fue
desechada, y pronto empezaron a reconocerse nuevos gases como
sustancias distintas.
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 18
Fe2O3 + 3 CO ± 3 CO2 + 2 Fe
carbono, entre 0,5 y 3% de silicio, del 0,25% al 2,5% de manganeso, del 0,04
al 2% de fósforo y algunas partículas de azufre.
Un alto horno típico está formado por una cápsula cilíndrica de acero
forrada con un material no metálico y resistente al calor, como asbesto o
ladrillos refractarios. El diámetro de la cápsula disminuye hacia arriba y hacia
abajo, y es máximo en un punto situado aproximadamente a una cuarta parte
de su altura total. La parte inferior del horno está dotada de varias aberturas
tubulares llamadas toberas, por donde se fuerza el paso del aire. Cerca del
fondo se encuentra un orificio por el que fluye el arrabio cuando se sangra (o
vacía) el alto horno. Encima de ese orificio, pero debajo de las toberas, hay
otro agujero para retirar la escoria. La parte superior del horno, cuya altura es
de unos 30 m, contiene respiraderos para los gases de escape, y un par de
tolvas redondas, cerradas por válvulas en forma de campana, por las que se
introduce la carga en el horno. Los materiales se llevan hasta las tolvas en
pequeñas vagonetas o cucharas que se suben por un elevador inclinado
situado en el exterior del horno.
Los altos hornos funcionan de forma continua. La materia prima que se va
a introducir en el horno se divide en un determinado número de pequeñas
cargas que se introducen a intervalos de entre 10 y 15 minutos. La escoria
que flota sobre el metal fundido se retira una vez cada dos horas, y el hierro
se sangra cinco veces al día.
El aire insuflado en el alto horno se precalienta a una temperatura
comprendida entre los 550 y los 900 ºC. El calentamiento se realiza en las
llamadas estufas, cilindros con estructuras de ladrillo refractario. El ladrillo se
calienta durante varias horas quemando gas de alto horno, que son los gases
de escape que salen de la parte superior del horno. Después se apaga la
llama y se hace pasar el aire a presión por la estufa. El peso del aire
empleado en un alto horno supera el peso total de las demás materias
primas.
Después de la II Guerra Mundial se introdujo un importante avance en la
tecnología de altos hornos: la presurización de los hornos. Estrangulando el
flujo de gas de los respiraderos del horno es posible aumentar la presión del
interior del horno hasta 1,7 atmósferas o más. La técnica de presurización
permite una mejor combustión del coque y una mayor producción de hierro.
En muchos altos hornos puede lograrse un aumento de la producción de un
25%. En instalaciones experimentales también se ha demostrado que la
producción se incrementa enriqueciendo el aire con oxígeno.
El proceso de sangrado consiste en retirar a golpes un tapón de arcilla del
orificio del hierro cercano al fondo del horno y dejar que el metal fundido fluya
por un canal cubierto de arcilla y caiga a un depósito metálico forrado de
ladrillo, que puede ser una cuchara o una vagoneta capaz de contener hasta
100 toneladas de metal. Cualquier escoria o sobrante que salga del horno
junto con el metal se elimina antes de llegar al recipiente. A continuación, el
contenedor lleno de arrabio se transporta a la fábrica siderúrgica.
Los altos hornos modernos funcionan en combinación con hornos básicos
de oxígeno, y a veces con hornos de crisol abierto, más antiguos, como parte
de una única planta siderúrgica. En esas plantas, los hornos siderúrgicos se
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 34
lado a otro del crisol a medida que el operario invierte su dirección para
regenerar el calor.
Desde el punto de vista químico la acción del horno de crisol abierto
consiste en reducir por oxidación el contenido de carbono de la carga y
eliminar impurezas como silicio, fósforo, manganeso y azufre, que se
combinan con la caliza y forman la escoria. Estas reacciones tienen lugar
mientras el metal del horno se encuentra a la temperatura de fusión, y el
horno se mantiene entre 1.550 y 1.650 ºC durante varias horas hasta que el
metal fundido tenga el contenido de carbono deseado. Un operario experto
puede juzgar el contenido de carbono del metal a partir de su aspecto, pero
por lo general se prueba la fundición extrayendo una pequeña cantidad de
metal del horno, enfriándola y sometiéndola a examen físico o análisis
químico. Cuando el contenido en carbono de la fundición alcanza el nivel
deseado, se sangra el horno a través de un orificio situado en la parte trasera.
El acero fundido fluye por un canal corto hasta una gran cuchara situada a
ras de suelo, por debajo del horno. Desde la cuchara se vierte el acero en
moldes de hierro colado para formar lingotes, que suelen tener una sección
cuadrada de unos 50 cm de lado, y una longitud de 1,5 m. Estos lingotes —la
materia prima para todas las formas de fabricación del acero— pesan algo
menos de 3 toneladas. Recientemente se han puesto en práctica métodos
para procesar el acero de forma continua sin tener que pasar por el proceso
de fabricación de lingotes.
Proceso básico de oxígeno
El proceso más antiguo para fabricar acero en grandes cantidades es el
proceso Bessemer, que empleaba un horno de gran altura en forma de pera,
denominado convertidor Bessemer, que podía inclinarse en sentido lateral
para la carga y el vertido. Al hacer pasar grandes cantidades de aire a través
del metal fundido, el oxígeno del aire se combinaba químicamente con las
impurezas y las eliminaba.
En el proceso básico de oxígeno, el acero también se refina en un horno
en forma de pera que se puede inclinar en sentido lateral. Sin embargo, el
aire se sustituye por un chorro de oxígeno casi puro a alta presión. Cuando el
horno se ha cargado y colocado en posición vertical, se hace descender en
su interior una lanza de oxígeno. La punta de la lanza, refrigerada por agua,
suele estar situada a unos 2 m por encima de la carga, aunque esta distancia
se puede variar según interese. A continuación se inyectan en el horno miles
de metros cúbicos de oxígeno a velocidades supersónicas. El oxígeno se
combina con el carbono y otros elementos no deseados e inicia una reacción
de agitación que quema con rapidez las impurezas del arrabio y lo transforma
en acero. El proceso de refinado tarda 50 minutos o menos, y es posible
fabricar unas 275 toneladas de acero en una hora.
Acero de horno eléctrico
En algunos hornos el calor para fundir y refinar el acero procede de la
electricidad y no de la combustión de gas. Como las condiciones de refinado
de estos hornos se pueden regular más estrictamente que las de los hornos
de crisol abierto o los hornos básicos de oxígeno, los hornos eléctricos son
sobre todo útiles para producir acero inoxidable y aceros aleados que deben
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 36
Hardware
chips de RAM son como pedazos de papel en los que se puede escribir,
borrar y volver a utilizar; los chips de ROM son como un libro, con las
palabras ya escritas en cada página. Tanto los primeros como los segundos
están enlazados a la CPU a través de circuitos.
Los dispositivos de almacenamiento externos, que pueden residir
físicamente dentro de la unidad de proceso principal del ordenador, están
fuera de la placa de circuitos principal. Estos dispositivos almacenan los
datos en forma de cargas sobre un medio magnéticamente sensible, por
ejemplo una cinta de sonido o, lo que es más común, sobre un disco
revestido de una fina capa de partículas metálicas. Los dispositivos de
almacenamiento externo más frecuentes son los disquetes y los discos duros,
aunque la mayoría de los grandes sistemas informáticos utiliza bancos de
unidades de almacenamiento en cinta magnética. Los discos flexibles pueden
contener, según sea el sistema, desde varios centenares de miles de bytes
hasta bastante más de un millón de bytes de datos. Los discos duros no
pueden extraerse de los receptáculos de la unidad de disco, que contienen
los dispositivos electrónicos para leer y escribir datos sobre la superficie
magnética de los discos y pueden almacenar desde varios millones de bytes
hasta algunos centenares de millones. La tecnología de CD-ROM, que
emplea las mismas técnicas láser utilizadas para crear los discos compactos
(CD) de audio, permiten capacidades de almacenamiento del orden de varios
cientos de megabytes (millones de bytes) de datos.
Dispositivos de salida
Estos dispositivos permiten al usuario ver los resultados de los cálculos o
de las manipulaciones de datos de la computadora. El dispositivo de salida
más común es la unidad de visualización (VDU, acrónimo de Video Display
Unit), que consiste en un monitor que presenta los caracteres y gráficos en
una pantalla similar a la del televisor. Por lo general, las VDU tienen un tubo
de rayos catódicos como el de cualquier televisor, aunque los ordenadores
pequeños y portátiles utilizan hoy pantallas de cristal líquido (LCD, acrónimo
de Liquid Crystal Displays) o electroluminiscentes. Otros dispositivos de
salida más comunes son las impresoras y los módem. Un módem enlaza dos
ordenadores transformando las señales digitales en analógicas para que los
datos puedan transmitirse a través de las telecomunicaciones.
Sistemas operativos
Los sistemas operativos internos fueron desarrollados sobre todo para
coordinar y trasladar estos flujos de datos que procedían de fuentes distintas,
como las unidades de disco o los coprocesadores (chips de procesamiento
que ejecutan operaciones simultáneamente con la unidad central, aunque son
diferentes). Un sistema operativo es un programa de control principal,
almacenado de forma permanente en la memoria, que interpreta los
comandos del usuario que solicita diversos tipos de servicios, como
visualización, impresión o copia de un archivo de datos; presenta una lista de
todos los archivos existentes en un directorio o ejecuta un determinado
programa.
Programación
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 49
Los lenguajes de alto nivel suelen utilizar términos ingleses del tipo LIST,
PRINT u OPEN como comandos que representan una secuencia de decenas
o de centenas de instrucciones en lenguaje máquina. Los comandos se
introducen desde el teclado, desde un programa residente en la memoria o
desde un dispositivo de almacenamiento, y son interceptados por un
programa que los traduce a instrucciones en lenguaje máquina.
Los programas traductores son de dos tipos: intérpretes y compiladores.
Con un intérprete, los programas que repiten un ciclo para volver a ejecutar
parte de sus instrucciones, reinterpretan la misma instrucción cada vez que
aparece. Por consiguiente, los programas interpretados se ejecutan con
mucha mayor lentitud que los programas en lenguaje máquina. Por el
contrario, los compiladores traducen un programa íntegro a lenguaje máquina
antes de su ejecución, por lo cual se ejecutan con tanta rapidez como si
hubiesen sido escritos directamente en lenguaje máquina.
Se considera que fue la estadounidense Grace Hopper quien implementó
el primer lenguaje de ordenador orientado al uso comercial. Después de
programar un ordenador experimental en la Universidad de Harvard, trabajó
en los modelos UNIVAC I y UNIVAC II, desarrollando un lenguaje de alto nivel
para uso comercial llamado FLOW-MATIC. Para facilitar el uso del ordenador
en las aplicaciones científicas, IBM desarrolló un lenguaje que simplificaría el
trabajo que implicaba el tratamiento de fórmulas matemáticas complejas.
Iniciado en 1954 y terminado en 1957, el FORTRAN (acrónimo de Formula
Translator) fue el primer lenguaje exhaustivo de alto nivel de uso
generalizado.
En 1957 una asociación estadounidense, la Association for Computing
Machinery comenzó a desarrollar un lenguaje universal que corrigiera
algunos de los defectos del FORTRAN. Un año más tarde fue lanzado el
ALGOL (acrónimo de Algorithmic Language), otro lenguaje de orientación
científica. De gran difusión en Europa durante las décadas de 1960 y 1970,
desde entonces ha sido sustituido por nuevos lenguajes, mientras que el
FORTRAN continúa siendo utilizado debido a las gigantescas inversiones que
se hicieron en los programas existentes. El COBOL (acrónimo de Common
Business Oriented Language) es un lenguaje de programación para uso
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 51
Mercantilismo
El desarrollo de los modernos nacionalismos a lo largo del siglo XVI desvió
la atención de los pensadores de la época hacia cómo incrementar la riqueza
y el poder de las naciones Estado. La política económica que imperaba en
aquella época, el mercantilismo, fomentaba el autoabastecimiento de las
naciones. Esta doctrina económica imperó en Inglaterra y en el resto de
Europa occidental desde el siglo XVI hasta el siglo XVIII.
Los mercantilistas consideraban que la riqueza de una nación dependía de
la cantidad de oro y plata que tuviese. Aparte de las minas de oro y plata
descubiertas por España en el Nuevo Mundo, una nación sólo podía
aumentar sus reservas de estos metales preciosos vendiendo más productos
a otros países de los que compraba de ellos. El conseguir una balanza de
pagos con saldo positivo implicaba que los demás países tenían que pagar la
diferencia con oro y plata.
Los mercantilistas daban por sentado que su país estaría siempre en
guerra con otros, o preparándose para la próxima contienda. Si tenían oro y
plata, los dirigentes podrían pagar a mercenarios para combatir, como hizo el
rey Jorge III de Inglaterra durante la guerra de la Independencia
estadounidense. En caso de necesidad, el monarca también podría comprar
armas, uniformes y comida para los soldados.
Esta preocupación mercantilista por acumular metales preciosos también
afectaba a la política interna. Era imprescindible que los salarios fueran bajos
y que la población creciese. Una población numerosa y mal pagada
produciría muchos bienes a un precio lo suficiente bajo como para poder
venderlos en el exterior. Se obligaba a la gente a trabajar jornadas largas, y
se consideraba un despilfarro el consumo de té, ginebra, lazos, volantes o
tejidos de seda. De esta filosofía también se deducía que, cuanto antes
empezaran a trabajar los niños, mejor para el país. Un autor mercantilista
tenía un plan para los niños de los pobres: “cuando estos niños tienen cuatro
años, hay que llevarlos al asilo para pobres de la región, donde se les
enseñará a leer durante dos horas al día, y se les tendrá trabajando el resto
del día en las tareas que mejor se ajusten a su edad, fuerza y capacidad”.
Fisiocracia
Esta doctrina económica estuvo en boga en Francia durante la segunda
mitad del siglo XVIII y surgió como una reacción ante las políticas restrictivas
del mercantilismo. El fundador de la escuela, François Quesnay, era médico
de cabecera en la corte del rey Luis XV. Su libro más conocido, Tableau
économique (Cuadro económico, 1758), intentaba establecer los flujos de
ingresos en una economía, anticipándose a la contabilidad nacional, creada
en el siglo XX. Según los fisiócratas, toda la riqueza era generada por la
agricultura; gracias al comercio, esta riqueza pasaba de los agricultores al
resto de la sociedad. Los fisiócratas eran partidarios del libre comercio y del
laissez-faire (doctrina que defiende que los gobiernos no deben intervenir en
la economía). También sostenían que los ingresos del Estado tenían que
provenir de un único impuesto que debía gravar a los propietarios de la tierra,
que eran considerados como la clase estéril. Adam Smith conoció a los
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 54