Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Marcos
Facultad de Ingeniería Electrónica y
Eléctrica
Escuela Profesional de Ingeniería de
Telecomunicaciones
Introducción a
Radiocomunicaciones
Ing. Wilfredo Baro Fanola Merino.
Heinrich Rudolf Hertz, entre 1886 y 1888, quien fue el primero en validar
experimentalmente la teoría de Maxwell.
Aun así, la primera patente de la radio fue hecha por Nikola Tesla, probablemente primer
inventor del sistema de comunicación por radio, y así lo reconoció la oficina de patentes
de Estados Unidos. Esto no ha trascendido a la opinión popular.
El primer sistema práctico de comunicación mediante ondas de radio fue del ingeniero
Guillermo Marconi, quien en el año 1901 realizó la primera emisión trasatlántica
radioeléctrica, utilizando diseños del poco reconocido científico Nikola Tesla.
Aun así, la primera patente de la radio fue hecha por Nikola Tesla, probablemente primer
inventor del sistema de comunicación por radio, y así lo reconoció la oficina de patentes
de Estados Unidos.
Una onda de radio se origina cuando una partícula cargada (por ejemplo, un electrón) se
excita a una frecuencia situada en la zona de radiofrecuencia (RF) del espectro
electromagnético. Otros tipos de emisiones que caen fuera de la gama de RF son los rayos
gamma, los rayos X, los rayos infrarrojos, los rayos ultravioletas y la luz.
Cuando la onda de radio actúa sobre un conductor eléctrico (la antena), induce en él un
movimiento de la carga eléctrica (corriente eléctrica) que puede ser transformado en
señales de audio u otro tipo de señales portadoras de información.
El emisor tiene como función producir una onda portadora, cuyas características son
modificadas en función de las señales (audio o vídeo) a transmitir. Propaga la onda
portadora así modulada. El receptor capta la onda y la «demodula» para hacer llegar al
espectador auditor tan solo la señal transmitida.
Inventiva
La UIT estaba en proceso de creación, tras la invención del telégrafo eléctrico, cuando
James Maxwell formuló la que ha sido denominada “segunda mayor unificación de la
física” (después de la primera, realizada por Isaac Newton): la teoría clásica de la
radiación electromagnética. El mundo esperó otros veinte años para que Heinrich Hertz
llevara a cabo en Alemania los experimentos de laboratorio que demostraron de forma
concluyente la existencia de las ondas electromagnéticas, ya predicha por Maxwell.
A principios del siglo XX tuvo lugar la primera utilización importante de la radio para
prestar un servicio generalizado de comunicación a los barcos en alta mar, lo que hasta
entonces era imposible con el telégrafo eléctrico tradicional. No obstante, con el aumento
Radiodifusión
Durante los años 50, se hizo evidente la necesidad de explotar los servicios de
radiodifusión de forma más planificada en beneficio de la eficiencia y la equidad. Como
consecuencia, a principios de los años 60 se establecieron planes en el Reglamento de
Radiocomunicaciones y los Acuerdos Regionales de la UIT correspondientes a la
radiodifusión terrenal en diferentes bandas de frecuencias (ondas kilométricas (LF),
ondas hectométricas (MF), ondas métricas (VHF) y ondas decimétricas (UHF)). La
radiodifusión en ondas decamétricas (HF) fue un tema muy polémico, hasta el punto de
que los acuerdos adoptados en relación a este servicio requieren un mayor esfuerzo por
parte de los países más allá de intentar coordinar un horario de radiodifusión entre ellos,
con la ayuda administrativa de la UIT. Sin embargo, las medidas adoptadas en el marco
de la UIT en general, y el establecimiento de planes en particular, contribuyeron en gran
medida a estimular el desarrollo ordenado de la radiodifusión en todas las gamas del
espectro radioeléctrico.
Comunicaciones fijas
Los enlaces de relevadores de microondas se probaron por primera vez en los años 40,
destinados principalmente a las comunicaciones punto a punto que utilizaban longitudes
de ondas cortas, lo que permitía que las antenas del tamaño adecuado dirigieran las ondas
radioeléctricas en haces estrechos. Éstos crecieron de manera significativa en los años 50,
cuando la UIT, que ya había atribuido espectro en diferentes bandas para el servicio fijo,
de repente adoptó disposiciones de canales de frecuencias para poder utilizar
sistemáticamente enlaces de relevadores radioeléctricos de microondas en diferentes
partes del mundo. Hoy en día, el servicio fijo se sigue utilizando ampliamente para ofrecer
a los ciudadanos distintas aplicaciones de las comunicaciones locales y de larga distancia
en el control de los gaseoductos y de las redes de tendidos eléctricos y en la coordinación
de las actividades de los gobiernos locales. Otra aplicación común son los servicios
auxiliares de radiodifusión, utilizados por los organismos de radiodifusión para distribuir
programas en las operaciones de un radiodifusor, por ejemplo, para transferir un programa
de televisión entre el estudio y un emplazamiento de transmisión situado en la cima de
una montaña.
A pesar de las elevadas inversiones iniciales y del factor riesgo, la industria de los satélites
se sigue expandiendo con rapidez. Se estima que, hoy en día, los ingresos anuales totales
procedentes de los servicios, la fabricación y los lanzamientos de satélites, rondan los
190.000 millones USD. Se ha demostrado que el marco reglamentario internacional
establecido por la UIT se ajusta a las necesidades de la industria, la evolución tecnológica
y el crecimiento del tráfico. La UIT seguirá proporcionando seguridad en materia de
reglamentación, atribución de recursos de la órbita y el espectro, y asistencia a todos los
agentes de la industria de los satélites.
La revolución móvil
En 1983 apareció el primer teléfono móvil comercial que funcionaba con transistores.
Gracias al rumbo de la miniaturización, hoy en día es posible que un chip electrónico de
45 nanómetros contenga 820 millones de transistores.
Conclusiones
Referencias:
https://es.wikipedia.org/wiki/Radiocomunicaci%C3%B3n
https://educalingo.com/es/dic-es/radiocomunicacion
https://itunews.itu.int/es/5908-radiocomunicaciones-en-constante-evolucion.note.aspx
En toda comunicación existen tres elementos básicos (imprescindibles uno del otro) en
un sistema de comunicación: el transmisor, el canal de transmisión y el receptor. Cada
uno tiene una función característica.
El Transmisor pasa el mensaje al canal en forma de señal. Para lograr una transmisión
eficiente y efectiva, se deben desarrollar varias operaciones de procesamiento de la señal.
La más común e importante es la modulación, un proceso que se distingue por el
acoplamiento de la señal transmitida a las propiedades del canal, por medio de una onda
portadora.
La función del Receptor es extraer del canal la señal deseada y entregarla al transductor
de salida. Como las señales son frecuentemente muy débiles, como resultado de la
atenuación, el receptor debe tener varias etapas de amplificación. En todo caso, la
operación clave que ejecuta el receptor es la demodulación, el caso inverso del proceso
de modulación del transmisor, con lo cual vuelve la señal a su forma original.
El Mensaje Información que se pretende llegue del emisor al receptor por medio de un
sistema de comunicación. Puede ser en formas como ser texto, número, audio, gráficos,
etc. Este también puede ser de forma verbal o no verbal.
Tipos de Señal
Señal análoga: Usa variaciones (modulaciones) en una señal, para enviar información.
Es especialmente útil para datos en forma de ondas como las ondas del sonido. Las señales
análogas son las que usan normalmente su línea de teléfono y sus parlantes.
Cuando se habla por teléfono sale una señal análoga normal que después se digitaliza
mediante un Codec produciendo un numero de 7 u 8 bits. El Codec efectúa 8000 muestras
por segundo (125 s /muestra) con este número de muestras es suficiente para capturar
toda la información de un ancho de banda de 4Khz.
Tipos de Transmisión
Hay una señal llamada Strobe o reloj que va sobre un cable adicional e indica al receptor
cuando están presentes todos los bits sobre sus respectivos cables para que se pueda tomar
una muestra de valores.
Contaminaciones de la señal
Atenuación: Desgaste que sufre la señal de energía ocasionada por la distancia entre el
emisor y el receptor. Toda señal eléctrica al ser transmitida por un medio físico o por
espacio experimenta una pérdida de potencia denominada atenuación. Se mide
normalmente en decibelios por unidad de distancia
Ruido: Interferencia externa sobre la señal transmitida. Por ruido se debe de entender las
señales aleatorias e impredecibles de tipo eléctrico originadas en forma natural dentro o
fuera del sistema. Cuando estas señales se agregan a la señal portadora de la información,
ésta puede quedar en gran parte oculta o eliminada totalmente. Por supuesto que podemos
decir lo mismo en relación a la interferencia y la distorsión y en cuanto al ruido que no
puede ser eliminado nunca completamente, ni aún en teoría.
Antena de Antena de
transmisión Recepción
Medio de
Señal de
transmisión, Señal de
Información de
espectro Información de
banda base
radioeléctrico y banda base
espacio libre
Ahora vamos a ver los distintos modos de transmisión en sistemas de radio que utilizan
los sistemas inalámbricos o simplemente radiocomunicaciones.
Transmisión simplex
Transmisión half-duplex
Fuente:
http://www.eveliux.com/mx/Modos-Simplex-Half-Duplex-y-Full-Duplex.html
ONDAS DE RADIO
Cuando un campo eléctrico oscila, genera una radiación electromagnética que se propaga
a través de ondas electromagnéticas, pero también crea un campo magnético variable que
da origen de nuevo a un campo eléctrico. Esta generación continua de campos magnéticos
y eléctricos, permite la autopropagación ininterrumpida de la onda por el espacio, incluso
a través del vacío, es decir, en ausencia de medio de propagación.
RADIACIONES ELECTROMAGNÉTICAS
La generación de esta radiación por parte de por ejemplo, una tostadora, es muy débil, ya
que ese aparato no se pensó para transmitir información, pero sin embargo, cualquiera de
estos aparatos vienen de fábrica con aislamientos necesarios para que la radiación que
emiten no interfiera con otros aparatos que si están usando la radiación electromagnética
para el fin de la transmisión/recepción de información, sin ir más lejos, podría interferir
El ser humano utiliza la radiación electromagnética artificial con diversos fines, desde las
radiocomunicaciones, hasta la transmisión de energía eléctrica, pasando por los rayos X
en medicina, hornos microondas y equipos generadores de luz artificial como bombillas.
Torre eléctrica
En esta imagen vemos la refracción de la luz sobre un espejo, recordamos que la luz es
un tipo de onda electromagnética.
Se considera que las ondas electromagnéticas viajan a la velocidad de la luz, por ello, su
velocidad de propagación se considera constante.
En la siguiente imagen, vamos a distinguir las diferentes partes de una onda, pasando
después a describir cada una de ellas. En Aero comunicaciones y como pilotos de RPAS,
la longitud de onda, la frecuencia y la amplitud son las características de la onda con
mayor relevancia.
Cresta: Es el punto de la onda más separado de su punto medio, por encima y por
debajo de la línea de equilibrio. Este es el punto de máxima amplitud de onda.
Longitud: Es la distancia que recorre el pulso mientras un punto de la onda realiza una
oscilación completa. La longitud de la onda se mide por la distancia entre dos crestas o
valles consecutivos.
Ciclo: Es una oscilación completa de la onda “la longitud de la onda por unidad de
tiempo”
Período: Es el tiempo que tarda la onda en completar un ciclo, siendo un ciclo una
oscilación completa.
1 cps = 1 Hz
Como podemos ver en la siguiente imagen, a mayor longitud de onda, menor frecuencia.
Las ondas con mayor frecuencia tienen menor longitud de onda. Las ondas con longitud
de onda mayor son susceptibles de sufrir mayor grado de interferencias.
Fuente:
https://cursopilotodedrones.net/leccion/2-1-principios-de-radiocomunicacion-y-ondas-
de-radio/
4. El Espectro Radioeléctrico.
Como ya hemos mencionado, sabemos que, a mayor frecuencia, menor longitud de onda,
pero también debemos saber que la energía de la onda es proporcional a su frecuencia,
por tanto, a mayor frecuencia, mayor energía.
Espectro Radioeléctrico
Al hablar de medios guiados nos referimos a diferentes tipos de cableado como la fibra
óptica o los cables de cobre de par trenzado o cables coaxiales, y al aire y al vacío,
generalmente, al hablar de medios no guiados.
Espectro Radioeléctrico
Para el ámbito aeronáutico civil se usan zonas de diferentes bandas del espectro
radioeléctrico. En la imagen podemos ver aplicaciones de uso frecuente para el sector
aeronáutico además de incluirse usos específicos de los RPAS.
Como podemos ver, la banda VHF es la que se utiliza para gran parte de las
comunicaciones aeronáuticas. También se usan las comunicaciones UHF pero en mucho
menor medida.
En la banda UHF existe una sub-banda, con su rango de frecuencias, que se reserva a
aplicaciones ICM o “frecuencia para aplicaciones industriales, científicas y
médicas” a 2,4 GHz, que es usada por fabricantes de emisoras y telemandos genéricos
para aeromodelismo y RPAS.
En todas las bandas que se usan en aviación para comunicaciones aeroterrestres, tenemos
frecuencia exclusivamente reservada para comunicar situaciones de emergencia.
Para poder saber cuál es el alcance de una transmisión VHF, se establece un alcance
teórico que estará condicionado por el “horizonte de radio”. Existe una fórmula para su
cálculo, que obviamos debido a los recursos que hoy en día tenemos para realizar este
tipo de cálculos.
Estos cálculos nos permiten saber la distancia que puede cubrir una transmisión teniendo
en cuenta la elevación del transmisor y el receptor sobre el nivel del mar, pero debemos
saber que otros factores como la frecuencia de emisión usada dentro de la banda y la
potencia, influirán en el horizonte de radio, y por ende en el alcance de la señal.
Tendremos mayor alcance si usamos mayor potencia y frecuencia más baja dentro de la
banda.
Vemos las zonas de sombra creadas por la forma de propagación de las ondas VHF,
explicando con más detalle la situación de cada aeronave a lo largo de este punto.
Una zona de sombra es una zona que no está cubierta por la cobertura de ninguna antena,
lo cual tiene lugar porque como ya sabemos, estas señales VHF viajan en línea recta y no
son capaces de sortear obstáculos.
Para la operación con RPAS debemos de saber que al volar en modalidad VLOS
“contacto visual con la aeronave”, es probable que no tengamos problemas, ya que
“vemos” que nada se interpone (si no hay una montaña ni un edificio que nos haga perder
de vista el dron) entre nuestra vista y el aparato. En este caso, con nuestra emisora o
telemando, nosotros somos el centro de control.
Cuando operamos en BVLOS “sin contacto visual con la aeronave o más allá del alcance
visual del piloto”, debemos de estar seguros en todo momento de que el RPAS vuela
dentro del alcance de la emisión de radio de la estación de control “el telemando” debido
a que como hemos visto, obstáculos orográficos o creados por el ser humano, pueden
crear zonas de sombra donde el dron no reciba la señal. En muchos casos, la comunicación
permanece debido al rebote de las ondas.
Como podemos ver, una zona puede estar dentro del alcance de la emisión de radio, pero
encontrarse en zona de sombra por la presencia de accidentes geográficos.
https://cursopilotodedrones.net/leccion/2-1-principios-de-radiocomunicacion-y-ondas-
de-radio/
Las bandas de frecuencia de los radioaficionados son afectadas por la UIT (Unión
Internacional de Telecomunicaciones), y se dividen de manera diferente según la región
del globo.
Las bandas de frecuencia asignadas por la UIT son obligatorias. Ninguna persona, física
o jurídica, tiene derecho a usar las bandas sin autorización
Las bandas de frecuencia más comúnmente utilizadas por los radioaficionados son las
que siguen debajo. Los límites de esas frecuencias cambian con el tiempo y con las
En onda larga encontramos (solo en algunos países) la banda de 2200 metros (135,7-
137,8 kHz). Y en onda media la banda de 160 metros.
Estas bandas no deben usarse desde un país que no las autorice explícitamente.
Existen otras bandas por encima de la UHF (1, 2, 2,5, 4 y 6 milímetros; 1,2, 3, 5, 9, 13 y
33 centímetros), pero son raramente utilizadas por los radioaficionados.
Frecuencia
Banda Abreviatura ITU y Ejemplos de uso
longitud de onda (aire)
Frecuencia
< 3 Hz Frecuencia en la que trabaja la
tremendamente TLF
> 100,000 km actividad neuronal
baja
Frecuencia
3–30 Hz Actividad neuronal,
extremadamente ELF 1
100,000 km – 10,000 km Comunicación con submarinos
baja
Radiodifusión en AM (onda
Frecuencia 300–3000 kHz
MF 6 media), Radio afición,
media 1 km – 100 m
Balizamiento de Aludes
FM, Televisión,
Muy alta 30–300 MHz Comunicaciones con aviones a
VHF 8 la vista entre tierra-avión y
frecuencia 10 m – 1 m
avión-avión, Telefonía móvil
marítima y terrestre,
Radioastronomía,
Comunicaciones por
microondas, Redes
Súper alta 3–30 GHz
SHF 10 inalámbricas, radares
frecuencia 100 mm – 10 mm
modernos, Comunicaciones por
satélite, Televisión por satélite,
DBS, Radio afición
Radioastronomía, Transmisión
por microondas de alta
Frecuencia
30–300 GHz frecuencia, Teledetección,
extremadamente EHF 11
10 mm – 1 mm Radio afición, armas de
alta
microondas, Escaner de ondas
milimétricas
Radiografía de terahercios – un
posible substituto para los rayos
X en algunas aplicaciones
médicas, Dinámica molecular
Terahercios o ultrarrápida, Física de la
Frecuencia 300–3,000 GHz materia condensada,
THz or THF 12
tremendamente 1 mm – 100 nm Espectroscopía mediante
alta terahercios,
Comunicaciones/computación
mediante terahercios,
Teledetección submilimétrica,
Radio afición
UIT
Número de Rango de
Símbolo Rango de longitud de onda †
banda frecuencias
5 LF 30 a 300 kHz 1 a 10 km
7 HF 3 a 30 MHz 10 a 100 m
10 SHF 3 a 30 GHz 1 a 10 cm
IEEE US
Rango de
Banda Origen del nombre
frecuencias
Banda
30 to 300 MHz Very (Muy) High (alta) Frecuencia
VHF
Banda
300 to 1000 MHz Ultra High (alta) Frecuencia
UHF
Banda V 40 a 75 GHz
Banda Q 33 to 50 GHz
Banda U 40 to 60 GHz
Televisión
La televisión hasta tiempos recientes, principios del siglo XXI, fue analógica totalmente
y su modo de llegar a los televidentes era mediante el aire con ondas de radio en las
bandas de VHF y UHF. Pronto salieron las redes de cable que distribuían canales por las
ciudades. Esta distribución también se realizaba con señal analógica; las redes de cable
debían tener una banda asignada, más que nada para poder realizar la sintonía de los
canales que llegan por el aire junto con los que llegan por cable. Su desarrollo depende
de la legislación de cada país, mientras que en algunos de ellos se desarrollaron
rápidamente, como en Inglaterra y Estados Unidos, en otros como España no han tenido
casi importancia hasta que a finales del siglo XX la legislación permitió su instalación.
VHF
2 55.25 59.75
3 61.25 65.75
4 67.25 71.75
5 77.25 81.75
6 83.25 87.75
7 175.25 179.75
8 181.25 185.75
9 187.25 191.75
10 193.25 197.75
11 199.25 203.75
12 205.25 209.75
13 211.25 215.75
América
14 471.25 475.75
15 477.25 481.75
16 483.25 487.75
17 489.25 493.75
18 495.25 499.75
19 501.25 505.75
20 507.25 511.75
21 513.25 517.75
22 519.25 523.75
23 525.25 529.75
24 531.25 535.75
26 543.25 547.75
27 549.25 553.75
28 555.25 559.75
29 561.25 565.75
30 567.25 571.75
31 573.25 577.75
32 579.25 583.75
33 585.25 589.75
34 591.25 595.75
35 597.25 601.75
36 603.25 607.75
37 609.25 613.75
38 615.25 619.75
39 621.25 625.75
40 627.25 631.75
41 633.25 637.75
42 639.25 643.75
43 645.25 649.75
44 651.25 655.75
45 657.25 661.75
46 663.25 667.75
47 669.25 673.75
48 675.25 679.75
49 681.25 685.75
50 687.25 691.75
51 693.25 697.75
53 705.25 709.75
54 711.25 715.75
55 717.25 721.75
56 723.25 727.75
57 729.25 733.75
58 735.25 739.75
59 741.25 745.75
60 747.25 751.75
61 753.25 757.75
62 759.25 763.75
63 765.25 769.75
64 771.25 775.75
65 777.25 781.75
66 783.25 787.75
67 789.25 793.75
68 795.25 799.75
69 801.25 805.75
70 807.25 811.75
71 813.25 817.75
72 819.25 823.75
73 825.25 829.75
74 831.25 835.75
75 837.25 841.75
76 843.25 847.75
77 849.25 853.75
78 855.25 859.75
80 867.25 871.75
81 873.25 877.75
82 879.25 883.75
83 885.25 889.75
Fuente:
https://es.wikipedia.org/wiki/Bandas_de_frecuencia
5. Matemática básica empleado en sistemas de radiocomunicaciones.
Las matemáticas son herramientas muy importantes en la formación de los profesionales
de todas las ingenierías, más aún en la formación del ingeniero de telecomunicaciones.
En el manejo de las potencias de las señales, de los niveles y de las energías, siempre
vamos a hablar o nombrar unidades como los dB, dBm, dBW, etc., y estas unidades nos
van a ayudar al manejo de niveles muy bajos de señal o muy altos con relativa facilidad.
Por tanto, es muy importante conocer esas herramientas matemáticas.
a. Unidades logarítmicas.
En los sistemas de comunicaciones es práctica común utilizar magnitudes logarítmicas
en lugar de las magnitudes a que estamos acostumbrados. Hay, entre otras, dos razones
para ello, una de carácter histórico que se remonta a los orígenes de la telefonía, en que
se observó que la respuesta del oído humano a la intensidad sonora es de tipo logarítmico
y otra de carácter práctico, ya que en comunicaciones se manejan magnitudes de voltaje,
corriente y potencia en rangos muy amplios, por ejemplo, el voltaje de entrada a un
receptor puede ser de unas fracciones de micro- voltio y la salida, de varios voltios, lo
que representa un rango de la señal de más de seis órdenes de magnitud que hace muy
difícil la representación gráfica en una escala lineal. Algo similar ocurre con los rangos
de potencia, corriente y frecuencia que se manejan en comunicaciones.
Siempre que se expresa una magnitud, ya sea dimensional o adimensional, se hace
refiriéndola a una unidad de medida. Así, si se dice que un objeto tiene una longitud de
10 m, esto significa que es diez veces más largo que la unidad de medida empleada, en
este caso 1 m. Si se dice que la ganancia de voltaje de un amplificador es de 20, esto
quiere decir que la magnitud del voltaje de salida es 20 veces mayor que el voltaje de
entrada. En el primer caso, la unidad de referencia fue 1 m; en el segundo, la ganancia se
expresa sólo mediante una cifra sin dimensiones.
Una escala logarítmica es una escala de medida que utiliza el logaritmo de una cantidad
física en lugar de la propia cantidad.
El decibelio o decibel, con símbolo dB, es una unidad que se utiliza para expresar la
relación entre dos potencias acústicas o eléctricas (no es una unidad de medida). En
realidad, la unidad es el bel (o belio) de símbolo B, pero dada la amplitud de los campos
que se miden en la práctica, se utiliza su submúltiplo, el decibelio. El nombre se le ha
dado en homenaje a Alexander Graham Bell. Es una expresión que no es lineal, sino
logarítmica, adimensional y matemáticamente escalar. Ni el bel, ni el décibel son
unidades del Sistema internacional de unidades.
Esta unidad expresa una razón entre cantidades y no una cantidad, aunque a veces se
relaciona con una base tomada como referencia y en esas ocasiones se expresa sobre un
valor fijo (por ejemplo, cuando se trata de medidas de intensidad de sonido, en acústica).
El decibel expresa cuantas veces más o cuantas veces menos, pero no la cantidad exacta.
En estos casos es una unidad de medida relativa. En audiofrecuencias un cambio de 1
decibel (dB) apenas se nota.
𝑃
dB = 10𝑙𝑜𝑔 𝑃1 (si lo que se comparan son potencias), o
2
𝑉
𝑑𝐵 = 10𝑙𝑜𝑔 𝑉1 (si lo que se comparan son voltajes).
2
𝐼
dB = 20𝑙𝑜𝑔 𝐼1 (si lo que se comparan son intensidades de corriente).
2
dBc: Nivel relativo entre una señal portadora (carrier) y alguno de sus
armónicos.
dBi: Decibelios medidos con respecto a una antena isotrópica.
dBd: Decibelios medidos con respecto a una antena dipolo. Está 2,15 dB por
encima del radiador isotrópico.
dBA: Decibelios ajustados con la ponderación A.
Puesto que se hace referencia a los vatios, es una unidad absoluta, que se utiliza en la
medición de potencia absoluta. Por comparación, el decibelio (dB) es una unidad
adimensional, que se utiliza para la cuantificación de la relación entre dos valores, tales
como la relación señal-ruido.
Conversión de unidades
Para expresar una potencia arbitraria P en mW como x en dBm, o viceversa, pueden ser
utilizadas las siguientes expresiones equivalentes:
𝑃
𝑥 = 10𝑙𝑜𝑔10
1𝑚𝑊
al igual que con P en Watts
𝑃
𝑥 = 30 + 10𝑙𝑜𝑔10 1𝑊
𝑥
𝑃 = 1𝑚𝑊. 1010
𝑥−30
𝑃= 1𝑊. 10 10
Valores típicos
Potencia
Potencia (W) Notas
(dBm)
25 dBm 316 mW
23 dBm 200 mW
22 dBm 160 mW
10 dBm 10 mW
6 dBm 4,0 mW
5 dBm 3,2 mW
1 dBm 1,3 mW
-1 dBm 794 µW
-3 dBm 501 µW
-5 dBm 316 µW
-20 dBm 10 µW
-50 dBm 10 nW
-80 dBm 10 pW
-127.5
0,178 fW = 178 aW Potencia típica recibida de un satélite GPS.
dBm
Aplicaciones en telecomunicación
𝑃
dB = 10. 𝑙𝑜𝑔10 𝑃𝑆
𝐸
𝑋1 𝑋2 𝑋𝑛
𝑑𝐵 = 10. 𝑙𝑜𝑔10 (10 10 + 10 10 + ⋯ + 10 10 ),
Donde X1, X2, ……, Xn son los valores de ruido o señal, expresados en decibelios, a
sumar.
El decibelio (dB) es una fracción de una unidad mayor llamada Bel (belio). Un
Bel (llamado así en honor de Alexander Graham Bell), por definición, representa una
relación de 10 a 1 entre las potencias de dos señales. Por consiguiente, una relación 10:1
es igual a 1 Bel, una relación de 100:1 es igual a 2 Bel y una relación de 1000:1 es igual
a 3 Bel.
De acuerdo con su definición, es evidente que el Bel representa una relación logarítmica
entre dos potencias ya que log1010=1 (es decir, 1 Bel), log10100=2 (es decir,
2 Bel), log101000=3 (es decir, 3 Bel). Por consiguiente, una relación de potencias
expresada en belios puede calcularse a partir de la fórmula siguiente:
Utilizar el Bel para expresar una relación de potencias tiene el inconveniente de que se
trata de una unidad muy grande. A fines prácticos, es mucho más sencillo utilizar el
decibelio o dB. Por definición 10 dB son equivalentes a 1 Bel, consecuentemente, una
dB = 10 log10(P2/P1)
Cabe remarcar que la relación de potencias P2/P1 no debe necesariamente ser mayor que
la unidad. P1 suele ser la potencia de referencia; por consiguiente, la relación expresa
cuanto una potencia P2 es mayor (en el caso en que (P2/P1)>1) o menor (en el caso en que
(P2/P1)<1) de una potencia de referencia. Obviamente, cuando la relación de potencias
P2/P1 es inferior a la unidad, el proceso de conversión a belios o decibelios da un resultado
negativo. Por ejemplo, si P2=0.1P1, la conversión en dB es:
Quede claro que el decibelio no es una unidad de medida, ni mide una potencia; se
trata, en vez, de una relación o comparación entre dos valores de potencia. En electrónica
y telecomunicaciones se suelen expresar los niveles de potencias en dB respecto a una
potencia de referencia fija, siendo 1 mW y 1 W los niveles de referencia más utilizados.
dBm=10 log10(P2/1 W)
dB = 10 log10(V2/V1)2=20 log10(V2/V1)
dB = 10 log10(I2/I1)2=20 log10(I2/I1)
Un típico canal telefónico de voz tiene una razón de señal a ruido de 30 dB (10^ (30/10)
= 1000) y un ancho de banda de 3,000 Hz. Si sustituimos esos valores en el teorema de
Shannon:
Debido a que log2 (1001) es igual al logaritmo natural de ln(1001) /ln(2) y es igual a 9.97,
el teorema nos demuestra que la capacidad máxima de un canal telefónico es
aproximadamente a 30,000 bps.
Debido a que los canales de comunicación no son perfectos, ya que están delimitados
por el ruido y el ancho de banda. El teorema de Shannon-Hartley nos dice que es posible
transmitir información libre de ruido siempre y cuando la tasa de información no
exceda la Capacidad del Canal.
Así, si el nivel de S/N es menor, o sea la calidad de la señal es más cercana al ruido, la
capacidad del canal disminuirá.
De la fórmula de Shannon;
despejando los dB
bps/B = log2(10^(dB/10) + 1)
2^(bps/B) = 10^(dB/10) + 1
10^(dB/10) = 2^(bps/B) - 1
dB = 10*1og10 (2^(bps/B) - 1)
sustituyendo
dB = S/N= 56.2 dB
En la revista de los laboratorios Bell (EEUU) fue publicado en 1948 un artículo titulado
“A Mathematical Theory of Communication” por el investigador de dicho laboratorio
Claude E. Shannon. Dicho artículo, de aproximadamente 50 páginas de extensión, es un
complejo análisis matemático de los aspectos que intervienen en cualquier comunicación
y de la cantidad de información que se puede transmitir en función del canal empleado
para ello y de las interferencias o ruido presentes en dicho canal. Claude E. Shannon
realizó dicho estudio sobre un sistema de comunicación en general, sin particularizar en
ningún medio de transmisión en concreto, por lo que a lo largo de todo el artículo no
aparece ninguna mención a componentes o circuitos eléctricos, electrónicos, ópticos o
cualquier otro sistema susceptible de emplearse en comunicaciones digitales. Es, como
su propio título indica, una teoría matemática de la comunicación. En la siguiente imagen
se muestra un fragmento del teorema de Shannon
Fuente:
http://www.tsc.urjc.es/Master/RETEPAD/sites/default/files/Curso0_Ficha2.pdf
El baudio (en inglés baud) es una unidad de medida utilizada en telecomunicaciones, que
representa el número de símbolos por segundo en un medio de transmisión digital. Cada
símbolo puede comprender 1 o más bits, dependiendo del esquema de modulación.
Es importante resaltar que no se debe confundir la velocidad en baudios (baud rate) con
la tasa de bits (bit rate), ya que cada evento de señalización (símbolo) transmitido puede
𝑟𝑏
𝑛= 𝑟𝑠
Donde:
Existe una diferencia entre bits por segundo (bps) y baudios, debida al tipo de modulación
empleada. Aunque las velocidades de transmisión se miden en bits por segundo,
realmente a efectos técnicos lo importante es la velocidad de modulación expresada en
baudios. Existen tres tipos de modulaciones: ASK, FSK y PSK. Un módem de 600
baudios puede transmitir a 1200, 2400 o, incluso a 9600 bps.
Siempre se analizan las ideas de velocidad de datos y nos encontramos que se mezclan
conceptos como bits/segundos, baudios y bytes/segundos.
Los módems telefónicos al hablar entre ellos envían grupos de bits que forman una
palabra de modulación que se mide en baudios.
De tal manera que un grupo de bits enviados en una segunda forma el baudio. La
agrupación de estos bits depende de la técnica que se usa para la modulación. Estas se
expresan con una sigla que tiene adelante un número que es una potencia de dos y letras
tales como PSK o QAM (8PSK, 16 QAM, 32 QAM, etc.).
Para aclarar, supongamos que la velocidad es de 14400 bits/segundos y utilizamos una
técnica que agrupe 6 bits, la velocidad en baudios será de 2400. Ahora bien, como 8 bits
forman un byte la cantidad de caracteres para el usuario, simplemente se obtienen
Muy aparte de lo que se ha comentado a cerca de las diferencias entre el Baudio y los bps,
también ha confusiones en el manejo de términos como Factor de Ruido y Figura de
Ruido. Vamos a explicar cada uno de los términos.
El factor de ruido (F) se define como el cociente entre la S/N (relación señal/ruido) a la
entrada de un dispositivo y la S/N a la salida del mismo, y nos da una indicación de cuánto
se degrada la misma al pasar por él:
Maxwell fue capaz de obtener cuatro ecuaciones que relacionaban la electricidad con el
magnetismo. Una de ellas, la que aquí se presenta, predecía que debían existir un tipo
especial de ondas llamadas electromagnéticas porque estaban formadas por un campo
eléctrico y uno magnético que variaban con el tiempo mientras la onda se desplazaba por
el espacio a la velocidad de la luz.
La consecuencia más espectacular de su teoría fue la de demostrar que la luz también era
una onda electromagnética.
La citada ecuación es de especial importancia para los ingenieros en telecomunicaciones,
como se puede leer, dice: “La rotacional del campo eléctrico E es igual a la variación del
campo magnético B, con respecto al tiempo, pero que va en sentido contrario a su
Faraday es un ejemplo de que "quien quiere puede". Hijo de un herrero, con diez
hermanos y en una época en la que no existía la posibilidad de educación para todos, no
tuvo nada más que una salida: trabajar de ayudante en una imprenta como encuadernador.
Pero Faraday "tuvo la suerte" de tener un jefe comprensivo que le permitió que se
extralimitase en sus funciones que eran "única y exclusivamente" ver el aspecto exterior
de los libros que encuadernaba. El jefe le permitió hojearlos, leerlos y asistir a
conferencias científicas (para pagar la entrada tuvo que pedir dinero prestado a su
hermano mayor) y de ahí nació su interés por los fenómenos eléctricos y magnéticos cuya
publicación se había disparado con las consecuencias derivadas del experimento de
Oersted.
Continuamos con la cronología:
1865: Las investigaciones de Maxwell le permitieron publicar, en este año, una teoría
matemática del electromagnetismo que unificaba la electricidad, el magnetismo y la
óptica. Su teoría, como toda buena teoría, predijo la existencia de ondas electromagnéticas
que podían producirse mediante campos eléctricos variables y susceptibles de ser
detectadas experimentalmente.
1887: El físico alemán Heinrich Hertz construye un dispositivo que le permite producir y
detectar las ondas electromagnéticas predichas por la teoría de Maxwell.
1901: Marconi, físico italiano, perfeccionó de tal manera el emisor y el detector de ondas
electromagnéticas construido por Hertz que logró comunicaciones de radio entre Europa
y América separadas, como se sabe, unos 7.000 Km. ¡La era de las telecomunicaciones
había nacido!
Conclusión final:
La teoría sin experiencias que la pongan a prueba no es nada. Los experimentos sin teorías
que den explicación a los fenómenos observados tampoco. Por eso la ciencia tiene una
componente teórica y otra experimental que la hace tan potente para el estudio de la
Naturaleza.
Esta ley explica la relación entre el flujo del campo eléctrico y una superficie cerrada. El
flujo eléctrico es la cantidad de fluido que atraviesa una superficie dada, sin embargo,
este flujo no transporta materia, pero ayuda a analizar la cantidad de campo eléctrico
(E)que pasa por una superficie. Según relaciones matemáticas llegamos a obtener la
primera ecuación de Maxwell:
Donde ρ es la densidad de carga y (D) es la densidad de flujo eléctrico.
Esta ley está dada para el campo magnético, en la cual se indica que las líneas en dicho
campo deben ser cerradas. Las distribuciones de fuentes magnéticas son siempre neutras
en el sentido de que poseen un polo norte y un polo sur, por lo que su flujo a través de
cualquier superficie cerrada es nulo, dada por la siguiente ecuación: Donde
B es la densidad de flujo magnético, conocida también como Inducción magnética.
Ley análoga a la de Gauss, esta indica que una corriente eléctrica produce un campo
magnético.
Las aportaciones de Maxwell dieron paso al desarrollo de lo que hoy conocemos como
las Telecomunicaciones.
Referencias:
http://prudentel.blogspot.pe/2009/02/la-base-matematica-de-las.html
Es cierto que existe una cantidad infinita de diferentes frecuencias de ondas EM. No
obstante, hablando en términos prácticos, cualquier creación de ondas EM realmente
ocupa más que una cantidad infinitesimal de espacio de frecuencia. Por lo tanto, las
bandas de frecuencia tienen una cantidad limitada de frecuencias, o canales de
comunicaciones utilizables diferentes. Muchas partes del espectro EM no son utilizables
para las comunicaciones y muchas partes del espectro ya son utilizadas extensamente con
este propósito. El espectro electromagnético es un recurso finito.
Algunas áreas del espectro han quedado sin licenciar. Esto es favorable para determinadas
aplicaciones, como las WLANs. Un área importante del espectro no licenciado se conoce
como banda industrial, científica y médica (ISM), que se muestra en la Figura . Estas
bandas son sin licencia en la mayoría de los países del mundo. Los siguientes son algunos
ejemplos de los elementos regulados que están relacionados con las WLANs:
Para tener una onda electromagnética, explicamos cómo es su aparición usando la tercera
ecuación de Maxwell, también dijimos que, gracias a la técnica de la modulación,
podemos transmitir información en esa onda electromagnética. En esta parte vamos a
tocar, casi todas las técnicas de modulación que existen y que se aplican en todas las
bandas de frecuencia del espectro, pero antes vamos a realizar definiciones de lo que es
físicamente ese proceso de modulación.
Definiciones:
Modulación. - Es un proceso por el cual una onda portadora de alta frecuencia es
modificada en cualquiera de sus características (amplitud, fase o frecuencia), por otra
onda de baja frecuencia que lleva información.
Modulación. – Es una técnica que nos permite adaptar una señal de información de bajas
frecuencias a una canal de radiocomunicaciones del espectro radioeléctrico.
Modulación. – Es un proceso que nos permite elevar la frecuencia de la señal de
información y colocarlo alrededor de la portadora.
Modulación. – Es una técnica de multiplicar dos señales (una de bajas frecuencias –
información y otra de alta frecuencia – portadora) en el dominio del tiempo y suma y resta
de frecuencias en el dominio de la frecuencia.
Importancia de la modulación
FRECUENCIA PORTADORA
Una señal portadora es una onda eléctrica modificada en alguno de sus parámetros por la
señal de información (sonido, imagen o datos) y que se transporta por el canal de
comunicaciones.1
El uso de una onda portadora también soluciona muchos otros problemas de circuito,
antena, propagación y ruido. Por ello, una antena práctica debe tener un tamaño
aproximado al de la longitud de onda de la onda electromagnética de la señal que se va a
transmitir. Si las ondas de sonido se difundieran directamente en forma de señales
electromagnéticas, la antena tendría que tener más de un kilómetro de altura. Usando
frecuencias mucho más altas para la portadora, el tamaño de la antena se reduce
significativamente porque las frecuencias más altas tienen longitudes de ondas más
cortas.1
Una emisora de radio AM normalmente tiene una serie de letras asociadas: por ejemplo,
KPBS. Sin embargo, una forma más práctica de referirse a una emisora de radio es por su
frecuencia portadora, como 101.1 MHZ, que es la frecuencia con la que se debe sintonizar
la radio. En el caso de las FM, la frecuencia portadora es de 2,4 ó 5 GHZ. El uso de
frecuencias portadoras en las FM ha añadido complejidad en cuanto que la frecuencia
portadora cambia con el salto de frecuencia o la secuencia de chipping directa para que
la señal sea más inmune a la interferencia y el ruido. El chipping es el proceso consistente
en convertir cada bit de datos en una cadena de chips expandida denominada secuencia
de chipping. Es el mecanismo que permite a los dispositivos inalámbricos leer datos
cuando se pierden porciones de señal.
El proceso de recuperar la información de las ondas portadoras se
denomina demodulación. En esencia, es invertir los pasos utilizados para modular los
datos. En general, a medida que los esquemas de transmisión o modulación (compresión)
se hacen más complejos y la velocidad de transmisión de datos aumenta, la inmunidad al
ruido se reduce y la cobertura disminuye.
Para controlar dicha señal y así facilitar la propagación de la señal de información por
cable o por el aire, ordenar el espacio radioeléctrico, distribuir canales a cada información
distinta.
Atenuación
Desvanecimiento
Ruido Blanco aditivo
Interferencia externa
Ruido de fase
Reflexión de señales
Refracción
Difracción
Dispersión
Una línea de transmisión es una conexión entre dos máquinas. El término transmisor
generalmente se refiere a la máquina que envía los datos, mientras que receptor se refiere
a la máquina que recibe los datos. A veces, las máquinas, pueden ser tanto receptoras
como transmisoras (esto es lo que generalmente sucede con las máquinas conectadas en
una red).
Este es un caso de modulación donde tanto las señales de transmisión como las señales
de datos son analógicas.
Señal Portadora
Señal Modulada
La señal modulada tendrá una amplitud que será igual al valor pico de la señal portadora
más el valor instantáneo de la señal modulada.
(4)
Reemplazando m en (4)
Operando
(5)
M puede variar de 0% a 100% sin que exista distorsión, si se permite que el porcentaje
de modulación se incremente más allá del 100% se producirá distorsión por sobre-
modulación, lo cual da lugar a la presencia de señales de frecuencias no deseadas.
M < 100%
M = 100%
M > 100%
Donde
Debido a que en general una señal analógica moduladora no es senoidal pura, sino que
tiene una forma cualquiera, a la misma la podemos desarrollar en serie de Fourier y ello
da lugar a que dicha señal esté compuesta por la suma de señales de diferentes frecuencias.
De acuerdo a ello, al modular no tendremos dos frecuencias laterales, sino que tendremos
dos conjuntos a los que se denomina banda lateral inferior y banda lateral superior.
Veamos un ejemplo:
Upper Side Band (USB): En este caso lo que se transmite es la banda lateral superior y
son suprimidas la banda lateral inferior y la señal portadora.
Lower Side Band (LSB): En este caso lo que se transmite es la banda lateral inferior y
son suprimidas la banda lateral superior y la señal portadora.
Como la amplitud máxima de cada banda lateral está dada por y teniendo en
cuenta que la potencia es proporcional al cuadrado de la tensión, resulta que la potencia
de la señal modulada será:
Para tener la igualdad en la última expresión debemos considerar las potencias en lugar
de las tensiones.
Para obtener mayor rendimiento se han desarrollado sistemas que transmiten con
portadora suprimida, de modo que toda la potencia de la señal modulada corresponde a
las bandas laterales.
b. Modulación FM.
Este es un caso de modulación donde tanto las señales de transmisión como las señales
de datos son analógicas y es un tipo de modulación exponencial.
Señal Portadora
f = fp + Δf sen(2 π fm t)
De esta forma, una señal moduladora que tiene picos positivos y negativos, tal como una
señal senoidal pura, provocara una oscilación de portadora igual a 2 veces la desviación
de frecuencia.
Schwartz desarrollo la siguiente gráfica para determinar el ancho de banda necesario para
transmitir una señal de frecuencia modulada cuando se conoce el índice de modulación.
Al examinar la curva obtenida por Schwartz, se aprecia que para altos valores de m f, la
curva tiende a la asíntota horizontal, mientras que para valores bajos de mf tiende a la
asíntota vertical. Un estudio matemático detallado indica que el ancho de banda necesario
Este también es un caso de modulación donde las señales de transmisión como las
señales de datos son analógicas y es un tipo de modulación exponencial al igual que la
modulación de frecuencia.
Por lo tanto los espectros de frecuencias de la modulación de fase tienen las mismas
características generales que los espectros de modulación de frecuencia.
La expresión general para una portadora sin modulación puede escribirse como:
(1)
Donde:
Vc = Amplitud máxima.
(2)
(3)
En (c), φ(t) es el ángulo instantáneo de fase de la señal. Ahora bien, la fase instantánea y
la frecuencia instantánea están relacionadas mediante:
(4)
E, inversamente,
(5)
(6)
Modulación de fase
Si ahora se hace variar la fase instantánea φ(t) de acuerdo a una señal de información
f(t), se tendrá:
(7)
(8)
Modulación de frecuencia
Para obtener una expresión similar a (8), es necesario obtener φ(t) utilizando (5):
(9)
(10)
Las ecuaciones (8) y (10) son muy parecidas, excepto que en la expresión para la señal
modulada en frecuencia aparece la integral de f(t), la señal moduladora, en lugar de la
función sola. Esto conduce a pensar que es posible generar una señal modulada en
frecuencia a partir de una señal modulada en fase, si previamente se integra la señal de
información f(t). En otras palabras, la diferencia entre la modulación de frecuencia y la
de fase es únicamente un integrador en el circuito de modulación. Este procedimiento se
conoce como método indirecto de generación de FM.
(11)
(12)
(13)
De (12) se ve que:
(14)
(15)
Con lo que la ecuación para la modulación de fase (12) queda ahora como:
(17)
(18)
(19)
Donde;
(20)
En esencia dicha diferencia está en cual propiedad de la portadora (la frecuencia o la fase)
está variando directamente por la señal modulante y cual propiedad está variando
indirectamente. Siempre que la frecuencia está variando, la fase también se encuentra
variando, y viceversa. Por lo tanto, FM y PM, deben ocurrir cuando se realiza cualquiera
de las formas de modulación angular. Si la frecuencia instantánea de la portadora varía
directamente de acuerdo con la señal modulante, resulta en una señal de FM. Si la fase de
la portadora varia directamente de acuerdo con la señal modulante, resulta en una señal
PM, Por lo tanto, la FM directa es la PM indirecta y la PM directa es la FM indirecta. La
modulación en frecuencia y en fase puede sencillamente definirse de la siguiente forma:
Modulación en fase directa (PM): variando la fase de una portadora con amplitud
constante directamente proporcional, a la amplitud de la señal modulante, con una
velocidad igual a la frecuencia de la señal modulante.
Referencia:
http://www.monografias.com/trabajos52/modulacion-angular-y-am/modulacion-angular-y-
am3.shtml#ixzz57mKosyOm
d. Modulación QPSK.
Radio digital
Los elementos que distinguen un sistema de radio digital de un sistema de radio AM, FM,
o PM, es que, en un sistema de radio digital, las señales de modulación y demodulación
son pulsos digitales, en lugar de formas de ondas analógicas. E1 radio digital utiliza
portadoras analógicas, al igual que los sistemas convencionales. En esencia, hay tres
técnicas de modulación digital que se suelen utilizar en sistemas de radio digital:
transmisión (modulación) por desplazamiento de frecuencia (FSK), transmisión por
desplazamiento de fase (PSK), y modulación de amplitud en cuadratura (QAM).
FIGURA 1
FIGURA 2
La frecuencia de reposo del VCO se selecciona de tal forma que, cae a medio camino,
entre las frecuencias de marca y espacio. Una condición de 1 lógico, en la entrada, cambia
el VCO de su frecuencia de reposo a la frecuencia de marca; una condición de 0 lógico,
en la entrada, cambia cl VCO de su frecuencia de reposo a la frecuencia de espacio. El
índice de modulación en FSK es
MI = Df / f a (2)
El peor caso, o el ancho de banda más amplio, ocurre cuando tanto la desviación de
frecuencia y la frecuencia modulante están en sus valores máximos. En un modulador de
FSK binario, Df es la desviación de frecuencia pico de la portadora y es igual a la
diferencia entre la frecuencia de reposo y la frecuencia de marca o espacio. La desviación
de frecuencia es constante y, siempre, en su valor máximo. f a es igual a la frecuencia
fundamental de entrada binaria que bajo la condición del peor caso es igual a la mitad de
la razón de bit (f b). En consecuencia, para el FSK binario,
FIGURA 3
El circuito que más se utiliza para demodular las señales de FSK binarias es el circuito de
fase cerrada (PLL), que se muestra en forma de diagrama a bloques en la figura 3.
Conforme cambia la entrada de PLL entre las frecuencias de marca y espacio, el voltaje
de error de cc a la salida del comparador de fase sigue el desplazamiento de frecuencia.
Debido a que sólo hay dos frecuencias de entrada (marea y espacio), también hay sólo
dos voltajes de error de salida. Uno representa un 1 lógico y el otro un 0 lógico. En
consecuencia, la salida es una representación de dos niveles (binaria) de la entrada de
FSK. Por lo regular, la frecuencia natural del PLL se hace igual a la frecuencia central del
modulador de FSK. Como resultado, los cambios en el voltaje de error cc, siguen a los
cambios en la frecuencia de entrada analógica y son simétricos alrededor de 0 V.
Con la transmisión por desplazamiento de fase binaria (BPSK), son posibles dos fases de
salida para una sola frecuencia de portadora. Una fase de salida representa un 1 lógico y
la otra un 0 lógico. Conforme la señal digital de entrada cambia de estado, la fase de la
portadora de salida se desplaza entre dos ángulos que están 180° fuera de fase. El BPSK
es una forma de modulación de onda cuadrada de portadora suprimida de una señal de
onda continua.
Transmisor de BPSK
FIGURA 4
FIGURA 5
= (sen w a t) x (sen w c t)
2 pf N = (w c + w a) – (w c – w a) = 2 w a
f N = 2 w a / 2 p = 2f a = f b (5)
La figura 6 muestra la fase de salida contra la relación de tiempo para una forma de onda
BPSK. El espectro de salida de un modulador de BPSK es, sólo una señal de doble banda
lateral con portadora suprimida, donde las frecuencias laterales superiores e inferiores
están separadas de la frecuencia de la portadora por un valor igual a la mitad de la razón
de bit. En consecuencia, el mínimo ancho de banda (f N) requerido, para permitir el peor
caso de la señal de salida del BPSK es igual a la razón de bit de entrada.
FIGURA 6
Receptor de BPSK
Codificación en M-ario
N = Iog 2 M (6)
Transmisor de QPSK
FIGURA 8
Puede verse que una vez que un dibit ha sido derivado en los canales I y Q, la operación
es igual que en el modulador de BPSK. En esencia, un modulador de QPSK son dos
moduladores, de BPSK, combinados en paralelo.
En la figura 9 puede verse que, con QPSK, cada una de las cuatro posibles fases de salida
tiene, exactamente, la misma amplitud. En consecuencia, la información binaria tiene que
ser codificada por completo en la fase de la señal de salida.
FIGURA 9
Consideraciones de ancho de banda para el QPSK
Con QPSK, ya que los datos de entrada se dividen en dos canales, la tasa de bits en el
canal I, o en el canal Q, es igual a la mitad de la tasa de datos de entrada (f b/2). En
Por tanto, con QPSK, se realiza una compresión de ancho de banda (el ancho de banda
mínimo es menor a la tasa de bits que están entrando).
Receptor de QPSK
FIGURA 10
i. Modulación 8PSK.
PSK DE OCHO FASES (8-PSK)
Un PSK de ocho fases (8-PSK), es una técnica para codificar M-ario en donde M= 8. Con
un modulador de 8-PSK, hay ocho posibles fases de salida. Para codificar ocho fases
diferentes, los bits que están entrando se consideran en grupos de 3 bits, llamados tribits
(2 3 = 8).
FIGURA 11
En la figura 12 puede verse que la separación angular, entre cualquiera de dos fasores
adyacentes, es de 45°, la mitad de lo que es con QPSK. Por tanto, una señal 8-PSK puede
experimentar un cambio de fase de casi ±22.5°, durante la transmisión, y todavía tener su
integridad. Además, cada fasor es de igual magnitud; la condición tribit (información
actual) se contiene, de nuevo, sólo en la fase de la señal.
Con el 8-PSK ya que los datos se dividen en tres canales, la tasa de bits en el canal I, Q,
o C, es igual a un tercio de la tasa de datos de entrada binarios (f b/3), (El derivador de
bits estira los bits I, Q y C a tres veces su longitud de bit de entrada). Debido a que los
bits I, Q y C tienen una salida simultánea y en paralelo, los convertidores de nivela de 2
a 4, también ven un cambio en sus entradas (y en consecuencia sus salidas) a una tasa
igual a f b/3.
Receptor 8-PSK
FIGURA 13
FIGURA 14
f. Modulación QAM.
MODULACIÓN DE AMPLITUD EN CUADRATURA (QAM)
Un receptor de 8-QAM es casi idéntico al receptor de 8-PSK. Las diferencias son los
niveles PAM, en la salida de los detectores de producto, y las señales binarias a la salida
de los convertidores análogo a digital. Debido a que hay dos amplitudes de transmisión
posibles, con 8-QAM, que son diferentes de aquellas factibles con el 8-PSK, los cuatro
niveles PAM demodulados son diferentes de aquellos en 8-PSK. En consecuencia, el
factor de conversión para los convertidores analógico a digital, también tienen que ser
diferentes. Además, con el 8-QAM las señales de salida binarias del convertidor
analógico a digital, del canal I, son los bits I y C, y las señales de salida binarias del
convertidor analógico a digital, del canal Q, son los bits Q y C.
Así como en 16-PSK, el 16-QAM es un sistema M-ario, en donde M= 16. Actúa sobre
los datos de entrada en grupos de cuatro (2 4 = l6). Como con el 8-QAM, tanto la fase y
la amplitud de la portadora transmisora son variados.
Con el l6-QAM, ya que los datos de entrada se dividen en cuatro canales, la tasa de bits
en el canal I, I’, Q o Q’ es igual a un cuarto de la tasa de datos de entrada binarios (f b/4).
(El derivador de bits estira los bits I, I’, Q y Q’, a cuatro veces su longitud de bits de
entrada). Además, debido a que estos bits tienen salidas de manera simultánea y en
paralelo, los convertidores de nivel 2 a 4 ven un cambio en sus entradas y salidas a una
fase igual a un cuarto de la tasa de datos de entrada.
Eficiencia
Modulación Codificación BW (Hz) Baudio BW
(bps/Hz)
FSK Bit áfb fb [1
BPSK Bit fb fb 1
QPSK Dibit fb/2 fb/2 2
8-QPSK Tribit fb/3 fb/3 3
8-QAM Tribit fb/3 fb/3 3
16-QPSK Quadbit fb/4 fb/4 4
16-QAM Quadbit fb/4 fb/4 4
Referencia:
https://www.electronicafacil.net/tutoriales/MODULACION-DIGITAL-FSK-PSK-
QAM.php
DVB-S2
Los estándares de televisión por satélite han seguido una tendencia que engloba
características de sus predecesores, tal es el caso de DVB-DSNG con DVB-S. Sin
embargo, la principal limitación de estos sistemas está dada por la eficiencia de los
códigos de protección contra errores en el canal y el algoritmo de compresión de los
contenidos audiovisuales.
En el caso de una señal de video para su radiodifusión, se utilizan los esquemas QPSK y
8PSK. Cuando se utiliza DVB-S2 en aplicaciones de video profesional (como DSGN), se
pueden aplicar los esquemas 16APSK y 32APSK, cuya eficiencia espectral es mucho
mayor, pero es necesario utilizar el transpondedor en una región de mayor linealidad en
la transmisión. También, el consumo de potencia es superior comparado con esquemas
de menor orden.
En este caso, se observa que los esquemas manejados en DVB-S2 tienen una eficiencia
de codificación cercana al límite teórico máximo (límite de Shannon). También se aprecia
que se requiere un menor nivel de potencia en DVB-S2 comparado con la misma señal
codificada en otro estándar con iguales niveles de calidad. Además, si el nivel de potencia
es constante, la eficiencia espectral es mucho mayor para DVB-S2 que para DVB-S Y
DVB-DSNG.
h. Modulación OFDM.
¿En qué consiste este mecanismo de modulación? ¿Qué ventajas aporta? ¿Qué parámetros
se deben tener en cuenta al definir la modulación OFDM necesaria para una aplicación
determinada? A estas y otras preguntas se da respuesta en esta entrada, centrándose
fundamentalmente en los conceptos que están detrás de este sistema de modulación, con
un lenguaje llano y evitando complejidades matemáticas y terminología excesivamente
técnica.
¿Qué es OFDM?
Para entender cómo funciona la OFDM, primero hay que identificar el problema que se
combate, que no es otro que la Interferencia entre Símbolos.
En esta entrada emplearemos el término “eco” para referirnos a las diferentes réplicas de
la señal que llegan al receptor en instantes de tiempo diferentes debido a la dispersión
temporal del canal de transmisión. No es un término correcto, pero ayuda a entender el
concepto.
La señal transmitida por el transmisor llega al receptor siguiendo tres trayectos diferentes.
El trayecto A es el más corto, por lo que será el primero en llegar al receptor. Un instante
después lo hará la señal que recorra el trayecto B y por último lo hará la señal del trayecto
C, que es el más largo. Las señales procedentes de los diferentes trayectos son la misma
señal, pero que llegan al receptor en instantes de tiempo diferentes, generando un
fenómeno de “eco”.
Este “eco” provoca que los símbolos que forman la señal recibida se entremezclen unos
con otros del mismo modo que se entremezclan las palabras que oímos cuando alguien
habla en un escenario con eco. Este fenómeno característico de los medios de transmisión
multitrayecto se denomina “interferencia entre símbolos”, o ISI por sus siglas en inglés
(Inter-Symbol Interference).
El motivo por el que la modulación OFDM combate la ISI es ese intervalo de tiempo que
se inserta entre los símbolos. Ese intervalo se denomina “Prefijo Cíclico”, o CP por sus
siglas en inglés. Aunque no es relevante para comprender su función, el nombre “prefijo
cíclico” se debe a que durante ese tiempo se transmite una réplica de la parte final del
símbolo al que precede, con objeto de conservar la periodicidad cíclica del símbolo y que
las matemáticas detrás de este mecanismo de modulación funcionen. Lo importante es
que ese intervalo de tiempo está diseñado para evitar la interferencia entre símbolos.
Como se ve en la siguiente figura, cada símbolo es precedido por un prefijo cíclico para
formar el símbolo OFDM completo. Gracias a ese prefijo cíclico, como se verá, se pueden
concatenar varios símbolos OFDM uno detrás de otro sin miedo a que el eco del medio
de propagación los mezcle entre sí. En la figura se muestran tres símbolos OFDM, cada
uno de ellos formado por una parte útil y un prefijo cíclico.
Como ya se ha indicado, precediendo a cada símbolo que forma la señal OFDM se inserta
un intervalo de tiempo denominado prefijo cíclico. Si la señal formada por símbolos
OFDM, cada uno con su prefijo cíclico y parte útil, se transmite en un medio con múltiples
trayectos entre el transmisor y el receptor, la señal recibida estará formada por varias
réplicas de la señal original recibidas en diferentes instantes de tiempo (eco). Ese eco hará
que se mezclen los prefijos cíclicos y las partes útiles de los símbolos allí donde haya una
transición entre dos símbolos o entre un prefijo cíclico y la parte útil del símbolo.
En primer lugar, el eco del prefijo cíclico que se solapa sobre la parte útil del símbolo no
afecta en absoluto a dicha parte útil. Esto se debe precisamente a que el prefijo cíclico es
una copia de la parte final de la parte útil del símbolo. Esta periodicidad cíclica es
precisamente la que anula los efectos del eco del prefijo cíclico sobre la parte útil del
símbolo. La demostración de este fenómeno requiere entrar en profundidad en aspectos
técnicos fuera del objetivo de esta entrada, por lo que nos limitaremos a aceptar que el
eco del prefijo cíclico sobre el símbolo útil no afecta porque es un eco de sí mismo.
¿Qué ocurre con el eco de un símbolo que se solapa con el prefijo cíclico del símbolo
siguiente? En este caso no se trata de un eco de sí mismo, por lo que ese eco sí afecta al
prefijo cíclico. El prefijo cíclico queda contaminado por el eco del símbolo anterior. A
pesar de ello, esto no tiene ningún efecto importante, pues lo primero que hace el receptor
al recibir la señal es descartar el prefijo cíclico. Es decir, el eco del símbolo anterior que
contamina el prefijo cíclico es totalmente irrelevante, pues el prefijo cíclico está ahí para
eso, para soportar el eco del símbolo anterior. El receptor lo descarta y la parte útil del
símbolo, que es lo que importa, queda completamente intacta, o únicamente afectada por
el eco de sí misma, que como se ha indicado no tiene consecuencias.
En el ejemplo anterior hemos visto como el eco del prefijo cíclico sobre la parte útil del
símbolo no tiene importancia, y que el eco del símbolo anterior sobre el prefijo cíclico
tampoco la tiene debido a que el receptor descarta dicho prefijo cíclico. Esa es la esencia
del porqué la modulación OFDM puede eliminar por completo la interferencia entre
símbolos. Una vez eliminados los prefijos cíclicos, la parte útil de cada símbolo no estará
contaminada por el eco de otro símbolo.
¿Pero qué ocurriría si el eco tuviese una duración mayor a la del prefijo cíclico? En tal
caso, el eco de un símbolo no sólo contaminaría la totalidad del prefijo cíclico del símbolo
siguiente, sino que llegaría a afectar también a la parte útil del símbolo siguiente. Si esto
Parece que hemos encontrado un límite de la modulación OFDM. Si el eco es más largo
que el prefijo cíclico, no se conseguirá eliminar la interferencia entre símbolos.
La duración del prefijo cíclico es por tanto una de las características más importantes de
una modulación OFDM determinada. El prefijo cíclico debe tener una duración superior
a la máxima dispersión del canal esperable, es decir, superior a la máxima duración del
eco que se pueda esperar en un determinado escenario.
En OFDM se usan símbolos (vagones) largos con muchos bits (pasajeros) por símbolo.
¿A qué se debe esto?
Dado que el prefijo cíclico simplemente se usa para soportar el eco del símbolo
precedente, es un intervalo de tiempo desperdiciado desde el punto de vista de la
capacidad del sistema. Es decir, no transporta información. Por ello el prefijo cíclico
(tiempo desperdiciado) debe tener una duración corta en relación a la duración del
símbolo (tiempo útil). En la analogía del tren, los prefijos cíclicos corresponderían al
espacio que hay entre vagones de un tren real. Como ese espacio no puede ser usado para
el transporte de viajeros, conviene que dicho espacio entre vagones sea mucho más
pequeño que la longitud de un vagón, para que su impacto en la capacidad del tren sea
despreciable.
Este es el motivo por el que los símbolos OFDM son de larga duración, para que la
inserción del prefijo cíclico no suponga una pérdida de capacidad notable. La duración
del prefijo cíclico suele referenciarse a la duración del símbolo OFDM. Por ejemplo, es
muy común que la duración del prefijo cíclico sea la cuarta parte de la duración del
símbolo OFDM (prefijo cíclico 1/4).
El número de bits que transporta cada símbolo depende del número posible de símbolos
(combinaciones de fase y amplitud) que se definan. Si hay ocho combinaciones posibles,
cada símbolo transmitirá tres bits de información. Si hay sesenta y cuatro combinaciones,
cada símbolo transportará seis bits de información (siempre el logaritmo en base dos del
número de combinaciones posibles).
Por otra parte, el ancho de banda espectral ocupado por una transmisión será exactamente
el número de símbolos que se transmiten por segundo, es decir, el inverso del tiempo de
símbolo. Es decir, si los símbolos duran un milisegundo, se transmitirán mil símbolos por
segundo, por lo que el espectro ocupado será de 1 kHz (mil Hertzios). Así que símbolos
largos ocupan muy poco espectro.
Pues bien, símbolos largos llevan poca información, pero ocupan muy poco espectro. La
modulación OFDM compensa la poca capacidad de los símbolos largos con la
transmisión de muchas portadoras (“subportadoras”) en paralelo, cada una a una
frecuencia diferente para que no se entremezclen. La “O” de OFDM significa
“ortogonal”, que es lo mismo que decir que las subportadoras no se mezclen. ¿Cuántas
subportadoras se transmiten? Las que se necesiten para llegar a la capacidad requerida
por el sistema y que no excedan el ancho de banda total disponible.
Imaginemos que nos encargan diseñar un sistema de transmisión con modulación OFDM.
Las dos preguntas que debemos hacernos son
a) ¿Cuál es el máximo eco que cabría esperar en el escenario típico de transmisión? Esta
pregunta nos ayudará a dimensionar la duración del símbolo OFDM
Si establecemos que la parte útil del símbolo sea cuatro veces la duración del prefijo
cíclico, dicha parte útil debería durar 16 microsegundos, por lo que el símbolo OFDM
completo duraría 20 microsegundos.
Como la parte útil del símbolo OFDM dura 16 microsegundos, cada subportadora
ocuparía 62.5 kHz de espectro. Dado que disponemos de 10MHz de ancho de banda,
podríamos emplear hasta 160 subportadoras.
¿Cuál sería la capacidad del sistema? Como se transmiten cincuenta mil símbolos OFDM
por segundo (uno cada 20 microsegundos), y cada símbolo está formado por 160
subportadoras, con seis bits cada una de ellas, la capacidad del sistema será de 48 Mbps.
Conclusiones
El aspecto más importante a recalcar es que no todas las modulaciones OFDM son
iguales. Cada tecnología define la suya propia, y todo viene dictado por la naturaleza del
problema a resolver, que no es otro que la duración del eco del canal. Cada tecnología
está diseñada para una aplicación, y en cada aplicación el canal es diferente. Por ello cada
modulación OFDM es diferente.
Referencia:
https://albentia.wordpress.com/2013/09/05/modulacion-ofdm-wimax-madrid/
Para describir el movimiento de ondas que se propagan en dos o tres dimensiones son
útiles los conceptos de frente de onda y de rayo. Se define el frente de onda como el
conjunto de puntos del medio alcanzados por el movimiento ondulatorio en el mismo
instante; o dicho con mayor precisión, el lugar geométrico de todos los puntos del medio
con igual fase de vibración.
Para representar las ondas, se dibujan los frentes separados una longitud de onda.
Atendiendo a la forma del frente de onda, las ondas se denominan esféricas, cilíndricas,
Planas, etc. Las ondas planas pueden considerarse monos dimensionales, ya que
la propagación es según una dirección particular.
Las líneas perpendiculares a los sucesivos frentes de onda se denominan rayos y
corresponden a líneas de propagación de la onda. Los puntos de diferentes superficies de
onda unidos por un rayo dado, se llaman puntos correspondientes.
Es evidente que el tiempo requerido para que la onda avance entre dos frentes de onda es
el mismo cualquiera que sea el rayo según el cual se mida. Por tanto, las distancias
entre puntos correspondientes deben depender de la velocidad del movimiento
ondulatorio en cada punto, y en un medio homogéneo e isótropo, donde la velocidad es
la misma en todos los puntos y en todas las direcciones, la separación entre dos superficies
de onda debe ser la misma en todos los puntos correspondientes.
Radiación Electromagnética
Son una forma de propagación de energía a través del espacio sin necesidad de un medio
material. Abarcan un espectro muy amplio de tipo de onda, desde las microondas hasta
los rayos X y Landa, pasando por la luz visible.
Las ondas electromagnéticas consisten en la propagación de una doble vibración: de un
campo eléctrico (E) y de un campo magnético (H). Estas 2 vibraciones están en fase,
No tienen masa.
No tienen carga eléctrica.
Viajan a la velocidad de la luz.
Tienen energías diferentes y mensurables (frecuencias y longitud de onda).
𝐸 𝜇0 1
𝑍0 = = 𝜇0 𝑐0 = √ =
𝐻 𝜀0 𝜀0 𝑐0
T
X RX Una pequeña fracción de la
energía radiada por TX llega a RX
Onda
x(t) Transmisor de electromagnética Receptor de RADIO x(t)
RADIO
Lbf t
Pr c0
Tomando logaritmos, se obtienen las pérdidas en dB
Obstáculos en el trayecto
Características eléctricas del terreno
Características atmosféricas del medio
Frecuencia
Tipo de modulación
T R
E E0 1 Re
j f
(1 R) Ae
j f
2
Siendo E0 la intensidad de campo en el espacio libre, f l el desfasaje entre
la onda directa y la onda reflejada debido a la diferencia de trayectos l recorridos
E E0 (1 R) Ae
j f
E (1 1) Ae 2AE
0
0
0
Influencia de la troposfera
N s N0 e 0,136hs
El CCIR publica mapa mundial para cada mes de N0. Por ejemplo, para la
Península Ibérica en febrero N0 = 320. Valores típicos de N0 son 290 para los polos y 390
para el ecuador.
dN
N 10 6
dh
siendo la curvatura del rayo, igual a la inversa del radio de curvatura. Por tanto, el radio
de curvatura del rayo para cada altura es:
1
10 6
R
N
El efecto de la curvatura del rayo permite que el alcance sea ligeramente mayor
que si se propagara en línea recta, y dicho efecto se asume suponiendo que el rayo se
propaga en línea recta sobre una Tierra ficticia con radio mayor en un factor K, es decir,
es como si el radio de la Tierra fuera K·RT, siendo RT = 6.370 Km.
Se calcula la curvatura relativa del rayo con respecto a la curvatura de la Tierra real
como la diferencia
T
K=1,33
K=1
K=1/2
Tierra Real
K=
K=1,33
K=1
K=1/2
Tierra Plana
dht dhr
ht hr
KRT
Distancia de horizonte dht y dhv
Distancia de visibilidad dv
d v dht dhr
Ventajas:
Barato
Lugares inaccesibles
Poca potencia
Inconvenientes:
Características de la ionosfera
Los rayos X y ultravioletas del Sol inciden sobre las moléculas y se liberan
electrones e iones
elec./m3
CAPA F1 CAPA F2
12
10 DÍA
1011
CAPA F
CAPA D
60-90 Km. Sólo existe durante el día. Depende del ángulo cenital del Sol.
Refleja rayos frecuencias bajas y absorbe frecuencias medias y altas
CAPA E
90-130 Km. Muy estable. Depende del ángulo cenital del Sol. Altura variable
según estación del año
CAPA F1
CAPA F2
e 2 N e (r )
n( r ) 1 2
4 m 0 f 2
Siendo e la carga del electrón ( e 1,6·10 19 C ), m la masa del electrón ( m 9,1·10 31 Kg
1
), 0 permitividad del espacio libre, 0 F / m 8,8·1012 F / m ,
4· ·9·109
81N e (r )
n( r ) 1 con f en Hz
f2
2
fp
n(r ) 1
f
para f = fp, se anula n
3
n3
2
n2
n1
1
Se supone que
n 1 n 2 n3
Los ángulos de incidencia con la vertical se calculan con la expresión:
sen 1 n2
sen 2 n1
Si n(r) disminuye con la altura, el ángulo que forma el rayo con la normal es
cada vez mayor, es decir, el rayo tiende a ser horizontal.
Ley de la secante.
f f v sec 0
que constituye la expresión de la llamada ley de la secante.
Ejemplo:
60º
60º
componente directa (conducida por la capa más baja de la atmósfera, llamada troposfera)
y otra indirecta, reflejada en tierra en algún punto entre las dos estaciones. Lo vemos en
la figura 1, donde para mayor realismo se ha añadido la curvatura terrestre y la de las
señales de radio, curvadas por la troposfera; se observa que la reflexión en tierra no se
produce a mitad de camino, sino más cerca de la estación 2, cuya antena está a menor
altura.
Figura 2. Las ondas directa y reflejada llegan con fases opuestas y se cancelan, anulando
la comunicación en esa frecuencia. Para mayor simplicidad de la figura se suponen
caminos rectilíneos y tierra plana.
Y ahora, unos incisos. En la figura 2 aparecen antenas de polarización horizontal, las que
más empleamos en comunicaciones DX en VHF y superiores. Esas "ondas" dibujadas son
representación de la fase de la señal. Se observa que, en el punto de reflexión en tierra, a
la cresta positiva de la señal no le sigue una cresta negativa, sino otra positiva: la reflexión
causa a la señal de radio (en concreto a su componente de campo eléctrico) un cambio de
signo, es decir, un giro de fase de 180 grados.
Con antenas de polarización vertical, ese giro de 180 grados se produce con la condición
de que se empleen frecuencias elevadas y las señales tengan un bajo ángulo vertical, casi
a ras del horizonte; y ambas condiciones se cumplen en los casos que planteamos en el
artículo (DX en VHF y superiores), por lo que si las antenas del ejemplo fuesen verticales
seguiría ocurriendo la inversión de fase.
La reflexión en tierra también atenúa la onda, a menos que se trate de un reflector perfecto,
como sería una superficie metálica. Pero en la práctica, para polarización horizontal y
ángulos de radiación muy bajos (DX) se puede considerar que no hay atenuación, o bien
que es muy baja.
Por cierto, las características como conductor de un material varían con la frecuencia; así,
el mar es un reflector casi perfecto en bandas de HF, pero en frecuencias del orden de
Onda de superficie. En teoría, habría una tercera señal que se propagaría siguiendo la
superficie de la tierra, llamada onda de superficie, pero este modo de propagación se
caracteriza por presentar una atenuación más elevada cuanto mayor es la frecuencia, por
lo que para señales de VHF (y no digamos de microoondas) puede decirse que no hay en
absoluto onda de superficie para distancias que no sean cortas. Además, este modo de
propagación solamente es posible para polarización vertical.
Volviendo al tema que nos ocupa, que es la combinación de las señales directa y reflejada,
sucede que la diferencia de longitud de sus recorridos y el giro de fase en tierra implican
una diferencia de fase entre ambas al llegar a la estación 2. Si la diferencia de fase es de
0 grados, se sumarán, y doblaremos el nivel de la señal; si es de 180 grados, se restarán y
no habrá señal.
La diferencia de fase de 0 grados se produce cuando la diferencia entre los dos caminos
es múltiplo entero de la longitud de onda: 0, 1, 2, 3, 4 longitudes de onda, etc.
La diferencia de fase de 180 grados (figura 2) se produce cuando la diferencia entre los
dos caminos es múltiplo impar de media longitud de onda: 0,5, 1,5, 2,5, 3,5 longitudes de
onda, etc.
Pero esos son los dos casos extremos. Para el resto de valores de la diferencia de fase, nos
servirá la ecuación de la figura 3.
Figura 3. Cálculo de la atenuación para propagación por ondas directa más reflejada
(ver texto).
Diversidad en frecuencia.
Si en un radioenlace cambiamos la frecuencia, cambiará la longitud de onda y por lo tanto
la diferencia de fase entre las ondas directa y reflejada (figura 6). Es otra técnica a la que
se puede recurrir en situaciones de cancelación de ondas directa y reflejada. No se refiere
a un cambio a otra banda, sino a otra frecuencia relativamente cercana: una buena "regla
de tres" es cambiar de la frecuencia inicial f1 a otra frecuencia f2 tal que la diferencia entre
ambas sea = 0,1 f1. Nosotros quizás podríamos aplicarlo dentro de alguna de las bandas
de microondas más amplias, con las limitaciones que impongan los planes de banda.
Señales de
Información:
Voz
Datos
Video
Oscilador del equipo
transmisor que genera
Generador de la la portadora en las
Señal Portadora diferentes bandas de
(Oscilador)
frecuencia
Generador de la Señal
Portadora
(Oscilador)
Amplificadores RF
Estos amplificadores por lo general son proyectados con transistores FET como su
componente activo, los transistores BJT pueden ser usados, pero se prefieren los FET por
su alta impedancia de entrada, lo que mejora mucho la sensibilidad del circuito. Los
amplificadores de poder de RF son las últimas etapas activas antes de la antena de
transmisión. Suministran toda la amplificación de potencia necesaria para radiar la señal
de RF al espacio.
Características de un amplificador RF
Estos amplificadores de RF son de alta ganancia, bajo ruido y sintonizado, que, cuando
se usan, es la primera etapa activa que encuentra la señal recibida. Los objetivos primarios
de una etapa de RF son selectividad, amplificación y sensibilidad, siendo estas mismas
sus características:
Bajo ruido.
Ganancia de moderada a alta.
Baja distorsión por intermodulación y armónica (tener operación lineal).
Selectividad moderada.
Alta relación de rechazo de frecuencia imagen.
Tipos de amplificadores RF
Permiten obtener una ganancia constante en bandas grandes (una octava) Permiten
adaptación de impedancias en banda ancha. La realimentación puede ser disipativa. -
Distribuidos Se comportan como una línea de transmisión activa º Consiguen bandas de
trabajo muy grandes (más de una década) Tienen poca ganancia
Puede considerarse, en una primera aproximación, que las componentes del modelo son
independientes de frecuencia y dependientes del punto de polarización del transistor.
Por ultimo indicar que, al poseer este amplificador una ganancia cercana a la unida,
habrá que utilizarlo en combinación con los amplificadores de emisor común para
conseguir los efectos de amplificación deseados, tal como se muestra en el
ejemplo Combinación de un amplificador de colector común de gran impedancia de
entrada con uno de emisor común de gran ganancia. La impedancia de entrada de un
amplificador de base común es muy baja, del orden de decenas de ohmios, esto lo hace
muy útil para las etapas de amplificación en las que existen generadores de baja
impedancia. Sin embargo, la impedancia de salida es muy elevada.
Características de la Realimentación
Neutralización
La razón para reordenar las conexiones del transformador es que ahora los extremos
superior e inferior del devanado tienen polaridades opuestas con respecto a la tierra para
la señal AC. Es posible que las tensiones sean iguales en magnitud o no, no es necesario
que el transformador tenga una derivación en el centro. La capacitancia interna C alimenta
una señal desde el extremo superior de la bobina punto A a la base del transistor. Un
capacitor variable pequeño Cn se ajusta para eliminar una señal de igual magnitud, pero
con polaridad opuesta desde el extremo inferior de la bobina, punto B a la base. Cuando
Cn se ajusta de manera correcta, se cancela las señales y el amplificador permanece
estable.
Los parámetros-S se representan en una matriz y por lo tanto obedecen las reglas
del álgebra de matrices. Muchas propiedades eléctricas útiles de las redes o de
componentes pueden expresarse por medio de los parámetros-S, como por ejemplo
la ganancia, pérdida por retorno, relación de onda estacionaria de
tensión (ROEV), coeficiente de reflexión y estabilidad de amplificación. El término
'dispersión' (del inglés, scattering) es probablemente más común en ingeniería óptica que
en ingeniería de RF, pues se refiere al efecto que se observa cuando una onda
electromagnética plana incide sobre una obstrucción o atraviesa
medios dieléctricos distintos. En el contexto de los parámetros-S, dispersión se refiere a
la forma en que las corrientes y tensiones que se desplazan en una línea de
transmisión son afectadas cuando se encuentran con una discontinuidad debida por la
introducción de una red en una línea de transmisión. Esto equivale a la onda
encontrándose con una impedancia diferente de la impedancia característica de la línea.
Si a lo anterior se agrega la dificultad para medir los parámetros del modelo en forma
directa, se concluye que el modelo p pierde utilidad en alta frecuencia (por encima de fb).
Los modelos cuadripolares, en cambio, por no estar atados a una representación circuital
con elementos estándar, y porque los cuatro parámetros que caracterizan unívocamente
su comportamiento son relativamente fáciles de medir con exactitud, no presentan estos
inconvenientes. Tal como se señaló para el caso del modelo h, los parámetros medidos
dependen de las condiciones de operación como el punto de polarización, la temperatura,
y especialmente la frecuencia. A primera vista esto parece constituir un inconveniente ya
que sería necesario especificar los parámetros en numerosas condiciones para caracterizar
el funcionamiento del transistor en forma más o menos completa. Sin embargo, en general
las aplicaciones de alta frecuencia suelen ser de banda angosta y en frecuencias bastante
definidas, razón por la cual bastaría especificar los parámetros de los transistores en
dichas frecuencias (por ejemplo, a la frecuencia intermedia de TV). De hecho, la mayoría
De los seis posibles juegos de parámetros cuadripolares, el que resulta más cómodo de
medir en alta frecuencia es el juego de parámetros y (admitancia), que da origen al
modelo pseudocircuital.
ESTABILIDAD DE Amplificadores de RF y FI
2) La unilateralización y la neutralización.
Pero también puede ser buscado por otros aspectos interesantes como la aislación entre
la entrada y la salida.
Podemos elegir:
Donde,
g1 = conductancia de entrada,
g0 = conductancia de salida
Cabe destacar que en la medida en que el valor de C sea más pequeño, es decir mucho
menor que 1, se considera mejor ya que si C es menor pero cercano a 1, algún cambio en
la polarización DC (que pueden atribuirse a cambios de temperatura u otros factores)
puede causar que la estabilidad del transistor pase a ser mayor que 1 y convertirse en un
transistor potencialmente inestable.
Donde,
GS = La conductancia de la fuente
GL = La conductancia de la carga
Es importante destacar que cuanto mayor sea los factores GS y GL mayor será la
estabilidad, aunque esto disminuye la ganancia.
El criterio de estabilidad de Rollet o también conocido como Rollet Factor es análogo del
criterio de estabilidad de Stern que utiliza parámetros Y, Rollet utiliza parámetros S. Este
se utiliza para comprobar la estabilidad incondicional de un transistor, de manera que nos
dice que un transistor es incondicionalmente estable si se cumplen las siguientes dos
condiciones:
GANANCIA EN POTENCIA
Aplicaciones de Amplificadores de RF y FI
En un sistema de comunicaciones entre dos puntos, a través de dos antenas (una emisora
y otra receptora) se le puede encontrar a estos amplificadores en los módulos de las etapas
antecesoras en el caso de la antena de transmisión, y en módulos de las etapas
predecesoras en el caso de la recepción a través de la antena receptora de la señal
transmitida entre los dos puntos A y B como se muestra en el diagrama en bloques a
continuación:
En otro tipo de aplicación en donde a estos tipos de amplificadores se les puede ver es en
todos los receptores modernos de radio y televisión, los cuales están conformados por un
Receptor Superheterodino, el cual es un receptor de ondas de radio que utiliza un proceso
de mezcla de frecuencias o heterodinación para convertir la señal recibida en una
frecuencia intermedia fija, que puede ser más convenientemente elaborada (filtrada y
amplificada) que la frecuencia de radio de la portadora original.
Conclusiones
débiles y de alta frecuencia. Transistor de efecto de campo aprovecha las ventajas del
transistor bipolar además de remplazar la baja impedancia por la alta impedancia de
entrada.
Leer más:
http://www.monografias.com/trabajos100/amplificacdores/amplificacdores.shtml#ixzz5
7x9ZXtYW
i. Dispositivos de RF.
Cómo Funcionan los Transistores en RF
Todos los lectores saben que los transistores usados en los circuitos de altas frecuencias
son diferentes de los usados en la amplificación y generación de señales de audio, bajas
frecuencias y corrientes continuas. ¿Por qué? Para entender bien las diferencias, debemos
comenzar del principio, o sea, de la propia estructura y funcionamiento de un transistor
bipolar.
Sin embargo, los transistores no se comportan del mismo modo cuando trabajan con
señales de altas frecuencias. La ganancia de un transistor comienza a ser cada vez más
influenciada a medida que la frecuencia aumenta más allá de cierto valor.
Gráfico que muestra la caída de ganancia que ocurre para frecuencias por encima de
cierto límite. La frecuencia de corte es definida para el punto en que la ganancia cae en
0,707 en relación a la ganancia en CC.
Como un oscilador exige realimentación y ganancia, sin ganancia el mismo no puede ser
usado más para generar señales.
Mientras tanto, para llegar a este punto, los obstáculos vencidos fueron muchos.
Analicémoslos.
Tiempo de tránsito
Como esta última corriente tiene mayor intensidad que la primera, decimos que el
transistor amplifica señales.
Las variaciones de la corriente de base son las que deben comandar, pues, las variaciones
de la corriente de colector (configuración de emisor común).
Para los materiales semiconductores más usados como el germanio y el silicio, los
portadores de carga se mueven en una velocidad que depende de su naturaleza.
En el germanio, por ejemplo, los electrones se mueven a una velocidad del orden de 3.600
cm por segundo, mientras que las lagunas son más lentas, con una velocidad de 1.60 cm
por segundo. Podemos decir que, tanto en el silicio como en el germanio, las velocidades
de los portadores negativos de carga (electrones) es casi el doble de la velocidad de los
portadores de carga negativa (lagunas).
Supongamos entonces que una señal de alta frecuencia sea aplica da a la base de un
transistor.
Antes de que la corriente alcance su máximo, es necesario que haya tiempo para cargar
estas capacitancias parasitas.
El problema básico que encontramos inicialmente está justamente en el hecho que los
portadores de cargas N y P tienen velocidades diferentes de propagación.
Así, si un transistor tuviera más material P a recorrer que material N, el transistor tiende
a ser más lento que su equivalente.
Vea entonces que, si tuviéramos dos transistores con las mismas características generales,
pero uno NPN y el otro PNP, el PNP tiende a ser más lento, con una frecuencia límite de
operación bastante más baja.
Mientras que el BC548 tiene una frecuencia de corte de (fT) 300 MHz, su "equivalente"
complementario PNP, el BC558 tienen una frecuencia de corte de "apenas" 150 MHz.
Observe el lector que la gran mayoría de los transistores que se destinan a la operación
con señales de RF, principalmente en las frecuencias más elevadas, son NPN y no PNP.
En las figuras 5 y 6 tenemos ilustrados los modos en que ocurren las propagaciones de
corriente en los transistores NPN y PNP, para mostrar de qué modo el tránsito es más
rápido en un NPN.
Los componentes que usan estos materiales deben estar pronto a disposición de los
proyectistas.
El primero es del tipo "Alloy' (aleación) que aparece en (a). Este transistor está formado
por la difusión de impurezas (indio) en una región semiconductora, obteniéndose así las
regiones que corresponden al colector (C) y al emisor (E).
Esta técnica, por otro lado, no permite obtener precisión en las características del
transistor, de modo que en un lote de los mismos podemos encontrar grandes variaciones
de ganancia, entre otras.
El tipo (b) que mostramos en la misma figura es el que corresponde a la llamada "barrera
superficial" desarrollado por Philco.
El tipo (c) es denominado mesa" y tiene una estructura que permite alcanzar velocidades
de operación bastante mayores y también trabajar con potencias mayores.
Las regiones que corresponden a la base y al emisor son formadas sobre una "mesa" de
material semiconductor.
EI tipo (d) se denomina "mesa epitaxial". La diferencia en relación al tipo anterior está
en la presencia de una capa adicional epitaxial (epitaxial quiere decir de superficie) que
es depositada sobre el material básico, formando así la región correspondiente al colector.
bipolar.
unipolar o FET (Transistor de Efecto de Campo).
IGBT.
El IGBT ofrece a los usuarios las ventajas de entrada MOS, más la capacidad de carga en
corriente de los transistores bipolares:
Pequeñas fugas.
Alta potencia.
Bajos tiempos de respuesta (ton, toff), para conseguir una alta frecuencia de
funcionamiento.
Alta concentración de intensidad por unidad de superficie del semiconductor.
Que el efecto avalancha se produzca a un valor elevado (VCE máxima elevada).
Que no se produzcan puntos calientes (grandes di/dt).
Tiempos de conmutación
Cuando el transistor está en saturación o en corte las pérdidas son despreciables. Pero si
tenemos en cuenta los efectos de retardo de conmutación, al cambiar de un estado a otro
se produce un pico de potencia disipada, ya que en esos instantes el producto IC x VCE va
a tener un valor apreciable, por lo que la potencia media de pérdidas en el transistor va a
ser mayor. Estas pérdidas aumentan con la frecuencia de trabajo, debido a que al aumentar
ésta, también lo hace el número de veces que se produce el paso de un estado a otro.
Es de hacer notar el hecho de que el tiempo de apagado (toff) será siempre mayor que el
tiempo de encendido (ton).
Los tiempos de encendido (ton) y apagado (toff) limitan la frecuencia máxima a la cual
puede conmutar el transistor:
Corriente media: es el valor medio de la corriente que puede circular por un terminal (ej.
ICAV, corriente media por el colector).
Tensión máxima: es la máxima tensión aplicable entre dos terminales del dispositivo
(colector y emisor con la base abierta en los bipolares, drenador y fuente en los FET).
Relación corriente de salida - control de entrada: hFE para el transistor bipolar (ganancia
estática de corriente) y gds para el FET (transconductancia en directa).
Modos de trabajo
Sin embargo, puede darse un caso de avalancha cuando estemos trabajando con tensiones
por debajo de los límites anteriores debido a la aparición de puntos calientes (focalización
de la intensidad de base), que se produce cuando tenemos polarizada la unión base -
emisor en directo. En efecto, con dicha polarización se crea un campo magnético
transversal en la zona de base que reduce el paso de portadores minoritarios a una pequeña
zona del dispositivo (anillo circular). La densidad de potencia que se concentra en dicha
zona es proporcional al grado de polarización de la base, a la corriente de colector y a la
VCE, y alcanzando cierto valor, se produce en los puntos calientes un fenómeno
degenerativo con el consiguiente aumento de las pérdidas y de la temperatura. A este
fenómeno, con efectos catastróficos en la mayor parte de los casos, se le conoce con el
nombre de avalancha secundaria (o también segunda ruptura).
El efecto que produce la avalancha secundaria sobre las curvas de salida del transistor es
producir unos codos bruscos que desvían la curva de la situación prevista (ver gráfica
anterior).
Todo lo descrito anteriormente se produce para el ton del dispositivo. Durante el toff, con
polarización inversa de la unión base - emisor se produce la focalización de la corriente
en el centro de la pastilla de Si, en un área más pequeña que en polarización directa, por
lo que la avalancha puede producirse con niveles más bajos de energía. Los límites de I C
y VCE durante el toff vienen reflejado en las curvas RBSOA dadas por el fabricante.
Las cargas inductivas someten a los transistores a las condiciones de trabajo más
desfavorables dentro de la zona activa.
a) Diodo Zéner en paralelo con el transistor (la tensión nominal zéner ha de ser superior
a la tensión de la fuente Vcc).
Las dos primeras limitan la tensión en el transistor durante el paso de saturación a corte,
proporcionando a través de los diodos un camino para la circulación de la intensidad
inductiva de la carga.
De donde:
La gráfica superior muestra las señales idealizadas de los tiempos de conmutación (ton
y toff) para el caso de una carga resistiva.
Así, la potencia instantánea por el transistor durante este intervalo viene dada por:
La energía, Wr, disipada en el transistor durante el tiempo de subida está dada por la
integral de la potencia durante el intervalo del tiempo de caída, con el resultado:
Arriba podemos ver la gráfica de la iC(t), VCE(t) y p(t) para carga inductiva. La energía
perdida durante en ton viene dada por la ecuación:
Puede verse como el semiciclo positivo está formado por un tramo de mayor amplitud
que ayude al transistor a pasar a saturación (y por tanto reduce el ton) y uno de amplitud
suficiente para mantener saturado el transistor (de este modo la potencia disipada no será
excesiva y el tiempo de almacenamiento no aumentará). El otro semiciclo comienza con
un valor negativo que disminuye el toff, y una vez que el transistor está en corte, se hace
cero para evitar pérdidas de potencia.
Para que todo lo anterior sea realmente efectivo, debe cumplirse que:
Con esto nos aseguramos que el condensador está cargado cuando apliquemos la señal
negativa. Así, obtendremos finalmente una frecuencia máxima de funcionamiento:
En estas condiciones conduce D2, con lo que la intensidad de colector pasa a tener un
valor:
Si imponemos como condición que la tensión de codo del diodo D1 es mayor que la del
diodo D2, obtendremos que IC sea mayor que IL:
La región de la base en un transistor debe ser delgada, para que los portadores puedan
difundirse a través de esta en mucho menos tiempo que la vida útil del portador
minoritario del semiconductor. El espesor de la base debe ser menor al ancho de difusión
de los electrones.
Control de la corriente
El Transistor MOSFET.
Introducción.
Los problemas que vienen presentando los transistores bipolares o BJT, como son la
corriente que soportan y la dependencia de la temperatura a la que se ven sometidos, unas
veces por su emplazamiento, otras por un mal trazado y la más evidente, el efecto llamado
de avalancha. Estas evidencias, han llevado a que se sustituyan por otros transistores más
avanzados, hasta la llegada de los MOSFET.
La estructura MOS.
La estructura MOS está compuesta de dos terminales y tres capas: Un Substrato de silicio,
puro o poco dopado p o n, sobre el cual se genera una capa de Oxido de Silicio (SiO2)
que, posee características dieléctricas o aislantes, lo que presenta una alta impedancia de
entrada. Por último, sobre esta capa, se coloca una capa de Metal (Aluminio o polisilicio),
que posee características conductoras. En la parte inferior se coloca un contacto óhmico,
en contacto con la capsula, como se ve en la figura.
Cuando VGB>0, aparece un campo eléctrico entre los terminales de Puerta y substrato. La
región semiconductora p responde creando una región de empobrecimiento de cargas
libres p+ (zona de deplexión), al igual que ocurriera en la región P de una unión PN
cuando estaba polarizada negativamente. Esta región de iones negativos, se incrementa
con VGB.
Bajo el terminal de Puerta existe una capa de óxido (SiO2) que impide prácticamente el
paso de corriente a su través; por lo que, el control de puerta se establece en forma de
tensión. La calidad y estabilidad con que es posible fabricar estas finas capas de óxido es
la principal causa del éxito alcanzado con este transistor, siendo actualmente el
dispositivo más utilizado.
Además, este transistor ocupa un menor volumen que el BJT, lo que permite una mayor
densidad de integración. Comencemos con la estructura básica del MOSFET, seguido de
sus símbolos.
Según los valores que tome la tensión VGS, se pueden considerar tres casos:
1) VGS=0. Esta condición implica que VGS=0, puesto que VSB=0. En estas condiciones,
no existe efecto campo y no se crea el canal de e-, debajo de la Puerta. Las dos estructuras
PN se encuentran cortadas (B al terminal más negativo) y aisladas. I DS=0
aproximadamente, pues se alimenta de las intensidades inversas de saturación.
3) La tensión VGS>>0, da lugar a la inversión del canal y genera una población de e- libres,
debajo del óxido de Puerta y p+ al fondo del substrato. Se forma el CANAL N o canal de
electrones, entre el Drenador y la Fuente (tipo n+) que, modifica las características
eléctricas originales del sustrato. Estos electrones, son cargas libres, de modo que, en
presencia de un campo eléctrico lateral, podrían verse acelerados hacia Drenador o
Surtidor. Sin embargo, existe un valor mínimo de VGS para que el número de electrones,
sea suficiente para alimentar esa corriente, es V T, denominada TENSIÓN UMBRAL (en
algunos tratados se denomina VTH).
Por lo tanto, se pueden diferenciar dos zonas de operación para valores de V GS positivos:
- Si VGS>=VT, entonces IDS es distinto de cero, si VDS es no nulo. Se dice que el transistor
opera en inversión fuerte.
Cuanto mayor sea el valor de VGS, mayor será la concentración de cargas libres en el canal
y por tanto, será superior la corriente IDS.
Cuando ya existe canal inducido y VDS va aumentando, el canal se contrae en el lado del
Drenador, ya que la diferencia de potencial Puerta-canal es en ese punto, más baja y la
zona de transición más ancha. Es decir, siempre que exista canal estaremos en región
óhmica y el dispositivo presentará baja resistencia.
Región de corte.
El transistor estará en esta región, cuando VGS < Vt. En estas condiciones el transistor
MOSFET, equivale eléctricamente a un circuito abierto, entre los terminales del
Drenador-Surtidor. De acuerdo con el modelo básico del transistor, en esta región, el
dispositivo se encuentra apagado. No hay conducción entre Drenador y Surtidor, de modo
que el MOSFET se comporta como un interruptor abierto.
Región óhmica.
Cuando un MOSFET está polarizado en la región óhmica, el valor de RDS(on) viene dado
por la expresión:
En casi todas las hojas de datos, asocian el valor de RDS(on) a una corriente de Drenaje (ID)
específica y el voltaje Puerta-Surtidor.
Rds(on) = 1V = 10 Ohms
100mA
Así mismo, el transistor estará en la región óhmica, cuando VGS > Vt y VDS < (VGS –
Vt).
Región de Saturación.
Es decir; el MOSFET estará en esta región, cuando VGS > Vt y VDS > (VGS – Vt).
Cuando la tensión entre Drenador y Fuente supera cierto límite, el canal de conducción,
bajo la Puerta sufre un estrangulamiento en las cercanías del Drenador y desaparece. La
corriente entre Fuente y Drenador no se interrumpe, es debido al campo eléctrico entre
ambos, pero se hace independiente de la diferencia de potencial entre ambos terminales.
En la figura anterior, la parte casi vertical corresponde a la zona óhmica, y la parte casi
horizontal corresponde a la zona activa. El MOSFET de enriquecimiento, puede
funcionar en cualquiera de ellas. En otras palabras, puede actuar como una resistencia o
como una fuente de corriente. El uso principal está en la zona óhmica.
Región de Ruptura.
Esta zona apenas se utiliza porque el transistor MOSFET pierde sus propiedades
semiconductoras y se puede llegar a romper el componente físico. La palabra ruptura
hace referencia a que se rompe la unión semiconductora de la parte del terminal del
drenador.
Capacidades parásitas.
De ellas, las capacidades de Puerta suelen ser las más significativas y dentro de ellas, la
capacidad de Puerta-Fuente CGS y de Drenador-Fuente, CDS son en general, las
dominantes.
La curva más baja es la curva de VGS(T). Cuando VGS es menor que VGS(T), la corriente
de Drenador es extremadamente pequeña. Cuando VGS es mayor que VGS(T), fluye una
considerable corriente, cuyo valor depende de VGS.
ID = k(VGS-VT)2
Inversor con carga pasiva. La palabra pasiva se refiere a una resistencia normal como R D.
En este circuito Vin puede ser alta o baja.
RDS(on)<< RD
Para que exista el canal bajo la puerta, la tensión en ésta ha de ser VH (VH > VT). Al
transmitir VH, el terminal de la izquierda actúa como Drenador, ya que está a una tensión
más alta, y el de la derecha como Fuente. A medida que la tensión en el terminal de Fuente
aumenta, la tensión entre la Puerta y la Fuente, VGS, disminuye. Todo esto ocurre hasta
que la tensión de la Fuente alcanza el valor VH-VT, momento en que VGS iguala la tensión
umbral y el transistor deja de conducir.
De forma similar, el MOSFET tipo P transmite correctamente las tensiones altas, y falla
en las bajas. Para evitar estos inconvenientes se conectan en paralelo dos transistores
MOSFET, uno N y otro P.
Polarización de MOSFET.
Los circuitos de polarización típicos para MOSFET enriquecido, son similares al circuito
de polarización utilizada para JFET. La principal diferencia entre ambos es el hecho de
que el MOSFET de enriquecimiento típico sólo permite puntos de funcionamiento con
valor positivo de VGS para canal n y valor negativo de VGS para el canal p. Para tener un
valor positivo de VGS de canal n y el valor negativo de V GS de canal p, es adecuado un
circuito de auto polarización. Por lo tanto, hablamos de recorte de realimentación y
circuito divisor de tensión para mejorar el tipo MOSFET.
VD = VG
y VDS = VGS => Vs = 0 [1]
Ejemplo práctico: Para el circuito dado en la siguiente figura, calcular VGS, ID y VDS.
VDD = 12 V
VGS = 8 V
VT = 3 V
Tenemos que,
ID = K(VGS-VT)2
En la práctica, el valor de VDS debe ser positivo, por lo tanto Id =7.2477mA, no es válido.
VGS = 6.412V
Inversor con carga activa.
En la figura se muestra un conmutador con carga activa, el MOSFET inferior actúa como
conmutador, pero el superior actúa como una resistencia de valor elevado, el MOSFET
superior tiene su Puerta conectada a su Drenador, por esta razón, se convierte en un
dispositivo de dos terminales, como una resistencia activa, cuyo valor se puede
determinar con:
Para que el circuito trabaje de forma adecuada, la RD del MOSFET superior, tiene que ser
mayor que la RD del MOSFET inferior.
La curva de dos terminales significa que el MOSFET superior actúa como una resistencia
de valor RD. Este valor RD cambia
ligeramente para los diferentes
puntos.
Recapitulemos.
Que hace el transistor NPN, conmuta su estado entre Vcc y GND, la cuestión es que, lo
debe hacer con un tiempo muy corto, al pasar de un estado alto a un estado bajo y
viceversa. Esto se consigue, reduciendo en lo posible las capacidades, existentes incluso
en los propios transistores BJT. Puesto que lo que pretendemos es que el MOSFET, no
trabaje en la zona óhmica, para evitar las pérdidas que se evidencian con el calor que
desprenderá en su caso.
Mejorando el circuito anterior, podríamos añadir un par de transistores BJT más, para
reducir el tiempo se subida y bajada al conmutar los niveles de tensión, veamos la
siguiente figura.
Cómo se comporta en este caso el circuito. Supongamos un nivel alto, en la salida del
primer transistor NPN, al llegar a la base del transistor NPN de arriba, éste, conducirá en
Naturalmente, el estudio del transistor MOSFET, requiere un calado mayor, aquí, sólo he
querido hacer hincapié en los conceptos más relevantes, si bien es cierto, sin entrar en
demasiados detalles. Entiendo que los lectores, actualmente disponen de medios y lugares
donde adquirir conocimientos más profundos, si es de su interés.
Unidad de medida.
Tipo de bobinas.
Las bobinas con núcleo de aire tienen baja inductancia y se utilizan para señales de alta
frecuencia en los circuitos de radios, televisores, transmisores, etc.
Cuando se requiere un valor alto de inductancia se utiliza núcleo de hierro ya que de esta
manera se crea un mayor efecto magnético que cuando tenemos el núcleo de aire.
Este núcleo se fabrica en forma de láminas generalmente en forma de "E" e "I" con el fin
de\ evitar pérdidas de energía en el proceso de inducción.
La ferrita es un compuesto formado con polvo de óxido de hierro mezclado con otros
componentes y revestido con material aislante, el cual se aglutina y comprime hasta
quedar en forma sólida.
Los núcleos de ferrita se fabrican en forma de varilla, en "E", en dos medias "Es" o en
forma de toroide.
Las bobinas con núcleo de ferrita se utilizan en diversas aplicaciones como bobinas de
antena en radios, como choques o filtros de alta frecuencia en circuitos sintonizados o
fuentes de poder.
Bobinas toroidales
El Condensador.
Condensador electrolítico
Polaridad
Los condensadores modernos tienen una válvula de seguridad, típicamente en una esquina
del envoltorio o una terminación especialmente diseñada para ventilar el líquido/gas
caliente, pero aun así las rupturas pueden ser dramáticas. Los condensadores electrolíticos
pueden soportar una tensión inversa por un tiempo corto, pero durante este tiempo
conducirán mucha corriente y no se comportarán como verdaderos condensadores. La
mayoría sobrevivirán sin tensión inversa, o con tensión alterna, pero los circuitos deben
diseñarse siempre pensando en que no haya tensión inversa durante tiempos
significativos. La corriente directa constante (con la polaridad correcta) es lo preferible
para aumentar la vida del condensador.
Electrolito
Los electrolitos pueden ser tóxicos o corrosivos. Trabajar con electrolitos requiere
medidas de seguridad y equipo de protección apropiado como guantes, máscaras y gafas
de seguridad. Algunos viejos electrolitos de tantalio, a menudo llamados de "pulmon
húmedo" contienen ácido sulfúrico corrosivo, pero la mayoría de ellos ya no se usan
debido a la corrosión.
RESR debe ser tan pequeña como sea posible, pues determina la pérdida de potencia
cuando el condensador se usa para suavizar los picos de voltaje. Las pérdidas son
cuadráticas con el rizado de corriente que fluye a su través y lineales con R ESR.
Condensadores con baja ESR son imperativos para obtener buenas eficiencias en
alimentadores de corriente.
Debe señalarse que éste es solo un modelo, ya que no incluye la absorción del dieléctrico
ni otros efectos no-ideales asociados con los condensadores electrolíticos reales.
Como los electrolitos se evaporan, la duración se suele dar en horas a una temperatura
dada. Por ejemplo, 2000 horas a 105 °C (que es la máxima temperatura de trabajo) es un
valor típico. La duración se dobla por cada 10 °C menos, alcanzando los 15 años de
duración a 45 °C. Por supuesto existen un gran número de condensadores mucho más
viejos que aún funcionan. La mayoría de los condensadores se evalúan para funcionar a
85 °C como máximo, aunque existen de -50 hasta 150 °C.
Capacidad
Variantes
Al contrario que otros condensadores que usan dieléctricos hechos de un material aislante
intrínseco, el dieléctrico en los condensadores electrolíticos depende de la formación y
estabilidad de una capa microscópica de óxido metálico. Comparados con los normales,
esta capa verdaderamente fina de dieléctrico permite capacidades mucho mayores en el
mismo volumen, pero mantener la integridad de esta finísima capa de óxido requiere la
cuidadosa aplicación de la polaridad correcta en corriente continua, o si no la capa de
óxido se deshace o rompe causando que el condensador falle. Adicionalmente, los
condensadores electrolíticos usan internamente química de disoluciones y pueden fallar
eventualmente si el agua de la disolución se evapora debido a temperaturas altas.
Como ocurre con los condensadores de dieléctrico sólido normales, los condensadores
electrolíticos vienen en diferentes variedades:
Aluminio: compacto, pero poco preciso, los hay disponibles en el rango de <1 µF
hasta 1 F, con voltajes de trabajo de hasta varios cientos de voltios.
El dieléctrico es una fina capa de óxido de aluminio. Contiene líquido corrosivo y pueden
hervir si se conectan al revés. La capa de óxido aislante tiende a deteriorarse en ausencia
de voltaje "rejuvenecedor", y eventualmente el condensador fallará si no se le aplica
voltaje. Los electrolíticos bipolares (también llamados No-polarizados o NP) contienen
dos condensadores conectados en serie inversa y se usan cuando ocasionalmente la
corriente continua pueda invertirse. Sus malas características de frecuencia y temperatura
los hacen inservibles para aplicaciones de alta frecuencia. Sus valores típicos de ESL son
de pocos nanohenrios.
Comparados con los electrolíticos de aluminio, los condensadores de tantalio tienen una
capacidad muy precisa y estable, poca caída de tensión y muy baja impedancia a altas
frecuencias. Sin embargo, al contrario que los de aluminio, no toleran picos de tensión y
se destruyen (a veces explotando violentamente) si se conectan al revés o se exponen a
picos de tensión o altas temperaturas.
Los condensadores de Tantalio son más caros que los de aluminio y generalmente solo se
pueden usar en bajo voltaje, pero debido a su gran capacidad por unidad de volumen y
baja impedancia eléctrica a altas frecuencias son muy populares en aplicaciones
miniaturizadas como los teléfonos móviles.
La primera clasificación que podemos hacer con los amplificadores viene determinada
por las frecuencias con las que van a trabajar. Si las frecuencias están comprendidas
dentro de la banda audible los amplificadores reciben el nombre de amplificadores de
audio frecuencia o amplificadores de Baja frecuencia. (Amplificadores A.F. o
amplificadores B.F., respectivamente).
a) Amplificadores de tensión: son los que su principal misión es suministrar una tensión
mayor en su salida que en su entrada b) Amplificadores de potencia: aquellos que, aparte
de suministrar una mayor tensión, suministran también un mayor corriente (amplificación
de tensión y amplificación de corriente y, por ende, amplificación de potencia). Podemos,
según esto, tener: amplificadores de tensión (tanto para B.F. como para R.F.) y
amplificadores de potencia (también, para ambas gamas de frecuencias).
Cuando estudiamos los fundamentos de la electrónica, casi, todos los amplificadores que
hemos estudiado trabajaban en clase A: la señal de salida era idéntica a la señal de entrada,
lo único que variaba era su amplitud (se había producido una “amplificación” de la señal
de entrada).
El amplificador de tensión
Como esto no pretende ser más que un repaso, vamos a centrarnos en un único montaje:
el amplificador de tensión clase A con conexión emisor común. En este tipo de montaje,
para que el amplificador nos entregue en su salida la señal de entrada convenientemente
amplificada, y sin recortes de esta señal, debemos polarizar el transistor de forma que en
reposo la tensión de polarización de la base (Vb) lleve a éste, al transistor, a un punto
medio, aproximadamente, de su curva característica estática (gráfico inferior).
Otra característica, de este tipo de amplificadores, era que la señal de salida sale invertida
con respecto a la señal de entrada (por eso se le denomina, también, “amplificador
inversor de fase”), es decir cuando la señal de entrada se encuentra en el valor de pico del
semiciclo negativo, en la salida nos encontraremos en el pico del semiciclo positivo.
Resumiendo.
En este tipo de amplificador el elemento activo está siempre en zona activa si es un BJT,
o en saturación si se trata de un MOSFET. De todos es el que produce menos distorsión,
pero también el que tiene menor rendimiento. Su esquema es similar al de un amplificador
de pequeña señal. De las configuraciones básicas se elige la EC (SC si es con MOSFET)
En RF los valores de RL están normalizados para una aplicación determinada, los más
frecuentes son 50, 75 y 300 Ω, aunque en frecuencias altas se usa generalmente 50 Ω.
Cuando se trata de amplificar señales de RF de banda estrecha se suele poner en paralelo
con RL un circuito LC sintonizado, pero en la clase A no es imprescindible.
En reposo la tensión sobre la inductancia es nula por lo que VCEQ = VCC. Pero la
inductancia mantiene una corriente constante ICQ, es decir que para c.a. se comporta
como un circuito abierto. La corriente y la tensión en el transistor se muestran a
continuación para una tensión de entrada sinusoidal.
Por norma general, los amplificadores que se van a hacer trabajar en clase B, se montan
con transistores que trabajen en contrafase (push-pull); con el fin de minimizar los
armónicos que se pueden generar en este tipo de montajes, estos amplificadores adoptan
una serie de montajes determinados.
En la figura que hay arriba, vemos como el amplificador en clase A (en azul), debido a
que su curva de respuesta es casi continua, la continuación en las senoides de la señal de
salida es uniforme; en el amplificador de clase B (en rojo), debido al desplazamiento de
las curvas, se produce un pequeño salto entre las senoides de la señal de salida (se
producen armónicos).
A este salto entre las dos senoides es a lo que se le conoce como distorsión de cruce del
amplificador; el “aplanamiento” al que tiende la señal es debido a que en la señal de salida
se producen armónicos impares de la frecuencia de la señal. En este tipo de montajes, una
cuestión a tener en cuenta (muy importante) es que los dos transistores deben tener las
mismas características en cuanto a tensiones, ganancias, etc.
Si no ponemos dos transistores con las mismas características, puede ocurrir que, uno de
los semiciclos tenga más amplitud que el otro (debido a que un transistor tiene más
ganancia que otro) con lo que aumentaríamos la distorsión de la etapa. Para minimizar el
efecto de la distorsión de cruce, los transistores se suelen polarizar de forma que se les
introduce una pequeña polarización directa. Con esto conseguimos desplazar las curvas
y disminuimos dicha distorsión de cruce.
En los equipos receptores de R.F., las etapas finales son, lógicamente, amplificadores de
B.F. que excitan un altavoz.
Resumiendo:
Además, no circula corriente a través de los transistores de salida cuando no hay señal
de audio. La distorsión introducida, por tanto, es muy elevada, aunque el rendimiento
mejora notablemente respecto a la clase A, aunque siempre será inferior al 80%.
La calidad de este tipo de etapa de potencia es muy pobre, por lo que sólo es utilizado en
sistemas que no requieran calidad sonora, como sistemas telefónicos, porteros
automáticos, etc.
FUNCIONAMIENTO:
En el amplificador clase B los elementos activos están en zona activa si es un BJT, o en
saturación si se trata de un MOSFET, la mitad del tiempo en cada ciclo de la señal. Es
posible utilizar el mismo esquema de la clase A, que se muestra en la siguiente figura,
pero ahora con VBB ≈ 0.7, de forma que el BJT sólo conduce cuando vi > 0.
APLICACIONES:
Sistemas telefónicos
Transmisores de seguridad portátiles
Receptores F.M.
Dispositivos de sonido.
Circuitos típicos:
Alguien puede que haya visto, en algún libro o manual de reparación, una notación tipo
a esto: Amplificador clase AB1 o también amplificador clase B2; estas notaciones
vienen de los antiguos amplificadores con válvulas. Los subíndices 1 y 2 indicaban que
no existía corriente de reja (el 1) o que si existía (el 2), esto era debido a que, en la
polarización de la válvula, la reja se hacía positiva con respecto al cátodo (para los que
nunca hayan oído hablar de las válvulas, diremos, que la reja se correspondería con la
base de un transistor y el cátodo con el terminal de salida, que en los transistores,
dependiendo del tipo de conexión, puede ser el emisor o el colector).
En los amplificadores de clase A no hay nunca corriente de reja (base) por lo que es
indiferente decir que el amplificador es de clase A1 o de clase A. Lo contrario ocurre en
los amplificadores de clase C donde siempre va a existir corriente de reja (base), en este
caso es indiferente decir que el amplificador es de clase C2 o de clase C (a secas).
La corriente de salida solo circula durante menos de medio ciclo de la señal de entrada.
Los amplificadores de potencia clase C se caracterizan por proveer amplificación con alta
eficiencia y son utilizados principalmente en aplicaciones de RF, donde se requiere un
incremento en el nivel de potencia y no se requiere linealidad entre la tensión de entrada
y tensión de salida. Los amplificadores Clase C pueden ser modulados en amplitud por
inyección de la tensión modulante en la placa, reja ó grilla pantalla, reja ó grilla control o
cátodo.
También son utilizados para amplificar una portadora modulada en frecuencia. En el
circuito de placa la eficiencia puede ser tan alta como el 85%, pero la mayoría de los
amplificadores se diseñan para operar con eficiencia del orden de 75%, debido a que
incrementar el rendimiento del 75% al 85% significa un aumento importante de la
potencia de reja, además grandes eficiencias son obtenidas con elevadas tensiones de
placa.
En un amplificador Clase C, la reja se polariza por debajo del corte y la corriente de placa
circula durante menos de 180º por cada ciclo de la tensión de excitación de reja, por esto
los amplificadores Clase C, no son usados en aplicaciones de audio debido a que la
tensión de salida no es proporcional a la tensión de entrada y los pulsos de placa tendrían
una excesiva distorsión. Sin embargo, un amplificador Clase C puede ser usado en
aplicaciones de RF, si el circuito de placa es resonante a la componente fundamental o
algunas de las armónicas de la frecuencia de excitación de reja, de esta forma el pulso de
la corriente de placa es filtrado por el circuito resonante de placa para proveer una salida
muy cercana a una sinusoide.
Cuando el amplificador es usado como multiplicador de frecuencia, el circuito de placa
deberá resonar a alguna de las armónicas de la tensión de excitación, la potencia de salida
se reduce considerablemente, siendo la eficiencia del orden del 40 a 50% cuando se los
utiliza como dobladores y del 15 a 20% como triplicadores.
En esta clase de amplificadores el elemento activo conduce un tiempo t1– t2 en cada
periodo T = 2π/ωo, de forma que el semiángulo de conducción, definido como 2θο =
ωo(t1– t2) sea inferior a π/2. En la clase B θο = π/2, mientras que θο = π en la clase A.
Su esquema es similar al de la clase A, que se muestra en la figura 7.1 y que repetimos
aquí para comodidad del lector, pero en este caso es imprescindible poner en paralelo con
RL un circuito LC sintonizado.
Amplificadores clase D
Amplificadores de Clase G
Amplificadores MOSFET
MOSFET son las siglas de Metal Oxide Semiconductor Field Effect Transistor. Se
trata de un tipo de amplificadores aparecidos en la década de 1980 que como su nombre
indica crean un efecto de campo gracias a la unión de un semiconductor formado por la
pareja metal-oxido.
Desde su aparición son muy usados, porque aseguran una distorsión más baja, al controlar
el desprendimiento térmico que se produce durante el procesado de la señal.
c. Filtros de RF.
Los filtros electrónicos varían en la forma en que funcionan sobre la base de las
frecuencias de señal para las cuales están diseñados, pero cada filtro tiene la misma
función básica, que es seleccionar o rechazar ciertas frecuencias de una señal. Puedes
dividir la mayoría de los filtros en cuatro categorías, paso alto, paso bajo, paso de banda
y detención de banda, sin embargo, los filtros se utilizan también para reducir los
armónicos y para dar forma a longitudes de onda eléctrica antes de que se conviertan en
señales.
Los filtros de rechazo de banda te permiten seleccionar qué frecuencias se permiten pasar
a través de un circuito y qué frecuencias se rechazan. Estos filtros se utilizan para reducir
la interferencia en las señales de audio.
Los filtros de paso de banda se utilizan para limitar la frecuencia de una señal a una banda
en particular, como la banda de la frecuencia de radio (RF) o la banda del bucle local
inalámbrico (WLL). Estos filtros son los más comúnmente utilizados en dispositivos de
comunicación de transmisión, pero también han sido adoptados para uso de los aparatos
de medición y de procesamiento de señales.
El filtro BAW
La mayoría de los filtros de ondas acústicas (BAW) se usan para limitar las altas
frecuencias en los varios cientos de Megahertz a un rango de varios Gigahertz. Los filtros
BAW son los más comúnmente utilizados en los dispositivos de alta frecuencia como los
teléfonos celulares.
Los filtros de interferencia electromagnética (EMI) se usan para evitar que el ruido
electromagnético entre o escape de un sistema. Estos filtros se colocan habitualmente en
las líneas de entrada de alimentación de los equipos electrónicos para evitar que los EMI
La interferencia de armónicos es generada por las cargas eléctricas no lineales que pasan
a través de las líneas eléctricas. Las cargas no lineales son comúnmente generadas por
computadoras, rectificadores de energía y los suministros ininterrumpidos de energía.
Estos filtros se utilizan para reducir la cantidad de distorsión armónica que se alimenta en
la red de energía. Los filtros de armónicos se requieren para ser incorporados en todos los
sistemas de energía por el Instituto de Ingenieros Eléctricos y Electrónicos estándar de
519.
Un filtro de paso alto se utiliza para reducir la cantidad de bajas frecuencias en una señal
mientras que los filtros de paso bajo reducen las altas frecuencias. Los primeros enrutan
el ruido de baja frecuencia a la tierra a través de un inductor o lo limitan con un
condensador mientras los segundos usan inductores para la reducción o condensadores
enrutados al suelo. Los filtros de paso alto se utilizan comúnmente cuando una señal pasa
a través de dos etapas de amplificación. En estos casos, sirven para reducir el
desplazamiento entre dichas etapas. Los filtros de paso bajo se usan comúnmente para
proteger los componentes de repentinos picos de alta frecuencia.
El filtro SAW
Los filtros de guía de ondas operan a frecuencias muy altas y son necesarios para todas
las comunicaciones de microondas. Estos se utilizan para dar forma a las ondas
eléctricas antes de que se conviertan en señales. Esta formación es necesaria para las
comunicaciones inalámbricas dúplex de banda ancha completa.
Éste es el primero de una serie de cuatro artículos dedicados al diseño de filtros. En este
artículo introductorio, analizaré las respuestas en frecuencia estándar de filtros del
segundo orden.
Un filtro es una red que realiza un procesamiento dependiente de la frecuencia sobre una
señal en entrada. El comportamiento de un filtro puede entenderse fácilmente a partir del
análisis del comportamiento en frecuencia de la impedancia de los elementos reactivos
(inductores y condensadores). Un ejemplo muy sencillo es un divisor de tensión RC en el
que la resistencia está en serie con la señal de entrada. La impedancia del condensador
La Fig. 1(a) muestra la respuesta de un filtro pasabajo ideal comparada con una respuesta
real. Para este tipo de filtro las bajas frecuencias se encuentran en la banda de paso,
mientras que las altas frecuencias se hallan en la banda de corte.
El filtro que realiza la funcionalidad complementaria a la de un filtro pasabajo es el filtro
pasa alto, cuyas respuestas ideal y real se muestran en la Fig. 1(b). En este caso, las altas
frecuencias se hallan en la banda de paso, mientras que las bajas frecuencias se hallan en
la banda de corte.
Si un filtro pasa alto y un filtro pasabajo se conectan en cascada, se realiza un filtro pasa
banda, cuyas respuestas ideal y real se muestran en la Fig. 1(c). En este caso, el filtro deja
pasar aquellas frecuencias incluidas entre la frecuencia de corte inferior fL y la frecuencia
de corte superior fH. Las frecuencias por debajo de fL y por encima de fH caen en la banda
de corte del filtro.
El filtro que realiza la función complementaria a la de un filtro pasa banda es el filtro de
rechazo de banda o filtro de grieta (notch filter), cuyas respuestas ideal y real se muestran
en la Fig. 1(d). En este caso, las frecuencias por debajo de fL y por encima de fH se hallan
en la banda de paso del filtro, mientras que las frecuencias desde fL hasta fH forman la
banda de corte.
Un filtro ideal tiene una respuesta en frecuencia caracterizada por una ganancia A (que es
unitaria en el caso de filtros pasivos ideales; es decir, sin pérdidas) para las frecuencias
de interés (llamadas también banda de paso) y cero para todas las otras frecuencias
Cuanto más pequeño es Amax y más grande es Amin (es decir, cuanto más la
relación wc/ws se acerca a la unidad); tanto más la respuesta del filtro se acerca a su forma
ideal. No obstante, esto implica aumentar el orden del filtro y, por tanto, su complejidad
de implementación y su coste.
El comportamiento de un filtro puede especificarse también mediante la fase de su
respuesta en frecuencia. Sin embargo, considerar a la vez tanto restricciones de magnitud
como de fase de la respuesta complica considerablemente el diseño.
Volviendo al filtro pasa bajo cuya respuesta se muestra en la Fig. 2, cabe observar que
tanto los rizos en la banda de paso como los rizos en la banda de corte tienen la misma
altura, por ello esta tipología de filtro se conoce también como filtro de rizado
uniforme (equiripple).
Cabe hacer hincapié que no todos los tipos de respuesta en frecuencia se caracterizan por
tener un rizado en la banda de paso y en la banda de corte. Por ejemplo, una respuesta en
frecuencia de tipo Butterworth se conoce también como respuesta máximamente
plana debido a la ausencia de rizado. El rizado en la banda de paso define un error de
ganancia que depende de la magnitud de Amax del rizado, por ello la banda de paso se
denomina también banda de error.
La frecuencia de corte fc es la frecuencia a la que termina la banda de error y se entra en
la banda de transición. Para un filtro con respuesta de tipo Butterworth esta frecuencia
corresponde con la frecuencia de -3 dB. La frecuencia de inicio de la banda de corte fs es
la frecuencia a la que la respuesta alcanza la mínima atenuación Amin. La diferencia entre
fc y fs define la anchura de la banda de transición y, por tanto, la pendiente de la respuesta
en frecuencia del filtro. La pendiente es definida como el orden n del filtro; n es también
el número de polos de la función de transferencia.
Un polo es una raíz del denominador de la función de transferencia del filtro. De forma
análoga, un cero es una raíz del numerador de la función de transferencia. Cada polo
aumenta la pendiente de la respuesta en frecuencia en la región de transición de -6
dB/octava (o, de forma equivalente, de -20 dB/década). Por otro lado, un cero aumenta la
pendiente de la respuesta en frecuencia en la región de transición de +6 dB/octava (o, de
forma equivalente, de +20 dB/década). Cabe también remarcar que polos y ceros afectan
también a la fase de la respuesta en frecuencia. Cada polo introduce una rotación de fase
de -90º; por otro lado, cada cero negativo introduce una rotación de fase opuesta, es decir,
de +90º.
Cuando se diseña un filtro a partir de unas especificaciones dadas, lo más normal es que
uno o más de los parámetros definidos de antemano sean dados, mientras que los restantes
deben ser deducidos utilizando tablas de diseño, hojas de cálculo o programas específicos.
Por ejemplo, si se quisiera diseñar un filtro antialiasing para un convertidor A/D lo que
se suele conocer a priori son la máxima frecuencia que no debe ser filtrada (no confunda
El grado del denominador representa el orden del filtro. Las raíces z1, z2, . . ., zm del
numerador representan los ceros de transmisión del circuito mientras que las raíces p1, p2,
. . ., pn del denominador representan los polos o modos naturales. Las raíces pueden ser
reales o complejas; sin embargo, las raíces complejas siempre ocurren en pares complejos
y conjugados. Es posible representar gráficamente las raíces en el plano complejo en el
que el eje real representa la frecuencia neperiana σ y el eje imaginario representa la
frecuencia angular (o pulsación) ω.
La función de transferencia H(s) puede tener también unos ceros de transmisión a
frecuencia infinita. El número de ceros de transmisión depende de la diferencia entre los
1. Que la respuesta tiene dos ceros en ωz1 y ωz2 respectivamente; por tanto,
recordando que los ceros deben ser de tipo complejos y conjugados, la respuesta
tendrá cuatro ceros en ±jωz1 y±jωz2 respectivamente. El numerador de H(s) será,
por tanto, de la forma (s-jωz1)(s+jωz1)(s-jωz2)(s+jωz2)=(s2+ω2z1)(s2+ω2z2).
2. Que, siendo la respuesta de tipo pasobajo, el grado del denominador (y, por
tanto, el orden del filtro) debe ser igual al número total de máximos y mínimos
del rizado en la banda de paso. Se trata pues de un filtro del quinto orden.
3. El orden del filtro es impar, esto significa que hay un polo real, mientras los
otros serán complejos y conjugados.
4. El grado del numerador es m=4, el del denominador es n=5, por tanto, hay n-
m=1 cero de transmisión por s=¥. De hecho, el factor de transmisión decrece
cuando s®¥.
Realizar un filtro con una respuesta ideal no es posible en la práctica ya que, como se
muestra en todas las respuestas de la Fig. 2, debido a los retardos introducidos por los
dispositivos electrónicos que forman el filtro, la transición entre banda de corte y banda
de paso no es instantánea, sino que tendrá cierta pendiente más o menos abrupta dependiendo
del orden del filtro y definirá una región que se denomina región o banda de transición del
filtro. Asimismo, la atenuación en la banda de corte no será infinita.
La Fig. 4 muestra las distribuciones de polos y ceros para un filtro pasa banda y uno pasa alto.
Fig 4. Distribución de las raíces de (a) un filtro pasa alto y (b) un filtro pasa banda
Fig. 5. Respuesta y distribución de raíces de un filtro pasa bajo all-pole del quinto orden
En este artículo se desarrollará una técnica sencilla para realizar filtros de cualquier orden
conectando en cascada celdas muy sencillas del primer y del segundo orden.
Una implementación activa tiene una serie de ventajas respecto a una implementación
pasiva:
Un caso especial de función del primer orden es el filtro pasa todo. Su función de
transferencia se caracteriza por un polo y un cero colocados simétricamente respecto al
eje jw. La ganancia de estos filtros es idealmente constante para todas las frecuencias; sin
embargo, exhibe un comportamiento selectivo para la fase, por tanto, se utilizan para
implementar circuitos ecualizadores de retardo.
Desde el punto de vista geométrico la frecuencia del polo es la distancia radial desde el
origen del plano complejo de los modos naturales de H(s). El factor de calidad Q, fija la
distancia del eje jw de los modos naturales de H(s). El factor de calidad debe ser escogido
de manera que los polos (es decir, los modos naturales) de H(s) sean complejos y
conjugados. Más adelante se demostrará que esto ocurre cuando Q > 0.5.
Observe que cuanto más grande es Q, más los polos se aproximarán al eje jw y más
selectiva resultará la respuesta del filtro. Un valor infinito de Q hará que los polos yazcan
en el eje imaginario determinando un comportamiento oscilatorio. Un valor negativo de
Q hará que los polos se coloquen en el semiplano s derecho llevando también a un
comportamiento oscilatorio.
Los ceros de transmisión del filtro del segundo orden son determinados por los valores
de los coeficientes a0, a1 y a2 del numerador de H(s). Esto coeficientes, por tanto,
determinarán el tipo de filtro (pasa alto, pasa bajo, etc.). Los casos de interés se muestran
en la Fig. 4, en la que, por cada tipo de filtro, se muestran la función de transferencia, las
singularidades y la magnitud de la respuesta en frecuencia.
H(s) tendrá dos polos complejos y conjugados a±j b, por tanto, es posible escribir la
siguiente identidad:
Los polos de la función del segundo orden son de tipo complejo y conjugado cuando la
parte imaginaria b es distinta de cero. Esto ocurre cuando el factor de calidad Q del polo
es mayor de 0.5.
Si z < 0.707, la respuesta del filtro exhibirá un ligero pico a la frecuencia de corte. Si z >
0.707 la pendiente (roll-off) será más pronunciada y la respuesta será de tipo amortiguado;
es decir, no habrá un pico a la frecuencia de resonancia y la respuesta empecerá a decrecer
antes con una pendiente suave.
El comportamiento asintótico de un filtro pasa banda con ganancia K es tal que por
s®0 y s®¥ la respuesta converge a cero. Esto significa que el orden del numerador de
H(s) debe ser inferior al del denominador, lo que implica que H(s) tiene un cero sencillo
en el origen y su respuesta resulta ser:
Existe otro tipo de filtro que se conoce como filtro pasa todo. Se trata de un dispositivo
que deja pasar íntegramente la señal introduciendo simplemente una rotación de fase. El
propósito de este filtro es, por tanto, el de introducir un retardo en la respuesta del circuito.
El filtro pasa todo se utiliza como ecualizador para equilibrar las fases de las distintas
componentes de una señal especialmente en generadores de pulsos. Este tipo de filtro se
utiliza también en moduladores de banda lateral sencilla con supresión de portadora
(SSB-SC). La respuesta en frecuencia de un filtro pasa todo es:
Por tanto, el filtro tiene también un par de ceros complejos y conjugados en el semiplano
derecho a la misma frecuencia de los polos.
La Fig. 7 resume las características de los distintos tipos de filtros del segundo orden
analizados.
Un resonador RLC puede reorganizarse en una rama serie (la impedancia Z1) y un paralelo
(la impedancia Z2) que forma un divisor de tensión, tal y como muestra la Fig. 8(a).
Las condiciones para las que se generan ceros de transmisión son las siguientes:
Las figuras de 8(b) a 8(i) muestra cómo deben ser Z1 y Z2 para poder implementar los
distintos tipos de filtro del segundo orden. Por ejemplo, en el caso del filtro pasa bajo de
Fig. 8(b), Z1=sL mientras que Z2=R||C. Los ceros de transmisión en el eje jw típicos de
flos filtros de grieta se obtienen colocando un resonador LC paralelo en la rama serie de
resonador RLC de la Fig. 8(a), obteniendo las estructuras de las figuras de 8(e) a 8(i).
EL circuito de la Fig. 8(d) representa un filtro pasa banda de frecuencia unitaria, por tanto,
conviene transformar la ecuación anterior para poder utilizar este tipo de filtro,
obteniendo:
Que corresponde a la función de transferencia de un filtro pasa todo con ganancia de 0.5.
Esta función puede realizarse conectando un divisor de tensión que realiza una atenuación
de 0.5 con el filtro pasa banda de la Fig. 8(d), tal como se muestra en la Fig. 9.
Esta es la tercera parte de mi artículo sobre diseño de filtros analógico. En esta parte
analizaré con detalle las características de los polinomios de Butterworth y Chebychev
que se utilizan para aproximar la respuesta de un filtro pasa bajo. El motivo de esta
elección es que para el filtro pasa bajo existen excelentes aproximaciones de su respuesta
que no requieren la utilización de programas de diseño específicos o tablas de
coeficientes.
Cuanto más elevado es el orden del filtro, más llana es la respuesta en la banda de paso
ya que va aproximado la respuesta de un filtro pasa bajo ideal tal y como se muestra en
Esta ecuación puede utilizarse para determinar el orden del filtro; es decir, el valor más
pequeño de n que lleva a A(ws)Amin.
Fig. 4 Respuestas de Chebychev para (a) un filtro de orden n=4 y (b) un filtro de orden
n=5.
La Fig. 4 muestra las respuestas de Chebychev para un filtro de orden par y uno de orden
impar, respectivamente. Un filtro de Chebychev muestra una respuesta con un rizado
uniforme (equiripple) en la banda de paso y una transmisión que decrece de forma
monotona en la banda de corte.
Observe que la ganancia es máxima en w=0 para un filtro de orden impar y tiene la
máxima desviación en w=0 para un filtro de orden par. En ambos casos, el número total
de máximos y mínimos en la banda de paso representa el orden n del filtro. Todos los
ceros de transmisión de la respuesta de Chebychev se hallan en w=¥, por tanto, la
respuesta es de tipo “all-pole”.
Esta ecuación puede utilizarse, con la ayuda de una calculadora, para determinar el orden
del filtro; es decir, el valor más pequeño de n que lleva a A(ws)³Amin.
Tal y como para el filtro de Butterworth, también en el caso del filtro de Chebychev la
magnitud de la respuesta aproxima la respuesta de un filtro ideal a medida que aumenta
el orden n.
Los polos de un filtro de Chebychev se hallan sobre una elipse y se pueden calcular como:
Con k=1, 2, …, n.
Los filtros pasa bajo prototipo que se han desarrollado anteriormente pueden utilizarse
para realizar una respuesta cualquiera utilizando una serie de transformaciones
específicas.
Fig 4. Dos posibles configuraciones de filtros pasa bajo prototipo: (a) serie-shunt y (b)
shunt-serie
Un filtro pasa bajo prototipo como los que se muestran en la Figura 4, tiene los valores
de sus componentes normalizados respecto a la frecuencia angular de 1 rad/s y a una
impedancia de 1 W.
En el filtro prototipo, los elementos series representan inductores y los elementos en shunt
representan condensadores. Los valores de los elementos normalizados se hallan en tablas
específicas para los distintos tipos de filtro. La tabla a continuación muestra los
coeficientes normalizados para filtros de Butterworth de vario orden.
Orden Elemento
n 1 2 3 4 5 6
2 1.414 1.414
3 1.000 2.000 1.000
4 0.7654 1.848 1.848 0.7654
5 0.6180 1.618 2.000 1.618 0.6180
6 0.5176 1.414 1.932 1.932 1.414 0.5176
Esto significa que los inductores normalizados de valor gk deben ser sustituidos con
condensadores normalizados con valor 1/gk y que los condensadores en shunt con valores
normalizados gk deben ser sustituidos con inductores normalizados con valor 1/gk.
Una vez realizada la transformación hay que desnormalizar los valores de los
componentes teniendo en cuenta los valores de la frecuencia de corte y de las resistencias
del generador y de la carga.
Recordando que la impedancia de un condensador es ZC=1/jwC y que la de un inductor
es ZL=jwL, los valores desnormalizados pueden calcularse tal y como se muestra a
continuación:
Donde:
Esta transformación equivale a sustituir un inductor serie con un resonador serie cuyos
valores desnormalizados son:
Esta transformación equivale a sustituir un inductor serie con un resonador paralelo cuyos
valores desnormalizados son:
Por otro lado, un condensador en shunt se sustituye con un resonador serie cuyos valores
desnormalizados son:
Ésta es la cuarta y última parte de mi artículo sobre diseño de filtros analógicos en la que
voy a describir una técnica muy utilizada en el diseño RF para realizar filtros de tipo pasa
banda. Esta técnica consiste en conectar en cascada varios amplificadores sintonizados
con frecuencias de resonancia ligeramente desplazadas. Esta técnica se conoce como
sintonía escalonada (staggered tuning).
Estos amplificadores, en general, están diseñados para que la respuesta global exhiba un
comportamiento máximamente plano alrededor de una frecuencia central f0. Esta
respuesta se puede obtener transformando la respuesta de un filtro pasa bajo de
Butterworth desplazándola alrededor de una frecuencia w0 y obteniendo un
comportamiento pasa banda.
La función de transferencia de un filtro pasa banda del segundo orden puede expresarse
explicitando sus polos tal como se muestra a continuación:
Para un filtro de banda estrecha, Q>>1. Para valores de s muy próximos a j0 (tal y como
se muestra en la Fig. 1(b)), el segundo término producto del denominador de H(s) es
aproximadamente igual a s+j0»2s.
Fig. 1 Cómo obtener una respuesta de banda estrecha del segundo orden a partir de un
filtro prototipo del primer orden: (a) polos del filtro del primer orden en el plano p, (b)
Este resultado implica que la respuesta de un filtro pasa banda del segundo orden es
idéntica, en un entorno de su frecuencia central s=jw0, a la respuesta de un filtro pasa bajo
del primer orden con un polo -w0/2Q, en un entorno de p=0. Por consiguiente, la respuesta
pasa banda puede obtenerse desplazando el polo del prototipo pasa bajo y añadiendo a la
respuesta un polo complejo y conjugado tal y como se muestra en la Fig. 1(b). Este
procedimiento se conoce con el nombre de trasformación pasa bajo-pasa banda para
filtros de banda estrecha.
La transformación p=s-jw0 puede aplicarse a filtros pasa bajo de orden superior al
primero. Por ejemplo, es posible transformar una respuesta pasa bajo máximamente plana
(con Q=1/Ö2) del segundo orden para obtener una respuesta pasa banda máximamente
plana.
Recuerde que la respuesta de Butterworth del segundo orden normalizado (es decir,
con w0=1) es:
Si B es las bandas de 3-dB del filtro pasa banda, entonces el filtro pasa bajo prototipo
debe tener un polo (y por tanto un ancho de banda) en B/2 rad/s tal y como se muestra en
la Fig. 2.
Observe que la respuesta global tendrá una ganancia en la banda de paso unitaria mientras
que las respuestas individuales de cada una de las dos etapas sintonizadas tendrán una
ganancia en la banda de paso de 2 tal y como se muestra en la Fig. 2(d).
Baluns
Los baluns pueden dividirse en baluns de banda ancha y de banda estrecha. Todos
aquellos dispositivos diseñados para telefonía celular, GPS, aplicaciones en la banda ISM
de 2.4 GHz (por ejemplo, WLANs y WPANs) son de banda estrecha y tienen bandas
operativas que varían entre 60 y 100 MHz y bandas porcentuales (es decir, la relación
entre el ancho de la banda de paso y la frecuencia inferior de dicha banda) que varían
entre un 3 y un 5%.
Una combinación de dos redes, una paso-alto y otra paso-bajo dividen la señal en entrada
en el puerto 1 in dos señales de salida, en los puertos 2 y 3, con la misma potencia, pero
con un desfase de 180º. Las dos redes paso-bajo y paso-alto pueden implementarse con
un número mínimo de elementos pasivos (dos condensadores y dos inductores), que
llevan a una implementación muy compacta, pero con una respuesta en frecuencia de
banda estrecha (típico de redes con topologías de "L"). Observe que la topología de la
Figura 4 se presta también para realizar transformaciones de impedancia.
Si las restricciones de proceso, coste y área impiden de poder optar a una implementación
de un balún pasivo, existe la posibilidad de implementar un balún utilizando circuitos
activos. La forma más sencilla de implementar un balún activo es utilizando una etapa
diferencial. Otra alternativa, que se muestra en la Figura 5, consiste en combinar una etapa
inversora de tipo common source con una no inversora de tipo common gate.
Referencia:
http://trf-eps-uspceu.blogspot.pe/2014/04/filtros-analogicos-parte-i-respuesta-en.html
Seguramente este será, para la mayoría, el conector más común, o al menos el más
conocido -y también el más antiguo-. Se trata del cable de antena de televisores
europeos y radio FM/DAB; el que todos tenemos en casa enchufado a la tele.
Conector F
El conector F tiene un uso común en la televisión, tanto por cable como por satélite y
terrestre por antena aérea.
Conector BNC
Se complementa con un anillo que posibilita las conexiones a los conectores BNC
hembra.
Conector XLR-3
Se usa para aplicaciones de audio a nivel profesional y es el más común en los equipos
de iluminación espectacular, capaz de transmitir la señal digital de control DMX.
Aunque este es el más estandarizado, los hay con entre 4 y 8 pines (el número del final).
RCA
El macho tiene un polo positivo en el centro rodeado de un anillo metálico con una parte
intermedia que aísla.
JACK
En la actualidad tenemos más que estandarizado en 3.5 mm aunque también los hay de
2.5 mm y 6.35 mm. Este último se usa mucho en instrumentos musicales y de manera
profesional.
UHF
Aunque sus aplicaciones fueron para radar en la guerra, este conector UHF ha sido el más
común para las aplicaciones amateur de radio hasta los 150 MHz.
Se trata de la versión mini del anterior y se creó para usarse en telefonía móvil y otras
aplicaciones en las que el tamaño era un factor muy importante.
FME
El conector FME, de sus siglas en inglés “For Mobile Equipment” o “Para Equipos
Móviles” deducimos que este tipo de tan común conector coaxial RF se utiliza -ahora
ya mucho menos- en todo tipo de instalaciones y aplicaciones móviles, ofreciendo un
gran rendimiento a 2.0 GHz.
SMA
Conector Coaxial RF
La más amplia gama de conectores coaxiales de alta calidad para los sectores de:
telecomunicación, automoción, industrial, electro-medicina y militar, adaptada a las
necesidades específicas de nuestros clientes.
En Alfar Connectors ofrecemos una amplia gama de conectores coaxiales para todas
las series aceptadas globalmente: desde adaptadores, conectores, paneles y PCB hasta
herramientas y componentes como accesorios.
Actualmente existe una gran variedad de modelos y tamaños de estos conectores rf, y
dependiendo de las diferentes aplicaciones que se le puede dar, pueden usarse desde
corriente continua hasta 110 GHz.
A partir de los 300 MHz, empiezan a actuar como parte de la línea de transmisión que
hace de conector entre un sistema generador de señales y un sistema medidor o de carga.
Esta pasa a ser muchas veces la parte más débil del sistema, así que para la correcta
elección de un conector coaxial es necesario conocer su geometría, dimensiones físicas
y especificaciones eléctrico-mecánicas.
CONECTOR 1.6/5.6
CONECTOR 5/8″
La serie conector 5/8 (rosca 5/8″ UNEF) son conectores especialmente diseñados para
ser instalados en cajas de redes de distribución de CATV. De esta forma se define el
conector macho con acoplamiento a rosca. Su aplicación se centra en redes troncales de
televisión por cable. Su impedancia característica es de 75 Ω, con frecuencias efectivas
de utilización de hasta de 2 GHz.
Debido al uso específico de esta serie, se han diseñado conectores para los cables
utilizados en CATV. En los diseños se ha tenido muy en cuenta las facilidades para el
montaje del cable, consiguiendo conectores con un montaje del cable rápido, fiable y
repetitivo, aún en condiciones de montaje sobre el terreno. Existen versiones crimp y
prensa estopa.
CONECTOR BNC
CONECTOR F
Conectores coaxiales RF F
La serie conector FME son conectores de pequeño tamaño, cuyo acoplamiento macho-
hembra se realiza mediante rosca.
Existen conectores coaxiales FME macho y hembra para diferentes tipos de cables y
multitud de adaptadores (ver sección de Adaptadores).
CONECTOR MCX
CONECTOR N
CONECTOR SMA
CONECTOR SMB
CONECTOR TNC
Contamos con un programa de fabricación muy flexible, lo cual nos permite ofrecer
innumerables conectores coaxiales TNC para cables estándar o especiales (flexibles,
semirígidos,). Distintas versiones de forma: recto, acodado, panel estanco, para circuito
impreso (PCB)… En cuanto al montaje del cable, disponemos de versiones soldadas,
prensa estopa, crimp…
CONECTOR UHF
Los conectores industriales ALFA’R de esta serie UHF se fabrican con especial cuidado
en la calidad. Dieléctricos de PTFE (TEFLON) o Bakelita son disponibles. Los contactos
centrales son plateados en la versión estándard, aunque pueden ser dorados bajo demanda.
ADAPTADORES RF
ADAPTADORES RF coaxiales
Contamos con un programa de fabricación muy flexible, lo que nos permite disponer de
multitud de posibilidades. En el programa estándar de fabricación los adaptadores son
aéreos y rectos, aunque también es posible soluciones de panel y acodadas bajo demanda,
así como adaptadores customizados.
ACCESORIOS CONECTORES RF
INSTRUCCIONES DE MONTAJE
Para conseguir los mejores resultados tanto eléctricos como mecánicos, es necesario
seguir correctamente las indicaciones.
El cable coaxial es uno de los más utilizados en la actualidad ya que tiene una gran
variedad de aplicaciones en el campo de las comunicaciones. En líneas generales, se
utiliza para llevar señales de radio y vídeo, así como señales de medida y datos. Así,
resulta muy interesante analizar el cable coaxial al detalle.
Se trata de un conductor de centro aislado que se cubre con un protector. Por lo tanto, la
señal se transmite entre el protector del cable y el conductor que se encuentra en el núcleo.
Este hermetismo permite hacer frente al ruido del cable exterior y garantizar un
ambiente estable.
Por supuesto, los cables coaxiales y los sistemas que se conectan a estos no siempre se
encuentran en condiciones óptimas. En la gran mayoría de ocasiones existe una
determinada señal que emite el propio cable coaxial. Así, el conductor externo hace
también las veces de protector para reducir el acoplador de la señal en el cableado
contiguo. Merece la pena tener en cuenta que una mayor cobertura del protector
implica una menor radiación de la energía.
Respecto a las características habituales del cable coaxial, son dos: la impedancia y la
pérdida del cable. En el caso del cable coaxial habitual, la impedancia depende del
tamaño que tengan los conductores tanto internos como externos.
A día de hoy, la mayor parte de las impedancias habituales del cable coaxial que
funcionan en varios usos son de 50 ohmios y 75 ohmios.
50 ohmios
60 ohmios
En Europa, los 60 ohmios de cable coaxial eran lo más habitual en los sistemas de radio
de mediados de los años 50; se utilizaban en las redes de la antena de transmisión.
75 ohms
93 ohms
Los cables flexibles, diseñados originalmente para aplicaciones militares, ahora también
se utilizan en numerosas aplicaciones comerciales, incluidas la transmisión de datos, el
procesamiento de video y la conectividad inalámbrica. Los cables flexibles pueden ser
terminados en una amplia gama de opciones de conectores, incluidos los BNC, SMA, N-
Tipo y TNC, y son ideales para el uso en aplicaciones de media y baja frecuencia.
Atenuación Radio de
Temperatura
Impedancia máxima curvatura OD Enlaces de
Tipo de cable máx.
(ohmios) a 400 MHz mínimo (pulgadas) productos
(Celsius)
(DB/100 ft) (pulgadas)
Atenuación Radio de
Temperatura
Impedancia máxima curvatura OD
Tipo de cable máx.
(ohmios) a 400 MHz mínimo (pulgadas)
(Celsius)
(DB/100 ft) (pulgadas)
Atenuación Radio de
Temperatura
Impedancia máxima curvatura OD
Tipo de cable máx.
(ohmios) a 400 MHz mínimo (pulgadas)
(Celsius)
(DB/100 ft) (pulgadas)
RG-401/0.250
50 4.6 0.50 0.250 +200
SR
RG-402/0.141
50 7.2 0.15 0.141 +200
SR
RG-405/0.085
50 13 0.10 0.085 +200
SR
f. Antenas.
El término antena procede de antenna, un vocablo de la lengua latina que a su vez
procedía del griego. En esos orígenes la palabra que nos ocupa se utilizaba con dos
significados diferentes: para referirse a lo que era el mástil que sujetaba las velas de los
barcos y también para hacer mención, como exponía Aristóteles, a las antenas que tenían
los insectos.
El concepto puede hacer referencia al dispositivo que, instalado en una máquina, permite
captar o emitir radiación electromagnética.
Una antena puede convertir las ondas electromagnéticas en energía eléctrica y, de este
modo, actuar como receptora. También puede desarrollar el proceso inverso: convertir
la electricidad en ondas electromagnéticas y funcionar como transmisora.
Una antena es un dispositivo hecho para transmitir (radiar) y recibir ondas de radio
(electromagnéticas). Existen varias características importantes de una antena que deben
de ser consideradas al momento de elegir una específica para su aplicación:
Patrón de radiación
Ganancia
Directividad
Polarización
Patrones de Radiación:
El patrón de radiación de una antena se puede representar como una gráfica tridimensional
de la energía radiada vista desde fuera de esta. Los patrones de radiación usualmente se
representan de dos formas, el patrón de elevación y el patrón de azimuth. El patrón de
elevación es una gráfica de la energía radiada por la antena vista de perfil. El patrón de
azimuth es una gráfica de la energía radiada vista directamente desde arriba. Al combinar
ambas gráficas se tiene una representación tridimensional de cómo es realmente radiada
la energía desde la antena.
Patrones de radiación
Figura 1. a) Patrón de elevación de un dipolo genérico b) Patrón de azimuth de un
dipolo genérico c) Patrón de radiación 3D
Ganancia:
La ganancia de una antena es la relación entre la potencia que entra en una antena y la
potencia que sale de esta. Esta ganancia es comúnmente referida en dBi's, y se refiere a
la comparación de cuanta energía sale de la antena en cuestión, comparada con la que
saldría de una antena isotrópica. Una antena isotrópica es aquella que cuenta con un
patrón de radiación esférico perfecto y una ganancia lineal unitaria.
Polarización:
Es la orientación de las ondas electromagnéticas al salir de la antena. Hay dos tipos
básicos de polarización que aplican a las antenas, como son: Lineal (incluye vertical,
horizontal y oblicua) y circular (que incluye circular derecha, circular izquierda, elíptica
derecha, y elíptica izquierda). No olvide que tomar en cuenta la polaridad de la antena es
muy importante si se quiere obtener el máximo rendimiento de esta. La antena
transmisora debe de tener la misma polaridad de la antena receptora para máximo
rendimiento.
Tipos de antenas
Hay varios tipos de antenas. Los más relevantes para aplicaciones en bandas libres son:
Antenas Dipolo
Antenas Dipolo multi-elemento
Antenas Yagi
Antenas Panel Plano (Flat Panel)
Antenas parabólicas (plato parabólico)
Antenas Dipolo:
Todas las antenas de dipolo tienen un patrón de radiación generalizado. Primero el patrón
de elevación muestra que una antena de dipolo es mejor utilizada para transmitir y recibir
desde el lado amplio de la antena. Es sensible a cualquier movimiento fuera de la posición
perfectamente vertical. Se puede mover alrededor de 45 grados de la verticalidad antes
que el desempeño de la antena se degrade más de la mitad. Otras antenas de dipolo pueden
tener diferentes cantidades de variación vertical antes que sea notable la degradación.
Un ejemplo de patrón de elevación puede verse en la figura 1a. A partir del patrón de
azimuth se ve que las antenas operan igualmente bien en 360 grados alrededor de la
antena. Físicamente las antenas dipolo son cilíndricas por naturaleza, y pueden ser
ahusadas o con formas especificas en el exterior para cumplir con especificaciones de
medidas. Estas antenas son usualmente alimentadas a través de una entrada en la parte
inferior, pero también pueden tener el conector en el centro de la misma.
Las antenas multi-elemento tipo dipolo cuentan con algunas de las características
generales del dipolo simple. Cuentan con un patrón de elevación y azimuth similar al de
la antena dipolo simple. La diferencia más clara entre ambas es la direccionalidad de la
antena en el plano de elevación, y el incremento en ganancia debido a la utilización de
múltiples elementos. Con el uso de múltiples elementos en la construcción de la antena,
Antenas Yagi:
Las antenas de panel plano como su nombre lo dicen son un panel con forma cuadrada o
rectangular. Y están configuradas en un formato tipo patch. Las antenas tipo Flat Panel
son muy direccionales ya que la mayoría de su potencia radiada es una sola dirección ya
sea en el plano horizontal o vertical. En el patrón de elevación (Fig. 4) y en el patrón de
azimuth (Fig. 5) se puede ver la directividad de la antena Flat Panel. Las antenas Flat
Panel pueden ser fabricadas en diferentes valores de ganancia de acuerdo a su
construcción. Esto puede proveer excelente directividad y considerable ganancia.
Las antenas parabólicas usan características físicas, así como antenas de elementos
múltiples para alcanzar muy alta ganancia y direccionalidad. Estas antenas usan un plato
reflector con la forma de una parábola para enfocar las ondas de radio recibidas por la
antena a un punto focal. La parábola también funciona para capturar la energía radiada
por la antena y enfocarla en un haz estrecho al transmitir. Como puede verse en la Figura
5, la antena parabólica es muy direccional. Al concentrar toda la potencia que llega a la
antena y enfocarla en una sola dirección, este tipo de antena es capaz de proveer muy alta
ganancia.
Antena de Ranura:
Las antenas de ranura cuentan con características de radiación muy similares a las de los
dipolos, tales como los patrones de elevación y azimuth, pero su construcción consiste
solo de una ranura estrecha en un plano. Así como las antenas microstrip mencionadas
abajo, las antenas de ranura proveen poca ganancia, y no cuentan con alta
direccionabilidad, como evidencian sus patrones de radiación y su similaridad al de los
dipolos. Su más atractiva característica es la facilidad de construcción e integración en
diseños existentes, así como su bajo costo. Estos factores compensan por su desempeño
poco eficiente.
Antenas Microstrip:
Conclusión:
De esta introducción básica a las antenas, podemos obtener una comprensión simple de
los tipos de antenas y aplicaciones de estas. Por ejemplo, las antenas dipolo aun cuando
no proveen mucha ganancia ofrecen la mejor flexibilidad en cuanto a orientación de la
antena. Las antenas flat panel ofrecen mayor direccionabilidad y son buena opción para
instalaciones fijas. La antena parabólica con su alta ganancia y gran direccionabilidad son
muy buenas para proveer enlaces punto a punto en largas distancias, con antenas
instaladas permanentemente. Finalmente, las antenas de ranura y las de microstrip son
correctas para aplicaciones de desempeño moderado que necesitan integrar la antena
dentro del radio y aplicaciones OEM. Adicionalmente es posible usar diferentes tipos de
antena en el mismo sistema. Por ejemplo, se puede montar una antena flat panel en una
pared cerca de un access point. Cuando una pieza de equipo con antena dipolo cerca del
access point, el sistema podría actualizar estadísticas inmediatamente en el equipo.
Patrón de
Ganancia Directividad Polarización
Radiación
Dipolo Amplio Baja Baja Lineal
Dipolo
Multi- Amplio Baja/Media Baja Lineal
Elemento
Panel Plano
Amplio Media Media/Alta Lineal/Circular
(Flat Panel)
Plato
Amplio Alta Alta Lineal/Circular
Parabólico
Yagi Endfire Media/Alta Media/Alta Lineal
Ranura Amplio Baja/Media Baja/Media Lineal
MicroStrip Enfire Media Media Lineal
El término broadcasting fue acuñado por los primeros ingenieros del medio oeste de
Estados Unidos. La radiodifusión cubre gran parte de los medios de comunicación de
masas y se opone a la emisión para audiencias reducidas, llamada narrowcasting.
Por ello es discutible si debe incluirse el término para otras señales como televisión por
cable o Internet dado que la intención del término, para ser amplio y no restrictivo, implica
ninguna condición de permiso, registro o respuesta por parte del receptor, es decir, el
receptor es anónimo completamente. Es evidente, entonces, que los servicios de
suscripción previa no estarían constituyendo radiodifusión, aunque puedan reemitir
señales propiamente. En el caso de Internet no existe propiamente una emisión, sino hasta
que un usuario solicite el acceso, se confirme la comunicación y recién se transmita un
contenido. Esa complejidad aparente debilita definir a internet como radiodifusión o
broadcasting. Un mejor término para estos fenómenos más recientes es webcasting, tal
como son las señales de audiostreaming y videostreaming, los cuales pueden también
reemitir señales de radiodifusión.
Hay una gran variedad de sistemas de radiodifusión, que tienen distintas capacidades. Los
de mayor capacidad son sistemas institucionales public address, que transmiten mensajes
verbales y música dentro de escuelas u hospitales, y sistemas de emisión de baja potencia,
que transmiten desde estaciones de radio o TV a pequeñas áreas. Los emisores nacionales
de radio y TV tienen cobertura en todo el país usando torres de retransmisión, sistemas
satélite y distribución por cable. Los emisores de radio o TV por satélite pueden cubrir
áreas más extensas, tales como continentes enteros, y los canales de Internet pueden
distribuir texto o música a todo el mundo.
Las emisiones de radio al público en general han provocado una «compresión del tiempo
y del espacio», permitiendo que la información y la cultura alcance a una gran audiencia.
Las nuevas tecnologías de difusión, como los satélites y los cables, hicieron que la
transmisión de la información fuera más flexible, haciendo posible que viajase más
deprisa y a mayores distancias. La velocidad de la comunicación, por lo tanto, se vuelve
instantánea, haciendo de la adquisición de información algo rutinario y común, dada esta
rapidez. Como resultado, el ritmo de vida se vuelve más rápido que anteriormente. La
información y la comunicación, no están limitadas por el tiempo ni la distancia, haciendo
el mundo más pequeño.
Por último, estas emisiones son la principal causa de la mundialidad mediática. Nuestra
sensación del mundo está cada vez más moldeada por los medios de comunicación, más
que por las experiencias personales. Por ejemplo, hoy en día obtenemos información de
otras ciudades, de su gente, cultura y medio ambiente, de los programas documentales y
de las producciones cinematográficas. La creciente disponibilidad de medios de
comunicación ha permitido que nuestro conocimiento se haya expandido, ya que dejamos
de estar limitados por la necesidad de estar presentes en el lugar donde ocurre lo que
queremos conocer.
Tal y como dice John B. Thompson en su libro The Media and Modernity la separación
de espacio y tiempo se ha conseguido con la invención de las tecnologías de difusión, las
distancias espaciales ya no requieren distancias temporales. Se consiguió experimentar
un evento sin estar en el lugar donde estaba ocurriendo. Siglos atrás la única fuente de
conocimiento eran las historias que se transmitían de padres a hijos, de generación en
generación. Las historias de revoluciones, grandes eventos, eran entonces explicadas por
personas que las habían vivido personalmente; ahora, con el desarrollo de las tecnologías
de radiodifusión, la gente las obtiene a través de la radio, y la TV. Este hecho hace que se
cree un sentimiento de identidad común, o como dice el autor en el libro: “se crea un
sentimiento de mundialidad mediática”, el cual reside más allá de las vivencias
personales.
Uno puede grabar emisiones o realizarlas en vivo. El primer método permite corregir los
errores y eliminar material superfluo o indeseable, cambiándolo de lugar, aplicando una
Muchos eventos son anunciados como si fueran en directo, aunque, a menudo, están
“grabados en directo” (muchas veces está referido a “vivo en cinta”). Esto es así
particularmente, para actuaciones en la radio de artistas musicales cuando la visitan para
una interpretación de concierto en estudio. Muchos amantes de la música no quedan
satisfechos con la diferencia entre un espectáculo en directo y la emisión de uno grabado
en directo.
El método más utilizado de emisión en vivo es a través de satélite (DSNG), cuya señal
era transmitida a su vez a una mesa de edición (CRA) antes de llegar a nuestras
televisiones. Con los avances de la tecnología, retransmitir ha resultado ser algo mucho
más simple y económico gracias a equipos cuya señal no necesita ser retransmitida a
través de satélite, utilizando la tecnología 3G y 4G con tarjetas SIM (las mismas de los
teléfonos móviles). Equipos como pueden ser por ejemplo las mochilas Broadcast o
aparatos de un tamaño tan pequeño que caben en un bolsillo o enganchado a una cámara
a través del sistema de batería.
Parámetros técnicos
Soporte físico
A su vez, la distribución a las estaciones o redes puede ser también a través de soportes
físicos, tales como:
Normalmente estos casos pueden darse en reportajes de noticias, donde los reporteros
registran la noticia en soporte físico y lo envían de esa forma a las estaciones para su
posterior difusión.
Canal
Puede llegarles por vía aérea, como en el caso de las estaciones de radio y TV,
mediante una antena y un receptor.
Por cable, como en el caso de la TV o radio por cable, ya sea directamente desde
la propia estación o desde la red.
Internet es también una forma de difusión de TV o radio, especialmente en los
casos de multidifusión, permitiendo así que la señal y el ancho de banda se
comparta.
A menudo el término “red de difusión” se usa para distinguir las redes que emiten la señal
de TV por aire, la cual se puede recibir mediante una antena televisiva, de las redes que
emiten por vía cable o satélite. El término “emisión de TV” hace referencia a la
programación de estas redes.
Sistemas de transmisión
Televisión y radio
Las nuevas técnicas de digitalización han permitido realizar estándares nuevos para la
difusión de audio (DAB) o televisión (DVB). Estos estándares optimizan el uso del
espectro radioeléctrico de tal manera que se permite una mayor calidad con más capacidad
de carga.
El modo de propagación principal en esta banda se efectúa por onda de superficie, lo que
determina la llamada área de servicio primaria. Un segundo modo de propagación es por
medio de reflexión en la ionosfera o reflexión ionosférica que produce a su vez una
denominada área de servicio secundaria. Dependiendo de la potencia, el área de servicio
primaria puede ser de unos pocos hasta cientos de kilómetros durante el día, y es mayor
cuanto más baja es su frecuencia.
530 540 550 560 570 580 590 600 610 620 630 640
650 660 670 680 690 700 710 720 730 740 750 760
770 780 790 800 810 820 830 840 850 860 870 880
890 900 910 920 930 940 950 960 970 980 990 1000
1010 1020 1030 1040 1050 1060 1070 1080 1090 1100 1110 1120
1130 1140 1150 1160 1170 1180 1190 1200 1210 1220 1230 1240
1250 1260 1270 1280 1290 1300 1310 1320 1330 1340 1350 1360
1370 1380 1390 1400 1410 1420 1430 1440 1450 1460 1470 1480
1490 1500 1510 1520 1530 1540 1550 1560 1570 1580 1590 1600
1610 1620 1630 1640 1650 1660 1670 1680 1690 1700 1710
Antena tunipolo en
alambre de aluminio, con
tres hilos de bajada y un
balum de sintonía, para
Tablero de protección contra trascientes
conseguir en el mejor de
o picos en la línea eléctrica
loa casos una Reactancia
de 50R +/- j0
Estabilizador de Tensión,
especialmente diseñado para
variaciones bruscas de voltaje
Dentro de los avances más importantes que se presentan en las comunicaciones, uno de los
más importantes es, sin duda, la mejora de un sistema de transmisión y recepción en
características como la relación señal-ruido, pues permite una mayor seguridad en las
mismas. Es así como el paso de modulación de amplitud (AM), a la modulación de frecuencia
(FM) establece un importante avance no solo en el mejoramiento que presenta la relación
señal ruido, sino también en la mayor resistencia al efecto del desvanecimiento y a la
interferencia, tan comunes en AM.
Una señal FM también puede usarse para transportar una señal estereofónica (vea FM
estéreo). No obstante, esto se hace mediante el uso de multiplexación y demultiplexación
antes y después del proceso de la FM: Se compone una señal moduladora (en banda base)
con la suma de los dos canales (izquierdo y derecho), y se añade un tono piloto a 19 kHz; se
modula a continuación una señal diferencia de ambos canales a 38 kHz en doble banda lateral
y se le añade a la moduladora anterior. De este modo se consigue compatibilidad con
receptores antiguos que no sean estereofónicos, y además la implementación del
demodulador es muy sencilla.
Otras aplicaciones
Televisión:
o Subportadora de sonido: La información de sonido modula en frecuencia
la subportadora de sonido, que posteriormente se une a las restantes
componentes de la señal de TV para modular en AM la portadora del canal
correspondiente y se filtra para obtener la banda lateral vestigial. El sonido
NICAM es digital y no sigue este proceso.
o SECAM: El sistema de televisión en color SECAM modula la información
de color en FM.
Micrófonos inalámbricos: Debido a la mayor robustez de esta técnica ante las
interferencias (ruidos radioeléctricos externos).
Ayudas a la navegación aérea. Sistemas como el DVOR (VOR Doppler) simulan
una antena giratoria que, por efecto Doppler, modula en frecuencia la señal
transmitida.
Modulador de FM
La modulación de una portadora sobre FM, aunque se puede realizar de varias formas, resulta
un problema delicado debido a que se necesitan dos características contrapuestas: estabilidad
de frecuencia y que la señal moduladora varíe la frecuencia. Por ello, la solución simple de
aplicar la señal moduladora a un oscilador controlado por tensión (VCO) no es satisfactoria.
Demodulador de FM
También es más complejo que el de AM. Se utilizan sobre todo dos métodos:
Ecuación característica
A través de la regla de Carson es posible determinar el ancho de banda que se requiere para
transmitir una señal modulada en FM (o PM). Mientras que la frecuencia AM contiene una
amplitud del espectro de transferencia 38 kHz y un ancho de banda de 56 KB/s conteniendo
5 canales de transferencia.
Referencia:
https://es.wikipedia.org/wiki/Frecuencia_modulada
en el siguiente gráfico, observaremos una conexión típica de equipos y accesorios, que
conforman una estación de radiodifusión en Frecuencia Modulada, con todos los equipos
mínimamente considerables básicos.
EQUIPO STL.
PROCESADOR DE NICOMUSA TSL 901
AUDIO
Distribuidor de potencia de 1 x 4
CONSOLA DE SONIDO SOLIDYNE DE LA SERIE XL
EQUIPO STL. 2300
NICOMUSA TSL 901
La palabra «televisión» es un híbrido de la voz griega τῆλε (tēle, «lejos») y la latina visiōnem
(acusativo de visiō «visión»). El término televisión se refiere a todos los aspectos de
transmisión y programación de televisión. A veces se abrevia como TV. Este término fue
utilizado por primera vez en 1900 por el físico ruso Constantin Perskyi en el Congreso
Internacional de Electricidad de París (CIEP). La televisión es el medio de comunicación de
masas por excelencia, de manera que la reflexión filosófica sobre ellos, se aplica a ésta.
Primeros desarrollos
En 1925 el inventor escocés John Logie Baird efectúa la primera experiencia real utilizando
dos discos, uno en el emisor y otro en el receptor, que estaban unidos al mismo eje para que
su giro fuera síncrono y separados por 2 mm.
Las primeras emisiones públicas de televisión las efectuó la BBC One en Inglaterra en 1927
la TF1 de Francia en 1935; y la CBS y NBC en Estados Unidos en 1930. En ambos casos se
utilizaron sistemas mecánicos y los programas no se emitían con un horario regular.
La primera emisora fue creada en agosto de 1931 en su casa por Manfred von Ardenne. En
1928, se hizo cargo de su herencia con control total sobre cómo podría gastarse, y estableció
su propio laboratorio de investigación privada Forschungslaboratorium für
Elektronenphysik, en Berlin-Lichterfelde, para llevar a cabo su propia investigación en
tecnología de radio y televisión y microscopía electrónica. Inventó el microscopio electrónico
de barrido. En la Muestra de Radio de Berlín en agosto de 1931, Ardenne dio al mundo la
primera demostración pública de un sistema de televisión utilizando un tubo de rayos
catódicos para transmisión y recepción. (Ardenne nunca desarrollaron un tubo de cámara,
usando la CRT en su lugar como un escáner de punto volante para escanear diapositivas y
película.) Ardenne logra su primera transmisión de imágenes de televisión de 24 de
diciembre de 1933, seguido de pruebas para un servicio público de televisión en 1934. el
primer servicio mundial de televisión electrónicamente escaneada comenzó en Berlín en
1935, que culminó con la emisión en directo de los Juegos Olímpicos de Berlín 1936 desde
Berlín a lugares públicos en toda Alemania.
El plumbicón está basado en el mismo principio que el vidicón, sin embargo, su placa
fotoconductora está formada por tres capas: la primera, en contacto con la placa colectora, y
la tercera están formadas por un semiconductor; la segunda, por óxido de plomo. De este
modo, se origina un diodo que se halla polarizado inversamente; debido a ello, la corriente a
través de cada célula elemental, en ausencia de luz, es extraordinariamente baja y la
sensibilidad del plumbicón, bajo estas características, muy elevada.
La señal de vídeo
La señal de vídeo es una señal eléctrica variable que contiene diferentes tensiones
dependiendo de la luminosidad de la imagen a transmitir, y señales de sincronismo de línea
y cuadro. Es una señal transducida de la imagen contiene la información de ésta de forma
analógica, pero es necesario, para su recomposición, que haya un perfecto sincronismo entre
la deflexión de exploración y la deflexión en la representación. En los sistemas empleados la
tensión varía entre 0 y 1 V (0,7 para la señal de imagen y 0,3 para sincrónicos))
La codificación de la imagen se realiza entre 0 V para el negro y 0,7 V para el blanco. Para
los sincronismos se incorporan pulsos de -0,3 V, lo que da una amplitud total de la forma de
onda de vídeo de 1 V. Los sincronismos verticales están constituidos por una serie de pulsos
de -0,3 V que proporcionan información sobre el tipo de campo e igualan los tiempos de cada
uno de ellos. El sonido, llamado audio, es tratado por separado en toda la cadena de
producción y luego se emite junto al vídeo en una portadora situada al lado de la encargada
de transportar la imagen.
El desarrollo de la TV
La televisión en color
Entre los primeros sistemas de televisión en color desarrollados, estuvo un sistema con
transmisión simultánea de las imágenes de cada color con receptor basado en un tubo
electrónico denominado trinoscope (trinoscopio, en español) desarrollado por la empresa
Radio Corporation Of America (RCA). Las señales transmitidas por este sistema ocupaban
tres veces más espectro radioeléctrico que las emisiones monocromáticas y, además, era
incompatible con ellas a la vez que muy costoso. El elevado número de televisores en blanco
y negro que ya había en Estados Unidos, exigía que el sistema de color que se desarrollara
fuera compatible con los receptores monocromáticos. Esta compatibilidad debía realizarse
en ambos sentidos, de modo que las emisiones en color fueran recibidas en receptores para
blanco y negro y a la inversa. Este sistema fue abandonado.
En 1950, Radio Corporation of América desarrolló un nuevo tubo de imagen con tres cañones
electrónicos, implementados en un solo elemento, que emitían haces que chocaban contra
pequeños puntos de fósforo de color, llamados luminóforos, mediante la utilización de una
máscara de sombras que permitía prescindir de los voluminosos trinoscopios, anteriormente
desarrollados por la empresa. Los electrones de los haces al impactar contra los luminóforos
emiten luz del color primario (azul, rojo y verde) correspondiente que mediante la mezcla
aditiva genera el color original. En el emisor (la cámara) se mantenían los tubos separados,
uno por cada color primario. Para la separación, se hacen pasar los rayos luminosos que
conforman la imagen por un prisma dicroico que filtra cada color primario a su
correspondiente captador.
Las señales básicas del sistema NTSC son la luminancia (Y) y las componentes de diferencia
de color, R-Y y B-Y (es decir el rojo menos la luminancia y el azul menos la luminancia).
Este par de componentes permite dar un tratamiento diferenciado al color y al brillo. El ojo
humano es mucho más sensible a las variaciones y definición del brillo que a las del color y
esto hace que los anchos de banda de ambas señales sean diferentes, lo cual facilita su
transmisión ya que ambas señales se deben de implementar en la misma banda cuyo ancho
es ajustado.
El sistema NTSC emplea dos señales portadoras de la misma frecuencia para los
componentes de diferencia de color, aunque desfasadas en 90º, moduladas con portadora
suprimida por modulación de amplitud en cuadratura. Al ser sumadas, la amplitud de la señal
resultante indica la saturación del color y la fase es el tinte o tono del mismo. Esta señal se
llama de crominancia. Los ejes de modulación, denominados I (en fase) y Q (en cuadratura)
están situados de tal forma que se cuida la circunstancia de que el ojo es más sensible al color
carne, esto es que el eje I se orienta hacia el naranja y el Q hacia el color magenta. Al ser la
modulación con portadora suprimida, es necesario enviar una ráfaga o salva de la misma para
que los generadores del receptor puedan sincronizarse con ella. Esta ráfaga suele ir en el
pórtico anterior o inicio del pulso de sincronismo de línea. La señal de crominancia se suma
a la de luminancia componiendo la señal total de la imagen. Las modificaciones en la fase de
la señal de vídeo cuando ésta es transmitida producen errores de tinte.
El sistema de televisión cromática NTSC fue la base de la cual partieron otros investigadores,
principalmente europeos. En Alemania un equipo dirigido por el ingeniero Walter Bruch
desarrolló un sistema que subsanaba los errores de fase, y que fue denominado PAL (Phase
Altenating Line, Línea de Fase Alternada, por sus siglas en inglés). Para lograr este cometido,
la fase de la subportadora se alterna en cada línea. La subportadora que modula la
componente R-Y, que en el sistema PAL se llama V, tiene una fase de 90º en una línea y de
270º en la siguiente. Esto hace que los errores de fase que se produzcan en la transmisión (y
que afectan igual y en el mismo sentido a ambas líneas) se compensen a la representación de
la imagen al verse una línea junto a la otra. Si la integración de la imagen para la corrección
del color la realiza el propio ojo humano, entonces el sistema se denomina PAL S (PAL
Simple) y si se realiza mediante un circuito electrónico, es el PAL D (PAL Delay, retardado).
Todos los sistemas tienen ventajas e inconvenientes. Mientras que el NTSC y el PAL
dificultan la edición de la señal de vídeo por su secuencia de color en cuatro y ocho campos,
respectivamente, el sistema SECAM hace imposible el trabajo de mezcla de señales de vídeo.
La alta definición
El sistema de televisión de definición estándar, conocido por las siglas "SD", tiene en su
versión digital, una definición de 720x576 píxeles (720 puntos horizontales en cada línea y
576 puntos verticales que corresponden a las líneas activas de las normas de 625 líneas) con
un total de 414.720 píxeles. En las normas de 525 líneas se mantienen los puntos por línea,
pero el número de líneas activas es solo de 480, lo que da un total de píxeles de 388.800
siendo los píxeles levemente anchos en PAL y levemente altos en NTSC.
En el primero de los grupos, con 1080 líneas activas, se dan diferencias de frecuencia de
cuadro y de muestras por línea (aunque el número de muestras por tiempo activo de línea se
mantiene en 1920) también la forma de barrido cambia, hay barrido progresivo o entrelazado.
De la misma forma ocurre en el segundo grupo, donde las líneas activas son 720 teniendo
1280 muestras por tiempo de línea activo. En este caso la forma de barrido es siempre
progresiva.
En el sistema de HD de 1080 líneas y 1920 muestras por línea tenemos 2.073.600 pixeles en
la imagen y en el sistema de HD de 720 líneas y 1280 muestras por líneas tenemos 921.600
pixeles en la pantalla. En relación con los sistemas convencionales tenemos que la resolución
del sistema de 1.080 líneas es 5 veces mayor que el del PAL y cinco veces y media que el
del NTSC. Con el sistema de HD de 720 líneas es un 50% mayor que en PAL y un 66%
mayor que en NTSC.
La alta resolución requiere también una redefinición del espacio de color cambiando el
espacio de color a Rec.709.
La relación de aspecto
Una imagen de 4:3 que sea observada en una pantalla de 16:9 puede presentarse de
tres formas diferentes:
con barras negras verticales a cada lado (pillarbox), con lo que se mantiene la
relación de 4:3 pero se pierde parte de la zona activa de la pantalla;
ampliando la imagen hasta que ocupe toda la pantalla horizontalmente. Se
pierde parte de la imagen por la parte superior e inferior de la misma;
deformando la imagen para adaptarla al formato de la pantalla. Se usa toda la
pantalla y se ve toda la imagen, pero con la geometría alterada, ya que los
círculos se transforman en elipses con su eje mayor orientado
horizontalmente.
Una imagen de 16:9 observada en pantallas de 4:3, de forma similar, puede ser
presentada en tres formas:
La reducción del flujo binario de la señal de vídeo digital dio lugar a una serie de algoritmos,
basados todos ellos en la transformada discreta del coseno tanto en el dominio espacial como
en el temporal, que permitieron reducir dicho flujo posibilitando la construcción de equipos
más accesibles. Esto permitió el acceso a los mismos a pequeñas empresas de producción y
emisión de TV dando lugar al auge de las televisiones locales.
El avance de la informática, tanto a nivel del hardware como del software, llevaron a sistemas
de producción basados en el tratamiento informático de la señal de televisión. Los sistemas
de almacenamiento, como los magnetoscopios, pasaron a ser sustituidos por servidores
informáticos de vídeo y los archivos pasaron a guardar sus informaciones en discos duros y
cintas de datos. Los ficheros de vídeo incluyen los metadatos que son información referente
a su contenido. El acceso a la información se realiza desde los propios ordenadores donde
corren programas de edición de vídeo de tal forma que la información residente en el archivo
es accesible en tiempo real por el usuario. En realidad, los archivos se estructuran en tres
niveles, el on line, para aquella información de uso muy frecuente que reside en servidores
de discos duros, el near line, información de uso frecuente que reside en cintas de datos y
éstas están en grandes librerías automatizadas, y el archivo profundo donde se encuentra la
información que está fuera de línea y precisa de su incorporación manual al sistema. Todo
ello está controlado por una base de datos en donde figuran los asientos de la información
residente en el sistema.
TV analógica Sony.
La televisión hasta tiempos recientes, principios del siglo XXI, fue analógica totalmente y su
modo de llegar a los televidentes era mediante el aire con ondas de radio en las bandas de
VHF y UHF. Pronto salieron las redes de cable que distribuían canales por las ciudades. Esta
distribución también se realizaba con señal analógica, las redes de cable pueden tener una
banda asignada, más que nada para poder realizar la sintonía de los canales que llegan por el
aire junto con los que llegan por cable. Su desarrollo depende de la legislación de cada país,
mientras que en algunos de ellos se desarrollaron rápidamente, como en Inglaterra y Estados
Unidos, en otros como España no han tenido casi importancia hasta que a finales del siglo
XX la legislación permitió su instalación.
El satélite, que permite la llegada de la señal a zonas muy remotas y de difícil acceso, su
desarrollo, a partir de la tecnología de los lanzamientos espaciales, permitió la explotación
comercial para la distribución de las señales de televisión. El satélite realiza dos funciones
fundamentales, la de permitir los enlaces de las señales de un punto al otro del orbe, mediante
enlaces de microondas, y la distribución de la señal en difusión.
Cada uno de estos tipos de emisión tiene sus ventajas e inconvenientes, mientras que el cable
garantiza la llegada en estado óptimo de la señal, sin interferencias de ningún tipo, precisa de
una instalación costosa y de un centro que realice el embebido de las señales, conocido con
el nombre de cabecera. Solo se puede entender un tendido de cable en núcleos urbanos donde
la aglomeración de habitantes haga rentable la inversión de la infraestructura necesaria. Otra
ventaja del cable es la de disponer de un camino de retorno que permite crear servicios
interactivos independientes de otros sistemas (normalmente para otros sistemas de emisión
se utiliza la línea telefónica para realizar el retorno). El satélite, de elevado costo en su
construcción y puesta en órbita permite llegar a lugares inaccesibles y remotos. También
tiene la ventaja de servicios disponibles para los televidentes, que posibilitan la explotación
comercial y la rentabilidad del sistema. La comunicación vía satélite es una de las más
importantes en la logística militar y muchos sistemas utilizados en la explotación civil tienen
un trasfondo estratégico que justifican la inversión económica realizada. La transmisión vía
radio es la más popular y la más extendida. La inversión de la red de distribución de la señal
no es muy costosa y permite, mediante la red de reemisores necesaria, llegar a lugares
remotos, de índole rural. La señal es mucho menos inmune al ruido y en muchos casos la
recepción se resiente. Pero es la forma normal de la difusión de las señales de TV.
Difusión digital
Estas formas de difusión se han mantenido con el nacimiento de la televisión digital con la
ventaja de que el tipo de señal es muy robusta a las interferencias y la norma de emisión está
concebida para una buena recepción. También hay que decir que acompaña a la señal de
televisión una serie de servicios extras que dan un valor añadido a la programación y que en
la normativa se ha incluido todo un campo para la realización de la televisión de pago en sus
diferentes modalidades.
Los sistemas utilizados según el tipo de canal son los siguientes, para satélite el DVB-S, para
cable el DVB-C y para terrestre (también llamando terrenal) DVB-T. Muchas veces se
realizan captaciones de señales de satélite que luego son metidas en cable, para ello es normal
que las señales sufran una ligera modificación para su adecuación a la norma del cable.
La difusión de la televisión digital vía terrestre, conocida como TDT se realiza en la misma
banda de la difusión analógica. Los flujos de transmisión se han reducido hasta menos de
6 Mb/s lo que permite la incorporación de varios canales. Lo normal es realizar una
agrupación de cuatro canales en un Mux el cual ocupa un canal de la banda (en analógico un
La televisión digital terrestre en los EE. UU., utiliza la norma ATSC Advanced Television
System Committee que deja sentir la diferente concepción respecto al servicio que debe tener
la televisión y el peso de la industria audiovisual y cinematográfica estadounidense. La
televisión norteamericana se ha desarrollado a base de pequeñas emisoras locales que se
unían a una retransmisión general para ciertos programas y eventos, al contrario que en
Europa donde han primado las grandes cadenas nacionales. Esto hace que la ventaja del
sistema europeo que puede crear redes de frecuencia única para cubrir un territorio con un
solo canal no sea apreciada por los norteamericanos. El sistema americano no ha prestado
atención a la eliminación del eco. La deficiencia del NTSC es una de las causas de las ansias
para el desarrollo de un sistema de TV digital que ha sido asociado con el de alta definición.
Los sistemas de difusión digitales están llamados a sustituir a los analógicos, se prevé que se
dejen de realizar emisiones en analógico, en Europa está previsto el apagón analógico para
el 2012 y en EE. UU. se ha decretado el 17 de febrero de 2009 como la fecha límite en la que
todas las estaciones de televisión dejen de transmitir en sistema analógico y pasen a transmitir
exclusivamente en sistema digital. El 8 de septiembre de 2008 al mediodía se realizó la
primera transición entre sistemas en el poblado de Wilmington, Carolina del Norte.
Fuente:
https://es.wikipedia.org/wiki/Televisi%C3%B3n
Como la norma europea DVB, ISDB está conformado por una familia de componentes. La
más conocida es la de televisión digital terrestre (ISDB-T e ISDB-Tb) pero también lo
conforman la televisión satelital (ISDB-S), la televisión por cable (ISDB-C), servicios
multimedia (ISDB-Tmm) y radio digital (ISDB-Tsb).
Introducción
La norma fue nombrado por su similitud con ISDN (Integrated Services Digital Network en
inglés), porque ambas permiten la transmisión simultánea de múltiples canales de datos (un
proceso llamado multiplexación). También se parece a otro sistema de radio, denominado
Eureka 147, que llama a los grupos de estaciones en una transmisión "un ensamble"; es muy
parecido al estándar DVB-T que también es multicanal. ISDB-T opera en canales de TV sin
usar, una aproximación tomada por otros países para televisión, pero nunca antes para radio.
Características técnicas
Principales características
El ISDB ha adoptado el MPEG-2 para la compresión de vídeo y audio. Los estándares ATSC
y DVB adoptaron también el mismo sistema. DVB e ISDB permiten también el uso de otros
métodos de compresión de video, incluyendo MPEG-4 y JPEG, aunque este último es
solamente una parte requerida por el estándar MHEG. La versión japonesa-brasilera, el
ISDB-Tb, usa para la transmisión digital el MPEG-4 y el audio en HE-AAC. La mayoría de
los países de América del Sur han adoptado el ISDB-Tb con tales modificaciones. En paralelo
se continúa el desarrollo del 4K.
Transmisión
El ISDB utiliza distintos sistemas de modulación para hacer más efectiva su llegada al
usuario, dependiendo de los requerimientos de las bandas de frecuencia. ISDB-S (satelital)
que usa la banda de 12 GHz usa modulación PSK, la transmisión de audio en 2.6 GHz usa
CDM e ISDB-T (en bandas VHF y UHF) usa COFDM con PSK/QAM.
Interacción
Para la interactividad el ISDB define conexiones de datos con Internet como canal de retorno
sobre distintos medios (10Base-T/ 100 Base T, módem, teléfono celular, LAN Inalámbrico
(IEEE 802.11) y con diferentes protocolos. Esto se usa, por ejemplo, para guía electrónica de
programas (EPG) y transmisión de datos.
Interfaces y cifrado
La especificación ISDB describe varias interfaces (de red), pero la más importante es la
Interfaz Común para el Acceso Condicional(CAS) (ARIB STD-B25) con un CAS llamado
Especificación Técnica
Resumen de ISDB-T
64QAM-OFDM,
16QAM-OFDM,
Modulación QPSK-OFDM,
DQPSK-OFDM
(transmisión jerárquica)
MPEG-4 AVC
Codificación de video MPEG-2 Video
/H.264*
compresiones audiovideo
Formato de video y sistema de barredura; número de líneas activas; relación de aspecto: No-
móvil/móvil:
Otras Características
Distribuidor de potencia de 1 x 4
Las radiocomunicaciones han experimentado una larga evolución en las últimas décadas,
tanto en el sector profesional como a nivel de usuario. Los recientes avances en tecnología
hacen que este sector crezca y progrese a un ritmo vertiginoso para adaptarse a las
emergentes necesidades que se deben satisfacer.
La radio sobre IP en todas sus variantes y versiones, sobre redes privadas y sobre
redes comerciales, ya es una realidad.
Referencia:
http://www.genaker.net/la-revolucion-de-las-radiocomunicaciones/
Radiocomunicación móvil troncalizado. Es un sistema en el cual los usuarios
comparten todos los canales disponibles (frecuencias asignadas), evitando así que
dependan de un canal determinado y no puedan transmitir su mensaje si este se encuentra
ocupado". Para una mejor comprensión del sistema troncalizado describiremos el
funcionamiento de un sistema convencional: En un sistema convencional cada grupo de
usuarios cuenta con un canal determinado. Si un usuario desea comunicarse con otro
usuario de otro grupo, debe cambiar su radio al canal respectivo. De esta manera si el
canal al cual está asignado el usuario se encuentra ocupado este no puede transmitir su
mensaje. En el sistema troncalizado, se crean grupos de usuarios independientes de los
canales o frecuencias con que se cuente. De tal manera que cuando un usuario desea
realizar un llamado, bien sea de voz o datos, el sistema automáticamente le asigna un
canal libre. Si en ese momento no se encuentra ningún canal libre, queda en una cola de
espera por un determinado tiempo. Este tiempo es programable al igual que otras muchas
facilidades. Un ejemplo sencillo de cómo funciona un sistema troncalizado, es
comparándolo con las filas de clientes de los establecimientos bancarios, donde los
clientes realizan una sola fila y el primero que se encuentre en ella es atendido por el
cajero que quede disponible.
Sistema troncalizado
Llamada individual.
Llamada a un grupo dentro de otro grupo mayor.
Llamada de emergencia con prioridad absoluta.
Lista de llamadas recibidas en espera de ser atendidas.
Desvío de llamadas en ausencia del destinatario.
Almacenamiento de mensajes vocales.
Bloqueo de un canal, asignado temporalmente a un grupo.
Transmisión de datos, facsímil, etc.
Características:
Son sistemas que han ido estandarizando las diferentes interfaces desde su introducción
en el año 1997. En la actualidad se está produciendo un proceso de estandarización con
los sistemas digitales.
Tipos de modulación
Que abarca tres secciones principales: una fuente, un destino y un medio de transmisión.
La información se propaga a través de un sistema de comunicación en la forma de
símbolos, que puede ser analógico (proporcional), como la voz humana, información de
imagen de video, o música, o digital (discreta), como lo números binarios codificados,
códigos alfa/numéricos, símbolos gráficos, códigos operacionales del microprocesador, o
información de bases de datos.
Sin embargo, con frecuencia la información fuente no es apropiada para ser transmitida,
en su forma original, y se debe convertir a una forma más apropiada, antes de la
transmisión, y con los sistemas de comunicación analógica se convierte a forma digital,
antes de la transmisión, y con los sistemas de comunicación analógica, los datos digitales
se convierten a señales analógicas antes de la transmisión.
Con la transmisión por desplazamiento de fase binaria, son posibles dos fases de salida
para una sola frecuencia de la portadora (binario significa 2 elementos). Una fase de salida
representa un 1 lógico y la otra un 0 lógico. Conforme la señal digital de entrada cambia
de estado, la fase de la portadora de salida se desplaza entre dos ángulos que están 180º
fuera de fase.
Un PSK de ocho fases (8-PSK), es una técnica para codificar M-ario en donde M =8. Con
un modulador de 8-PSK, hay ocho posibles fases de salida. Para codificar ocho fases
diferentes, los bits que están entrando se consideran en grupos de tres bits, llamados tribits
(23 = 8).
QAM de ocho
QAM de dieciséis
Así como el dieciséis PSK, el 16-QAM es un sistema M-ario, en donde M=16. Actúa
sobre los datos de entrada en grupos de cuatro (24=16). Como en el 8-QAM, tanto la fase
y la amplitud de la portadora de la transmisora son variados.
Cada estación base utiliza un grupo de canales distinto de las vecinas a fin y con efecto
de no interferirse en las zonas limítrofes.
Conceptos básicos
Aquí se plantean unos conceptos básicos para entender a qué condicionantes está sujeto
el despliegue de una red de telefonía celular desde un punto de vista práctico. Estos
conceptos son de tipo financiero y de tipo técnico.
Desde el punto de vista financiero hay tres indicadores que tienen que ver con la solvencia
de los operadores:
ARPU (Average Revenue Per User). Ingresos por usuario. El precio de mercado
pone un techo a las tarifas para un mismo servicio.
CAPEX (Capital Expenditure) Gastos de capital, o gasto incurrido para obtener
futuros beneficios.
OPEX (Operational Expenditure). Gastos de operación. Son los gastos necesarios
para mantener la red en servicio, que incluyen el mantenimiento.
Lógicamente los operadores necesitan que CAPEX y OPEX queden por debajo de sus
ingresos (ARPU), lo cual tendrá efecto en sus decisiones entre las cuales la de optar por
un nuevo sistema que garantice la rentabilidad.
Desde el punto de vista técnico, a medida que aumenta la demanda de servicio es
necesario disponer de más estaciones base (o puntos de acceso), más cercanas unas a otras
y con una cobertura más reducida y adaptada a su zona de servicio. Esto es una gran
diferencia con los sistemas de broadcast (radio y televisión), mucho más intuitivos para
la mayoría de personas, y se debe a una serie de factores que se explican a continuación
de una manera breve y práctica.
En primer lugar, en los sistemas celulares una llamada de voz ocupa un canal de forma
exclusiva, durante todo el tiempo de la llamada y en toda el área de cobertura de la
estación base. Siendo el número de canales un recurso limitado por el espectro
radioeléctrico disponible, la única forma de atender simultáneamente un número de
llamadas muy superior al número de canales existente es reutilizar los mismos canales en
áreas no adyacentes. A estas áreas se les llama células. Cada célula está servida por una
estación base, y cada estación base utiliza un grupo de canales distinto de las vecinas a
fin y efecto de no interferirse en las zonas limítrofes.
Luego, la forma de incrementar la capacidad de una red no es incrementar el número de
canales (que está limitado), sino incrementar el número de células reduciendo el tamaño
de las mismas.
Habida cuenta de que los canales utilizados en una célula serán utilizados en células
próximas, pero no adyacentes, un exceso de cobertura de una de estas células que
invadiera la zona de servicio de la otra provocaría interferencias co-canal. Luego es
necesario ajustar la cobertura a la zona de servicio de la célula, motivo por el cual no son
deseables los emplazamientos elevados en zonas de alta densidad.
Cuando el terminal móvil en su desplazamiento abandona la zona de cobertura de una
célula y entra en la de la vecina debe producirse un traspaso de célula servidora o ‘hand-
over’. Para que este se realice bien, es necesario un suficiente solapamiento de las
coberturas de ambas células en las áreas de traspaso.
Esta capacidad de atender conexiones en movimiento y de realizar 'hand-over' diferencian
los sistemas celulares, que responden a estándares de la UIT-R, de otros sistemas para
conexiones de datos muchas veces a velocidades mayores como WIFI y WIMAX
desarrollados por IEEE en sus normas 802. xx.
Con diferentes matices en cada sistema, estos conceptos son básicos para asegurar la
calidad del servicio.
Evolución
A nivel global, en cada zona geográfica la evolución y los estándares han seguido caminos
parecidos pero distintos de los que sería tedioso entrar en detalle. Para simplificarlo se
tomará el caso español que es el más conocido de los lectores.
En líneas generales, lo que ha empujado cada nueva generación ha sido: mejorar las
prestaciones de la anterior, aumentar la capacidad, añadir servicios, mejorar la eficiencia
espectral (más tráfico con el mismo espectro), bajar el CAPEX y el OPEX, es decir, los
costes de inversión y los costes de mantenimiento y mantener o incrementar el ARPU.
En un principio el estándar GSM fue desarrollado por la ETSI como una red digital de
conmutación de circuitos para telefonía vocal en full dúplex para sustituir las antiguas
redes celulares analógicas de primera generación (1G), a la que luego se le añadirían
servicios básicos de datos, primero SMS y después servicios basados en GPRS.
GSM incluía además otras novedades, como fueron la introducción de la tarjeta SIM
(Subscriber Identification Number) y el roaming. La SIM asociaba el terminal a la línea
contratada, facilitando el cambio de terminal para una misma línea, o el uso de un mismo
terminal por varios usuarios, o con operadoras distintas. El roaming consistía en que
cuando un terminal, con su SIM del país de origen, se hallara en otro país pudiera recibir
servicio de un operador local como si estuviera en su propio país.
Este sistema usaba modulación GMSK, con portadoras con un ancho de banda de 200
KHz, que permitían la transmisión de 8 canales de voz multiplexados en el tiempo
(TDMA – Time Domain Multiple Access). La voz era digitalizada, el código obtenido se
cifraba y se hacía un interleaving de los bits para obtener una transmisión más robusta.
La eficiencia espectral era poco superior a la de los sistemas 1G, pero se reducían costes,
se añadían nuevos servicios como el SMS, y el sistema era más seguro y más robusto
frente a interferencias.
En cuanto a la infraestructura de red, desde un principio la nueva tecnología permitía
multiplicar por 5 los canales de voz por equipo instalado, y se simplificaban la instalación
y los ajustes, redundando en una drástica bajada del OPEX y el CAPEX respecto de los
sistemas 1G. Así mismo, los terminales móviles fueron reduciendo su volumen, su peso
y su precio, todo lo cual dio un fuerte impulso al mercado y a la competencia.
La tecnología GSM fue la primera en facilitar voz y datos digitales, así como roaming
internacional permitiendo al cliente ir de un lugar a otro.
Generación 2.5
En 1992 las primeras redes europeas de GSM-900 iniciaron su actividad, y el mismo año
fueron introducidos al mercado los primeros teléfonos móviles GSM, siendo el primero
el Nokia 1011 en noviembre de este año.
En España, Movistar (Telefónica) creó en 1995 la primera red digital móvil. Ese mismo
año se concedió licencia para una segunda operadora móvil, conocida como Airtel (actual
Vodafone) y ya en 1999 se otorgó la tercera licencia de GSM a Amena (actual Orange).
Yoigo, como cuarto operador, inició su actividad en 2005.
Arquitectura GSM
En todo sistema de emisión con ancho de banda hay que idear técnicas para optimizar el
uso de un recurso tan limitado. El sistema GSM basa el reparto del canal o división de
acceso en combinar diferentes modelos de reparto del espectro disponible:
TDMA. División del tiempo en emisión y recepción (Time Division Multiple Access).
Cada portadora contiene "8 time slots" de 577 microsecungos cada uno, formado así una
trama. Se pueden llegar a agrupar hasta 26 tramas en 120 milisegundos.
Ejemplo de envío multitrama en GSM.
canales se enviarán las tramas con información de varios usuarios. Cada canal soporta a
8 usuarios.
Ejemplo de envío de tramas en los canales de frecuencia de GSM.
El empleo de un sistema celular tiene en GSM claras ventajas por la reutilización que
permite de las frecuencias comentada anteriormente. El inconveniente es el elevado
número de antenas necesarias para abarcar el despliegue determinado por la compañía.
Esto último empeora si la compañía emplea una banda de frecuencias superior a 900Mhz,
como podría ser 1800Mhz o 1900Mhz.
En relación a las celdas, su tamaño variará dependiendo del número de usuarios presentes
en un área determinada. Así, nos encontramos con:
Mobile Station
La estación móvil se corresponde con el dispositivo móvil en sí, donde nos encontramos
la tarjeta SIM. La tarjeta SIM almacena información específica de la red usada para
autentificar e identificar al cliente, entre otros parámetros:
Número IMSI (International Mobile Suscriber Identity), que sirve para identificar al
abonado en todo el mundo. Este número es el que permite el roaming.
Asimismo, nos encontramos con el número ICCID (Integrated Circuit Card ID), que es
el número de serie de la tarjeta. Haciendo una analogía con redes TCP/IP, este número
sería equivalente a la dirección MAC de una tarjeta de red de un dispositivo.
Número ICCID de una tarjeta SIM.
un área local a otra almacena su nuevo LAI en la tarjeta SIM y la envía al operador para
informar a la red de esta nueva localización.
tenemos CC = 34, NDC vendría determinado por operador y dentro de éstos habría varios.
Por ejemplo, 607 sería un NDC de un número original de Vodafone. Después del NDC
tendríamos 6 dígitos.
Aquí nos encontramos con dos elementos importantes que son la estación base BTS (Base
Transceiver Station) y el controlador de la estación base BSC (Base Station Controller).
BTS
Las estaciones BTS son visibles para los usuarios pues se corresponde con la llamativa
antena que permite la conexión física con el dispositivo móvil. Estas BTS se encargan de
varias funciones dentro de la red de telefonía móvil:
Ofrecen un canal de broadcast que los terminales de abonado utilizan para medir el grado
de cobertura disponible y tratar de cambiar a otra BTS si es preciso (handover).
Ofrecen canales de tráfico para el establecimiento de llamadas telefónicas desde/hacia los
terminales de abonado.
Disponen de conexiones alámbricas o inalámbricas hacia las centrales telefónicas BSC,
desde donde se pueden encaminar las llamadas hacia otras zonas de la red.
Las BTS son capaces de prestar servicio a un número limitado de abonados dentro del
área geográfica determinada por su cobertura radioeléctrica. Es decir, disponen de un
número acotado de canales de tráfico disponibles para el establecimiento de llamadas
telefónicas. Si todos esos canales están ocupados, ningún otro abonado podrá establecer
una llamada hasta que quede algún canal libre, situación que se conoce con el nombre de
saturación.
BSC
Entre las diferentes bases de datos de control, encontramos los siguientes elementos clave:
Gestión de movilidad
El móvil debe buscar otras estaciones base cercanas a las que se pueda conectar. El
proceso conlleva una serie de pasos:
GPRS son las siglas de Global Packet Radio System. Se trata de una nueva tecnología
que comparte el rango de frecuencias de la red GSM utilizando una transmisión de datos
por medio de 'paquetes'. Por tanto, GPRS no sustituye a la red original GSM, sino que la
complementa, para ello que se requiere que añadan nuevos nodos de red denominados
SGSN (nodos de soporte GPRS) ubicados en una red de transporte:
El router SGSN (Nodo de soporte de servicio GPRS) gestiona las direcciones de las
terminales de la celda y proporciona la transferencia de la interfaz de paquetes con la
pasarela GGSN.
La pasarela GGSN (Nodo de soporte de pasarela GPRS) se conecta con otras redes de
datos (Internet). En particular, GGSN debe proporcionar una dirección IP a las terminales
móviles durante toda la conexión.
Aquitectura GSM incorporando GPRS y EGPRS.
Una mejora del servicio GPRS es el E-EDGE, que se corresponde con Enhanced Data
Rates for GSM Evolution (Tasas de Datos Mejoradas para la evolución de GSM). Es una
tecnología de la telefonía móvil celular, que actúa como puente entre las redes 2G y 3G.
EDGE es un método para aumentar las velocidades de datos sobre el enlace de radio de
GSM. Básicamente, EDGE sólo introduce una nueva técnica de modulación (8PSK) y
una nueva codificación de canal. EDGE, por lo tanto, es un agregado a GPRS.
EDGE puede alcanzar una velocidad de transmisión de 384 Kbps en modo de paquetes,
con lo cual cumple los requisitos de la ITU para una red 3G,
servicio que se requería y según la carga de tráfico que estuviera cursando. A mayor tasa
de bits requerida, menor radio y a mayor tráfico soportado, menor radio también.
En cuanto a la arquitectura de red, es decir la estructura de todo aquello que hay entre el
terminal de usuario y las redes públicas de datos o telefonía, UMTS adoptó una estructura
casi igual que la de GSM ya evolucionada con GPRS. Esta estructura tenía caminos
distintos para las conexiones en modo circuito y las conexiones en modo paquete,
duplicidad que complicaba la red y la gestión de la misma.
En UMTS el radio de una célula era distinto según el servicio que se requería y según la
carga de tráfico que estuviera cursando. A mayor tasa de bits requerida, menor radio y
a mayor tráfico soportado, menor radio también.
Red de comunicación móvil de Tercera Generación (3G)
El objetivo de los sistemas 3G fue ofrecer aumento de las tasas de datos, facilitar el
crecimiento, mayor capacidad de voz y datos, soporte a diversas aplicaciones y alta
transmisión de datos a bajo coste. Los datos se envían a través de la tecnología de una
tecnología llamada Packet Switching. Las llamadas de voz se traducen mediante
conmutación de circuitos.
Año - 2000
Estándares:
o UMTS (WCDMA) basado en GSM (Global Systems for Mobile) infraestructura
del sistema 2G, estandarizado por el 3GPP.
o CDMA 2000 basado en la tecnología CDMA (IS-95) estándar 2G, estandarizada
por 3GPP2.
Arquitectura UMTS
UMTS se ideó como mejora de gran capacidad para GSM. Esto significa que se realizan
mejoras en la arquitectura original GSM, manteniendo algunos componentes de la red 2G
sobre todo en el núcleo, y sustituyendo la red de acceso radio (nuevas antenas).
Tecnología W-CDMA
Cada canal ocupa ahora 5Mhz, frente a los 200Khz del GSM y sus 8 usuarios límite. Éste
canal se repartirá entre un número mucho más elevado de usuarios que oscilará entre 50
y 150 dependiendo de la eficiencia de la red.
La principal diferencia entre la transmisión TDMA del GSM y la W-CDMA del UTMS
es que en este segundo caso todos los usuarios admitidos transmiten a la vez por el canal,
codificando su señal con un código diferente por usuario y que será conocido por emisor
y antena. Este código se conoce como Scrambling y podemos obtenerlo con la clase
TelephonyManager:
telephonyManager =
(TelephonyManager)getSystemService(Context.TELEPHONY_SERVICE);
GsmCellLocation cellLocation = (GsmCellLocation)
telephonyManager.getCellLocation();
psc = cellLocation.getPsc();
TDD: En este método bidireccional, las transmisiones de los enlace subida y bajada son
transportadas en la misma banda de frecuencia usando intervalos de tiempo (intervalos
de trama) de forma síncrona. Así los intervalos de tiempo en un canal físico se asignan
para los flujos de datos de transmisión y de recepción.
FDD: Los enlaces de las transmisiones de subida y de bajada emplean dos bandas de
frecuencia separadas. Un par de bandas de frecuencia con una separación especificada se
asigna para cada enlace.
La elección de W-CDMA como tecnología de multiplexación tiene una ventaja adicional
para las operadoras, pues no requiere de una planificación de frecuencias previa, al
emplear todas las celdas la misma banda. Además, en las redes UMTS se posibilitará el
denominado Soft-Handover. En este caso, durante el proceso de traspaso el móvil estará
conectado mediante un canal a la estación base de origen y mediante otro canal a la
estación base de destino. Durante dicho proceso, la transmisión se realiza en paralelo por
los dos canales, es decir, no se produce interrupción del enlace. Con dicho sistema se
asegura una conexión con la estación base de la nueva celda antes de cortar con la
conexión antigua. Este sistema proporciona mucha fiabilidad frente al handover original.
Otros de los cambios que encontramos es en la técnica de modulación empleada que será
QAM.
En relación a los elementos presentes en una red UMTS, contamos con tres elementos
principales:
forma que resulte posible la comunicación no sólo entre usuarios móviles UMTS, sino
también con los que se encuentran conectados a otras redes de voz o datos.
Representación de la arquitectura UMTS.
HSDPA (3.5G)
HSUPA (3.75G)
Modulación 64QAM que requerirá una calidad de señal elevada para poder ser empleada.
En este caso se hablará te tecnología 3.8G.
Técnica multi-antena conocida como MIMO (Multiple-Input Multiple-Output), mínimo
de 2x2, donde se utilizan dos transmisores y dos receptores sobre la misma frecuencia
para que el receptor pueda reconstruir la señal con mayor fiabilidad. Si a los 64QAM se
une MIMO tendremos 3.85G.
Aun cuando las posibilidades de HSPA+ son elevadas, las velocidades presentadas
representan picos teóricos que difícilmente se han llegado a alcanzar en las redes actuales.
La velocidad teórica es un valor bruto que sólo se alcanza en las mejores condiciones,
con una excelente señal de radio y sin apenas otros usuarios en la celda. La velocidad real
se ve influida por el ancho de banda consumido por los protocolos, por las condiciones
radioeléctricas (nivel de cobertura), la cantidad de usuarios simultáneos y la saturación
del enlace de la estación base con la red troncal de la operadora.
pocos terminales llamados 4G. Hay una clasificación de los terminales por clases que
indican las velocidades de bajada y de subida soportadas por el terminal.
La técnica de acceso de LTE se conoce como (OFDMA – Orthogonal Frequency Domain
Multiple Access), y usa modulación OFDM -similar a la de la Televisión Digital- y
portadoras de 10 MHz de ancho de banda (en España). Dicha técnica basada en la
utilización de un elevado número de subportadoras, moduladas independientemente y
capaces de transmitir en paralelo una secuencia de bits, proporciona una mayor protección
frente a interferencias y cancelaciones provocadas por el multitrayecto a la vez que
permite mayores velocidades de transmisión. Por su parte, para sacar provecho de estas
capacidades también requiere el uso de complejas técnicas dinámicas de asignación de
recursos.
El sistema móvil de cuarta generación está basado totalmente en IP. El objetivo principal
de la tecnología 4G es proporcionar alta velocidad, alta calidad, alta capacidad, seguridad
y servicios de bajo coste para servicios de voz y datos, multimedia e internet a través de
IP. Para usar la red de comunicación móvil 4G, los terminales de los usuarios deben ser
capaces de seleccionar el sistema inalámbrico de destino. Para proporcionar servicios
inalámbricos en cualquier momento y en cualquier lugar, la movilidad del terminal es un
factor clave en 4G.
Inicio - años de 2010. En 2008, la UIT-R especifica los requisitos para los sistemas
4G
Estándares - Long-Term Evolution Time-Division Duplex (LTE-TDD y LTE-FDD)
estándar WiMAX móvil (802.16m estandarizado por el IEEE)
Velocidad - 100 Mbps en movimiento y 1 Gbps cuando se permanece inmóvil.
Telefonía IP
Nuevas frecuencias, ancho de banda de canal de frecuencia más amplia.
Tecnologías de multiplexación / acceso - OFDM, MC-CDMA, CDMA y LAS-Red-
LMDS
Ancho de Banda - 5-20 MHz, opcionalmente hasta 40 MHz
COMPILADO Y ELABORADO POR: WILFREDO FANOLA – UNMSM 2018
INTRODUCCION A RADIOCOMUNICACIONES
Bandas de frecuencia: - LTE cubre una gama de diferentes bandas. En América del
Norte se utilizan 700, 750, 800, 850, 1900, 1700/2100 (AWS), 2300 (WCS) 2500 y
2600 MHz (bandas 2, 4, 5, 7, 12, 13, 17, 25, 26, 30, 41); 2500 MHz en América del
Sur; 700, 800, 900, 1800, 2600 MHz en Europa (bandas 3, 7, 20); 800, 1800 y 2600
MHz en Asia (bandas 1, 3, 5, 7, 8, 11, 13, 40) 1800 MHz y 2300 MHz en Australia y
Nueva Zelanda (bandas 3, 40).
Servicios - acceso móvil web, telefonía IP, servicios de juegos, TV móvil de alta
definición, videoconferencia, televisión 3D, computación en la nube, gestión de flujos
múltiples de difusión y movimientos rápidos de teléfonos móviles, Digital Video
Broadcasting (DVB), acceso a información dinámica, dispositivos portátiles.
El planteamiento en LTE es empezar a hacer un diseño desde cero. Esto significa una
arquitectura con nueva red de acceso y nuevo núcleo.
Arquitectura LTE
Esta nueva arquitectura de radio tiene como característica el poseer alta eficiencia
espectral mediante el uso de dos diferentes esquemas de multiplexación:
Las velocidades que se pueden alcanzar con la tecnología 4G dependen, por tanto, del
espectro disponible. Si hablamos de velocidades reales, las máximas que pueden alcanzar
los dispositivos en España (por el despliegue realizado por los operadores) varía, en el
mejor de los casos, entre 75 y 150 Mbps, siempre que se disponga de, al menos, 10Mhz
en una de las bandas de despliegue del 4G.
LTE advanced
LTE advanced se corresponde con las mejoras realizadas en la tecnología LTE para poder
alcanzar velocidades superiores a los 150 Mbps. También se denomina 4.5G o 4G+ y se
caracteriza por permitir un sistema escalable de ancho de banda excediendo los 20 MHz
del LTE (potencialmente hasta los 100 MHz). Esta técnica se conoce como "Carrier
Agretation"
Carrier Agregation consiste en que cuando un terminal se da cuenta de que tiene cobertura
de dos antenas 4G a la vez, cada una de una banda de frecuencias diferente, en lugar de
tener que elegir entre una de las dos se plantea: ¿y por qué no usar las dos antenas a la
vez? Si el dispositivo es capaz de trabajar con dos bandas de frecuencia 4G a la vez, y
siempre que la red también sea capaz de gestionarlo, se usan las dos antenas
simultáneamente para las descargas de Internet, y la velocidad máxima teórica de bajada
será la de la suma de las velocidades de cada antena individual. Por ejemplo, si se tiene
cobertura 4G en la banda 1.800Mhz con ancho de banda 15MHz y a su vez, en la banda
2600 con ancho de banda 20MHz, actualmente el terminal elegiría la antena de 2600 y,
por lo tanto, podría descargar a 150Mbps… Pero, si contamos con Carrier Agregation,
pasaríamos a usar las dos antenas a la vez (1.800 + 2.600) y la velocidad máxima de
descarga será de 150 + 112 = 262 Mbps. Y en el caso máximo a día de hoy, si en una
ciudad tenemos 20MHz en dos bandas, entonces al unir las velocidades de una celda y de
otra (cada una con 150Mbps) podremos llegar a 150 + 150 = 300Mbps de velocidad de
descarga.
Por el momento los dispositivos actuales pueden llegar a permitir Carrier Agregation de
hasta 2 bandas. En el futuro se podrá ampliar a más para alcanzar mayores velocidades.
Dividendo digital
Para alcanzar las velocidades del 4G o 4G+ anteriormente descritas es necesario disponer
de espectro suficiente. En la actualidad el 4G se despliega en diferentes bandas (1800Mhz
y 2600Mhz), ocupando frecuencias libres que el 2G o el 3G no está utilizando. Esto
significa incluso que para algunos operadores no es posible disponer de subportadoras de
20Mhz, sino que tienen que usar 5Mhz o 10Mhz. Todos esto hace necesaria la liberación
de más frecuencias para que el 4G pueda alcanzar todo su potencial.
El dividendo digital es la banda de frecuencias de los 800Mhz (790 - 862Mhz). Esta banda
es muy interesante pues permite mayor propagación de la señal, lo que significa que las
celdas de tecnología 4G podrían ampliar su cobertura más allá de los 400 metros que
actualmente tienen en 2600Mhz.
Los operadores de telefonía móvil en España ya han empezado a hacer uso de la banda
de los 800Mhz, una vez ha quedado liberada de las emisiones de televisión.
Tecnología 5G
El problema del uso de estas altas frecuencias es que pueden ser bloqueadas por edificios,
personas, árboles e incluso lluvia. Samsung afirma haber mitigado este problema
configurando de forma dinámica el modo en que la señal se divide, e incluso controlando
la dirección en la que se envía, haciendo cambios en decenas de nanosegundos en
respuesta a las condiciones cambiantes.
Los sistemas 5G tendrán por objetivo una mayor capacidad que los actuales 4G, a fin y
efecto de permitir una mayor densidad de usuarios de banda ancha móvil, y el soporte de
comunicaciones de dispositivo a dispositivo, ultra fiables y masivas, y como no reducir
CAPEX y OPEX.
Aunque los estándares están en desarrollo, algunas especificaciones se conocen. Así pues,
la UIT especifica velocidades de descarga mínimas de 20 Gbps y 10 Gbps de subida, y
una latencia de 4ms.
Otros objetivos apuntarían a un menor consumo de batería de los terminales de usuario,
necesario para muchos dispositivos IOT (Internet de las cosas). Esto significará cubrir un
rango de necesidades muy diversas, para lo cual sería necesaria una gestión mejorada del
QoS.
Red de comunicación móvil de Quinta Generación (5G)
Para realizar esto, la capa de red está subdividida en dos capas; capa de red superior para
el terminal móvil y un menor nivel de red para la interfaz. Aquí todo el enrutamiento se
basa en direcciones IP que serían diferentes en cada red IP en todo el mundo.
Velocidad - 1 a 10 Gbps.
Wi-Fi (Wifi)
"Wi-Fi" es una marca de la Wi-Fi Alliance, que es organización comercial que adopta,
prueba y certifica que los equipos cumplen los estándares IEEE 802.11 relacionados a
redes inalámbricas de área local. Erróneamente, mucha gente identifica el término «Wi-
Fi» con una abreviatura de Wireless Fidelity, cuando no es así.
Existen diversos tipos de wifi, basado cada uno de ellos en un estándar IEEE 802.11
aprobado. Son los siguientes:
Los estándares IEEE 802.11b, IEEE 802.11g e IEEE 802.11n disfrutan de una aceptación
internacional debido a que la banda de 2.4 GHz está disponible casi universalmente, con
una velocidad de hasta 11 Mbit/s, 54 Mbit/s y 300 Mbit/s, respectivamente.
En la actualidad empieza a ser común el estándar IEEE 802.11ac, conocido como WIFI
5, que opera en la banda de 5 GHz y que disfruta de una operatividad con canales
relativamente limpios. La banda de 5 GHz ha sido recientemente habilitada y, además,
no existen otras tecnologías (Bluetooth, microondas) que la estén utilizando, por lo tanto,
existen muy pocas interferencias. Su alcance es algo menor que el de los estándares que
trabajan a 2.4 GHz (aproximadamente un 10 %), debido a que la frecuencia es mayor (a
mayor frecuencia, menor cobertura).
Arquitectura Wi-Fi
Este punto de acceso "crea" la red a la que podemos conectarnos. Envía cada cierto tiempo
(100ms) la señal con el identificador de la red BSSID. Este identificador (Basic Service
Set Identifier) se forma con la dirección MAC del punto de acceso (no confundir con la
MAC del router, pues puede haber varios puntos de acceso, cada uno con su BSSID,
dentro de una red con un único router).
Al BSSID se une el otro identificador SSID para identificar una red inalámbrica. El SSID
es básicamente el nombre de la red. Habrá un único SSID en una red inalámbrica que
puede estar compuesta por varios puntos de acceso y, por lo tanto, varios BSSID.
Seguridad Wi-Fi
Para garantizar la seguridad en las redes Wi-Fi hay varias alternativas, aunque la más
efectiva es cifrar los datos transmitidos. Hay varias formas de cifrar las comunicaciones
de las redes Wi-Fi:
Bluetooth
Bluetooth es un sistema de comunicación inalámbrico para redes de corto alcance
mediante un enlace por radiofrecuencia en la banda de los 2,4 GHz. Las principales
ventajas de Bluetooth son, a parte del bajo consumo:
Los dispositivos con Bluetooth también pueden clasificarse según su capacidad de canal:
1.2 1 Mbps
2.0 3 Mbps
3.0 24 Mbps
4.0 24 Mbps
Para utilizar Bluetooth, un dispositivo debe implementar alguno de los perfiles Bluetooth.
Estos definen el uso del canal Bluetooth, así como canalizar al dispositivo que se quiere
vincular. Podemos encontrar hasta 27 perfiles diferentes, desde emisión de audio, video,
ficheros, etc.
Con respecto al uso del espectro, tal y como se comentaba anteriormente, Bluetooth
emplea la banda de los 2,4 GHz. Divide toda la banda en 79 canales de 1 MHz cada uno.
Para evitar interferencias no emplea un único canal en la transmisión, sino que lleva a
utilizar los 79 casi a la vez, saltando de forma aleatoria de uno a otro (frecuency hopping).
De esta forma se evitan interferencias con otros equipos y/o emisiones.
Conclusiones
Desde el estándar nórdico NMT de telefonía celular, que se introdujo en 1982, cada 10
años ha aparecido una nueva generación. Así pues, el sistema GSM (2G) empezó su
servicio comercial en 1992 (en España 1994), UMTS (3G) apareció en 2001 e inició su
servicio comercial en 2002 y el sistema LTE (4G) empezó a operar en 2012 y en España
un año más tarde, y alcanzó las plenas especificaciones ('True 4G') en 2014. Entre medio,
los estándares se han ido completando con nuevas mejoras que ampliaban sus
prestaciones, como GPRS, EDGE, HSDPA o HSUPA, que han hecho que el ritmo de
mejoras fuera constante. Siguiendo en esta línea se prevé que los primeros sistemas 5G
empiecen a ser operativos en 2020.
Aprovechando la evolución tecnológica, cada uno de estos sistemas ha ido introduciendo
nuevos servicios y ha comportado una mejora de la eficiencia en el aprovechamiento de
un recurso escaso como el espectro radioeléctrico. Ello ha supuesto un incremento de la
complejidad de los sistemas y de las necesidades de procesamiento de datos, con la
introducción de esquemas de modulación cada vez más complejos y técnicas como
MIMO soportados por algoritmos cada vez más potentes y complejos, que han sido
posibles gracias a la potencia cada vez mayor de los sistemas de procesado digital y a los
continuos avances en la electrónica de RF.
Así mismo, con cada nueva generación han ido bajando los costes de inversión y
mantenimiento (CAPEX y OPEX) para un mismo servicio, gracias a lo cual las tarifas se
han ido mantenido, o incluso bajando, ofreciendo mayores prestaciones.
Con estos avances ya consolidados, los sistemas 5G continuaran en esta línea de más
prestaciones, a base de mayor complejidad.
Referencias:
https://www.interempresas.net/Electronica/Articulos/197260-Evolucion-de-las-
comunicaciones-moviles-(3-parte).html
https://www.universidadviu.com/evolucion-la-red-comunicacion-movil-del-1g-al-5g/
https://mastermoviles.gitbook.io/tecnologias2/sistemas-de-telefonia-y-comunicaciones-
moviles
https://mastermoviles.gitbook.io/tecnologias2/conectividad-movil.-tecnologias-3g-4g-
wifi-y-bluetooth
Los estándares usados han llegado al 4G a nivel mundial, sin embargo, ya se están
haciendo pruebas del funcionamiento y performance de 5G.
Banda de 700 MHz: Banda 12, 17, 13 y Banda APT700 28. La banda de 746 –
806 MHz están reservadas para licitación y 614-746 es reservada para
radiodifusión televisiva del estado (Podría ser liberada y utilizada).
Banda 1900 MHz: Banda 2. Es utilizada para servicios 2G y 3G, pero América
Móvil, esta que usa parte de este espectro para ofrecer servicios LTE.
Banda 2300: Banda 40 TDD. Existen empresas que licitaron esta banda que
podrían utilizarla para ofrecer servicios LTE-TDD como Americatel Perú.
Las bandas celulares son 850, 900, 1900 y AWS. Los operadores son:
Banda de 850:
Banda de 900:
Banda de 1900:
Banda AWS:
Es muy probable que nuevas bandas sean asignadas a los operadores en un futuro cercano,
sobre todo para tecnologías como LTE. Por ahora el espectro ya está repartido para que
la batalla de las operadoras comience.
Referencia:
http://blog.pucp.edu.pe/blog/pedro/2014/10/25/la-telefon-a-celular-en-el-per-el-
espectro-con-las-operadoras-nuevas/
ANALÓGICOS.
DIGITALES.
CLASIFICACIÓN:
VANO: sección del enlace entre terminal y repetidor, o entre dos repetidores.
Longitud máxima:
f1
f1' f1
RADIOCANAL
TERMINAL REPETIDOR
Más baratos
Sencillos y fáciles de instalar
Conservación cómoda
Superación irregularidades del terreno
Se regula sólo el equipo, el medio no varía significativamente
Estaciones terminales
Estaciones repetidoras o repetidores
Estación terminal
Repetidor
f3 f4 f3
Plan a 2 frecuencias
f1 f2 f1
f2 f2
f1
RADIOENLACES ANALÓGICOS
Ejemplo RE analógico
RADIOENLACES DIGITALES
Ejemplo RE digital
Para n=2, resulta f2 = 14.445 MHz, f2' = 14.937 MHz, con lo que la diferencia entre la
frecuencia transmisora y receptora del radiocanal 2 es de 492 MHz
Dispositivos de Microondas
Cables coaxiales hasta 3 GHz
2 D2
G k
2
o bien en unidades logarítmicas
PT (dBm): potencia entregada por el amplificador del transmisor a los circuitos de acoplo
a antena
LTT, LTR (dB): pérdida en los circuitos de acoplo a antena de transmisor y receptor,
respectivamente
GT, GR (dB): ganancia de las antenas transmisora y receptora, respectivamente, respecto
a la antena isotrópica
LB(dB): pérdida básica de propagación en el espacio libre
PR(dBm): potencia recibida en la entrada del amplificador de RF del receptor
FR(dB): Factor de Ruido del receptor
U(dBm): Umbral del receptor
PR/N = C/N (dB): Relación potencia recibida/Ruido antes de la demodulación
S/N (dB): Relación Señal/Ruido en un canal en banda base (RE analógico)
Eb/N0 (dB): Relación energía por bit / densidad espectral de ruido (RE digital)
Peb: Probabilidad de error en los bits (RE digital)
Pérdidas:
Espacio libre
Difracción por obstáculos
Desvanecimientos
Desajustes de ángulos
Lluvias
Gases y vapores
Altura de antenas: el objeto más desfavorable debe dejar libre una zona
determinada. Si no hay obstáculos apreciables, las alturas de las antenas se eligen con
criterios económicos. Valores típicos: de 10 a 15 metros sobre el suelo.
Diversidad en frecuencia
f1 RX1
TX1
PROCESA
TX2 RX2
f2
Diversidad en espacio
f1
Varias
TX1
decenas de
f1
Nota: En todos los casos suponemos que las antenas están adaptadas.
1) Suponiendo antenas isotrópicas, Pt= 1KW y d=50 Km determinar en el espacio libre
la densidad de potencia (en w/m2 y en dBw/m2) y la intensidad de campo (en mv/m y
en dB v/m). Que valores obtenemos si la antena de transmisión tiene una ganancia
de 3 dB (2 veces)
Solución:
PT (W ) 1000
3,18·10 8 w / m 2
4 d (m)
2
4 (50000 ) (m)
2
PT (W ) 1000
E (v / m) 30 30 0,00346 (V / m) 3,46 mV / m
d ( m) 50 10 3
E 20 log (3,46·10 3 ) 70,78 dBV / m
2) Determinar la PRA y la PIRE (en vatios y dBW) para un sistema de transmisión con
las siguientes características: P T: 100 mW, GT = 12 dB, atenuación del cable T = 1,3
dB.
0,1·1012 / 10
PIRE PT ·g T 1.17 W
101,3 / 10
PIRE PT (dBW ) GT (dB) T (dB) 0,7dBW
PRA PT ·g T ( / 2) PIRE 2,15 (dB) 1.45 dBW
Pr(W ) 4 80 2
E (V / m) 0,00533 (V / m) E 74.53 dBV / m ; 71,22 dBW / m 2
(m)
2
Φ = E
2
(V/m)
=
2
1·10-3 (V/m)
= 2.65·10 9 wat/ m2
120 π (Ω) 120 π
4 A 4 0.1
Para una antena de apertura efectiva de 0,1 m2 gi = = 11.53 10.62 dB
2
0,33
2
A EL (dB) = 32,45 + 20 log f (MHz) + 20 log d (Km) 32.45 20 log 11 000 + 20 log 11 139,29 dB
6) Con una Pt= 30 dBm, antena de Tx: /2, antena de Rx: monopolo corto, f= 900 MHz,
d= 5Km, y con una atenuación adicional a la de espacio libre igual a 10 dB, determinar
el Pr por dos métodos (A través de la atenuación de espacio libre y a través de
intensidades de campo).
PT ( KW ) / veces
Eo (mV / m) 222 0,44 mV / m
d ( Km)
Pr(W )
2 (m) E 2 (V / m) 0,33 2 (m) 0,44·10 3 (V / m)
2
6.67·10 12 w
4 80 2
4 80 2
PT (W )
Partimos de la siguiente ecuación: E (v / m) 30
d ( m)
1000W
PT ( KW )
E (mv / m)
1V / m
30 1KW 30 000 PT ( KW ) 173 PT ( KW )
1000 mV / m 1000 m d ( Km) d ( Km)
d ( Km)
1Km
Para pasarlo a dbμV/m primero pasamos el campo a (μV/m), y la distancia a Km, como
en el caso anterior.
PT (W ) PT (W )
E ( v / m) 30 1000 1000 30 1000
d (m) d ( Km)
PT (W )
20 log E ( v / m) 20 log 30 1000
d ( Km)
E (dB / v / m) 20 log
30 1000 20 log PT (W ) 12 20 log d ( Km)
E (dB / v / m) 74,77 10 log PT (W ) 20 log d ( Km)
c 3·10 8 4A e
0,0115 m G T ,R 1900veces 32,76 dB
f 26 ·10 9 2
PT g T T
E EL 30
d
0,09 (V / m) E EL 20·log E(V / m)·106 99,08 (dBV / m)
EL
E2
0,09 2
120 · 120 ·
2,15·10 5 ( w / m 2 ) EL 10·log ( w / m 2 46 ,6 (dBw / m 2 )
7,27 7,5 2 3 3
o 2 f 10 7,26·10 (dB / Km )
f 0,35 f 57 2,44
2
Calcular la atenuación por lluvia para el 0,01 % del tiempo con polarización
horizontal (R = 35 mm/H; = 0,124; = 1,061) y la potencia recibida si en ese
momento estuviera lloviendo con esa intensidad:
1 LE d ·r0,01 1,82 Km
r0,01 0,912
1 LR / L0
h
x
30 30 20
50 20
m m m
m m
30 20 x
; x 2,5 m ; h 50 20 x 27 ,5 m
2 0,5
A( ) = 6.9 + 20 log
( 0,1) 2 + 1 + 0,1 38,33 dB
Introducción
En este estándar se encuentran las especificaciones tecnicas que se deben tener en cuenta
a la hora de implementar una red de área local inalámbrica WLAN
Breve Introducción a las Redes Inalámbricas
Las redes inalámbricas de área local se diferencian de las redes de área local
tradicionales en que los terminales no están interconectados físicamente mediante un
cable, sino que se utilizan ondas de radio para este fin. Esto es posible, en gran parte, a
que los organismos internacionales que establecen el reparto de las frecuencias han
dejado libres varias franjas para uso personal o privado. Estas frecuencias son usadas,
por ejemplo, por teléfonos fijos inalámbricos, walkie-talkies etc. En cambio, y en contra
de lo que se piensa comúnmente, los aficionados a la radio-afición cuentan con unas
frecuencias por las que tienen que abonar unos cánones.
Desde hace poco, existe una nueva tecnología que hace uso de las frecuencias libres de
licencia: las redes de área local inalámbricas o redes wireless. Las LAN inalámbricas
utilizan básicamente longitudes de onda correspondientes a las microondas (2,4 GHz y
5 GHz) y permiten tener anchos de banda apreciables (desde 1 MB/s en las primeras
versiones hasta llegar a los 54 MB/s de los últimos estándares). También es verdad que,
aunque la banda alrededor de los 5 GHz es abierta en todo el mundo, el ancho de banda
que se puede ocupar depende de la situación particular que haya impuesto cada
legislador. Es por ello que en Europa se pueden utilizar hasta 455 MHz, mientras que
en Norteamérica el ancho de banda se restringe a 300 MHz y en Japón a 100 MHz.
En muchos sitios, las redes Ethernet de cable tradicional han sido ampliadas con la
implantación de este tipo de redes inalámbricas. La interconexión de varias redes
COMPILADO Y ELABORADO POR: WILFREDO FANOLA – UNMSM 2018
INTRODUCCION A RADIOCOMUNICACIONES
locales (como por ejemplo en el caso de redes inalámbricas que se extienden en todo el
campus universitario) ha propiciado que algunos visionarios hayan visto la posibilidad
de crear una red metropolitana con gran ancho de banda y con la posibilidad de acceso
a Internet, de forma que se pudiera acceder a cualquier servicio de los que comúnmente
se utilizan en Internet (correo, web, ftp, etc.) desde cualquier lugar dentro del ámbito
metropolitano.
Componentes y Topologías de una Red Inalámbrica
Una red local 802.11 está basada en una arquitectura celular donde el sistema está
dividido en células, denominadas Conjunto de Servicios Básicos (BSS), y cada una de
estas células está controlada por una estación base denominada Punto de Acceso (AP).
Aunque una red wireless puede estar formáda por una única célula (incluso sin utilizar
un punto de acceso), normalmente se utilizan varias células, donde los puntos de
accesos estarán conectados a través de un Sistema de Distribución (DS), generalmente
Ethernet y en algunos casos sin usar cables.
La red wireless completa, incluyendo las diferentes células, sus puntos de acceso y el
sistema de distribución, puede verse en las capas superiores del modelo OSI como una
red 802 clásica, y es denominada en el estándar como Conjunto Extendido de Servicios
(ESS).
La siguiente figura muestra una red 802.11 clásica, con los componentes descritos
previamente:
Existen dos modos diferentes de operación para los dispositivos 802.11: Ad Hoc (Juego
de Servicios Independientes Básicos- Independent Basic Service Set, IBSS) o
Infraestructura (Juego de Servicios Extendidos, ESS).
Una red Ad Hoc es usualmente aquella que existe por un tiempo limitado entre dos o más
dispositivos inalámbricos que no están conectados a través de un punto de acceso (Access
Point - AP) a una red cableada. Por ejemplo, dos usuarios de laptop que deseen compartir
archivos podrían poner una red ad hoc usando NICs compatibles con 802.11 y compartir
archivos a través del medio inalámbrico (WM) sin la necesidad de usar medios externos
(por ejemplo, discos floppy, tarjetas flash).
Dentro de los PAs (actualmente ya se puede comenzar a aplicar también a los TRs) se puede
modificar enormemente la capacidad de TX/RX gracias al uso de antenas especiales. Estas
antenas se pueden dividir en
• Direccionales
• Omnidireccionales
Las antenas Direccionales envían la información a una cierta zona de cobertura, a un ángulo
determinado, por lo cual su alcance es mayor, sin embargo, fuera de la zona de cobertura no
se escucha nada, no se puede establecer comunicación entre los interlocutores.
Las antenas Omnidireccionales envían la información teóricamente a los 360 grados por lo
que es posible establecer comunicación independientemente del punto en el que se esté. En
contrapartida el alcance de estas antenas es menor que el de las antenas direccionales.
La familia 802.11 actualmente incluye seis técnicas de transmisión por modulación que
utilizan todos los mismos protocolos. El estándar original de este protocolo data de 1997,
era el IEEE 802.11, tenía velocidades de 1 hasta 2 Mbps y trabajaba en la banda de
frecuencia de 2,4 GHz. En la actualidad no se fabrican productos sobre este estándar. El
término IEEE 802.11 se utiliza también para referirse a este protocolo al que ahora se
conoce como "802.11legacy." La siguiente modificación apareció en 1999 y es designada
como IEEE 802.11b, esta especificación tenía velocidades de 5 hasta 11 Mbps, también
trabajaba en la frecuencia de 2,4 GHz. También se realizó una especificación sobre una
frecuencia de 5 GHz que alcanzaba los 54 Mbps, era la 802.11a y resultaba incompatible
con los productos de la b y por motivos técnicos casi no se desarrollaron productos.
Posteriormente se incorporó un estándar a esa velocidad y compatible con el b que
recibiría el nombre de 802.11g. En la actualidad la mayoría de productos son de la
especificación b y de la g (Actualmente se está desarrollando la 802.11n, que se espera
que alcance los 500 Mbps). La seguridad forma parte del protocolo desde el principio y
fue mejorada en la revisión 802.11i. Otros estándares de esta familia (c–f, h–j, n) son
mejoras de servicio y extensiones o correcciones a especificaciones anteriores. El primer
estándar de esta familia que tuvo una amplia aceptación fue el 802.11b. En 2005, la
mayoría de los productos que se comercializan siguen el estándar 802.11g con
compatibilidad hacia el 802.11b.
802.11a
La revisión 802.11a al estándar original fue ratificada en 1999. El estándar 802.11a
utiliza el mismo juego de protocolos de base que el estándar original, opera en la banda
de 5 Ghz y utiliza 52 subportadoras orthogonal frequency-division multiplexing
(OFDM) con una velocidad máxima de 54 Mbit/s, lo que lo hace un estándar práctico
para redes inalámbricas con velocidades reales de aproximadamente 20 Mbit/s. La
velocidad de datos se reduce a 48, 36, 24, 18, 12, 9 o 6 Mbit/s en caso necesario. 802.11a
tiene 12 canales no solapados, 8 para red inalámbrica y 4 para conexiones punto a punto.
No puede interoperar con equipos del estándar 802.11b, excepto si se dispone de equipos
que implementen ambos estándares.
Dado que la banda de 2.4 Ghz tiene gran uso (pues es la misma banda usada por los
teléfonos inalámbricos y los hornos de microondas, entre otros aparatos), el utilizar la
banda de 5 GHz representa una ventaja del estándar 802.11a, dado que se presentan
menos interferencias. Sin embargo, la utilización de esta banda también tiene sus
desventajas, dado que restringe el uso de los equipos 802.11a a únicamente puntos en
línea de vista, con lo que se hace necesario la instalación de un mayor número de puntos
de acceso; Esto significa también que los equipos que trabajan con este estándar no
pueden penetrar tan lejos como los del estándar 802.11b dado que sus ondas son más
fácilmente absorbidas.
802.11b
La revisión 802.11b del estándar original fue ratificada en 1999. 802.11b tiene una
velocidad máxima de transmisión de 11 Mbit/s y utiliza el mismo método de acceso
CSMA/CA definido en el estándar original. El estandar 802.11b funciona en la banda
de 2.4 GHz. Debido al espacio ocupado por la codificación del protocolo CSMA/CA,
en la práctica, la velocidad máxima de transmisión con este estándar es de
aproximadamente 5.9 Mbit/s sobre TCP y 7.1 Mbit/s sobre UDP.
Las tarjetas de 802.11b pueden operar a 11 Mbit/s pero pueden reducirse hasta 5.5, 2 o
1 Mbit/s en el caso de que la calidad de la señal se convierta en un problema. Dado que
las tasas bajas de transferencia de información usan algoritmos menos complejos y más
redundantes para proteger los datos son menos susceptible a la corrupción debido a la
atenuación o interferencia de la señal. Sean han hecho extensiones del protocolo
802.11b para incrementar su velocidad a 22, 33, 44 Mbit/s pero estas no han sido
ratificadas por la IEEE. Muchas compañías llaman a estas versiones mejoradas
802.11b+. Estas extensiones han sido ampliamente obviadas por los desarrolladores del
802.11g que tiene tasas de transferencia a 54 Mbit/s y es compatible con 802.11b
802.11g
En junio de 2003, se ratificó un tercer estándar de modulación: 802.11g. Este utiliza la banda
de 2.4 Ghz (al igual que el estándar 802.11b) pero opera a una velocidad teórica máxima de
54 Mbit/s, o cerca de 24.7 Mbit/s de velocidad real de transferencia, similar a la del estándar
802.11a. Es compatible con el estándar b y utiliza las mismas frecuencias. Buena parte del
proceso de diseño del estándar lo tomó el hacer compatibles los dos estándares. Sin
embargo, en redes bajo el estándar g la presencia de nodos bajo el estándar b reduce
significativamente la velocidad de transmisión. El mayor rango de los dispositivos 802.11g
es ligeramente mayor que en los del 802.11b pero el rango que el cliente puede alcanzar 54
Mbit/s es mucho más corto que en el caso del 802.11b.
Los equipos que trabajan bajo el estándar 802.11g llegaron al mercado muy rápidamente,
incluso antes de su ratificación. Esto se debió en parte a que para construir equipos bajo este
nuevo estándar se podían adaptar los ya diseñados para el estándar b. Muchos de los
productos de banda dual 802.11a/b se convirtieron de banda dual a modo triple soportando
a (a, b y g) en un solo adaptador móvil o AP. A pesar de su mayor aceptación 802.11g sufre
de la misma interferencia de 802.11b en el rango ya saturado de 2.4 GHz por dispositivos
como hornos microondas, dispositivos bluetooth y teléfonos inalámbricos
802.11n
En enero de 2004, la IEEE anunció la formación de un grupo de trabajo 802.11 para
desarrollar una nueva revisión del estándar 802.11 la velocidad real de transmisión
podría llegar a los 500 Mbps (lo que significa que las velocidades teóricas de transmisión
serían aún mayores), y debería ser hasta 10 veces más rápida que una red bajo los
estándares 802.11a y 802.11g, y cerca de 40 veces más rápida que una red bajo el
estándar 802.11b. También se espera que el alcance de operación de las redes sea mayor
con este nuevo estándar. Existen también otras propuestas alternativas que podrán ser
consideradas y se espera que el estándar que debía ser completado hacia finales de 2006,
se implante hacia 2008, puesto que no es hasta principios de 2007 que no se acabe el
segundo boceto. No obstante, ya hay dispositivos que se han adelantado al protocolo y
ofrecen de forma no oficial éste estándar (con la promesa de actualizaciones para cumplir
el estándar cuando el definitivo esté implantado)
802.11n se construye basándose en las versiones previas del estándar 802.11 añadiendo
MIMO (Multiple-Input Multiple-Output). MIMO utiliza múltiples transmisores y
antenas receptoras permitiendo incrementar el tráfico de datos.
Como probablemente saben, 802.11a y b, cada una define una capa física diferente 802.11b,
transmite a 2.4Ghz y envía datos a 11 Mbps usando una secuencia DSSS mientras tanto
502.11a transmite a 5Ghz y envía datos a 54 Mbps usando OFDM/
Por supuesto el desempeño superior del 802.11a ofrece excelente soporte para aplicaciones
que requieran un amplio ancho de banda; pero la alta frecuencia de operación equivale a un
rango de acción relativamente corta. Se han visto demostraciones de 802.11a entregando
54 Mbps a distancias de hasta 20 mts que es mucho menos que los 100 mts de cobertura de
802.11b. En comparación necesitaría muchos más AP en 802.11a para cubrir un área
específica, especialmente si esta es muy grande.
En 2002 y 2003 los productos que soportaban el nuevo estándar 802.11g empezaron a
aparecer en escena. 802.11g intenta combinar lo mejor de las dos normas anteriores, soporta
un ancho de banda de 54 Mbps y usa la banda de 2.4 Ghz para obtener un mayor rango.
802.11g es por lo tanto compatible con 802.11b.
Haz global: 1/3 de la Tierra. Cono tangente a la Tierra con vértice el satélite.
En la práctica, algo menor (elev >5º)
d: distancia del satélite al centro de la Tierra, es decir, altura sobre la superficie terrestre
en algún punto del Ecuador más el radio de la Tierra RT = 6.366 Km
d h RT
: velocidad angular de rotación de la Tierra, que es 2 / T, donde T es el tiempo que
tarda la Tierra en dar una vuelta sobre su propio eje de rotación, de valor 23 h 56m
h 35.806Km
que es la altura a la que un satélite geoestacionario se encuentra sobre algún punto del
Ecuador. Las coordenadas de dicho punto del Ecuador, que tiene en su cenit un satélite,
se denominan "posición orbital" del satélite
Distancia D al satélite
La UIT es la organización intergubernamental más antigua del mundo, con una historia
que se remonta hasta 1865, fecha de la invención de los primeros sistemas telegráficos.
Se creó para controlar la interconexión internacional de estos sistemas de
telecomunicación pioneros. La UIT ha hecho posible, desde entonces, el desarrollo del
teléfono, de las comunicaciones por radio, de la radiodifusión por satélite y de la
televisión y, más recientemente, la popularidad de las computadoras personales y el
nacimiento de la era electrónica. La organización se convirtió en un organismo
especializado de la ONU en 1947. Posteriormente, desde 1998 hasta 2003, absorbió a
varias organizaciones internacionales responsables del desarrollo tecnológico, tales como
la “Asociación de la Tecnología Informática de América” (ITAA) y el “Consejo
Internacional para la Administración Tecnológica” (IBTA).
Misiones y funciones
La UIT:
En abril de 2012, los Jefes Ejecutivos del Sistema de las Naciones Unidas se reunieron
en la sede de la UIT y aprobaron un Plan de acción para todo el sistema (SWAP) sobre
igualdad de género y empoderamiento de la mujer acordando que todos los organismos,
fondos y programas del sistema de las Naciones Unidas deberán implementar el plan de
acción que establece un marco de responsabilidades para promover la igualdad de género
y el empoderamiento de la mujer.
Historia
Los primeros estudios internacionales relacionados con el área de radiocomunicaciones
se realizaron tras la primera Conferencia Internacional de Radiotelegrafía de Berlín
(International Radiotelegraph Conference) de 1906, en la que 29 estados marítimos
firmaron la Convención Internacional de Radiotelegrafía (International Radiotelegraph
Convention). En 1927, durante la conferencia de Washington, se creó la precursora de la
ITU-R, denominada como Comité Consultivo Internacional de Radiocomunicaciones
COMPILADO Y ELABORADO POR: WILFREDO FANOLA – UNMSM 2018
INTRODUCCION A RADIOCOMUNICACIONES
Las Reglas de Procedimiento han sido aprobadas por la Junta del Reglamento de
Radiocomunicaciones atendiendo a las propuestas de la Oficina de Radiocomunicaciones
de conformidad con el número 95 de la Constitución y el número 168 del Convenio de la
UIT.
Organización
La FCC está formada por cinco comisarios (antes eran siete, pero redujeron el número
por recortes de presupuesto) designados por el Presidente y confirmados por el Senado
para cinco años, excepto el caso de completar un periodo inconcluso. El Presidente del
país designa presidente de la FCC a uno de los comisarios. Como mucho tres comisarios
pueden ser miembros del mismo partido político. Ninguno de ellos puede tener interés
financiero alguno en cualquier negocio relacionado.
Un poco de historia...
Fue formado en 1963 por la fusión del IRE (Institute of Radio Engineers), fundado en
1912 y el AIEE (The American Institute of Electrical Engineers), fundado en 1884.
Los intereses principales del AIEE eran la comunicación por cable (el telégrafo y la
telefonía), la luz y la electricidad. El IRE se trató sobre todo del radio en ingeniería, y se
formó a partir de dos organizaciones más pequeñas, la Sociedad de Ingenieros Wireless
y Telégrafos y el Instituto Wireless. Con el auge de la electrónica en la década de 1930,
ingenieros electrónicos por lo general se convirtieron en miembros del IRE, pero las
aplicaciones de la tecnología de tubo de electrones llegó a ser tan amplia que los límites
técnicos diferenciar el IRE y del AIEE se hacía difícil de distinguir.
Después de la Segunda Guerra Mundial, las dos organizaciones llegaron a ser cada vez
más competitivas, y en 1961, los dirigentes tanto del IRE y del AIEE resolvieron
consolidar las dos organizaciones. Las dos organizaciones se fusionaron en el IEEE el 1
de enero de 1963. En su fundación, el IEEE tenía 150.000 miembros, de los cuales
140.000 estaban en los Estados Unidos. Actualmente IEEE patrocina o copatrocina más
de 1000 conferencias técnicas internacionales cada año.
Investigación
A través de sus miembros, más de 380.000 voluntarios en 175 países, el IEEE es una
autoridad líder y de máximo prestigio en las áreas técnicas derivadas de la eléctrica
original: desde ingeniería computacional, tecnologías biomédica y aeroespacial, hasta las
áreas de energía eléctrica, control, telecomunicaciones y electrónica de consumo, entre
otras.
VHDL, POSIX, IEEE 1394, IEEE 488, IEEE 802, IEEE 802.11, IEEE 754, IEEE 830
Publicaciones
Conferencias y reuniones.
Generalidades
Los Sistemas fotovoltaicos que generan energía eléctrica por conversión directa de la luz
solar, tienen amplias posibilidades de aplicación, teniendo en consideración que la
alimentación fotovoltaica será estrictamente para energizar equipos de comunicaciones y
eventualmente dispositivos de climatización de bajo consumo (como extractores de aire).
La diversidad de equipos con los que puede conformarse un sistema fotovoltaico, hace
necesario que se establezcan criterios de elección. En todos los casos los equipos elegidos
deberán contar con certificación internacional de calidad. A continuación, se
dimensionará los elementos del sistema fotovoltaico.
De los Paneles
Se establece el requisito de una vida útil de por lo menos 3650 ciclos diarios (10
años) a una profundidad de descarga de no más del 20% y a una
temperatura ambiente de 25°C.
Se establece sin excepción, la instalación de las baterías en posición vertical y
mediante estantería de propiedades antisísmicas.
Por la dispersión de características asociada a la descarga o permanencia en
descarga, no se conformarán bancos de baterías con elementos de diferente
marca o procedencia.
Las estructuras de soporte y sus fijaciones deberán poder soportar vientos de hasta
120 Kph.
Las estructuras deberán ser regulables en cuanto al ángulo de inclinación en
el rango de 5° a 45° respecto de la horizontal. El ángulo variará de acuerdo a la
ubicación geográfica del proyecto.
Se establecen dos tipos de estructura según la magnitud del campo solar:
Estructuras diversas para fijación en postes, paredes o techos que cuentan con
certificación de origen y calidad. El material empleado deberá ser preferentemente de
aluminio anodizado.
Se establece una estructura única para fijación sobre superficie horizontal o cercana a la
horizontal, diseñada para soportar 20 paneles y extensible para 24 y para 28 paneles.
Para los equipos asociados en las configuraciones híbridas como son Grupos
electrógenos, Rectificadores, Generadores eólicos, etc. las funciones de control y de
monitoreo estarán preferentemente asumidas por el Regulador fotovoltaico buscando
asegurar una óptima confiabilidad del sistema.
Del equipamiento
Se resumen las características primordiales del equipamiento que confieren gran
confiabilidad a los sistemas fotovoltaicos y por tanto los hacen viables para su aplicación
en telecomunicaciones:
La supervisión remota del funcionamiento (extensión de alarmas).
Las baterías selladas (libres de mantenimiento).
El sensado y registro de la radiación solar diaria en los sistemas mayores.
Modalidades de Aplicación
Cuando pensamos en la energía solar, dos manifestaciones de ésta, luz y calor, son
fácilmente reconocidas. Ambas juegan un papel vital en la vida de nuestro planeta. La luz
solar hace posible el proceso de fotosíntesis, sin el cual el reino vegetal y animal
desaparecerían. El calor tempera el clima y evapora las aguas del mar, las que, libres del
contenido salino, son devueltas al planeta en forma de lluvia. Seres humanos, animales y
plantas deben su existencia a este simple mecanismo de purificación. Varias de las
civilizaciones antiguas, conscientes de esta dependencia, convirtieron al sol en una deidad
digna de veneración.
Hoy en día la energía solar se utiliza como fuente de energía renovable, la cual se capta a
través de paneles fotovoltaicos y se almacena en baterías como energía eléctrica para
suministrar electricidad a las luces (bombillas) y diversos equipos que funcionan con
energía eléctrica. Esto incluye equipos como su PC, o la secadora de pelo que utiliza por
la mañana. El aprovechamiento de la energía solar representará un costo mensual cero,
ya que esta es gratuita; sin embargo, vale la pena mencionar que hay una inversión inicial
para los equipos que permitirán captar la energía solar, controlar y almacenar energía
eléctrica.
Durante los siguientes 15 años la tecnología de la celda fue mejorada y estuvo lista para
que, en 1975, con la llegada de la crisis petrolera y el incremento de los costos de energía,
se pensara en dicha tecnología como alternativa de solución. Las celdas fotovoltaicas
(FV) eran aún muy costosas para muchas de las aplicaciones comerciales, pero probaron
ser una opción interesante para aquellos lugares, realmente alejados de la red pública.
Desde entonces, los precios de las celdas fotovoltaicas han ido bajando y su eficiencia
gradualmente se ha incrementado y por tanto los costos por unidad de electricidad
generada con fotovoltaica empiezan a ser cada vez más bajos.
Debido al descenso de los costos, el número de aplicaciones comerciales va creciendo.
Al principio los PF eran sólo una opción interesante para aplicaciones espaciales, hoy en
día pequeñas celdas fotovoltaicas se usan dondequiera alrededor del mundo en una
infinidad de diferentes aplicaciones comerciales.
Hasta ahora, muchos de los paneles solares fotovoltaicos utilizados son celdas cristalinas
o de silicio. Este tipo de módulos convierte la luz solar en electricidad con una eficiencia
del 12 al 15 %. Las recientes mejoras en eficiencia probablemente influirán en una mayor
utilización de estas celdas solares. Son especialmente interesantes los desarrollos con la
tecnología de la película delgada para las celdas solares. Estas celdas están aún es una
fase pre-comercial, pero se espera que sean una alternativa económicamente viable en
una o dos décadas. Se espera que a largo plazo estas celdas solares produzcan electricidad
a una eficiencia de más del 15%.
Algunas de sus ventajas son que los sistemas solares fotovoltaicos casi no requieren de
mantenimiento, no hacen ruido, no contaminan, etc.
De otro lado, hay desventajas, o puntos débiles de los sistemas fotovoltaicos. Una de las
desventajas más conocidas es el alto costo inicial de los FV. Esto hace que mucha gente
difícilmente adquiera un sistema fotovoltaico sin un sistema de crédito. Otras desventajas
son que algunas de las partes deben importarse.
La energía que recibimos del Sol es más que suficiente para cubrir toda la demanda
energética del mundo. En realidad, la energía que recibimos es 10,000 veces el actual
consumo de energía del mundo.
Fuera de la atmósfera la irradiación del Sol tiene una intensidad de 1350 W/m2, en la
tierra la máxima intensidad de la irradiación es aproximadamente de 1000 W/m2, pero en
días muy despejados puede ser un poco más alta. La irradiación no está distribuida
equitativamente sobre la superficie de la Tierra, primeramente, debido a la forma de la
Tierra, las áreas alrededor del Ecuador reciben más energía solar que otras partes. En
segundo lugar, debido a las diferencias en la humedad del aire, despeje del cielo y
nubosidad, hay variaciones de país en país, aún si se encuentran en la misma latitud.
La energía que recibimos del Sol es 10,000 veces el actual consumo de energía del
mundo.
Fuera de la atmósfera la irradiación del Sol tiene una intensidad de 1350 W/m2, en la
tierra la máxima intensidad de la irradiación es aproximadamente de 1000 W/m2, pero en
días muy despejados puede ser un poco más alta. La irradiación no está distribuida
equitativamente sobre la superficie de la Tierra, primeramente, debido a la forma de la
Tierra, las áreas alrededor del Ecuador reciben más energía solar que otras partes. En
COMPILADO Y ELABORADO POR: WILFREDO FANOLA – UNMSM 2018
INTRODUCCION A RADIOCOMUNICACIONES
segundo lugar, debido a las diferencias en la humedad del aire, despeje del cielo y
nubosidad, hay variaciones de país en país, aún si se encuentran en la misma latitud.
Las áreas desérticas con climas muy secos y claros, reciben mayor irradiación que las
áreas tropicales donde la humedad es mucho mayor. Aún más hay fluctuaciones debido a
la rotación de la tierra alrededor de su propio eje (fluctuación diaria) y alrededor del sol
(fluctuación estacionaria). En días claros la energía solar está distribuida a lo largo del
día en una especie de distribución de Gauss (forma de campana).
Este diagrama está referido a las horas efectivas de incidencia de irradiación solar por día
(horas sol pico) en base a estudios de mediciones de horas de sol. Por ejemplo, la
estimación de energía solar en el Perú es de aproximadamente 5kWh /m2 /día, esto quiere
decir 1000 W/m2 por cinco horas útiles de radiación solar al día.
Todos estos diferentes efectos hacen que la energía solar fluctúe fuertemente de región a
región y de tiempo en tiempo.
Resulta útil imaginar que el Sol describe cada día un arco sobre la bóveda celeste, desde
el orto hasta el ocaso, cuya longitud, elevación y duración en el tiempo son distintas cada
día y en cada latitud geográfica del planeta.
A continuación, se ilustra el movimiento del Sol en agosto, en la mañana sale por el Nor-
este y en la tarde se oculta por el Sur-oeste.
b. Sistemas de torres.
Las torres de telecomunicaciones son infraestructuras de soporte de todo tipo de antenas
y otros accesorios que implican un sistema de comunicaciones en todas las bandas de
frecuencia. En algunos casos la misma torre puede ser hasta una antena, como en el caso
de los sistemas tradicionales de Onda Media, con el llamado dipolo vertical de Marconi.
En la implementación de los sistemas de telecomunicaciones por radio, vamos a encontrar
diferentes tipos de torres., desde ventadas hasta las autosoportadas.
Aquí una breve descripción de los tipos de torres, comúnmente usados.
La torre angular cuadrada cuenta con 4 patas y es auto soportada. Está construida de
elementos angulares diseñada sobre un patrón de base cuadrado.
La torre A esta optimizada para cargas medianas y pesadas, generalmente adecuada para
sitios celulares primarios, sitios troncales de microondas, o sitios concentradores de
comunicaciones centrales. Las torres A están diseñadas para alturas desde 20 hasta 120
metros, y pueden ser fácilmente transportadas en contenedores estándar OT 20′ ISO. Su
diseño modular permite la modificación de último minuto, y los módulos pueden ser
fácilmente intercambiados de acuerdo con el diseño específico del sitio.
Cada torre A cuenta con una serie de accesorios, tales como plataformas, monturas para
antenas, dispositivos de seguridad, luces de obstrucción, kit de protección contra rayos,
entre otros.
Las torres de telecomunicaciones tipo E, cuentan con tres patas y son auto soportadas.
Están construidas de elementos angulares triangulares, diseñadas sobre un patrón de base
triangular.
Las torres de comunicaciones tipo E están diseñadas para alturas desde 20 hasta 70
metros, y pueden ser fácilmente transportadas en contenedores estándar 20′ ISO.
Su diseño modular permite la modificación de último minuto, y los módulos pueden ser
fácilmente intercambiados de acuerdo con el diseño específico del sitio.
Cada torre de comunicaciones tipo E cuenta con una serie de accesorios, tales como
plataformas, monturas para antenas, dispositivos de seguridad, luces de obstrucción, kit
de protección contra rayos, entre otros.
Las torres de telecomunicaciones tipo N, cuentan con tres patas, y están fabricadas de
patas con partes tubulares y elementos de soporte angulares. La torre N está diseñada para
cargas pesadas, generalmente adecuada para sitios troncales de microondas, o sitios
concentradores de comunicaciones centrales.
Las torres N están diseñadas para alturas desde 30 hasta 120 metros, y pueden ser
fácilmente transportadas en contenedores estándar 40′ ISO. Su diseño modular permite la
modificación de último minuto, y los módulos pueden ser fácilmente intercambiados de
acuerdo con el diseño específico del sitio.
Cada una de las torres para antenas cuenta con una serie de accesorios, tales como
plataformas, monturas para antenas, dispositivos de seguridad, luces de obstrucción, kit
de protección contra rayos, entre otros.
Las torres de celosía, cuentan con tres patas y están construidas con patas de elementos
tubulares y elementos de soporte tubulares. La torre N está diseñada para cargas pesadas,
generalmente adecuada para sitios troncales de microondas, o sitios concentradores de
comunicaciones centrales.
Las torres están diseñadas para alturas desde 20 hasta 80 metros, y pueden ser fácilmente
transportadas en contenedores estándar 40′ ISO. Su diseño modular, tubular triangular,
permite la modificación de último minuto, y los módulos pueden ser fácilmente
intercambiados de acuerdo con el diseño específico del sitio.
Cada una de las torres cuenta con una serie de accesorios, tales como plataformas,
monturas para antenas, dispositivos de seguridad, luces de obstrucción, kit de protección
contra rayos, entre otros.
La torre G está diseñada para cargas medianas y pesadas, y cuenta con fácil acceso por
escaleras a las antenas y el equipo montado. La torre G es apropiada para sitios de radares,
torres de vigilancia, control de incendio forestal, etc.
Las torres G están diseñadas para alturas de hasta 50 metros y pueden ser fácilmente
transportadas en contenedores estándar 20′ ISO. Su diseño modular permite
modificaciones de último minuto en cuanto a carga y altura.
Cada torre G cuenta con una serie de accesorios, tales como elevadores, plataformas de
trabajo, monturas para antenas, dispositivos de seguridad, luces de obstrucción, kit de
protección contra rayos, entre otros. Todos los accesorios de las torres de
telecomunicaciones pueden ser instalados a cualquiera altura y orientación, de acuerdo
con los requerimientos del cliente.
Torre arriostrada
Diseñada para cargas ligeras a medianas, es perfectamente adecuada para sitios celulares
y estaciones de TV y radio AM/FM. Las torres arriostradas están diseñadas para alturas
desde 20 hasta 150 metros, y pueden ser fácilmente transportadas en contenedores
estándar OT 20′ ISO.
Como parte de la serie de torres monoposte, se tiene la torre monoposte con brida, un
monoposte de 18 caras, que alcanza una altura de hasta 60 m.
Las torres monoposte con brida están fabricados de secciones huecas de acero,
atornilladas con bridas. La torre está diseñada para cargas medianas y pesadas,
generalmente utilizable para sitios celulares de uno o varios operadores.
Las torres monoposte con brida están diseñadas para alturas desde 15 hasta 60 metros, y
pueden ser fácilmente transportadas en contenedores OT 40′ ISO. Las torres monoposte
con brida tienen un diseño flexible modular, que permite modificaciones de último
minuto, por lo que los módulos pueden ser fácilmente cambiados de acuerdo con el diseño
específico del sitio.
Cada torre monoposte cuenta con una serie de accesorios, tales como plataformas,
monturas para antenas, dispositivos de seguridad, luces de obstrucción, kit de protección
contra rayos, entre otros.
La torre está fabricada de secciones de acero huecas de 7.5 metros, las cuales se conectan
con el sistema de junta deslizante. La torre está diseñada para cargas ligeras y medianas,
generalmente utilizable para sitios celulares estándar de uno o varios operadores.
Las torres monoposte están diseñadas para alturas desde 15 hasta 40 metros, y pueden ser
fácilmente transportadas en contenedores OT 40′ ISO.
Cada torre monoposte cuenta con una serie de accesorios, tales como plataformas,
monturas para antenas, dispositivos de seguridad, luces de obstrucción, kit de protección
contra rayos, entre otros.
Referencia: http://mer-group.com/es/soluciones/infraestructura-inalambrica/torre-a
Las puestas a tierra se establecen con el objeto principal de limitar la tensión que, con
respecto a tierra, pueden presentar en un momento dado las masas metálicas, y evitar
diferencias de potencial peligrosas permitiendo el paso a tierra de las corrientes de falta
o de descarga de origen atmosférico.
El sistema de puesta a tierra de una instalación de pararrayos es una de las partes más
importantes de la instalación, por ser esta la encargada de disipar las corrientes del rayo
y toda su energía.
Dependiendo del sistema de protección tenemos indicaciones marcadas por la norma IEC
62305-3:2011 para puntas Franklin o jaula de Faraday, o bien por las normas UNE
21186:2011 y NF C 17-102:2011 para pararrayos PDC.
Debe realizarse una toma a tierra por cada conductor de bajada y existen 2 tipos:
Esta disposición tipo B está recomendada para terrenos de roca, y es preferible su uso en
estructuras con sistemas electrónicos o bien de alto riesgo de incendios.
normatividad aplicable. Es importante por lo tanto considerar que solo existen dos
tecnologías con sustento científico y certificación, teniendo cada una sus ventajas y
desventajas, para lo cual deberá seleccionarse la más apropiada dependiendo de un
estudio y valoración de riesgo del inmueble a proteger.