Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
las Redes
Una red es un conjunto de ordenadores conectados entre si, que pueden
comunicarse para compartir datos y recursos sin importar la localización física de los
distintos dispositivos.
Hits: 129853
< Prev
Next >
Artículos Relacionados
Red de Transporte
Planeacion y diseño de redes WLAN
Concepto de red y tipos de redes
Topologías de red
Arquitecturas de red
Integración de Tecnologías en el Diseño de Hogares Inteligentes
La segunda generación 2G
La 2G arribó hasta 1990 y a diferencia de la primera se caracterizó por ser digital. El sistema 2G
utiliza protocolos de codificación más sofisticados y son los sistemas de telefonía celular usados
en la actualidad. Las tecnologías predominantes son: GSM (Global System for Mobile
Communications); IS-136 (conocido también como TIA/EIA-136 o ANSI-136) y CDMA (Code
Division Multiple Access) y PDC (Personal Digital Communications), éste último utilizado en
Japón.
Los protocolos empleados en los sistemas 2G soportan velocidades de información mas altas
para voz pero limitados en comunicaciones de datos. Se pueden ofrecer servicios auxiliares tales
como datos, fax y SMS [Short Message Service]. La mayoría de los protocolos de 2G ofrecen
diferentes niveles de encriptación. En los Estados Unidos y otros países se le conoce a 2G como
PCS (Personal Communications Services).
La generación 2.5G
Muchos de los proveedores de servicios de telecomunicaciones (carriers) se moverán a las redes
2.5G antes de entrar masivamente a 3G. La tecnología 2.5G es más rápida y más económica
para actualizar a 3G.
La generación 2.5G ofrece características extendidas para ofrecer capacidades adicionales que
los sistemas 2G tales como GPRS (General Packet Radio System), HSCSD (High Speed Circuit
Switched Data), EDGE (Enhanced Data Rates for Global Evolution), IS-136B, IS-95B, entre
otros. Los carriers europeos y de Estados Unidos se moverán a 2.5G en el 2001. Mientras que
Japón ira directo de 2G a 3G también en el 2001.
La tercer generación 3G
La 3G es tipificada por la convergencia de la voz y datos con acceso inalámbrico a Internet,
aplicaciones multimedia y altas transmisiones de datos. Los protocolos empleados en los
sistemas 3G soportan más altas velocidades de información enfocados para aplicaciones mas
allá de la voz tales como audio (MP3), video en movimiento, video conferencia y acceso rápido
a Internet, sólo por nombrar algunos. Se espera que las redes 3G empiecen a operar en el 2001
en Japón por NTT DoCoMo, en Europa y parte de Asia en el 2002, posteriormente en Estados
Unidos y otros países.
Los sistemas 3G alcanzaran velocidades de hasta 384 Kbps permitiendo una movilidad total a
usuarios viajando a 120 kilómetros por hora en ambientes exteriores y alcanzará una velocidad
máxima de 2 Mbps permitiendo una movilidad limitada a usuarios caminando a menos de 10
kilómetros por hora en ambientes estacionarios de corto alcance o en interiores. Entre las
tecnologías contendientes de la tercera generación se encuentran UMTS (Universal Mobile
Telephone Service), cdma2000, IMT-2000, ARIB[3GPP], UWC-136, entre otras.
La cuarta generación 4G
La cuarta generación es un proyecto a largo plazo que será 50 veces más rápida en velocidad
que la tercer generación. Se planean hacer pruebas de esta tecnología hasta el 2005 y se espera
que se empiecen a comercializar la mayoría de los servicios hasta el 2010.
Por otro lado, CDMA, tecnología desarrollada por Qualcomm, utiliza la tecnología de espectro
disperso en la cual muchos usuarios comparten simultáneamente el mismo canal pero cada uno
con diferente código. Lo anterior permite una mayor capacidad en usuarios por celda. A CDMA
de segunda generación se le conoce como cdmaOne. Hasta diciembre del 2000 existen más de
27 millones de usuarios en más de 35 países alrededor del mundo utilizando cdmaOne.
A continuación se muestra una tabla donde se especifican los diferentes servicios ofrecidos por
cada una de estas tres tecnologías:
En los Estados Unidos se verán ambas tecnologías compitiendo en el mercado, pero muchos de
los países del resto del mundo se inclinan más por el uso de W-CDMA. La dominación
potencial de W-CDMA en el mundo pondría a dudar a algunos operadores de IS-95 en países
como Japón y Corea para aceptar W-CDMA, en vez de arriesgarse a tener sistemas que no son
compatibles con los sistemas celulares de los países vecinos.
Qué es UMTS UMTS (Universal Mobile Telephone Service) es un sistema móvil de tercera
generación que está siendo desarrollado por el organismo ETSI (European Telecommunications
Standards Institute) junto el IMT-2000 de la ITU. UMTS es sistema europeo que está intentando
combinar la telefonía celular, teléfonos inalámbricos, redes locales de datos, radios móviles
privados y sistemas de radiolocalización (paging). Va a proveer velocidades de hasta 2 Mbps
haciendo los videoteléfonos una realidad. Las licencias de UMTS están atrayendo gran interés
entre los carriers del continente europeo debido a que representa una oportunidad única para
crear un mercado en masa para el acceso a la información, altamente personalizado y amigable
para la sociedad. UMTS busca cimentar y extender el potencial de las tecnologías móviles,
inalámbricas y satelitales de hoy en día.
EL FUTURO DE LA TELEFONÍA MÓVIL
Lo que sigue en este momento es esperar a que los carriers ofrezcan los servicios de 3G. Por
ejemplo, en Japón ya están operando con las tecnologías de 3G. El servicio con más éxito es i-
mode de NTT DoCoMo que utiliza una red basada en paquetes conocida como PDC-P, aunque
es una tecnología propietaria tiene actualmente más de 17 millones de subscriptores. NTT
DoCoMo también piensa incursionar con W-CDMA y sus contendientes en ese país para
servicios 3G son DDI y J-Phone. En Estados Unidos, compañías como Qualcomm y Sprint PCS
ya empezaron a realizar pruebas del servicio 3G.
La batalla por las licencias de 3G de UMTS es otro asunto de gran importancia y varias son las
compañías las involucradas en obtener las valiosas licencias de telefonía móvil de tercera
generación, tales como: Telecom Italia (Italia); Vodafone, Orange y BT Cellnet (Inglaterra); T-
Mobil (Alemania), France Telecom (Francia); KPN Telecom (Holanda), NTTDoCoMo (Japón),
etc. Las compañías que dominan mercados pequeños deberán aliarse con los grupos grandes.
A parte de las cantidades enormes de dinero que cuestan las licencias, hay que tomar en cuenta
que las redes telefónicas de estos carriers son redes grandes y complejas, por lo que les tomará
tiempo y grandes inversiones de capital para implementar la tecnología. Pero muchas de las
ventajas de esas redes son que varias de ellas ya están ofreciendo servicios de datos, y
prevalecerán aquellas empresas de telecomunicaciones que tengan la mayor experiencia en
tecnologías inalámbricas y tomen ventaja de ello para las nuevas redes del futuro.
En relación en predicciones en cuanto a usuarios móviles, The Yankee Group anticipa que en el
2004 habrá más de 1150 Millones de usuarios móviles en el mundo, comparados con los 700
millones que hubo en el 2000. Por otra parte Ericsson predice que habrá 1000 millones de
usuarios en el 2002. Dichas cifras nos anticipan un gran numero de capital involucrado en la
telefonía inalámbrica, lo que con más razón las compañías fabricantes de tecnología, así como
los proveedores de servicios de telecomunicaciones estarán dispuestos a invertir su capital en
esta nueva aventura llamada 3G.
Organismo Significado
3GPP Third Generation Partnership Project
URL
ETSI European Telecommunications Standards Institute
http://www.3gpp.org/
GAA GPRS Application Alliance
http://www.etsi.org/
GSM Global System for Mobile Communications
http://www.gprsworld.com/
IMT-2000 Association
http://www.gsmworld.com/
ITU International Mobile Telephone Standard 2000
http://www.itu.int/imt/
NTT International Telecommunications Union
http://www.itu.int/
DoComo NTT DoCoMo
http://www.nttdocomo.net/
UMTS ForumUniversal Mobile Telecommunications System http://www.umts-forum.org/
UWCC Forum
http://www.uwcc.org/
WDF Universal Wireless Communications Consortium
http://www.wirelessdata.org/
Wireless Data Forum
Hits: 182141
< Prev
Next >
Artículos Relacionados
El ABC de la telefonía celular (parte 1)
El ABC de la telefonía celular (parte 2)
Telefonia Celular: 15 años de historia en México
Evolución de las redes
A la espera de la cuarta generación (4G) de la telefonía móvil
Fusiones de operadores de telefonía Móvil-Fijo: Un repaso a la experiencia internacional
Introducción
En el ámbito de la educación superior el uso de las tecnologías se ha convertido en uno de los
requerimientos básicos para el desarrollo de los procesos de enseñanza aprendizaje ya que el
rápido avance tecnológico nos lleva a vernos inmersos en este vertiginoso cambio.
Desarrollo
Debido a la inmersión de las tecnologías en la educación surge el reto de conocer, entender e
implementar la forma adecuada en que éstos medios tecnológicos (computadoras personales,
video proyectores, plataformas en línea, la web; entre otros) nos llevan a dar soporte a las
actividades de enseñanza-aprendizaje que buscan el desarrollo de capacidades y habilidades en
los alumnos de educación superior. De tal manera que los medios deben ser utilizados como un
canal para instruir más que solamente para informar, nuestros alumnos están acostumbrados a
utilizar la información y no a interpretarla por eso debe ponerse sumo cuidado en la elaboración
de los modelos pedagógicos que se basan completamente en las tecnologías o hacen uso parcial
de ellas, porque un gran número de alumnos sigue apostando por la enseñanza tradicional,
donde el factor dominante es la exposición oral del docente. Es decir el curriculum debe
adecuarse a que los alumnos tengan opción de cambiar sus esquemas de aprendizaje. Por lo
tanto si hacemos uso de las TIC’s sin un sentido bien definido podemos seguir cayendo en el
error de generar estudiantes que sean seres mecánicos que solo se sirvan de la información que
encuentran en la red sin ni siquiera desarrollar capacidades de razonamiento, análisis, critica,
síntesis, etc; utilizando estos medios simplemente como facilitadores de información.
Aunque las escuelas tienen cada vez más acceso a las TIC’s la presencia de éstas en la
metodología de la enseñanza todavía es muy escasa, debido a la falta de formación en los
docentes ya que muchos de ellos no poseen los conocimientos informáticos suficientes para
sentirse cómodos empleándolas en su práctica. Es por eso que surge la pregunta ¿el uso de
tecnologías garantiza la eficacia de los procesos de enseñanza aprendizaje en la educación
superior? para poder dar respuesta a este cuestionamiento se considera necesario:
-- Revalorar los estilos de aprendizaje de los jóvenes, sabiendo esto, será más productivo el
uso de las tecnologías aunque si bien no pueden atenderse todos los estilos si puede buscarse la
forma de preparar materiales que permeen a la mayoría.
-- Facilitar a los profesores la adquisición de bases teóricas y destrezas que les permitan
integrar en su práctica docente, los medios didácticos en general y los basados en las tecnologías
en particular.
-- Preparar a los profesores para que puedan reflexionar sobre su propia práctica así evaluaran
el papel y la contribución de los medios al proceso de enseñanza-aprendizaje.
El compromiso está latente, los docentes debemos buscar más maneras de que los alumnos
sientan que el usar un medio tecnológico les será de beneficio en función de la planeación
didáctica del profesor y del interés por desarrollar las capacidades que el alumno tenga. Las
TIC´s son un medio de apoyo y muchas veces un sustituto de las clases presenciales pero
debemos estar consientes de que en todo momento debe existir un objetivo claro de lo que
quiere alcanzarse.
Conclusiones
Estamos consientes de que el camino por recorrer aún es muy largo; necesitamos que la
utilización de recursos técnicos sirva para dar un cambio sustancial al curriculum y la práctica
docente. Aún tenemos que buscar la manera de cambiar la cultura de los alumnos que buscan
más bien la convivencia, el socializar con otros compañeros, el tener el contacto directo con sus
profesores, el estar sujetos a un horario y un espacio; haciéndoles notar de los beneficios que las
tecnologías pueden otorgarles, aunque empiezan a notarlo ya; no ha sido suficiente, hay que
trabajar más en el sentido de que ellos sientan que la tecnología les abre las puertas a un
autoaprendizaje, a una interacción independiente del tiempo y del espacio y a experimentar el
desarrollo de habilidades de aprendizaje que no conocen o que aún no ponen en práctica.
Referencias
Carnoy Martin. “Las TIC en la enseñanza: posibilidades y retos”.
http://www.uoc.edu/inaugural04/dt/esp/carnoy1004.pdf (consultado en Marzo de 2008)
María Eugenia. “Las TIC´s en los procesos de enseñanza aprendizaje”
http://educatics.blogspot.com (consultado en Noviembre, 2007)
Litwin Edith. “La educación a distancia”. Argentina, 2000: Amorrortu editores.
La autora es profesor de tiempo completo del Centro Universitario de los Altos, Universidad de
Guadalajara. Tepatitlán, Jalisco.
Hits: 169258
< Prev
Next >
Artículos Relacionados
Tecnologias de Comunicacion Inalambrica
El impacto de las tecnologías de la Información en la educación
El uso de las TIC como apoyo a las actividades docentes
Las Tecnologías de la Información y la Migración Calificada
Tecnologías móviles y capacitación: potenciar el desarrollo humano mediante la participación y
la Innovación
Certificaciones Profesionales en las Tecnologías de la Información
Introducción
El correo electrónico o e-mail (electronic mail)
es mucho más que un método para transmitir
datos, imágenes, video, etc. Tener una cuenta
de correo electrónico es muchas veces un
requisito indispensable para abrir otro tipo de
cuentas, ya sea para hacer compras en un
establecimiento en línea, una red social,
mensajería instantánea, foros de discusión, y
otros.
Anteriormente para ser poseedor de una cuenta de correo electrónico habría que
pertenecer a una Universidad, Centro de Investigación o a una empresa. Antes de
1996 no existía ningún servicio de correo gratuito para el público en general. Con la
llegada del servicio de correo electrónico Hotmail, el 4 de julio de 1996, se cambió este
paradigma. A partir de entonces cualquier persona interesada podría tener una cuenta
de correo gratuita y podría leerla desde cualquier parte.
En 1971, Ray Tomlinson, creó la primera aplicación de correo electrónico sobre la red
ARPANET, precursora de Internet. Esta aplicación llamada SNDMSG era capaz de
enviar mensajes a otras personas vía red. El primer mensaje de correo electrónico fue
QWERTYUIOP, que corresponde al primer renglón de letras de un teclado
convencional. A Tomlinson, también se le atribuye el sistema de direccionamiento
utilizado en el correo electrónico, hasta nuestros días, el cual incluye también el uso
del símbolo ´@´ (arroba), que significa “en” en el idioma inglés, utilizado en el formato
típico usuario@servidor. Por esta razón a Ray Tomlinson se le llama el padre del
correo electrónico.
Cómo funciona
El correo electrónico se asemeja mucho al correo postal. Ambos son usados para
recibir y transmitir mensajes utilizando buzones de correo intermedios (servidores)
donde los mensajes son almacenados temporalmente antes de enviarse a su destino.
Los servidores de correo electrónicos son los repositorios de almacenamiento de todos
los mensajes recibidos y transmitidos para una cuenta de correo específica.
El nombre del servicio fue HoTMaiL, queriendo destacar el nombre del lenguaje HTML.
Bathia y Smith, tuvieron que pedir prestado $300 mil dólares para darle forma a este
proyecto. El lanzamiento de este servicio fue el 4 de julio de 1996. En los primeros tres
meses, ya había 100 mil suscriptores, con una suscripción diaria de más de 5 mil.
Finalmente Hotmail, fue vendido en diciembre de 1997 a la compañía Microsoft.
Después del Hotmail salieron a la red proyectos similares tales como Yahoo! Mail,
Rocketmail.com, AOL Mail, GMX Mail, Gmail.com, y todos los servicios de correo
electrónico que conocemos ahora.
Conclusión
El correo electrónico fue uno de los primeros servicios de la red ARPANET (hoy
Internet), y nace como una necesidad de comunicación interpersonal (no en tiempo
real), que ayudó a que los internautas puedan establecer un vínculo con sus
semejantes de una manera directa.
Desde que se creó no han habido muchos cambios, sólo que el servicio de correo es
utilizado intensivamente por “mercadologos” para enviar correo basura (SPAM). El
correo electrónico esta basado en el modelo cliente-servidor, en este modelo el
navegador web de un usuario es el cliente que solicita una petición a un servidor web,
correos que pueden ser leídos mediante vía web (HTTP) o mediante el protocolo
POP3.
Con el boom de los dispositivos móviles, ahora es posible leer los correos desde las
tablets, teléfonos inteligentes, y otros dispositivos, desde cualquier lugar, a cualquier
hora, sin estar atados a computadoras de escritorio. Pero la movilidad acarrea otro
problema relacionado con los délitos informáticos tales como los robos de información
o identidad de las personas.
Aunque para los internautas mayores de 35 años el correo electrónico, sigue siendo el
“killer application”, los jóvenes no piensan lo mismo. Según un estudio del sitio
www.socialmouths.com, los jóvenes tienen otra opinión acerca del futuro del correo
electrónico. El 44% de los jóvenes opinaron que el correo electrónico todavía tiene
futuro. El 15% opinan que va a morir, y el 41% de los jóvenes opinan que el correo
electrónico tiene un futuro incierto. Es decir, los jóvenes están buscando otras formas
para comunicarse, más en tiempo real y más interactivo, tales como las plataformas
del “social media”, que utilizan las tecnologías del Web 2.0.
Medios de transmisión
Created on Sunday, 01 December 2002
En este artículo describiremos los medios de transmisión más importantes, los cuales se
clasifican en dos tipos:
♦ Confinados
♦ No-confinados
Aunque no es muy correcto decir medios alámbricos "es así como la mayoría los
conocemos" debido a que no siempre son alambres el medio de conducción de las señales; tal es
el caso de la fibra óptica que está construida con un material de fibra de vidrio, el otro caso es la
guía de onda, la cual está construida de un material metálico. La mejor manera de clasificar a
este tipo de medios es como medios confinados, es decir son medios tangibles confinados sobre
conductos de cobre, fibra de vidrio o contenedores metálicos. En otras palabras los medios
confinados se ven limitados por el medio y no salen de él, excepto por algunas pequeñas
pérdidas.
Por otro lado, existen los medios no-confinados, es decir no están contenidos en ninguno de los
materiales descritos anteriormente. Los medios no físicos o no-confinados son aquellos donde
las señales de radio frecuencia (RF) originadas por la fuente se radian libremente a través del
medio y se esparcen por éste " el aire por ejemplo. El medio, aire, es conocido técnicamente
como el espectro radioeléctrico o electromagnético. Comúnmente conocemos a este tipo de
medios como medios inalámbricos; del inglés wireless o sin alambres.
Medios confinados
Cable metálico
En los medios confinados tenemos en primer lugar al alambre sin aislar. El alambre fue el
primer medio de comunicación empleado tras haberse inventado el telégrafo en 1844. Hoy en
día los alambres vienen protegidos con materiales aislantes. El material del conductor puede ser
cobre, aluminio u otros materiales conductores y se emplea en diversas aplicaciones como
conducción de electricidad, telefonía, redes, etc.
Los grosores de los cables son medidos de diversas maneras, el método predominante en los
Estados Unidos y en otros países sigue siendo el American Wire Gauge
Standard (AWG), "gauge" significa diámetro. Mediante este sistema se puede distinguir un
cable de otro mediante su diámetro. Por ejemplo, los grosores típicos de los conductores
utilizados en cables eléctricos para uso residencial son del 10 al 14 AWG. Los conductores
utilizados en cables telefónicos pueden ser del 22, 24 y 26 AWG. Los conductores utilizados en
cables para aplicaciones de redes son el 24 y 26 AWG. En este sistema entre mayor sea el
número AWG menor será su diámetro. El grosor del cable determina otras características
eléctricas importantes tales es el caso de la resistencia o impedancia.
Cable coaxial
El cable coaxial tiene diversas aplicaciones en televisión por cable,
circuitos cerrados de televisión y se utilizó, antes de aparecer el
cable par trenzado, en redes locales de datos.
El cable coaxial de banda base se utiliza en redes de datos de área local. El término banda base
significa que en este tipo de aplicaciones, las señales que viajan por el cable no se modulan. El
cable coaxial de banda ancha se utiliza en aplicaciones de video de las compañías de televisión
por cable, circuitos cerrados de TV y otras aplicaciones del tipo CATV (Community Antenna
Television). El término banda ancha se refiere a que las señales que pasan por el cable son
moduladas y amplificadas para aumentar, desde luego, la capacidad de ancho de banda y para
extender la distancia de la propagación de la señal.
Los dos tipos de cables coaxiales más empleados para aplicaciones de LAN son el 10Base5 y el
10Base2. El 10Base5 es conocido comúnmente como cable coaxial grueso, en cambio el
10Base2 es conocido como cable coaxial delgado. En la siguiente tabla se hace una
comparación entre estos dos tipos de cable.
El cable coaxial en banda base se utilizó como medio de transmisión en aplicaciones de redes de
área local. Los tipos de cable coaxial para datos son los siguientes:
Dado el costo y desempeño en las conexiones del cableado con coaxial, el par trenzado se
convirtió en una alternativa viable para los administradores de la red. Este medio de
comunicación tiene un amplio uso en la industria de las redes de computadoras y hasta la fecha,
aún predomina. A continuación se describen sus carácterísiticas.
Los cables de par trenzado más comúnmente usados como interfaces de capa física son los
siguientes: 10BaseT (Ethernet), 100BaseTX (Fast Ethernet), 100BaseT4 (Fast Ethernet con 4
pares) y 1000BaseT (Gigabit Ethernet).
Existen dos tipos de cable par trenzado, el UTP (Unshielded Twisted Pair Cabling), o cable par
trenzado sin blindaje y el cable STP (Shielded Twisted Pair Cabling), o cable par trenzado
blindado. En la siguiente tabla se muestran las diferentes categorías de cables UTP y su
aplicación.
Tipo Aplicación
♦ Categoría 1: son cables de par trenzado utilizados comúnmente por las compañías
telefónicas para aplicaciones exclusivas de voz. Funcionan en un intervalo de frecuencia
menor a los 100 KHz.
♦ Categoría 2: funcionan en aplicaciones de voz y datos, con velocidades de información
de hasta 1 Mbps en un intervalo de frecuencias de 1 MHz.
♦ Categoría 3: permite aplicaciones de voz y datos permitiendo velocidades de hasta 10
Mbps en un intervalo de frecuencias de 16 MHz.
♦ Categoría 4: posee características similares a la categoría anterior, pero alcanza
velocidades de información de hasta 16 Mbps en un intervalo de frecuencias de 20 MHz.
♦ Categoría 5: actualmente, es la categoría más utilizada en redes locales de datos (LAN),
permite velocidades de información de hasta 100 Mbps en un intervalo de frecuencias de
100 MHz. El cable más utilizado es el 100BaseT
♦ Categoría 5e: es una mejora (enhanced) de la categoría 5, tolera velocidades de hasta
1000 Mbps (1 Gigabit por segundo) en un intervalo de frecuencias de 100 MHz. Sus
aplicaciones se centran en la interconexión de redes locales en el ambiente de redes de
campus. El cable más utilizado es el 1000BaseT.
♦ Categoría 6: permite velocidades semejantes a la categoría 5e de 1000 Mbps pero cubre
un intervalo de frecuencias de 250 MHz. La categoría 6 corresponde al estándar
ANSI/TIA/EIA-568-B.2-1.
♦ Categoría 6a: llamada comúnmente como 6 aumentada (Augmented) alcanza
velocidades de información de 10 Gigabits en un intervalo de frecuencias de 550 MHz.
Este tipo de cable ya permite aplicaciones de video y está cobijada bajo el estándar
ANSI/TIA/EIA-568-B.2-10.
Por lo general, los cables UTP categoría 5 (CAT5) utilizan sólo 2 pares (4 hilos), el resto de los
conductores queda para otros usos y aplicaciones. Las categorías 5e, 6, 6a aprovechan por lo
general los 4 pares de conductores para permitir velocidades más altas. Este tipo de cables,
tienen mejoras notables en lo que respecta a la atenuación, NEXT (Near-End Crosstalk) y
PSELFEXT (Power Sum Equal-Level Far End Crosstalk).
Fibra óptica
La fibra óptica es muy medio de comunicación que utiliza la luz
confinada en una fibra de vidrio para transmitir grandes cantidades de
información en el orden de Gigabits (1x109 bits) por segundo. Para
transmitir los haces de luz se utiliza una fuente de luz como un LED
(Light-Emitting Diode) o un diodo láser. En la parte receptora se utiliza
un fotodiodo o fototransistor para detectar la luz emitida. También será
necesario poner al final de cada extremo un conversor de luz (óptico) a
señales eléctricas.
Debido a que el láser trabaja a frecuencias muy altas, entre el intervalo de la luz visible e
infrarroja, la fibra óptica es casi inmune a la interferencia y el ruido.
La transmisión óptica involucra la modulación de una señal de luz " usualmente apagando,
encendiendo y variando la intensidad de la luz " sobre una fibra muy estrecha de vidrio llamado
núcleo " el diámetro de una fibra puede llegar a ser de una décima del diámetro de un cabello
humano.
La otra capa concéntrica de vidrio que rodea el núcleo se llama revestimiento. Después de
introducir la luz dentro del núcleo ésta es reflejada por el revestimiento, lo cual hace que siga
una trayectoria zigzag a través del núcleo. Por lo tanto las dos formas de transmitir sobre una
fibra son conocidas como transmisión en modo simple y multimodo. En el modo simple o
monomodo, se transmite un haz de luz por cada fibra, mientras en una fibra multimodo más de
un haz de luz puede ser transmitido. Dada las características de transmisión de las fibras
monomodo, es posible la propagación del haz de luz a decenas de kilómetros. Este tipo de fibra
es comúnmente utilizada para enlaces de larga distancia, por ejemplo la interconexión de
centrales telefónicas. La fibra multimodo en cambio se utiliza para distancias más cortas y sirve
para interconectar redes de área local entre edificios, intercampus, etc.
La tecnología de la fibra óptica ha avanzado muy rápidamente y en la actualidad es posible
incrementar la capacidad de una fibra y aumentar la distancia de propagación. Por ejemplo, los
amplificadores de fibra dopada con erbio (EDFA, Erbium-doped Fiber Amplifiers) son
repetidores/amplificadores que dopan a la fibra con el metal erbio a intervalos de 50 a 100
kilómetros. La introducción de los EDFAs ha hecho posible de los sistemas de fibra óptica de
hoy en día operen a 10 Gbps. Los EDFAs abrieron el camino para WDM (Wavelength Division
Multiplexing) o multicanalización por división de longitud de onda. WDM es el proceso de
dividir el espectro de la fibra óptica en un número de longitudes de onda sin traslaparse una con
la otra. Cada longitud de onda es capaz de soportar un canal de comunicaciones de alta
velocidad.
Otra tecnología innovadora en las fibras ópticas en el DWDM (WDM denso). Con esta
tecnología se pueden soportar más de 16 longitudes de onda. Por ejemplo los sistemas OC-48
(Optical Carrier, 2.5 Gbps) pueden soportar de 60 a 160 longitudes de onda. En la actualidad los
sistemas pueden soportar más de 320 longitudes de onda equivalente a 320 canales de alta
velocidad por fibra. Se están haciendo desarrollos para que en un futuro cercano se puedan
transmitir más de 15,000 longitudes de onda por fibra con la tecnología conocida como
"chirped-pulse WDM" de los laboratorios Bell. Con esta tecnología las fibras ópticas tendrán
una capacidad inimaginable.
Los cables de fibra óptica submarina son otro ejemplo de la gran capacidad que existe en este
medio. El primer cable submarino con fibra óptica (el TAT-8) fue puesto en servicio en 1988 y
utilizaba tres pares de fibras con repetidores espaciados cada 65 millas, su capacidad es de
40,000 circuitos de voz bidireccionales. En el 2001 fue instalado otro cable trasatlántico el AC-
2, el cual ofrece una capacidad de 10 Gbps en 32 longitudes de onda sobre 8 pares de fibras para
un total de 2.5 Terabits por segundo (2.5 x 1012 bps) utilizando WDM.
La fibra óptica como medio de transmisión en el área de las telecomunicaciones ha demostrado
su potencialidad al cursar por éstas casi todo el tráfico de voz y datos del mundo, así como el
tráfico de Internet. Pero también en el campo de la medicina la fibra óptica tiene un uso muy
vasto, la laparoscopía, colposcopía y la endoscopía son sólo unos ejemplos.
Cableado estructurado
En el pasado había dos especificaciones principales de terminación de cableado: Los cables de
datos y por otro lado, los cables de voz. En la actualidad, en el mundo de los sistemas de
cableado estructurado existen diferentes tipos de servicios (e.g. voz , datos, video, monitoreo,
control de dispositivos, etc.) que pueden cursarse sobre un mismo tipo de cable.
El estándar de cableado estructurado más utilizado y conocido en el mundo está definido por la
EIA/TIA [Electronics Industries Association/ Telecommunications Industries Association] de
Estados Unidos. Este estándar especifica el cableado estructurado sobre cable de par trenzado
UTP de categoría 5, el estándar se llama EIA/TIA 568A. Existe otro estándar producido por
AT&T "mucho antes de que la EIA/TIA fuera creada en 1985" , el 258A, pero ahora es
conocido bajo el nombre de EIA/TIA 568B.
El estándar EIA/TIA 568A define 6 subsistemas de cableado estructurado los cuales se detallan
a continuación:
1. Entrada al edificio: La entrada a los servicios del edificio es el punto en el cual el cableado
externo hace interfaz con el cableado de la dorsal dentro del edificio. Este punto consiste en la
entrada de los servicios de telecomunicaciones al edificio (acometidas), incluyendo el punto de
entrada a través de la pared y hasta el cuarto o espacio de entrada. Los requerimientos de la
interface de red están definidos en el estándar TIA/EIA-569A
2. Cuarto de equipos: El cuarto de equipos es un espacio centralizado dentro del edificio donde
se albergan los equipos de red [enrutadores, conmutadores de paquetes (switches),
concentradores (hubs), conmutadores telefónicos (PBXs), etc.], equipos de voz , video, etc. Los
aspectos de diseño del cuarto de equipos está especificado en el estándar TIA/EIA 569A.
3. Cableado de la dorsal (backbone): El cableado de la dorsal permite la interconexión entre
los gabinetes de telecomunicaciones, cuartos de telecomunicaciones y los servicios de la entrada
del edificio. Consiste de cables de dorsal, terminaciones mecánicas, equipos principales y
secundarios de conexión cruzada (cross-connects), regletas o puentes (jumpers) usados para la
conexión dorsal a dorsal. Esto incluye: conexión vertical entre pisos (risers), cables entre un
cuarto de equipos, cable de entrada a los servicios del edificio y cables entre edificios.
Los tipos de cables requeridos para la dorsal son:
♦ UTP de 100 ohm (24 o 22 AWG), distancia máxima 800 metros (voz)
♦ STP de 150 ohm, distancia máxima 90 metros (datos)
♦ Fibra Multimodo 62.5/125 µm, distancia máxima 2,000 metros
♦ Fibra Monomodo 8.3/125 µm, distancia máxima 3,000 metros
Tres tipos de medios son reconocidos para el cableado horizontal, cada uno debe de tener una
extensión máxima de 90 metros:
6. Area de trabajo: Los componentes del área de trabajo se extienden desde el enchufe de
telecomunicaciones a los dispositivos o estaciones de trabajo.
Los componentes del área de trabajo son los siguientes:
Medios no-confinados
Los medios no-confinados utilizan el aire como
medio de transmisión, y cada medio de
transmisión viene siendo un servicio que utiliza
una banda del espectro de frecuencias. A todo el
rango de frecuencias se le conoce como espectro
electromagnético. El espectro electromagnético ha
sido un recurso muy apreciado y como es
limitado, tiene que ser bien administrado y
regulado. Los administradores del espectro a nivel
mundial son la WRC (World
Radiocommunication Conference) de la ITU-R
(International Telecommunications Union
Radiocommunications sector). Esta entidad realiza
reuniones mundialmente en coordinación con los entes reguladores de cada país para la
asignación de nuevas bandas de frecuencia y administración del espectro. En el caso de México,
la entidad reguladora del radio espectro es la Instituto Federal de Telecomunicaciones
(IFETEL, http://www.ift.org.mx ) y la Secretaría de Comunicaciones y Transportes
(SCT, http://www.sct.gob.mx ).
Cada subconjunto o banda de frecuencias dentro del espectro electromagnético tiene
propiedades únicas que son el resultado de cambios en la longitud de onda. Por ejemplo, las
frecuencias medias (MF, Medium Frequencies) que van de los 300 kHz a los 3 MHz pueden ser
radiadas a lo largo de la superficie de la tierra sobre cientos de kilómetros, perfecto para las
estaciones de radio AM (Amplitud Modulada) de la región. Las estaciones de radio
internacionales usan las bandas conocidas como ondas cortas (SW, Short Wave) en la banda de
HF (High Frequency) que va desde los 3 MHz a los 30 MHz. Este tipo de ondas pueden ser
radiadas a miles de kilómetros y son rebotadas de nuevo a la tierra por la ionosfera como si
fuera un espejo, por tal motivo las estaciones de onda corta son escuchadas casi en todo el
mundo.
Los estaciones de FM (Frecuencia Modulada) y TV (televisión) utilizan las bandas conocidas
como VHF (Very High Frequency) y UHF (Ultra High Frequency) localizadas de los 30 MHz a
los 300 MHz y de los 300 MHz a los 900 MHz, este tipo de señales debido a que no son
reflejadas por la ionosfera cubren distancias cortas, una ciudad por ejemplo. La ventaja de usar
este tipo de bandas de frecuencias para comunicaciones locales permite que docenas de
estaciones de radio FM y televisoras " en ciudades diferentes " puedan usar frecuencias
idénticas sin causar interferencia entre ellas.
Espectro electromagnético
Conducción de
VLF Very Low Frequency 3 kHz - 30 kHz electricidad
Conducción de
electricidad, navegación
marítima, control de
LF Low Frequency 30 kHz - 300 kHz tráfico aéreo
Servicios por
Extremely High
EHF Frequency 30 GHz en adelante LMDS
Así cada una de las subbandas del espectro electromagnético proveen un servicio diferente, lo
que nos permite hablar por un teléfono celular, escuchar la radio, ver la televisión, sin
interferirse un servicio con el otro. A continuación se describirá el medio de comunicación
conocido como microondas terrestres, otros servicios que utilizan el espectro radioeléctrico (e.g.
satélite, telefonía celular, MMDS, LMDS, WLL,..) se describirán en la sección de
comunicaciones inalámbricas.
Microondas terrestre
Las microondas son todas aquellas bandas de frecuencia en el rango de
1 GHz en adelante, el término microondas viene porque la longitud de
onda de esta banda es muy pequeñ (milimétricas o micrométricas),
resultado de dividir la velocidad de la luz (3x108 m/s) entre la
frecuencia en Hertz. Pero por costumbre el término microondas se le
asocia a la tecnología conocida como microondas terrestres que utilizan
un par de radios y antenas de microondas.
Los operadores tanto de redes fijas como móviles están utilizando las microondas para superar
el cuello de botella de la última milla de otros medios de comunicación. Las microondas es un
medio de transmisión que ya tiene muchas décadas de uso. En el pasado las compañías
telefónicas se aprovechaban de alta capacidad para la transmisión de tráfico de voz.
Gradualmente, los operadores reemplazaron el corazón de la red a fibra óptica, dejando como
medio de respaldo la red de microondas. Lo mismo sucedió con el video, el cual fue sustituido
por el satélite. Las microondas terrestres a pesar de todo sigue siendo un medio de
comunicación muy efectivo para redes metropolitanas para interconectar bancos, mercados,
tiendas departamentales y radio bases celulares.
Debido a que todas las bandas de frecuencias de microondas terrestres ya han sido subastadas,
para utilizar este servicio es necesario la utilización de frecuencias permisionadas por las
autoridades de telecomunicaciones; es muy frecuente el uso no-autorizado de este tipo de
enlaces en versiones punto-punto y punto-multipunto. En el sitio web de la IFETEL se
encuentra la lista de los permisionarios autorizados de esta banda de frecuencias.
Conclusión
Los medios de transmisión son el canal para que el transmisor y el receptor puedan comunicarse
y puedan transferirse información. Es necesario saber que existen varios factores externos que
inciden sobre el canal que producen ruido e interferencia, por lo que es necesario una buena
relación a ruido para superar estos obstáculos. La selección adecuada del mejor servicio y medio
de transmisión para cubrir nuestras necesidades es de vital importancia para operar
óptimamente.
evelio(@)eveliux.com
Fuente: Libro --- Fundamentos de Telecomunicaciones y Redes
Hits: 151959
< Prev
Next >
Artículos Relacionados
clasificación de los medios de transmisión
Transmisión de radio AM y FM
Transmisión Serial y Paralelo
Transmisión Sincrona y Asincrona
Conservación de energía en medios inalámbricos
Introducción
Quiza una de las aplicaciones con más impacto y popularidad entre los internautas de la llamada
Web 2.0, son las redes sociales. La creación de aplicaciones de Web 2.0 en el entorno de las
redes sociales ha generado un fenómeno cultural de amplio alcance y con un número explosivo
de usuarios. Por ejemplo, el Internet como medio de comunicación en sólo cuatro años generó
más de 50 millones de usuarios. Las redes sociales como Facebook pasó de 200 a 250 millones
de usuarios registrados en tan sólo tres meses. Las redes sociales han sido un fenómeno en estos
últimos años, no sólo las utilizan personas, sino también están siendo utilizadas por grandes
corporaciones, organizaciones y compañías para promover sus productos y servicios, y tener un
encuentro más cercano con sus consumidores o adeptos.
Antecedentes
Desde sus orígenes, la Web fue concebida como una herramienta social. Desde que su inventor,
Tim Berners-Lee, creó a principios de los años 90 el World Wide Web, su motivación fue la de
mejorar la comunicación con sus colegas investigadores. En sus inicios, la primera fase de la
Web fue caracterizada principalmente por páginas web personales y empresariales con
contenidos estáticos, utilizando el lenguaje de programación conocido como HTML (HyperText
Markup lenguage, por sus siglas en inglés). En esta etapa los dueños de los sitios Web tenían el
control total del contenido y los usuarios eran simplemente unos observadores. Posteriormente
el desarrollo de nuevos lenguajes como PHP, Javascript, Java, XML, Ajax, entre otros, permitió
la creación de nuevas plataformas que permiten al usuario adoptar, no sólo el papel de
observador, sino también de creador de contenido. De esta forma nacen las llamadas redes
sociales, las bitácoras (blogs), los wikis (e.g. wikipedia), mashups (híbridas), entre otras
aplicaciones que se consideran parte de la plataforma Web 2.0, término acuñado por Tim
O'Reilly en 2004.
En la Web 2.0, el usuario de Internet tiene una participación activa, no sólo accediendo a la
información, sino además aportando en contenidos. Mediante las capacidades de la Web 2.0, el
usuario de Internet puede desempeñar funciones que anteriormente estaban restringidas a
especialistas. Tales son los casos de la edición de audio, video e imagen, publicación de libros y
artículos, procesamiento de información, administración de recursos, entre muchas otras. Todas
estas características y más, forman parte de las redes sociales.
Desde el 2003 hacia acá, muchas redes sociales se han ido gestando. Myspace.com se lanzó
precisamente en 2003 para competir con la idea de captar a los usuarios no muy conformes con
los rumores de que Friendster iría a cobrar honorarios a los usuarios. Por dicho motivo, las
mismas personas que usaban el sitio, invitaban a probar una red social diferente, como lo era la
recién creada Myspace. Paralelamente estaba dando sus pasos Fotolog.net, sitio dedicado a
compartir fotografías, dio sus primeros pasos en mayo del 2002 y al día de hoy cuenta con más
de 26 millones de usuarios registrados, quienes la mayoría de ellos forman parte de las
ciberculturas, conocidos como floggers.
La red social Linkedin.com apareció en el 2003, y ha sido pensada para que se registren
profesionales y se puedan contactar con fines laborales. Pero la niña mimada hoy es
Facebook.com, este sitio que ha sido creado por Mark Zuckerberg y originalmente estaba
destinado sólo a estudiantes de la Universidad de Harvard, pero hoy está abierto a cualquier
persona que tenga una cuenta de correo electrónico. Según proyecciones realizadas por ellos, a
finalizar el 2009 contarían con 300 millones de usuarios. En noviembre del año pasado han
logrado tener la mayor cantidad de usuarios si se los compara con otros SRS y han lanzado
versión en otros idiomas como francés, alemán y español para expandirse fuera de EEUU, pues
sus usuarios se concentraban en Estados Unidos, Canadá y Gran Bretaña.
Tanto es la popularidad que está en ascenso de los SRS que la niña mimada por tantos usuarios,
Facebook, tiene como proyecto de convertir su historia en película. Cada día son más los
adolescentes, principalmente, y toda persona que navega en internet, que se suma a alguna o
varias de las tantas redes sociales, pues es común que un solo usuario esté inscrito en varias de
ellas. En cuanto a los usuarios particulares, hay una gran diversidad de motivos por los cuales
usan las SRS. Hay quienes se registran para hacer un lugar de encuentro para todos aquellos que
pasaron por una escuela que está de cincuentenario, y que sus ex alumnos esparcidos
territorialmente puedan colgar fotos, escribir anécdotas, etc. Otros usuarios, de perfil profesor,
argentino, al preguntarle ¿Por qué te registraste en redes sociales? responde, me inscribí en
facebook y Sónico, y por ahora sólo para integrarme, pues me parecen sitios para conocer gente,
es que te van relacionando con gente conocida de tus conocidos amigos.
Es menester aclarar a qué nos referimos específicamente cuando decimos "Impacto de las redes
sociales", el prestigioso sociólogo argentino Alejandro Piscitelli Murphy* opina que "Cuando se
habla de "impacto" siempre la idea suena como si fuera algo que "viniera de afuera". Por un
lado es obvio que este "invento" vino del mundo virtual generado en alguna otra sociedad, pero
por otra parte también es cierto que cada cultura toma al nuevo fenómeno de formas diferentes.
Pero más allá de esta cuestión, es claro que estas redes sociales producen un cambio social de lo
cotidiano muy significativo y además canaliza tendencias culturales que ya se venían
insinuando. Me refiero a es necesidad de ver y ser visto de nuestras sociedades contemporáneas,
estar en los escenarios públicos para consumir y ser consumido como diría Baumann. Y esto se
nota en experiencias personales cuando luego de un fin de semana uno encuentra en el facebook
fotos de "amigos" que nos muestran lo que hicieron. Y en realidad esos que muestran las fotos
son conocidos y no tan amigos nuestros y de no existir Facebook, jamás nos hubieran mostrado
esas fotos. Por supuesto que es un poco injusto generalizar sobre las "redes sociales" porque las
hay muy diversas, pero lo que es cierto es que todas producen significativos cambios en la vida
cotidiana.
Una de las tantas razones por las que MySpace desbancó a Friendster es porque MySpace les
permitió a sus usuarios actualizar en mayor medida sus perfiles. Pero esto abrió la puerta a que
los deliencuentes informáticos pudiesen insertar códigos maliciosos, así como también ataques
convincentes de phishing directamente desde los perfiles de Myspace. Este tipo de
flexibilidades de la mayoría de los SRS los hace más vulnerables a ataques, los cuales son
aprovechados por los ciberdelincuentes. Otro problema de inseguridad de los SRS es que
permiten a terceras partes la inclusión de aplicaciones para fines de entretenimiento o de
mercadotecnía. Facebook es un claro ejemplo de esto. Estas aplicaciones poseen ciertos riegos
los cuales los usuarios desconocen, ya que tienen un falso sentido de seguridad de las
aplicaciones asociadas al sitio que ellos confían.
Seguramente las redes sociales se irán modernizando a medida que vayan observando los gustos
y preferencias de los usuarios, cada vez más exigentes, debido a la cada vez más amplia oferta
de redes sociales.
Queda claro que el futuro de las redes sociales no sólo se va a limitar a la computadora como
medio de acceso, hoy en día es posible accesar a un SRS desde un celular, y algún otro
dispositivo móvil que tenga acceso a Internet. Esto da la posibilidad que el número de usuarios
crezca exponencialmente y no se limiten su uso a un escritorio.
Por lo tanto, el futuro de los SRS está en la conciencia de movilidad, presencia y ubicación. Es
decir, el usuario no sólo podrá conocer si sus amigos están en línea, si no también podrá conocer
si están cerca, geográficamente hablando. Si un usuario accede desde un celular, éste podrá ser
localizado vía triangulación de celdas o con un sistema localización satelital (GPS).
Comercialmente hablando, la conciencia de ubicación podrá ser utilizada por los negocios para
ofrecerte productos en base a tu perfil. Si estamos hablando de una red social de citas amorosas,
los usuarios podrán saber la ubicación geográfica de sus prospectos. Todo esto elevará la
inseguridad de las redes sociales la máxima potencia si se hace un mal uso de todos estos
adelantos tecnológicos. Todo lo que tu hagas en la red, los sitios web que visitas, los artículos
que lees, la música que escuchas, los artículos que compras, los amigos con los que dialogas
(chateas), podrán ser utilizados por los SRS para bombardearte de información violando muchas
veces tu privacidad. Pero como al registrarte con un SRS aceptas los términos y condiciones de
uso, tendrás que aceptar que tu información, tus intereses y tu comportamiento van a ser
públicos.
Conclusión
La manera de relacionarse de las personas ha cambiado de manera rápida en los últimos años,
hoy nadie pasa de visita sin previo aviso por mensaje de texto SMS, por chat, email, dejar
mensaje en alguna red en la que se está suscripto, pareciera ser que el término "comunicación"
es sinónimo de "te mando un mensaje por cualquier vía tecnológica".
¿Las redes sociales aportan a la real comunicación? o , por el contrario, se están transformando
en una escusa para que cada vez se cultiven menos las relaciones cara a cara, el verse los gestos,
la mirada. Qué le pasa al otro cuando se está junto, eso sólo se puede percatar en presencia
física, en el contacto directo. Nada puede suplantar esto.
No se trata de juzgar el rol que cumplen las redes sociales, sería soberbio no reconocerle toda la
utilidad que cumplen al achicar distancias cuando realmente se está lejos, pero sí, es bueno
saber, que si el amigo está a poca distancia, qué mejor que pasar por la casa, lugar de trabajo,
porque un abrazo, una palabra dicha mirando a los ojos, no suplanta la mejor red social jamás
inventada. En definitiva, sí a las redes sociales, para achicar distancias y relacionarse con quien
está lejos. El uso de las redes sociales son un excelente recurso para acercar a los que están
lejos,y para repensar en no caer en la trampa de "alejar" a los que están cerca.
Las redes sociales bien aprovechadas pueden servir para crear comunidades donde sus
miembros compartan información de común interés. Pero debido al gran éxito de las redes
sociales y al número de usuarios que congregan, son el foco de atracción de muchos
depredadores que buscan únicamente aprovecharse de usuarios incautos o inocentes que
publican información sensible que es aprovechada por los delincuentes informáticos.
El mapa que ha sido elaborado por el italiano Vincenzo Consenza , analista, bloguero, director
de la oficina digital PR en Roma, se ha basado en datos recogido de Alexa y Google Trends.
Con los datos armó el mapa mundial de las redes sociales. Se puede observar en el mismo como
Facebook, identificado con el color verde es el que tiene más presencia a nivel mundial.
También nota la presencia en color violeta de los chinos por QQ. En otros países como Brasil e
India, prefieren Orkut. Facebook es la más elegida en EEUU, según datos de Alexa.
Hits: 151263
< Prev
Next >
Artículos Relacionados
El servicio i-mode y su exito en Japon
Internet y la riqueza
Redes de Alta Velocidad SDH/SONET
El ABC de las redes inalámbricas [WLANs]
Las bases de la navegación dinámica
Planeacion y diseño de redes WLAN
Estándares de Telecomunicaciones
Created on Thursday, 01 July 1999
INTRODUCCIÓN
¿ Alguna vez usted se ha preguntado por qué su tarjeta de crédito puede insertarse en cualquier
cajero automático del mundo ? Es porque los fabricantes del plástico de las tarjetas se basan en
un estándar conocido como ISO 7810 en donde se definen las dimensiones del plástico (85mm
de largo, 54mm ancho y 0.8mm de grosor); en otro estándar, el ISO 7811, se definen las
características del grabado y de la banda magnética.
Este es sólo un ejemplo de los miles de estándares que existen hoy en día, los cuales rigen
nuestras actividades diarias, pues regulan los bienes y servicios que empleamos, permitiendo
olvidarnos de marcas o de algún fabricante en especial. Por ejemplo, cuando vamos a comprar
un módem, nos deberíamos de olvidar en primer término de la marca o modelo, debe de
interesarnos en primera instancia que cumple con el estándar ITU-T V.90 cuando se trata de un
módem de 56 Kbps o V.34 cuando se trata de uno de 28.8 Kbps.
La estandarización evita las arquitecturas cerradas, los monopolios y los esquemas propietarios.
Cuando compramos equipos de telecomunicaciones con estándares propietarios no está
garantizado que vayan a comunicarse con los demás equipos de la red. Tenemos que comprar el
mismo dispositivo de la misma marca y la mayoría de las veces hasta del mismo modelo, para
que exista comunicación de extremo a extremo. Los estándares son la esencia de la
interconexión de redes de comunicaciones, de muchas maneras, ellos son la interconexión. Así
mismo, los estándares son la base de los productos y típicamente son los que marcan la
diferencia entre la comunicación y la incompatibilidad.
LA HISTORIA DE LA ESTANDARIZACIÓN
A principios del siglo XIX Europa vivía en un estado de agitación; los efectos de la revolución
industrial se hacían evidentes en cualquier parte del continente. La revolución de la
transportación dio inicio con la aparición de la máquina de vapor y el ferrocarril. Los rieles por
los que los trenes se desplazaban fue el primer problema de estandarización entre los países;
éstos tenían que ponerse de acuerdo en las dimensiones, material y las demás características de
las vías por donde pasaría el tren. Tal situación de entendimiento fue la ideal para la
introducción del telégrafo. Al ponerse en funcionamiento este nuevo medio de comunicación,
inmediatamente se hicieron evidentes sus beneficios al acercar aún más a las empresas e
industrias que existían en ese tiempo y quienes tenían una imperiosa necesidad de difundir
noticias y mensajes de manera rápida y eficiente. Tanto el ferrocarril como el telégrafo
transformaron de manera notable a la Europa del Siglo XIX.
Años más tarde, en 1884 al otro lado del Atlántico, en Estados Unidos se funda la IEEE
(Institute of Electrical and Electronics Engineers), organismo encargado hoy en día de la
promulgación de estándares para redes de comunicaciones. En 1906, en Europa se funda la IEC
(International Electrotechnical Commission), organismo que define y promulga estándares para
ingeniería eléctrica y electrónica. En 1918 se funda la ANSI (American National Standards
Institute), otro organismo de gran importancia en la estandarización estadounidense y mundial.
¿QUÉ ES UN ESTÁNDAR?
Un estándar, tal como lo define la ISO "son acuerdos documentados que contienen
especificaciones técnicas u otros criterios precisos para ser usados consistentemente como
reglas, guías o definiciones de características para asegurar que los materiales, productos,
procesos y servicios cumplan con su propósito". Por lo tanto un estándar de telecomunicaciones
"es un conjunto de normas y recomendaciones técnicas que regulan la transmisión en los
sistemas de comunicaciones". Queda bien claro que los estándares deberán estar documentados,
es decir escritos en papel, con objeto que sean difundidos y captados de igual manera por las
entidades o personas que los vayan a utilizar.
TIPOS DE ESTÁNDARES
Existen tres tipos de estándares: de facto, de jure y los propietarios. Los estándares de facto son
aquellos que tienen una alta penetración y aceptación en el mercado, pero aún no son oficiales.
Un estándar de jure u oficial, en cambio, es definido por grupos u organizaciones oficiales tales
como la ITU, ISO, ANSI, entre otras.
La principal diferencia en cómo se generan los estándares de jure y facto, es que los estándares
de jure son promulgados por grupos de gente de diferentes áreas del conocimiento que
contribuyen con ideas, recursos y otros elementos para ayudar en el desarrollo y definición de
un estándar específico. En cambio los estándares de facto son promulgados por comités
"guiados" de una entidad o compañía que quiere sacar al mercado un producto o servicio; sí
tiene éxito es muy probable que una Organización Oficial lo adopte y se convierta en un
estándar de jure.
Por otra parte, también existen los "estándares" propietarios que son propiedad absoluta de una
corporación u entidad y su uso todavía no logra una alta penetración en el mercado. Cabe
aclarar que existen muchas compañías que trabajan con este esquema sólo para ganar clientes y
de alguna manera "atarlos" a los productos que fabrica. Si un estándar propietario tiene éxito, al
lograr más penetración en el mercado, puede convertirse en un estándar de facto e inclusive
convertirse en un estándar de jure al ser adoptado por un organismo oficial.
Un ejemplo clásico del éxito de un estándar propietario es el conector RS-232, concebido en los
años 60's por la EIA (Electronics Industries Association) en Estados Unidos. La amplia
utilización de la interfase EIA-232 dio como resultado su adopción por la ITU, quién describió
las características eléctricas y funcionales de la interfase en las recomendaciones V.28 y V.24
respectivamente. Por otra parte las características mecánicas se describen en la recomendación
2110 de la ISO, conocido comúnmente como ISO 2110.
La IEEE
Fundada en 1884, la IEEE es una sociedad establecida en los Estados
Unidos que desarrolla estándares para las industrias eléctricas y
electrónicas, particularmente en el área de redes de datos. Los
profesionales de redes están particularmente interesados en el trabajo
de los comités 802 de la IEEE. El comité 802 (80 porque fue fundado
en el año de 1980 y 2 porque fue en el mes de febrero) enfoca sus esfuerzos en desarrollar
protocolos de estándares para la interfase física de la conexiones de las redes locales de datos,
las cuales funcionan en la capa física y enlace de datos del modelo de referencia OSI. Estas
especificaciones definen la manera en que se establecen las conexiones de datos entre los
dispositivos de red, su control y terminación, así como las conexiones físicas como cableado y
conectores.
La Organización Internacional de Estándares (ISO)
La ISO es una organización no-gubernamental establecida en 1947, tiene representantes
de organizaciones importantes de estándares alrededor del mundo y actualmente
conglomera a más de 100 países. La misión de la ISO es "promover el desarrollo de la
estandarización y actividades relacionadas con el propósito de facilitar el intercambio
internacional de bienes y servicios y para desarrollar la cooperación en la esfera de la actividad
intelectual, científica, tecnológica y económica". Los resultados del trabajo de la ISO son
acuerdos internacionales publicados como estándares internacionales. Tanto la ISO como la ITU
tienen su sede en Suiza.
Conclusión
Día con día las organizaciones oficiales y los consorcios de fabricantes están gestando
estándares con el fin de optimizar la vida diaria. En la industria global de redes, los fabricantes
que puedan adoptar los estándares a sus tecnologías serán los que predominen en el mercado.
Los fabricantes tienen dos grandes razones para invertir en estándares. Primero, los estándares
crean un nicho de mercado; segundo, los fabricantes que puedan estandarizar sus propias
tecnologías podrán entrar más rápido a la competencia. Antes de comprar algún equipo de
telecomunicaciones y redes, acuérdese de los estándares y elija aquellos que han sido adoptados
en su país. "Un mundo sin estándares sería un tremendo caos"
ALGUNAS ORGANIZACIONES DE ESTáNDARES
A A E I I I N P S
s m ur n n n at e y
T T
y e o s I t t io r s
T e In el
m r p t n e e n s t
A e c te e
m i e i t r r al o e
s Gc w n rn c
e c a t e n n T n m
y i nw o at o Telec
t a n u r a a el a A
n gow l io m omu
r n T t n ti ti e l d
c al . o n m nicac
i N el e e o o c C m
h bog g al u iones
c a e o t n n o o i
r i gi T í T ni www
D t c f E al a m m n
o tí g el a el c .indu
i i o E n M l m m i
n Eaa e s e S at stry.
g o m l g u O u u s
o T t Gb - d c T T e io net/t
i n m e i lt r ni n t
T u el hi it vi e o el el g n iaW3
t a u c n i g c ic r
e sT e eg- d l me e u s CWo
a l ni t e m a at a a
c Te c w rae e a mc c w r w Inrld
l S c r e e n io ti ti
nw w r c w o w w nbt w w o w I u o o w w i w d Wide
S S t at i r d i n o o
ow w a nw m w FFw ei h w w c w nwni m w m w w dw u Web
I u a io c i ia z s n n
A l w Lw n ow u w rr.f t t e Lw w o w f wc u w u w . a. st Cons
OG b n n a n T a In s N
RN Ds o. dA. As l . s ni . aarf AEr l A.i gI.i eln .i ti owat ni wd ni . I p e ds ry ortiu
G I E Sc ga aNa Tf oa S c e Fm m o l t n Ne ne f m r . io c .
a T e o u
c n c ea A mTec
n t
AF N rL í d sn Me gd a t Re e r l he se t t e t m i n a i a t i nn ss nolo
r ta n a c n st d w
N I F Fi as dys Fr í s n ci s FRRu i et dye s ef o r c f as s ci t ry ci i u a o r s o gías
I COo Al. A W i. oMal. E o i. oeem ar . I W . I r. I e . c o U o uN o a P . S e. ci Web
b s d E k n o A s r
S AQU r D c N Ao ro Ac T n o rl l .c G
n no E Ao E no M n o I i . Ini n . T n . C Pc A do Tat www
e I ar l F f r ss tr k
MDURu So S Nr ud To S e r uaao Ecer E Nr T er T ci r S óc To e c I e c I Co N er Iio .w3c.
r n d e o e S o y S
OOELmLmI sg m e MmI s g m yymAet g E sg F tg C a g O nhU n s hA s hA SmS sg A n org
L s s c r r t ci A e
i t In t c e a at s c
n i st r e n n io s u
e t it o ci d n o ri
u ut n n a ci t
t e i g ri a y
e c C z ti
s o a o
E n ti n
n s o
g o n
i rt
n i
e u
e m
r
s
Hits: 97473
< Prev
Next >
Artículos Relacionados
Estandares
Un vistazo a los estándares (ODF una alternativa para las aplicaciones de oficina)
Historia de las Telecomunicaciones
Términos basicos telecomunicaciones
Cronología de Organizaciones de Estándares
Servicios de Telecomunicaciones
Tecnologias de Comunicacion
Inalambrica
Created on Sunday, 01 December 2002
La base teórica de las ondas electromagnéticas fueron desarrolladas mucho antes por el físico
escocés James Clerk Maxwell en 1864. El primer uso de las ondas electromagnéticas fue la
telegrafía inalámbrica. Este relevante acontecimiento sería el predecesor de la propagación
electromagnética o transmisión de radio.
Utilizando estos conceptos, el italiano Guglielmo Marconi inventa la radio en 1901. La radio
fue el primer medio masivo de comunicación inalámbrica y a poco más de 100 años de su
invención, las comunicaciones móviles han demostrado ser una alternativa a las redes cableadas
para ofrecer nuevos servicios que requieren gran ancho de banda, pero con otros beneficios
como la movilidad y la ubicuidad, estar comunicado en cualquier lugar, en cualquier momento.
Algunos de los beneficios que brindan las comunicaciones inalámbricas en comparación con las
redes cableadas son las siguientes:
En 1973 Martin Cooper introduce el primer radioteléfono mientras trabajaba para la compañía
Motorola, Cooper pionero en esta tecnología, se le considera como "el padre de la telefonía
celular". En 1979 aparece el primer sistema comercial en Tokio Japón por la compañía NTT
(Nippon Telegraph & Telephone Corp.) dos años más tarde en Estados Unidos surge también el
primer sistema celular analógico comercial que trabajaba en la banda de los 800 MHz. En otros
países ocurrió lo mismo y surgieron muchas tecnologías paralelas pero incompatibles entre sí.
La telefonía celular
La telefonía sin duda es uno de los servicios inalámbricos con más penetración en la sociedad.
En nuestro país, casi 1 de cada 4 mexicanos poseen un teléfono celular. La explosión empezó
desde "el que llama paga", lo cual redujo los precios del tiempo aire y las personas empezaron a
comprar más aparatos. De ser un servicio elitista se convirtió en un servicio más accesible a los
usuarios de bajos ingresos. En la actualidad, en México, el número de teléfonos celulares supera
por mucho a las líneas telefónicas fijas.
El funcionamiento de un sistema celular es muy complejo, implica una serie de tareas que
implican modulación, codificación, acceso múltiple, monitoreo y tarificación, sólo por
mencionar algunas.
Un sistema celular para su funcionamiento está compuesto por los siguientes elementos:
1.- Unidades móviles (teléfonos): Un teléfono móvil contiene una unidad de control, un
transreceptor y un sistema de antena.
2.- Las celdas (radio bases): La radio base provee la interface entre el MTSO y las unidades
móviles. Tiene una unidad de control, cabinas de radio, antenas y una planta de generadora
eléctrica y terminales de datos.
3.- El conmutador central móvil (MTSO, Mobil Telephone Switching Office): El conmutador
central el procesador y conmutador de las celdas. Está interconectada con la Oficina Central de
telefonía pública fija. Controla el procesamiento y tarificación de llamadas. El MTSO es el
corazón del sistema celular móvil.
4.- Las conexiones o enlaces: Los enlaces de radio y datos interconectan los tres subsistemas.
Estos enlaces pueden ser por medio de antenas de microondas terrestres o por medio de líneas
arrendadas.
Existen tres técnicas para compartir un canal de Radio Frecuencia (RF) en un sistema celular:
a) FDMA (Acceso Múltiple por División de frecuencias, Frequency Division Multiple Access)
b) TDMA (Acceso Múltiple por División de Tiempo, Time Division Multiple Access)
c) CDMA (Acceso Múltiple por División de Código, Code Division Multiple Access)
FDMA
Los sistemas celulares basados en FDMA formaron la base de los primeros sistemas celulares
en el mundo. FDMA fue implementada en la banda de 800 MHz utilizando un ancho de banda
de 30 kHz por canal.
FDMA subdivide el ancho de banda en frecuencias, cada frecuencia sólo puede ser usada por un
usuario durante una llamada. Debido a la limitación en ancho de banda, esta técnica de acceso
es muy ineficiente ya que se saturan los canales al aumentar el número de usuarios alrededor de
una celda. Esta técnica de acceso múltiple predominó en los sistemas celulares analógicos de la
primer generación.
TDMA
Después de la introducción de FDMA, operadores celulares y fabricantes de equipo inalámbrico
reconocieron las limitaciones de esta técnica de acceso analógica. Años más adelante aparecen
los primeros sistemas celulares digitales basados en TDMA. Con el fin de continuar la
compatibilidad con la asignación de espectro del sistema anterior ocupado por la tecnología
AMPS, se desarrolla en Norteamérica a finales de los 80s un sistema conocido como DAMPS
(Digital AMPS) también con 30 kHz de ancho de banda por canal. En Europa se desarrolla
también un sistema celular digital basado en TDMA conocido como GSM (Groupe Special
Mobile) con canales de 200 kHz. Los primeros sistemas bajo GSM fueron instalados en 1991,
mientras el primer sistema instalado en Norteamérica fue instalado en Canadá en 1992.
Los sistemas celulares bajo TDMA utilizan el espectro de manera similar a los sistemas FDMA,
con cada radio base ocupando una frecuencia distinta para transmitir y recibir. Sin embargo,
cada una de estas dos bandas son divididas en tiempo (conocidas como ranuras de tiempo) para
cada usuario en forma de round-robin. Por ejemplo, TDMA de tres ranuras divide la
transmisión en tres periodos de tiempo fijos (ranuras), cada una con igual duración, con una
asignación particular de ranuras para transmisión para uno de 3 posibles usuarios. Este tipo de
metodología requiere una sincronización precisa entre la terminal móvil y la radio base. Como
puede verse en este esquema de tres ranuras por canal, se incrementa en un factor de tres la
capacidad de TDMA con respecto a FDMA.
CDMA
A mediados de los 80s algunos investigadores vieron el potencial de una tecnología conocida
como espectro disperso (spread spectrum) la cual era utilizada para aplicaciones militares pero
que también podría ser usada para telefonía celular. Esta tecnología de espectro disperso
involucra la transformación de la información de banda angosta a una señal de banda amplia
para transmisión, la cual puede ser vista como una manera de aumentar las capacidades de los
sistemas TDMA que limitan el número de usuarios al número de ranuras de tiempo.
Espectro disperso es una tecnología de banda amplia desarrollada por los militares
estadounidenses que provee comunicaciones seguras, confiables y de misión critica. La
tecnología de espectro disperso está diseñada para intercambiar eficiencia en ancho de banda
por confiabilidad, integridad y seguridad. Es decir, más ancho de banda es consumido con
respecto al caso de la transmisión en banda angosta, pero el "trueque" ancho de banda/potencia
produce una señal que es en efecto más robusta al ruido y así más fácil de detectar por el
receptor que conoce los parámetros (código) de la señal original transmitida. Si el receptor no
está sintonizado a la frecuencia correcta o no conoce el código empleado, una señal de espectro
disperso se detectaría solo como ruido de fondo. Debido a estas características de la tecnología
de espectro disperso la interferencia entre la señal procesada y otras señales no esenciales o
ajenas al sistema de comunicación es reducida.
Al asignar diferentes códigos únicos a los usuarios, un sistema de acceso múltiple es posible. A
este método de acceso múltiple se le conoce como CDMA. Las limitaciones de reuso de
frecuencia vistas en FDMA y TDMA ya no son tan críticas en CDMA, ya que múltiples
terminales móviles y radio bases pueden ocupar las mismas frecuencias a la vez. Es obvio
entonces que la capacidad en usuarios en CDMA se incrementa bastante con respecto a las otras
dos técnicas de acceso múltiple.
La primer generación (1G) se caracterizó por ser analógica, por ofrecer servicios solamente de
voz a bajas velocidades y por utilizar FDMA. La tecnología más conocida de esta generación es
conocida como AMPS (American Mobile Phone System).
La segunda generación (2G) se caracteriza por ser digital y ofrecer servicios de voz y datos a
baja velocidad. Aunque se sigue utilizando la banda de 800 MHz, fue abierta la banda de 1.9
GHz (1,850 ?1,990 MHz) conocida como PCS (Personal Communications Services). En la
banda de PCS están encasilladas tres tecnologías básicamente: GSM (Groupe Spécial Mobile),
TDMA IS-136 y CDMA IS-95. Estas tres tecnologías caracterizan a la segunda generación de
telefonía móvil. En el caso de México, TELCEL opera su red celular bajo TDMA, el resto de
los operadores celulares (e.g. Pegaso, Movistar, Unefon, Iusacell) tiene su red bajo la tecnología
CDMA. Aunque se abrieron también nuevos servicios con la 2G y la banda de PCS, el servicio
más popular es el conocido como servicio de mensajes cortos (SMS, Short Messaging Service),
utilizado comúnmente entre los jóvenes, por ser sencillo, rápido y barato. Existen dos versiones
de este servicio: directamente teléfono a teléfono y a través de una página web hacia un
teléfono.
Sistemas satelitales
Las comunicaciones vía satélite han sido una tecnología muy utilizada para proveer
comunicaciones a áreas alejadas y de difícil acceso. Ante la escasa y en muchos casos nula
infraestructura terrestre de comunicaciones (e.g. fibra óptica) en las zonas remotas, las
comunicaciones vía satélite abren una ventana hacia al resto del mundo. Las comunicaciones
satelitales permiten transmitir múltiples servicios de voz, datos y video a velocidades en el
orden de Megabits por segundo. Las terminales satelitales hacen posible las comunicaciones
donde otros medios no pueden penetrar por su alto costo.
Es sin duda las comunicaciones por satélite una opción muy utilizada por compañías mexicanas
desde la introducción del Morelos I en 1985. El satélite fue parte importante en las
comunicaciones durante el terremoto de ese año, después de que las comunicaciones por tierra
colapsaron.
Existen satélites de todo tipo, los hay geoestacionarios (GEO, Geostacionary Earth Orbit),
aquellos que giran a una órbita natural a 36,000 kms de la superficie de la tierra. Este tipo de
satélites (e.g Satmex V, Solidaridad II) proveen comunicaciones fijas para aplicaciones de voz,
datos y video en las bandas C y Ku principalmente. Existen satélites en órbitas bajas (LEO, Low
Earth Orbit)) y medias (MEO, Medium Earth Orbit) que dan varias vueltas a la tierra y que para
cubrir casi toda la superficie están agrupados en constelaciones de satélites. Muchos de estos
satélites proveen aplicaciones móviles de voz, sensado remoto (SCADA), meteorología,
determinación de la posición (GPS), etc. La mayoría de estos trabajan en la banda móvil L.
En países subdesarrollados las tecnologías inalámbricas basadas en WLL son una buena
alternativa para los operadores tanto en costo de instalación como de mantenimiento. Según la
UIT, la demanda de WLL en el mundo de 1997 al 2002 sobrepasará los 856 millones de nuevas
líneas. De las cuales, el 82% serán para los países subdesarrollados y el 18% restante serán para
los países desarrollados.
Los servicios que pueden ser ofrecidos por un sistema WLL incluyen:
o Servicio de voz: PCM (Pulse Code Modulation) de 64 Kbps, ADPCM (PCM adaptivo
diferencial) de 32 Kbps
o Servicio de datos en banda de voz: 56 Kbps fax/módem
o Servicios de datos: 155 Kbps (e.g. Internet)
o Servicio ISDN: 144 Kbps (2B+D)
LMDS
LMDS (local multipoint distribution service) es una tecnología de banda amplia inalámbrica
punto-multipunto basada en celdas ?al igual que la telefonía celular o WLL? con la capacidad
de transportar grandes cantidades de información a muy altas velocidades. LMDS opera a
frecuencias milimétricas, típicamente en las bandas de 28, 38, o 40 GHz. Esto permite
velocidades de datos de hasta 38 Mbps por usuario pero con la restricción de que las distancias
de cobertura deben ser cortas, menos de 8 Km. La alta capacidad de LMDS hacen posible una
gama de servicios tales como video digital, voz, televisión interactiva, música, multimedia y
acceso a Internet a altas velocidades. LMDS es una tecnología de costo efectivo, ya que su
implantación es rápida en áreas urbanas o en áreas con baja densidad de población, como es el
caso de las comunidades rurales. LMDS provee una solución efectiva de última milla que puede
sustituir a los servicios cableados tradicionales a un bajo costo y altas velocidades. En México
existen muchos operadores que ofertan este servicio principalmente para redes privadas y
acceso a Internet a altas velocidades.
MMDS
Las redes MMDS (Multichannel Multipoint Distribution Service) se caracterizan por el limitado
número de canales disponibles en las bandas asignadas para este servicio, sólo 200 MHz de
espectro en la banda de 2.5 GHz a 2.7 GHz.
Esta desventaja reduce el número efectivo de canales en un sistema MMDS. El uso principal de
esta tecnología es la televisión restringida inalámbrica — competencia directa de las compañías
de televisión por cable. Como el ancho de banda de un canal de televisión es de 6 MHz,
solamente 33 canales cabrían en el espectro asignado.
El rango de una antena de transmisión MMDS puede alcanzar los 55 kilómetros dependiendo de
la altura de la antena y de la potencia de radiodifusión. La potencia de transmisión es
usualmente entre 1 y 100 Watts, la cual es sustancialmente menor a los requerimientos de
potencia de las estaciones de televisión abierta de VHF y UHF.
La antena de recepción en el lado del usuario está condicionada para recibir señales con
polarización vertical u horizontal. Las señales de microondas son pasadas por un convertidor de
frecuencias, el cual convierte las frecuencias de microondas a las frecuencias estándar de cable
VHF y UHF, y pueda conectarse directamente al televisor.
Conclusión
Los sistemas cableados — dígase, una compañía telefónica o una compañía de televisión por
cable— tardan más tiempo en promedio para ofrecer toda la gama de los servicios. El tiempo de
instalación de toda la infraestructura cableada puede durar por lo regular desde muchos meses
hasta años con una razón de clientes potenciales del 70%, lo cual implica muchos gastos previos
por el largo tiempo transcurrido en la instalación total del sistema. En contraste, la gran mayoría
de los sistemas inalámbricos puede ser instalados en unos cuantos meses con una razón de
clientes potenciales del 90%. Otra de las ventajas de las tecnologías inalámbricas es que pueden
ser llevadas a áreas de difícil acceso geográfico y así ofrecer servicios a comunidades
marginadas y alejadas, lugares donde los medios cableados son más difíciles de ofertarse.
Otra ventaja de los sistemas inalámbricos es que son adaptables al tráfico, es decir, pueden
instalarse menos radio bases separadas a más distancia entre ellas en lugares donde el tráfico sea
menor. De la misma manera, pueden instalarse más radio bases a más corta distancia entre ellas
en lugares donde hay mucho tráfico — dígase la zona metropolitana en una ciudad.
En general las comunicaciones vía inalámbrica proveen beneficios adicionales que no proveen
los sistemas cableados. El público — el usuario final— determinará cuales servicios son los más
adecuados a sus necesidades, y desechará aquellos servicios que no le satisfagan.
Es muy importante para el usuario final conocer sobre la tecnología que está detrás del servicio
que el proveedor de servicios de telecomunicaciones. Así tendrá una visión más clara de las
bondades o limitantes, así como la calidad del servicio que le están
Hits: 92432
< Prev
Next >
Artículos Relacionados
El impacto de las tecnologías de la Información en la educación
Uso de Tecnologías (en la educación)
Las Tecnologías de la Información y la Migración Calificada
Tecnologías móviles y capacitación: potenciar el desarrollo humano mediante la participación y
la Innovación
Certificaciones Profesionales en las Tecnologías de la Información
Integración de Tecnologías en el Diseño de Hogares Inteligentes