Sei sulla pagina 1di 75

Historia de las computadoras

La historia de las computadoras como dispositivos electrónicos de consumo para el


mercado masivo comenzó efectivamente en 1977 con la introducción de
las microcomputadoras, aunque ya se habían aplicado mucho antes, algunas
computadoras mainframe y computadoras centrales como sistemas monousuario.
Una computadora personal está orientada al uso individual y se diferencia de una
computadora mainframe, donde las peticiones del usuario final son filtradas a través
del personal de operación o un sistema de tiempo compartido, en el cual
un procesador grande es compartido por muchos individuos. Después del desarrollo
del microprocesador, las computadoras personales llegaron a ser más económicas
y se popularizaron. Las primeras computadoras personales, generalmente
llamadas microcomputadoras, fueron vendidas a menudo como kit electrónicos y en
números limitados. Fueron de interés principalmente para aficionados y técnicos.

Historia de la computadora
Originalmente el término "computadora personal" apareció en un artículo del New
York Times el 31 de enero de 1978 informando de la visión de John W.
Mauchlysobre el futuro de la computación, según lo detallado en una reciente
reunión del American Institute of Industrial Engineers. Mauchly indicó, «No hay
razón para suponer que un chico o chica promedio, no pueda ser dueño de una
computadora personal».1
Seis años más tarde un fabricante tomó el riesgo de referirse a su producto de esta
manera, cuando Hewlett-Packard hizo publicidad de sus "Powerful Computing
Genie" como "La nueva computadora personal Hewlett-Packard 9100A".2 Este
anuncio fue juzgado como demasiado radical para la audiencia a la que iba
destinado, y fue reemplazado por un anuncio mucho más sobrio para la calculadora
programable HP 9100A.34
Durante los siguientes siete años la expresión había ganado suficiente
reconocimiento, por lo que cuando la revista Byte publicó su primera edición, se
refirió a sus lectores como "en el campo de la computación personal", 5 y Creative
Computing definió la computadora personal como un "sistema no-compartido (es
decir, que no era de tiempo compartido, como los grandes equipos de la época),
que cuenta con suficiente potencia de procesamiento, y capacidades de
almacenamiento para satisfacer las necesidades de un usuario individual". 6 Dos
años más tarde, ocurrió lo que la revista Byte llamó la "Trinidad de 1977" de las
pequeñas computadoras pre-ensambladas que llegaron al mercado:7 el Apple II y
el PET 2001, que fueron promocionados como computadoras personales, 89
mientras que el TRS-80 era descrito como un microcomputador usado para las
tareas del hogar incluyendo la "gestión financiera personal". En 1979 fueron
vendidos más de medio millón de microcomputadoras y los jóvenes de esos días
tuvieron un nuevo concepto de la computadora personal.
Mainframes, minicomputadoras, y microcomputadoras.

Antes del advenimiento del computadora personal, Los computadora fueron usados
para acceso en tiempo compartido de las computadoras centrales (mainframes)
Antes de la introducción del microprocesador a principios de los años 1970, las
computadoras generalmente eran sistemas grandes y costosos cuyos dueños eran
grandes corporaciones, universidades, agencias gubernamentales, e instituciones
de tamaño similar. Los usuarios finales generalmente no interactuaban
directamente con la máquina, sino que preparaban tareas para el computador, en
equipos fuera de línea como perforadoras de tarjetas. Varias asignaciones para la
computadora serían recogidas y procesadas en proceso por lotes. Después de que
el trabajo hubiera terminado, los usuarios podían recoger los resultados. En algunos
casos podría tardar horas o días entre someter un trabajo al centro de computación
y la recepción de la salida, para una mejor calidad.
Una forma más interactiva de uso de la computadora se desarrolló comercialmente
por mediados de los años 1960. En un sistema de tiempo compartido, múltiples
terminales permitieron a mucha gente compartir el uso de un procesador de
computadora mainframe. Esto era común en aplicaciones empresariales y en
ciencia e ingeniería.
Un modelo diferente del uso de la computadora fue presagiado en la manera en que
fueron usadas las tempranas computadoras experimentales pre comerciales, donde
un usuario tenía uso exclusivo de un procesador. En lugares como el MIT, los
estudiantes con acceso a algunos de las primeras computadoras experimentaron
con aplicaciones que hoy serían típicas de una computadora personal, por ejemplo,
el diseño asistido por computadora fue previsto por el T-square, un programa
escrito en 1961, y un ancestro de los juegos de computadora de hoy se encontró en
el Spacewar! De 1962. Algunos de las primeras computadoras que pudieron
haberse llamados "personales" eran minicomputadores tempranos tales como
el LINC y el PDP-8, y posteriormente el VAX, y minicomputadoras más grandes
de Digital Equipment Corporation (DEC), Data General, Prime Computer, y otros.
Para los estándares de hoy, eran muy grandes (alrededor del tamaño de un
refrigerador) y de costo prohibitivo (típicamente decenas de miles de dólares), y por
lo tanto raramente fueron comprados por individuos. Sin embargo, eran mucho más
pequeños, menos costosos, y generalmente más simples de operar que muchos de
las computadoras mainframes de ese tiempo, por lo tanto eran asequibles por
laboratorios individuales y proyectos de investigación. Las minicomputadoras
liberaron en gran parte, a estas organizaciones, del procesamiento por lotes, y de
la burocracia de un centro de computación comercial o universitario.
Además, las minicomputadoras eran relativamente más interactivos que las
unidades centrales, y pronto tendrían sus propios sistemas operativos. El
minicomputador Xerox Alto (1973) fue un hito en el desarrollo de las computadoras
personales, debido a su interfaz gráfica de usuario, pantalla de mapa de bits de alta
resolución, gran almacenamiento de memoria interno y externo, ratón, y software
especial.12
Ya en 1945, Vannevar Bush, en un ensayo llamado As We May Think (Como
podemos pensar, en idioma español), esbozó una posible solución al creciente
problema del almacenamiento y la recuperación de información. En lo que fue
llamado más tarde como The Mother of All Demos (La Madre de todas las
demostraciones, en idioma español), el investigador Douglas Engelbart del SRI dio
en 1968 un adelanto de lo que se convertiría en los elementos básicos de la vida
laboral diaria en el siglo XXI (correo electrónico, hipertexto, procesamiento de
palabras, video conferencia, y el ratón). La demostración era la culminación de la
investigación en el laboratorio Augmentation Research Center de Engelbart, que se
concentró en la aplicación de la tecnología de computación para facilitar el
pensamiento humano creativo.
El microprocesador y la reducción de costos.
Los minicomputadores, ancestros de la moderna computadora personal, usaron
una temprana tecnología de circuitos integrados (microchip), que redujo el tamaño
y el costo, pero no contenía al microprocesador en un chip. Esto significaba que
todavía eran grandes y difíciles de fabricar justo como sus predecesores los
mainframes. Después de que la "computadora en un chip" fuera comercializada, el
costo para manufacturar un sistema de computación cayó dramáticamente. La
aritmética, lógica, y funciones de control, que previamente ocuparon varias costosas
placas de circuitos impresos ahora estaban disponibles en un solo circuito
integrado, haciendo posible producirlos en grandes volúmenes. Concurrentemente,
los avances en el desarrollo de la memoria de estado sólido eliminaron la abultada,
costosa y hambrienta de energía memoria de núcleo magnético usada en previas
generaciones de computadoras.
Había algunos investigadores en lugares tales como SRI y Xerox PARC que
estaban trabajando en computadoras que una sola persona pudiera usar y pudieran
ser conectados por redes rápidas y versátiles: no computadores caseros,
sino computadoras personales.
El Intel 4004, el primer microprocesador

Después de la introducción en 1972 del Intel 4004, los costos de los


microprocesadores declinaron rápidamente. En 1974 la revista de electrónica
estadounidense Radio-Electronics presentó el kit de computadora Mark-8, basado
en el procesador Intel 8008. En enero del siguiente año, la revista Popular
Electronics publicó un artículo que describía un kit basado en el Intel 8080, un
procesador algo más potente y más fácil de usar. El Altair 8800 se vendió
extraordinariamente bien, aunque el tamaño de la memoria inicial estaba limitado a
unos pocos cientos de bytes y no había software disponible. Sin embargo, el kit del
Altair era mucho menos costoso que un sistema de desarrollo de Intel de ese
tiempo, así que fue comprado por compañías interesadas en desarrollar un control
de microprocesador para sus propios productos. Tarjetas de expansión de memoria
y periféricos fueron pronto presentados por los fabricantes originales, y más tarde
por fabricantes de dispositivos enchufables compatibles. El primer producto
de Microsoft fue un interpretador BASIC de 4 kilobytes presentado en formato
de cinta de papel perforado, el Altair BASIC, que permitió que los usuarios
desarrollaran programas en un lenguaje de alto nivel. La alternativa
era ensamblar a mano el código de máquina que podía ser cargado directamente
en la memoria del microcomputador usando un panel frontal de conmutadores,
botones y LEDs. Aunque el panel frontal del hardware emulaba a los usados por los
primeros mainframes y minicomputadores, después de un corto tiempo, la
entrada/salida a través de un terminal era la interfaz humano/máquina preferida, y
los paneles frontales llegaron a extinguirse.
Los principios de la industria del computador personal
Simón
Simon13 fue un proyecto desarrollado por Edmund Berkeley y presentado en una
serie de trece artículos publicado en la revista Radio-Electronics, a partir de octubre
de 1950. Aunque había máquinas mucho más avanzadas en el momento de su
construcción, el Simon representa la primera experiencia de construcción de un
ordenador digital automático simple, con fines educativos.
El IBM 610 fue diseñado entre 1948 y 1957 por John Lentz en el Laboratorio
Watson en la Universidad de Columbia como Personal Automatic Computer (PAC)
(Computadora personal automática) y anunciado, en 1957, por IBM como el Auto-
Point 610. Aunque fue criticado por su velocidad, el IBM 610 manejaba una
aritmética de punto flotante de forma natural. Con un precio de US$ 55.000, solo se
produjeron 180 unidades.
El Programa 101 fue la primera producción comercial "computadora de escritorio",
diseñada y producida por la empresa italiana Olivetti y presentada en la Feria
Mundial de Nueva York de 1965. Más de 44.000 unidades vendidas en todo el
mundo; en EE.UU. su cotización al momento de lanzamiento fue de US$ 3.200. El
Programa 101 tenía muchas de las características incorporadas en los ordenadores
personales modernos, como memoria, teclado, unidad de impresión,
lector/grabador de tarjetas magnéticas, unidad aritmética y de control y es
considerado por muchos como la primera computadora de sobremesa producido
comercialmente, mostrando el mundo que era posible crear una computadora de
escritorio (más adelante HP copió la arquitectura Programa 101 para su serie
HP9100).
La serie MIR soviética de computadoras se desarrolló desde 1965 hasta 1969 con
un grupo encabezado por Victor Glushkov. Fue diseñado como un ordenador de
relativamente pequeña escala para su uso en aplicaciones de ingeniería y científicas
y contenía una implementación de hardware de un lenguaje de programación de
alto nivel. Otra característica innovadora para la época era la interfaz de usuario que
combinaba un teclado con un monitor y la luz de la pluma para la corrección de
textos y dibujo en pantalla.
El Kenbak-1 es considerado por el Computer History Museum como el primer
computador personal del mundo. Fue diseñado e inventado por John Blankenbaker
de Kenbak Corporation en 1970, y fue vendido por primera vez a principios de 1971.
A diferencia de un computador personal moderno, el Kenbak-1 fue construido con
circuitos integrados de Lógica TTL de baja escala de integración, y no usó un
microprocesador. El primer sistema fue vendido en $750. Solo alrededor de 40
máquinas fueron construidas y vendidas. En 1973, la producción del Kenbak-1 se
detuvo cuando Kenbak Corporation desapareció.
Con solamente 256 bytes de memoria, un tamaño de palabra de 8 bits, y entradas
y salidas restringidas a luces e interruptores, el Kenbak-1 era más útil para aprender
los principios de la programación, pero no era capaz de correr programas de
aplicación.
Datapoint 2200
Un terminal programable llamado Datapoint 2200 es el más temprano dispositivo
conocido que lleva una cierta significativa semejanza al del computador personal
moderno, con una pantalla, teclado, y almacenamiento para el programa. Fue
hecho en 1970 por CTC(ahora conocido como Datapoint), y era un sistema
completo en una pequeña carcasa que tenía una base aproximada a la de una
máquina de escribir IBM Selectric. El CPU del sistema fue construido de una
variedad de componentes discretos, aunque la compañía había comisionado
a Intel para que desarrollara una unidad central en un chip; Hubo una ruptura entre
CTC e Intel, y el microprocesador que Intel había desarrollado no fue usado. Intel
pronto lanzó una versión modificada de ese chip como el Intel 8008, el primer
microprocesador de 8 bits del mundo.23 Por lo tanto, las necesidades y los requisitos
del Datapoint 2200 determinaron la naturaleza del 8008, sobre el cual fueron
basados todos los sucesivos procesadores usados en PC compatibles con IBM.
Adicionalmente, el diseño del CPU multi-chip de Datapoint 2200 y el diseño final de
Intel 8008 eran tan similares que los dos son en gran parte compatibles en el
software; por lo tanto, el Datapoint 2200, desde una perspectiva práctica, puede ser
considerado como si de hecho fuera accionado por un 8008, lo que también lo hace
un fuerte candidato al título del "primer microcomputador".
La compañía francesa R2E fue formada, por dos ingenieros anteriores de la
compañía Intertechnique, para vender su diseño de microcomputador basado en
el Intel 8008. El sistema fue originalmente desarrollado en el Institut National de la
Recherche Agronomique para automatizar mediciones higrométricas. El sistema
corrió a 500 kHz e incluyó 16 KiB de memoria (lo cual se denominaba "16 KB",
puesto que la memoria comprendía aproximadamente 16 000 bytes), y se vendió
por 8500 francos, aproximadamente $1300 de la época.
Un bus de datos, llamado Pluribus fue introducido y permitía la conexión de hasta
14 tarjetas. Diferentes tarjetas para entrada/salida digital, entrada/salida analógica,
memoria, disco floppy, estaban disponibles por parte de R2E. El sistema operativo
de Micral fue llamado inicialmente Sysmic, y fue más tarde renombrado Prologue.
R2E fue absorbida por Groupe Bull en 1978. Aunque Groupe Bull continuara la
producción de computadoras Micral, no estaba interesado en el mercado del
computador personal. Y los computadores Micral fueron confinadas sobre todo a las
puertas de peaje de las carreteras, donde permanecieron en servicio hasta 1992 y
nichos similares de mercado.
Xerox Alto y Xerox Star

El Xerox Alto, desarrollado en Xerox PARC en 1973, fue el primer computador en


usar un ratón, la metáfora de escritorio, y una interface gráfica de usuario (GUI),
conceptos introducidos por primera vez por Douglas Engelbart mientras estaba
en SRI international. Fue el primer ejemplo de lo que hoy en día sería reconocido
como un computador personal completo.
En 1981, la Xerox Corporation introdujo la estación de trabajo Xerox Star,
oficialmente conocida como el "8010 Star Information System". Dibujada sobre su
predecesor, el Xerox Alto, era el primer sistema comercial en incorporar varias
tecnologías que hoy han llegado a ser corrientes en computadores personales,
incluyendo una exhibición de mapa de bits, una interface gráfica de usuario basada
en ventanas, íconos, carpetas, ratón, red de Ethernet, servidores de
archivos, servidores de impresoras y email. También incluyó un lenguaje de
programación de sistema llamado Smalltalk.
Mientras que su uso fue limitado pero a los ingenieros en Xerox PARC, el Alto tenía
características años delantado a su tiempo. El Xerox Alto y el Xerox Star inspirarían
al Apple Lisa y al Apple Macintosh.

El IBM 5100 era una computadora de escritorio introducido en septiembre de 1975,


seis años antes del IBM PC. Era la evolución de un prototipo llamado Special
Computer APL Machine Portable (SCAMP) que IBM demostró en 1973. En enero
de 1978 IBM anunció al IBM 5110, su primo más grande. El 5100 fue retirado en
marzo de 1982.
Cuando el IBM PC fue introducido en 1981, fue originalmente designado como el
IBM 5150, poniéndolo en la serie del "5100", aunque su arquitectura no descendía
directamente del IBM 5100.

El desarrollo del microprocesador en un solo chip dio lugar a la popularización de


los verdaderos computadores personales prácticos y económicos, entre ellos el
pionero Altair 8800, de MITS, una empresa pequeña que producía kits
electrónicos destinado a aficionados.
El Altair fue introducido en un artículo de la revista Popular Electronics en la edición
de enero del 1975. Al igual que proyectos anteriores de MITS, el Altair fue vendido
en forma de kit, aunque uno relativamente complejo consistiendo de cuatro placas
de circuito y muchas piezas. Valorado en solamente $400, el Altair sorprendió a sus
creadores cuando generó miles de órdenes en el primer mes. Incapaz de dar abasto
a la demanda, MITS vendió el diseño después de despachar cerca de 10 000 kits.
Diseño
El diseño se define como el proceso previo de configuración mental,
"prefiguración", en la búsqueda de una solución en cualquier campo. Utilizado
habitualmente en el contexto de
La industria, ingeniería, arquitectura, comunicación y otras disciplinas creativas.
Etimológicamente deriva del término italiano disegno dibujo, designio, signare,
signado "lo por venir", el porvenir visión representada gráficamente del futuro, lo
hecho es la obra, lo por hacer es el proyecto, el acto de diseñar como
prefiguración es el proceso previo en la búsqueda de una solución o conjunto de las
mismas. Plasmar el pensamiento de la solución o las alternativas mediante esbozos,
dibujos, bocetos o esquemas trazados en cualquiera de los soportes, durante o
posteriores a un proceso de observación de alternativas o investigación. El acto
intuitivo de diseñar podría llamarse creatividad como acto de creación o innovación
si el objeto no existe o se modifica algo existente.
Referente al signo, significación, designar es diseñar el hecho de la solución
encontrada. Es el resultado de la economía de recursos materiales, la forma,
transformación y el significado implícito en la obra, su ambigua apreciación no
puede determinarse si un diseño es un proceso estético correspondiente al arte
cuando lo accesorio o superfluo se antepone a la función o solución del problema.
El acto humano de diseñar no es un hecho artístico en sí mismo, aunque puede
valerse de los mismos procesos en pensamiento y los mismos medios de expresión
como resultado; al diseñar un objeto o signo de comunicación visual en función de
la búsqueda de una aplicación práctica, el diseñador ordena y dispone los
elementos estructurales y formales, así como dota al producto o idea de
significantes si el objeto o mensaje se relaciona con la cultura en su contexto social.
El verbo "diseñar" se refiere al proceso de creación y desarrollo para producir un
nuevo objeto o medio de comunicación (objeto, proceso, servicio, conocimiento o
entorno) para uso humano. El sustantivo "diseño" se refiere al plan final o
proposición determinada fruto del proceso de diseñar: dibujo, proyecto, diseño
industrial o descripción técnica, maqueta al resultado de poner ese plan final en
práctica (la imagen, el objeto a fabricar o construir).
Diseñar requiere principalmente consideraciones funcionales, estéticas y
simbólicas. El proceso necesita numerosas fases como: observación, investigación,
análisis, testado, ajustes, modelados (físicos o virtuales mediante programas de
diseño informáticos en dos o tres dimensiones), adaptaciones previas a la
producción definitiva del objeto industrial, construcción de obras ingeniería en
espacios exteriores o interiores arquitectura, diseño de interiores, o elementos
visuales de comunicación a difundir, transmitir e imprimir sean: diseño
gráfico o comunicación visual, diseño de información, tipografía. Además abarca
varias disciplinas y oficios conexos, dependiendo del objeto a diseñar y de la
participación en el proceso de una o varias personas.
Diseñar es una tarea compleja, dinámica e intrincada. Es la integración de requisitos
técnicos, sociales y económicos, necesidades biológicas, ergonomía con efectos
psicológicos y materiales, forma, color, volumen y espacio, todo ello pensado e
interrelacionado con el medio ambiente que rodea a la humanidad. De esto último
se puede desprender la alta responsabilidad ética del diseño y los diseñadores a
nivel mundial. Un buen punto de partida para entender éste fenómeno es revisar
la Gestalt y como la teoría de sistemas aporta una visión amplia del tema.
Un filósofo contemporáneo, Vilém Flusser, propone, en su libro Filosofía del diseño,
que el futuro (el destino de la humanidad) depende del diseño.
Arte u oficio
Durante décadas los vínculos entre el diseño y los movimientos de vanguardia se
convirtieron en el centro del debate entre investigadores y expertos y alejaron la
mirada de otros aspectos más relevantes. El diseño guarda relación con la actividad
artística en la medida que emplea un lenguaje similar, que utiliza una sintaxis
prestada de las artes plásticas, pero es un fenómeno de naturaleza más compleja y
enteramente vinculado a la actividad productiva y al comercio.
Como subrayaba, “a diferencia del arte y la arquitectura donde el protagonista son
los artefactos, el proceso histórico del diseño no se basa sólo en los proyectistas,
porque al menos un peso similar tienen los productores, los vendedores y el mismo
público”.
Se suele confundir con frecuencia a los diseñadores y a los artistas, aunque
únicamente tienen en común la creatividad. El diseñador proyecta el diseño sobre
la base de una inspiración, justificando sus propuestas y sin hacer de lado la
importancia de satisfacer su mercado meta. A diferencia del artista que es más
espontáneo, libre y sus acciones pueden no estar justificadas.
El diseñador
Referente a la profesión (empírica) mediante la praxis profesional o académica de
quien diseña, actúa y proyecta objetos funcionales, herramientas ergonómicas,
mobiliario, accesorios útiles, vestimenta, espacios físicos o virtuales webs,
multimedia, información, señales, mensajes no verbales sígnicos, simbólicos y
sistemas, ordena elementos gráficos e imágenes, clasifica tipologías, crea o
modifica tipografías. Su campo de actuación tiene relación con la industria, el
comercio y todas las actividades culturales, su perfil y educación puede tener
orientación técnica en la ingeniería de procesos industriales o constructivos
(arquitectura de interiores), en relación con las disciplinas humanísticas en los
campos de actuación de la comunicación audiovisual, artes gráficas, la publicidad,
el mercadeo (marketing) o la gestión de productos, el diseño de los mismos o sus
contenedores (packaging) embalajes, etiquetas, envases y en las mismas empresas
industriales o comerciales en departamentos de investigación y desarrollo de
nuevos productos o comunicación corporativa con el diseñador. Las computadoras
también hacen más eficientes los procesos de diseño y fabricación. Por ejemplo, si
las especificaciones de una pequeña pieza de una máquina se modifican en el
ordenador, éste puede calcular cómo afectan los cambios al resto de la máquina
antes de proceder a su fabricación.
Algunos de puntos de vista
Las definiciones sobre diseño son tantas y tan variadas como las actividades que
han dado pie a esta actividad.
Tomás Maldonado señalaba que “el diseño industrial es una actividad proyectual
que consiste en determinar las prioridades formales de los objetos producidos
industrialmente”. La forma tiene por misión, no sólo alcanzar un alto nivel estético,
sino hacer evidentes determinadas significaciones y resolver problemas de carácter
práctico relativos a la fabricación y el uso. Diseño es un proceso de adecuación
formal, a veces no consciente, de los objetos.
Según Joseph Edward Shigley y Charles R. Mishke, en su obra Diseño en
ingeniería mecánica (Mechanical Engineering Design), publicada en 1989, "diseño
es formular un plan para satisfacer una necesidad humana".
Para el arquitecto Damiano Franco, el diseño se encuentra hasta en la parte más
ínfima de la vida del ser humano. ¿Qué sería de la vida cotidiana sin un diseño
apropiado para cada una de las cosas y objetos? Un caos...
Gui Bonsiepe define al diseño como: "Hacer disponible un objeto para una acción
eficaz."
Desde esta perspectiva, diseño puede conceptualizarse como un campo de
conocimiento multidisciplinario, que implica su aplicación en distintas profesiones,
que puede ser estudiado, aprendido y, en consecuencia, enseñado. Que está al
nivel de la ciencia y la filosofía, dado que su objetivo está orientado a estructurar y
configurar contenidos que permitan ser utilizados para ofrecer satisfacciones a
necesidades específicas de los seres humanos.
El diseño también es una actividad técnica y creativa encaminada a idear un
proyecto útil, funcional y estético que pueda llegar a producirse en serie como en
el diseño industrial, el diseño gráfico o el diseño de joyas. A pesar de que el diseño
de interiores no va dirigido a una producción en serie en su gran mayoría.
En el libro "el diseño en la vida cotidiana" John Heskett menciona que el diseño es
una de las características básicas de lo humano y un determinante esencial de la
calidad de vida. Afecta a todas las personas, en todos los detalles que hacemos en
el día a día.
La banalización actual del diseño
El diseño hoy en día, es un término que en multitud de ocasiones se emplea
erróneamente. Por un lado se debe a que es un término relativamente nuevo y por
otro, y más importante, es la frivolidad con la que se trabajó en los años 80 en
nombre del diseño, es decir la superficialidad y la falta de seriedad.
Es por ello que muchas veces la falta de información lleva al empleo del término
“diseño” incorrectamente. Ejemplos como: “mucho diseño y poco contenido” son
comunes incluso en prensa, televisión, discursos políticos, etc. Sin embargo, el buen
diseño, se caracteriza por su buena usabilidad y no siempre por su originalidad o
estética.
Según el pintor, fotógrafo y crítico de arte Moholy-Nagy (1895-1946), el diseño es la
organización de materiales y procesos de la forma más productiva, en un sentido
económico, con un equilibrado balance de todos los elementos necesarios para
cumplir una función. No es una limpieza de la fachada, o una nueva apariencia
externa; más bien es la esencia de productos e instituciones.
Según John Heskett la transformación del diseño en algo banal e intrascendente
supone uno de los rasgos más llamativos del mundo moderno.
Fases del proceso del diseño
El proceso de diseñar, suele implicar las siguientes fases:
1. Observar y analizar el medio en el cual se desenvuelve el ser humano,
descubriendo alguna necesidad.
2. Evaluar, mediante la organización y prioridad de las necesidades identificadas.
3. Planear y proyectar proponiendo un modo de solucionar esta necesidad, por
medio de planos y maquetas, tratando de descubrir la posibilidad y viabilidad de
la(s) solución(es).
4. Ver, construir y ejecutar llevando a la vida real la idea inicial, por medio de
materiales y procesos productivos.
Estos cuatro actos, se van haciendo uno tras otro, y a veces continuamente.
Algunos teóricos del diseño no ven una jerarquización tan clara, ya que estos actos
aparecen una y otra vez en el proceso de diseño.
Hoy por hoy, y debido al mejoramiento del trabajo del diseñador (gracias a mejores
procesos de producción y recursos informáticos), podemos destacar otro acto
fundamental en el proceso:
Diseñar como acto cultural implica conocer criterios de diseño como presentación,
producción, significación, socialización, costos, mercadeo, entre otros. Estos
criterios son innumerables, pero son contables a medida que se definen los
proyectos del diseño.
Programación
La programación informática o programación algorítmica, acortada
como programación.

Es el proceso de diseñar, codificar, depurar y mantener el de código fuente


programas de computadora. El código fuente es escrito en un lenguaje de
programación. El propósito de la programación es crear programas que exhiban
un comportamiento deseado. El proceso de escribir código requiere
frecuentemente conocimientos en varias áreas distintas, además del dominio del
lenguaje a utilizar, algoritmos especializados y lógica formal. Programar no
involucra necesariamente otras tareas tales como el análisis y diseño de la
aplicación (pero sí el diseño del código), aunque sí suelen estar fusionadas en el
desarrollo de pequeñas aplicaciones.

Historia
Ejemplo de código fuente escrito en lenguaje Pauscal
Para crear un programa, y que la computadora lo interprete y ejecute las
instrucciones escritas en él, debe escribirse en un lenguaje de programación. En
sus inicios las computadoras interpretaban solo instrucciones en un lenguaje
específico, del más bajo nivel, conocido como código máquina, siendo éste
excesivamente complicado para programar. De hecho solo consiste en cadenas de
números 1 y 0 (sistema binario). Para facilitar el trabajo de programación, los
primeros científicos, que trabajaban en el área, decidieron reemplazar las
instrucciones, secuencias de unos y ceros, por palabras o abreviaturas provenientes
del inglés; las codificaron y crearon así un lenguaje de mayor nivel, que se conoce
como Assembly o lenguaje ensamblador. Por ejemplo, para sumar se podría usar
la letra A de la palabra inglesa add (sumar). En realidad escribir en lenguaje
ensamblador es básicamente lo mismo que hacerlo en lenguaje máquina, pero las
letras y palabras son bastante más fáciles de recordar y entender que secuencias
de números binarios. A medida que la complejidad de las tareas que realizaban las
computadoras aumentaba, se hizo necesario disponer de un método sencillo para
programar. Entonces, se crearon los lenguajes de alto nivel. Mientras que una tarea
tan trivial como multiplicar dos números puede necesitar un conjunto de
instrucciones en lenguaje ensamblador, en un lenguaje de alto nivel bastará con
solo una. Una vez que se termina de escribir un programa, sea en ensamblador o
en algunos lenguajes de alto nivel, es necesario compilarlo, es decir, traducirlo
completo a lenguaje máquina.1 Eventualmente será necesaria otra fase denominada
comúnmente link o enlace, durante la cual se anexan al código, generado durante
la compilación, los recursos necesarios de alguna biblioteca. En algunos lenguajes
de programación, puede no ser requerido el proceso de compilación y enlace, ya
que pueden trabajar en modo intérprete. Esta modalidad de trabajo es equivalente
pero se realiza instrucción por instrucción, a medida que es ejecutado el programa.
Léxico y programación
La programación se rige por reglas y un conjunto más o menos reducido de órdenes,
expresiones, instrucciones y comandos que tienden a asemejarse a una lengua
natural acotada (en inglés); y que además tienen la particularidad de una reducida
ambigüedad. Cuanto menos ambiguo es un lenguaje de programación, se dice, es
más potente. Bajo esta premisa, y en el extremo, el lenguaje más potente existente
es el binario, con ambigüedad nula (lo cual lleva a pensar así del lenguaje
ensamblador).[cita requerida]
En los lenguajes de programación de alto nivel se distinguen diversos elementos
entre los que se incluyen el léxico propio del lenguaje y las reglas semánticas y
sintácticas.
Programas y algoritmos
Un algoritmo es una secuencia no ambigua, finita y ordenada de instrucciones que
han de seguirse para resolver un problema. Un programa normalmente implementa
(traduce a un lenguaje de programación concreto) uno o más algoritmos. Un
algoritmo puede expresarse de distintas maneras: en forma gráfica, como
un diagrama de flujo, en forma de código como en pseudocódigo o un lenguaje de
programación, en forma explicativa.
Los programas suelen subdividirse en partes menores, llamadas módulos, de modo
que la complejidad algorítmica de cada una de las partes sea menor que la del
programa completo, lo cual ayuda al desarrollo del programa. Esta es una práctica
muy utilizada y se conoce como "refino progresivo".
Según Niklaus Wirth, un programa está formado por los algoritmos y la estructura
de datos.
La programación puede seguir muchos enfoques, o paradigmas, es decir, diversas
maneras de formular la resolución de un problema dado. Algunos de los principales
paradigmas de la programación son:

 Programación declarativa
 Programación estructurada
 Programación modular
 Programación orientada a objetos
Copilacion
El programa escrito en un lenguaje de programación de alto nivel (fácilmente
comprensible por el programador) es llamado programa fuente y no se puede
ejecutar directamente en una computadora. La opción más común es compilar el
programa obteniendo un módulo objeto, aunque también puede ejecutarse en forma
más directa a través de un intérprete informático.
El código fuente del programa se debe someter a un proceso de traducción para
convertirlo a lenguaje máquina o bien a un código intermedio, generando así un
módulo denominado "objeto". A este proceso se le llama compilación.
Habitualmente la creación de un programa ejecutable (un típico.exe para Microsoft
Windows o DOS) conlleva dos pasos. El primer paso se llama compilación
(propiamente dicho) y traduce el código fuente escrito en un lenguaje de
programación almacenado en un archivo de texto a código en bajo nivel
(normalmente en código objeto, no directamente a lenguaje máquina). El segundo
paso se llama enlazado en el cual se enlaza el código de bajo nivel generado de
todos los ficheros y subprogramas que se han mandado compilar y se añade el
código de las funciones que hay en las bibliotecas del compilador para que el
ejecutable pueda comunicarse directamente con el sistema operativo, traduciendo
así finalmente el código objeto a código máquina, y generando un módulo
ejecutable.
Estos dos pasos se pueden hacer por separado, almacenando el resultado de la
fase de compilación en archivos objetos (un típico .o para Unix, .obj para MS-
Windows, DOS); para enlazarlos en fases posteriores, o crear directamente el
ejecutable; con lo que la fase de compilación puede almacenarse solo de forma
temporal. Un programa podría tener partes escritas en varios lenguajes, por
ejemplo, Java, C, C++ y ensamblador, que se podrían compilar de forma
independiente y luego enlazar juntas para formar un único módulo ejecutable.

Programación e ingeniería del software


Existe una tendencia a identificar el proceso de creación de un programa informático
con la programación, que es cierta cuando se trata de programas pequeños para
uso personal, y que dista de la realidad cuando se trata de grandes proyectos.
El proceso de creación de software, desde el punto de vista de la ingeniería, incluye
mínimamente los siguientes pasos:

1. Reconocer la necesidad de un programa para solucionar un problema o


identificar la posibilidad de automatización de una tarea.
2. Recoger los requisitos del programa. Debe quedar claro qué es lo que debe
hacer el programa y para qué se necesita.
3. Realizar el análisis de los requisitos del programa. Debe quedar
claro qué tareas debe realizar el programa. Las pruebas que comprueben la
validez del programa se pueden especificar en esta fase.
4. Diseñar la arquitectura del programa. Se debe descomponer el programa en
partes de complejidad abordable.
5. Implementar el programa. Consiste en realizar un diseño detallado,
especificando completamente todo el funcionamiento del programa, tras lo
cual la codificación (programación propiamente dicha) debería resultar
inmediata.
6. Probar el programa. Comprobar que pasan pruebas que se han definido en
el análisis de requisitos.
7. Implantar (instalar) el programa. Consiste en poner el programa en
funcionamiento junto con los componentes que pueda necesitar (bases de
datos, redes de comunicaciones, etc.).
La ingeniería del software se centra en los pasos de planificación y diseño del
programa, mientras que antiguamente (programación artesanal) la realización de un
programa consistía casi únicamente en escribir el código, bajo solo el conocimiento
de los requisitos y con una modesta fase de análisis y diseño.
Referencias históricas
El trabajo de Ada Lovelace, hija de Anabella Milbanke Byron y Lord Byron, que
realizó para la máquina de Babbage le hizo ganarse el título de primera
programadora de computadoras del mundo, aunque Babbage nunca completó la
construcción de la máquina. El nombre del lenguaje de programación Ada fue
escogido como homenaje a esta programadora.
Objetivos de la programación
La programación debe perseguir la obtención de programas de calidad. Para ello se
establece una serie de factores que determinan la calidad de un programa. Algunos
de los factores de calidad más importantes son los siguientes:

 Correctitud. Un programa es correcto si hace lo que debe hacer tal y como se


estableció en las fases previas a su desarrollo. Para determinar si un programa
hace lo que debe, es muy importante especificar claramente qué debe hacer el
programa antes de su desarrollo y, una vez acabado, compararlo con lo que
realmente hace.

 Claridad. Es muy importante que el programa sea lo más claro y legible posible,
para facilitar tanto su desarrollo como su posterior mantenimiento. Al elaborar
un programa se debe intentar que su estructura sea sencilla y coherente, así
como cuidar el estilo de programación. De esta forma se ve facilitado el trabajo
del programador, tanto en la fase de creación como en las fases posteriores de
corrección de errores, ampliaciones, modificaciones, etc. Fases que pueden ser
realizadas incluso por otro programador, con lo cual la claridad es aún más
necesaria para que otros puedan continuar el trabajo fácilmente. Algunos
programadores llegan incluso a utilizar Arte ASCII para delimitar secciones de
código; una práctica común es realizar aclaraciones en el código fuente
utilizando líneas de comentarios. Contrariamente, algunos por diversión o para
impedirle un análisis cómodo a otros programadores, recurren al uso de código
ofuscado.

 Eficiencia. Se trata de que el programa, además de realizar aquello para lo que


fue creado (es decir, que sea correcto), lo haga gestionando de la mejor forma
posible los recursos que utiliza. Normalmente, al hablar de eficiencia de un
programa, se suele hacer referencia al tiempo que tarda en realizar la tarea para
la que ha sido creado y a la cantidad de memoria que necesita, pero hay otros
recursos que también pueden ser de consideración para mejorar la eficiencia de
un programa, dependiendo de su naturaleza (espacio en disco que utiliza, tráfico
en la red que genera, etc.).
 Portabilidad. Un programa es portable cuando tiene la capacidad de poder
ejecutarse en una plataforma, ya sea hardware o software, diferente a aquella
en la que se desarrolló. La portabilidad es una característica muy deseable para
un programa, ya que permite, por ejemplo, a un programa que se ha elaborado
para el sistema GNU/Linux ejecutarse también en la familia de sistemas
operativos Windows. Esto permite que el programa pueda llegar a más usuarios
más fácilmente.

Ciclo de vida del software

El término ciclo de vida del software describe el desarrollo de software, desde la


fase inicial hasta la fase final, incluyendo su estado funcional. El propósito es definir
las distintas fases intermedias que se requieren para validar el desarrollo de la
aplicación, es decir, para garantizar que el software cumpla los requisitos para la
aplicación y verificación de los procedimientos de desarrollo: se asegura que los
métodos utilizados son apropiados. Estos métodos se originan en el hecho de que
es muy costoso rectificar los errores que se detectan tarde dentro de la fase de
implementación (programación propiamente dicha), o peor aun, durante la fase
funcional. El modelo de ciclo de vida permite que los errores se detecten lo antes
posible y por lo tanto, permite a los desarrolladores concentrarse en la calidad del
software, en los plazos de implementación y en los costos asociados. El ciclo de
vida básico de un software consta de, al menos, los siguientes procedimientos:

 Definición de objetivos: definir el resultado del proyecto y su papel en la


estrategia global.
 Análisis de los requisitos y su viabilidad: recopilar, examinar y formular los
requisitos del cliente y examinar cualquier restricción que se pueda aplicar.
 Diseño general: requisitos generales de la arquitectura de la aplicación.
 Diseño en detalle: definición precisa de cada subconjunto de la aplicación.
 Programación (programación e implementación): es la implementación en un
lenguaje de programación para crear las funciones definidas durante la etapa de
diseño.
 Prueba de unidad: prueba individual de cada subconjunto de la aplicación para
garantizar que se implementaron de acuerdo con las especificaciones.
 Integración: para garantizar que los diferentes módulos y subprogramas se
integren con la aplicación. Este es el propósito de la prueba de integración que
debe estar cuidadosamente documentada.
 Prueba beta (o validación), para garantizar que el software cumple con las
especificaciones originales.
Internet
El internet (o, también, la internet)3 es un conjunto descentralizado de redes de
comunicación interconectadas que utilizan la familia de protocolos TCP/IP, lo cual
garantiza que las redes físicas heterogéneas que la componen formen una red
lógica única de alcance mundial. Sus orígenes se remontan a 1969, cuando se
estableció la primera conexión de computadoras, conocida como ARPANET, entre
tres universidades en California (Estados Unidos).
Uno de los servicios que más éxito ha tenido en internet ha sido la World Wide
Web (WWW o la Web), hasta tal punto que es habitual la confusión entre ambos
términos. La WWW es un conjunto de protocolos que permite, de forma sencilla, la
consulta remota de archivos de hipertexto. Esta fue un desarrollo posterior (1990) y
utiliza internet como medio de transmisión.4
Existen, por tanto, muchos otros servicios y protocolos en internet, aparte de la Web:
el envío de correo electrónico (SMTP), la transmisión de archivos (FTP y P2P),
las conversaciones en línea (IRC), la mensajería instantánea y presencia, la
transmisión de contenido y comunicación multimedia —
telefonía (VoIP), televisión (IPTV)—, los boletines electrónicos(NNTP), el acceso
remoto a otros dispositivos (SSH y Telnet) o los juegos en línea.456
El uso de internet creció rápidamente en el hemisferio occidental desde la mitad de
la década de 1990, y desde el final de la década en el resto del mundo. 7 En los 20
años desde 1995, el uso de internet se ha multiplicado por 100, cubriendo en 2015
a la tercera parte de la población mundial.89 La mayoría de las industrias de
comunicación, incluyendo telefonía, radio, televisión, correopostal y periódicos
tradicionales están siendo transformadas o redefinidas por el Internet, permitiendo
el nacimiento de nuevos servicios como correo electrónico] (email), telefonía por
internet, televisión por Internet, música digital, y video digital. Las industrias de
publicación de periódicos, libros y otros medios impresos se están adaptando a la
tecnología de los sitios web, o están siendo reconvertidos en blogs, web
feeds o agregadores de noticias online (p. ej., Google Noticias). Internet también ha
permitido o acelerado nuevas formas de interacción personal a través
de mensajería instantánea, foros de Internet, y redes sociales como Facebook.
El comercio electrónico ha crecido exponencialmente para tanto grandes cadenas
como para pequeños y mediana empresa o nuevos emprendedores, ya que permite
servir a mercados más grandes y vender productos y servicios completamente en
línea. Relaciones business-to-business y de servicios financieros en línea en
internet han afectado las cadenas de suministro de industrias completas.
Origen
Sus orígenes se remontan a la década de 1960, dentro de ARPA (hoy DARPA, las
siglas en inglés de la Defense Advanced Research Projects Agency), como
respuesta a la necesidad de esta organización de buscar mejores maneras de usar
los computadores de ese entonces, pero enfrentados al problema de que los
principales investigadores y laboratorios deseaban tener sus propios computadores,
lo que no solo era más costoso, sino que provocaba una duplicación de esfuerzos
y recursos. El verdadero origen de Internet 10 nace con ARPANet (Advanced
Research Projects Agency Network o Red de la Agencia para los Proyectos de
Investigación Avanzada de los Estados Unidos), que nos legó el trazado de una red
inicial de comunicaciones de alta velocidad a la cual fueron integrándose otras
instituciones gubernamentales y redes académicas durante los años 70. 111213
Investigadores, científicos, profesores y estudiantes se beneficiaron de la
comunicación con otras instituciones y colegas en su rama, así como de la
posibilidad de consultar la información disponible en otros centros académicos y de
investigación. De igual manera, disfrutaron de la nueva habilidad para publicar y
hacer disponible a otros la información generada en sus actividades.1415
En el mes de julio de 1961, Leonard Kleinrock publicó desde el MIT el primer
documento sobre la teoría de conmutación de paquetes. Kleinrock convenció
a Lawrence Roberts de la factibilidad teórica de las comunicaciones vía paquetes
en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia el trabajo
informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores
entre sí. Para explorar este terreno, en 1965, Roberts conectó una computadora
TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica
conmutada de baja velocidad, creando así la primera (aunque reducida) red de
computadoras de área amplia jamás construida.161718

 1969: La primera red interconectada nace el 21 de noviembre de 1969, cuando


se crea el primer enlace entre las universidades de UCLA y Stanford por medio
de la línea telefónica conmutada, y gracias a los trabajos y estudios anteriores
de varios científicos y organizaciones desde 1959 (ver: Arpanet). El mito de que
ARPANET, la primera red, se construyó simplemente para sobrevivir a ataques
nucleares sigue siendo muy popular. Sin embargo, este no fue el único motivo.
Si bien es cierto que ARPANET fue diseñada para sobrevivir a fallos en la red,
la verdadera razón para ello era que los nodos de conmutación eran poco
fiables, tal y como se atestigua en la siguiente cita:
A raíz de un estudio de RAND, se extendió el falso rumor de que ARPANET fue
diseñada para resistir un ataque nuclear. Esto nunca fue cierto, solamente un
estudio de RAND, no relacionado con ARPANET, consideraba la guerra nuclear en
la transmisión segura de comunicaciones de voz. Sin embargo, trabajos posteriores
enfatizaron la robustez y capacidad de supervivencia de grandes porciones de las
redes subyacentes. (Internet Society, A Brief History of the Internet)

 1972: Se realizó la Primera demostración pública de ARPANET, una nueva red


de comunicaciones financiada por la DARPA que funcionaba de forma
distribuida sobre la red telefónica conmutada. El éxito de esta nueva arquitectura
sirvió para que, en 1973, la DARPA iniciara un programa de investigación sobre
posibles técnicas para interconectar redes (orientadas al tráfico de paquetes) de
distintas clases. Para este fin, desarrollaron nuevos protocolos de
comunicaciones que permitiesen este intercambio de información de forma
"transparente" para las computadoras conectadas. De la filosofía del proyecto
surgió el nombre de "Internet", que se aplicó al sistema de redes interconectadas
mediante los protocolos TCP e IP.19
 1983: El 1 de enero, ARPANET cambió el protocolo NCP por TCP/IP. Ese
mismo año, se creó el IAB con el fin de estandarizar el protocolo TCP/IP y de
proporcionar recursos de investigación a Internet. Por otra parte, se centró la
función de asignación de identificadores en la IANA que, más tarde, delegó parte
de sus funciones en el Internet registry que, a su vez, proporciona servicios a
los DNS.2021

 1986: La NSF comenzó el desarrollo de NSFNET que se convirtió en la


principal Red en árbol de Internet, complementada después con las redes
NSINET y ESNET, todas ellas en Estados Unidos. Paralelamente, otras redes
troncales en Europa, tanto públicas como comerciales, junto con las americanas
formaban el esqueleto básico ("backbone") de Internet.2223

 1989: Con la integración de los protocolos OSI en la arquitectura de Internet, se


inició la tendencia actual de permitir no sólo la interconexión de redes de
estructuras dispares, sino también la de facilitar el uso de distintos protocolos de
comunicaciones.24

En 1990 el CERN crea el código HTML y con él el primer cliente World Wide Web.
En la imagen el código HTML con sintaxis coloreada.
En el CERN de Ginebra, un grupo de físicos encabezado por Tim Berners-Lee creó
el lenguaje HTML, basado en el SGML.

 1990 : el mismo equipo construyó el primer cliente Web,


llamado WorldWideWeb (WWW), y el primer servidor web.
A inicios de la década de 1990, con la introducción de nuevas facilidades de
interconexión y herramientas gráficas simples para el uso de la red, se inició el auge
que actualmente le conocemos al Internet. Este crecimiento masivo trajo consigo el
surgimiento de un nuevo perfil de usuarios, en su mayoría de personas comunes no
ligadas a los sectores académicos, científicos y gubernamentales.20
Esto ponía en cuestionamiento la subvención del gobierno estadounidense al
sostenimiento y la administración de la red, así como la prohibición existente al uso
comercial del Internet. Los hechos se sucedieron rápidamente y para 1993 ya se
había levantado la prohibición al uso comercial del Internet y definido la transición
hacia un modelo de administración no gubernamental que permitiese, a su vez, la
integración de redes y proveedores de acceso privados. 26 El 30 de abril de 1993 la
Web entró al dominio público, ya que el CERN entregó las tecnologías de forma
gratuita para que cualquiera pudiera utilizarlas.2728

 2006: El 3 de enero, Internet alcanzó los mil cien millones de usuarios. Se prevé
que en diez años, la cantidad de navegantes de la Red aumentará a 2000
millones.29
El primer dato que nos llama la atención es el incremento en el número de usuarios
que utilizan Internet. En estos diez años se ha pasado de 559 millones a 2270
millones de personas que navegan en todo mundo, lo que equivale al 33 % total de
la población, una cifra muy superior al 9,1 % en el 2002.
El resultado de todo esto es lo que experimentamos hoy en día: la transformación
de una enorme red de comunicaciones para uso gubernamental, planificada y
construida con fondos estatales, que ha evolucionado en una miríada de redes
privadas interconectadas entre sí, a la que cualquier persona puede acceder.
Actualmente la red experimenta cada día la integración de nuevas redes y usuarios,
extendiendo su amplitud y dominio, al tiempo que surgen nuevos mercados,
tecnologías, instituciones y empresas que aprovechan este nuevo medio, cuyo
potencial apenas comenzamos a descubrir.30
Una red de computadoras es un conjunto de máquinas que se comunican a través
de algún medio (cable coaxial, fibra óptica, radiofrecuencia, líneas telefónicas, etc.)
con el objeto de compartir recursos.
De esta manera, Internet sirve de enlace entre redes más pequeñas y permite
ampliar su cobertura al hacerlas parte de una "red global". Esta red global tiene la
característica de que utiliza un lenguaje común que garantiza la intercomunicación
de los diferentes participantes; este lenguaje común o protocolo (un protocolo es el
lenguaje que utilizan las computadoras al compartir recursos) se conoce como
TCP/IP.
Así pues, Internet es la "red de redes" que utiliza TCP/IP como su protocolo de
comunicación.
Internet es un acrónimo de INTERconected NETworks (Redes interconectadas). 3132
Para otros, Internet es un acrónimo del inglés INTERnational NET, que traducido al
español sería Red Mundial.
Tecnología de internet
Enrutamiento y capas de servicio
Gráfica del encapsulamiento en paquetes de datos.

Paquetes de Internet de varios proveedores.


Los Proveedores de Servicios de Internet (ISP) conectan a clientes, quienes
representan la parte más baja en la jerarquía de enrutamiento, con otros clientes de
otros ISP a través de capas de red más altas o del mismo nivel. En lo alto de la
jerarquía de enrutamiento están las redes de capa 1, grandes compañías de
telecomunicaciones que intercambian tráfico directamente con otras a través de
acuerdos de interconexión. Redes de capa 2 y de más bajo nivel compran tráfico de
Internet de otros proveedores para alcanzar al menos algunas partes del Internet
mundial, aunque también pueden participar en la interconexión. Un ISP puede usar
un único proveedor para la conectividad o implementar multihoming para conseguir
redundancia y balanceo de carga. Los puntos neutros tienen las cargas más
importantes de tráfico y tienen conexiones físicas a múltiples ISP.
Los ordenadores y routers utilizan las tablas de enrutamiento para dirigir los
paquetes IP entre las máquinas conectadas localmente. Las tablas pueden ser
construidas de forma manual o automáticamente a través de DHCP para un equipo
individual o un protocolo de enrutamiento para los routers de sí mismos. En un solo
homed situaciones, una ruta por defecto por lo general apunta hacia "arriba" hacia
un ISP proporciona el transporte. De más alto nivel de los ISP utilizan el Border
Gateway Protocol para solucionar rutas de acceso a un determinado rango de
direcciones IP a través de las complejas conexiones de la Internet global.
Las instituciones académicas, las grandes empresas, gobiernos y otras
organizaciones pueden realizar el mismo papel que los ISP, con la participación en
el intercambio de tráfico y tránsito de la compra en nombre de sus redes internas de
las computadoras individuales. Las redes de investigación tienden a interconectarse
en subredes grandes como GEANT, GLORIAD, Internet2, y de investigación
nacional del Reino Unido y la red de la educación, Janet. Estos a su vez se
construyen alrededor de las redes más pequeñas (véase la lista de organizaciones
académicas de redes informáticas).[cita requerida]
No todas las redes de ordenadores están conectados a Internet. Por ejemplo,
algunos clasificados los sitios web de los Estados sólo son accesibles desde redes
seguras independientes.[
Acceso a internet

Esquema con las tecnologías relacionadas al Internet actual.


Los métodos comunes de acceso a Internet en los hogares incluyen dial-up, banda
ancha fija (a través de cable coaxial, cables de fibra óptica o cobre), Wi-Fi, televisión
vía satélite y teléfonos celulares con tecnología 3G/4G. Los lugares públicos de uso
del Internet incluyen bibliotecas y cafés de internet, donde los ordenadores con
conexión a Internet están disponibles. También hay puntos de acceso a Internet en
muchos lugares públicos, como salas de los aeropuertos y cafeterías, en algunos
casos sólo para usos de corta duración. Se utilizan varios términos, como "kiosco
de Internet", "terminal de acceso público", y "teléfonos públicos Web". Muchos
hoteles ahora también tienen terminales de uso público, las cuales por lo general
basados en honorarios. Estos terminales son muy visitada para el uso de varios
clientes, como reserva de entradas, depósito bancario, pago en línea, etc. Wi-Fi
ofrece acceso inalámbrico a las redes informáticas, y por lo tanto, puede hacerlo a
la propia Internet. Hotspots les reconocen ese derecho incluye Wi-Fi de los cafés,
donde los aspirantes a ser los usuarios necesitan para llevar a sus propios
dispositivos inalámbricos, tales como un ordenador portátil o PDA. Estos servicios
pueden ser gratis para todos, gratuita para los clientes solamente, o de pago. Un
punto de acceso no tiene por qué estar limitado a un lugar confinado. Un campus
entero o parque, o incluso una ciudad entera puede ser activado.
Los esfuerzos de base han dado lugar a redes inalámbricas comunitarias. Los
servicios comerciales de Wi-Fi cubren grandes áreas de la ciudad están en su lugar
en Londres, Viena, Toronto, San Francisco, Filadelfia, Chicago y Pittsburgh. El
Internet se puede acceder desde lugares tales como un banco del parque. Aparte
de Wi-Fi, se han realizado experimentos con propiedad de las redes móviles
inalámbricas como Ricochet, varios servicios de alta velocidad de datos a través de
redes de telefonía celular, y servicios inalámbricos fijos. De gama alta los teléfonos
móviles como teléfonos inteligentes en general, cuentan con acceso a Internet a
través de la red telefónica. Navegadores web como Opera están disponibles en
estos teléfonos avanzados, que también puede ejecutar una amplia variedad de
software de Internet. Más teléfonos móviles con acceso a Internet que los PC,
aunque esto no es tan ampliamente utilizado. El proveedor de acceso a Internet y
la matriz del protocolo se diferencia de los métodos utilizados para obtener en línea.
Un apagón de Internet o interrupción puede ser causado por interrupciones locales
de señalización. Las interrupciones de cables de comunicaciones submarinos
pueden causar apagones o desaceleraciones a grandes áreas, tales como en la
interrupción submarino 2008 por cable. Los países menos desarrollados son más
vulnerables debido a un pequeño número de enlaces de alta capacidad. Cables de
tierra también son vulnerables, como en 2011, cuando una mujer cavando en busca
de chatarra de metal cortó la mayor parte de conectividad para el país de Armenia. 36
Internet apagones que afectan a los países casi todo se puede lograr por los
gobiernos como una forma de censura en Internet, como en el bloqueo de Internet
en Egipto, en el que aproximadamente el 93 % de las redes no tenían acceso en
2011 en un intento por detener la movilización de protestas contra el gobierno.
En un estudio norteamericano en el año 2005, el porcentaje de hombres que utilizan
Internet era muy ligeramente por encima del porcentaje de las mujeres, aunque esta
diferencia se invierte en los menores de 30. Los hombres se conectan más a
menudo, pasan más tiempo en línea, y son más propensos a ser usuarios de banda
ancha, mientras que las mujeres tienden a hacer mayor uso de las oportunidades
de comunicación (como el correo electrónico). Los hombres eran más propensos a
utilizar el Internet para pagar sus cuentas, participar en las subastas, y para la
recreación, tales como la descarga de música y vídeos. Hombres y mujeres tenían
las mismas probabilidades de utilizar Internet para hacer compras y la banca. Los
estudios más recientes indican que en 2008, las mujeres superaban en número a
los hombres de manera significativa en la mayoría de los sitios de redes sociales,
como Facebook y Myspace, aunque las relaciones variaban con la edad. Además,
las mujeres vieron más contenido de streaming, mientras que los hombres
descargaron más En cuanto a los blogs, los hombres eran más propensos al blog
en el primer lugar; entre los que el blog, los hombres eran más propensos a tener
un blog profesional, mientras que las mujeres eran más propensas a tener un blog
personal.
Es de gran importancia resaltar que existe una diferencia entre WEB y el INTERNET
ya que el internet es una red masiva de redes, una infraestructura de red que
conecta a millones de computadores en todo el mundo, formando una red en la que
cualquier computadora se pueda comunicar con cualquier otro equipo, siempre y
cuando ambos están conectados a internet. En cambio la web es una forma de
acceder a la información sobre el medio de la internet, la web utiliza el protocolo http
el cual es sólo uno de los idiomas que se hablan a través de internet para transmitir
datos.
Dominio de Internet
La Corporación de Internet para los Nombres y los Números Asignados (ICANN) es
la autoridad que coordina la asignación de identificadores únicos en Internet,
incluyendo nombres de dominio, direcciones de Protocolos de Internet, números del
puerto del protocolo y de parámetros. Un nombre global unificado (es decir, un
sistema de nombres exclusivos para sostener cada dominio) es esencial para que
Internet funcione.
El ICANN tiene su sede en California, supervisado por una Junta Directiva
Internacional con comunidades técnicas, comerciales, académicas y ONG.
El gobierno de los Estados Unidos continúa teniendo un papel privilegiado en
cambios aprobados en el Domain Name System. Como Internet es una red
distribuida que abarca muchas redes voluntariamente interconectadas, Internet,
como tal, no tiene ningún cuerpo que lo gobierne.

Usos modernos
Internet móvil
El Internet moderno permite una mayor flexibilidad en las horas de trabajo y la
ubicación. Con el Internet se puede acceder a casi cualquier lugar, a través de
dispositivos móviles de Internet. Los teléfonos móviles, tarjetas de datos, consolas
de juegos portátiles y routers celulares permiten a los usuarios conectarse a Internet
de forma inalámbrica. Dentro de las limitaciones impuestas por las pantallas
pequeñas y otras instalaciones limitadas de estos dispositivos de bolsillo, los
servicios de Internet, incluyendo correo electrónico y la web, pueden estar
disponibles al público en general. Los proveedores de internet puede restringir los
servicios que ofrece y las cargas de datos móviles puede ser significativamente
mayor que otros métodos de acceso.
Educación distribuida
Se puede encontrar material didáctico a todos los niveles, desde preescolar hasta
post-doctoral está disponible en sitios web. Los ejemplos van desde CBeebies, a
través de la escuela y secundaria guías de revisión, universidades virtuales, al
acceso a la gama alta de literatura académica a través de la talla de Google
Académico. Para la educación a distancia, ayuda con las tareas y otras
asignaciones, el auto-aprendizaje guiado, entreteniendo el tiempo libre, o
simplemente buscar más información sobre un hecho interesante, nunca ha sido
más fácil para la gente a acceder a la información educativa en cualquier nivel,
desde cualquier lugar. El Internet en general es un importante facilitador de la
educación tanto formal como informal.
Trabajo colaborativo y remoto
El bajo costo y el intercambio casi instantáneo de las ideas, conocimientos y
habilidades han hecho el trabajo colaborativo dramáticamente más fácil, con la
ayuda del software de colaboración. De chat, ya sea en forma de una sala de chat
IRC o del canal, a través de un sistema de mensajería instantánea, o un sitio web
de redes sociales, permite a los colegas a mantenerse en contacto de una manera
muy conveniente cuando se trabaja en sus computadoras durante el día. Los
mensajes pueden ser intercambiados de forma más rápida y cómodamente a través
del correo electrónico. Estos sistemas pueden permitir que los archivos que se
intercambian, dibujos e imágenes para ser compartidas, o el contacto de voz y vídeo
entre los miembros del equipo.
Sistemas de gestión de contenido permiten la colaboración a los equipos trabajar
en conjuntos de documentos compartidos al mismo tiempo, sin destruir
accidentalmente el trabajo del otro. Los equipos de negocio y el proyecto pueden
compartir calendarios, así como documentos y otra información. Esta colaboración
se produce en una amplia variedad de áreas, incluyendo la investigación científica,
desarrollo de software, planificación de la conferencia, el activismo político y la
escritura creativa. La colaboración social y político es cada vez más generalizada,
como acceso a Internet y difusión conocimientos de informática.
Internet permite a los usuarios de computadoras acceder remotamente a otros
equipos y almacenes de información fácilmente, donde quiera que estén. Pueden
hacer esto con o sin la seguridad informática, es decir, la autenticación y de cifrado,
dependiendo de los requerimientos. Esto es alentador, nuevas formas de trabajo, la
colaboración y la información en muchas industrias.
Ejemplos
Un contador sentado en su casa puede auditar los libros de una empresa con sede
en otro país. Estas cuentas podrían haber sido creado por trabajo desde casa
tenedores de libros, en otros lugares remotos, con base en la información enviada
por correo electrónico a las oficinas de todo el mundo. Algunas de estas cosas eran
posibles antes del uso generalizado de Internet, pero el costo de líneas privadas
arrendadas se han hecho muchos de ellos no factibles en la práctica. Un empleado
de oficina lejos de su escritorio, tal vez al otro lado del mundo en un viaje de
negocios o de placer, pueden acceder a sus correos electrónicos, acceder a sus
datos usando la computación en nube, o abrir una sesión de escritorio remoto a su
PC de la oficina usando un seguro virtual Private Network (VPN) en Internet. Esto
puede dar al trabajador el acceso completo a todos sus archivos normales y datos,
incluyendo aplicaciones de correo electrónico y otros, mientras que fuera de la
oficina. Este concepto ha sido remitido a los administradores del sistema como la
pesadilla privada virtual, [36], ya que amplía el perímetro de seguridad de una red
corporativa en lugares remotos y las casas de sus empleados.
Impacto social
Sitios de Internet por países.
Internet tiene un impacto profundo en el mundo laboral, el ocio y el conocimiento a
nivel mundial. Gracias a la web, millones de personas tienen acceso fácil e
inmediato a una cantidad extensa y diversa de información en línea. Este
nuevo medio de comunicación logró romper las barreras físicas entre regiones
remotas, sin embargo el idioma continúa siendo una dificultad importante. Si bien
en un principio nació como un medio de comunicación unilateral destinado a
las masas, su evolución en la llamada Web 2.0 permitió la participación de los ahora
emisores-receptores, creándose así variadas y grandes plazas públicas como
puntos de encuentro en el espacio digital.
Comparado a las enciclopedias y a las bibliotecas tradicionales, la web ha permitido
una descentralización repentina y extrema de la información y de los datos. Algunas
compañías e individuos han adoptado el uso de los weblogs, que se utilizan en gran
parte como diarios actualizables, ya en decadencia tras la llegada de
las plataformas sociales. La automatización de las bases de datos y la posibilidad
de convertir cualquier computador en una terminal para acceder a ellas, ha traído
como consecuencia la digitalización de diversos trámites, transacciones bancarias
o consultas de cualquier tipo, ahorrando costos administrativos y tiempo del usuario.
Algunas organizaciones comerciales animan a su personal para incorporar sus
áreas de especialización en sus sitios, con la esperanza de que impresionen a los
visitantes con conocimiento experto e información libre.
Esto también ha permitido la creación de proyectos de colaboración mundial en la
creación de software libre y de código abierto (FOSS), por ejemplo: la Free
Software Foundation con sus herramientas GNU y licencia de contenido libre, el
núcleo de sistema operativo Linux, la Fundación Mozilla con su navegador
web Firefox y su lector de correos Thunderbird, la suite ofimática Apache
OpenOffice y la propia Fundación Wikimedia.
Internet se extendió globalmente, no obstante, de manera desigual. Floreció en gran
parte de los hogares y empresas de países ricos, mientras que países y sectores
desfavorecidos cuentan con baja penetración y velocidad promedio de Internet. La
inequidad del acceso a esta nueva tecnología se le conoce como brecha digital, lo
que repercute menores oportunidades de conocimiento, comunicación y cultura. No
obstante a lo largo de las décadas se observa un crecimiento sostenido tanto en la
penetración y velocidad de Internet, como en su volumen de datos almacenados y
el ancho de banda total usado en el intercambio de información por día,
implementándose gradualmente en todas las naciones.
Filantropía
El voluntariado en línea es la modalidad de voluntariado que se lleva a cabo a través
de Internet. Esta modalidad de voluntariado remoto aumenta la capacidad de las
organizaciones en materia de desarrollo al tiempo que ofrece un espacio para que
mucha gente participe en el desarrollo, algo de lo que, de otro modo, no
disfrutarían41 Uno de los aspectos clave del voluntariado en línea es su poder de
inclusión. Dado que el voluntariado en línea no implica gastos ni viajes, cualquier
persona desde cualquier parte del mundo puede colaborar por la paz y el desarrollo.
Ocio
Muchos utilizan Internet para descargar música, películas y otros trabajos. Hay
fuentes que cobran por su uso y otras gratuitas, usando los servidores centralizados
y distribuidos, las tecnologías de P2P. Otros utilizan la red para tener acceso a las
noticias y el estado del tiempo.
La mensajería instantánea o chat y el correo electrónico son algunos de los
servicios de uso más extendido. En muchas ocasiones los proveedores de dichos
servicios brindan a sus afiliados servicios adicionales como la creación de espacios
y perfiles públicos en donde los internautas tienen la posibilidad de colocar en la red
fotografías y comentarios personales. Se especula actualmente si tales sistemas de
comunicación fomentan o restringen el contacto de persona a persona entre los
seres humanos.
En tiempos más recientes han cobrado auge portales sociales
como YouTube, Twitter o Facebook entre otros, en donde los usuarios pueden
tener acceso a una gran variedad de vídeos sobre prácticamente cualquier tema.
La pornografía representa buena parte del tráfico en Internet, siendo a menudo un
aspecto controvertido de la red por las implicaciones morales que le acompañan.
Proporciona a menudo una fuente significativa del rédito de publicidad para otros
sitios. Muchos gobiernos han procurado sin éxito poner restricciones en el uso de
ambas industrias en Internet.
El sistema multijugador constituye también buena parte del ocio en Internet.
Internet y su evolución
Inicialmente Internet tenía un objetivo claro. Se navegaba en Internet para algo muy
concreto: búsquedas de información, generalmente.
Ahora quizás también, pero sin duda algún hoy es más probable perderse en la red,
debido al inmenso abanico de posibilidades que brinda. Hoy en día, la sensación
que produce Internet es un ruido, una serie de interferencias, una explosión de ideas
distintas, de personas diferentes, de pensamientos distintos de tantas posibilidades
que, en ocasiones, puede resultar excesivo.
El crecimiento o, más bien, la incorporación de tantas personas a la red hacen que
las calles de lo que en principio era una pequeña ciudad llamada Internet se
conviertan en todo un planeta extremadamente conectado entre sí, entre todos sus
miembros.
El hecho de que Internet haya aumentado tanto implica una mayor cantidad de
relaciones virtuales entre personas. Es posible concluir que cuando una persona
tenga una necesidad de conocimiento no escrito en libros, puede recurrir a una
fuente más acorde a su necesidad, ahora esta fuente es posible en Internet.
Como toda gran revolución, Internet augura una nueva era de diferentes métodos
de resolución de problemas creados a partir de soluciones anteriores.
Internet produce algo que todos han sentido alguna vez; produce la esperanza que
es necesaria cuando se quiere conseguir algo. Es un despertar de intenciones que
jamás antes la tecnología había logrado en la población mundial.
Para algunos usuarios, Internet genera una sensación de cercanía, empatía,
comprensión y, a la vez, de confusión, discusión, lucha y conflictos que los mismos
usuarios pueden considerar como la vida misma.
La evolución del internet radica en la migración de la versión y uso del IPv4 a IPv6.
IP es un protocolo que no está orientado a la conexión y no es completamente
seguro en la transmisión de los datos, lo anterior permite que las conexiones
inalámbricas tengan siempre movilidad. Por otro lado, para mejorar la confiabilidad
se usa el protocolo TCP. El protocolo IP, es la forma en la que se enrutan los
paquetes entre las redes. Cada nodo en cada una de las redes tiene una dirección
IP diferente. Para garantizar un enrutamiento correcto, IP agrega su propio
encabezado a los paquetes. Este proceso se apoya en tablas de enrutamiento que
son actualizadas permanentemente. En caso de que el paquete de datos sea
demasiado grande, el protocolo IP lo fragmenta para poderlo transportar. La versión
que se está ocupando de este protocolo es la 4, donde se tiene conectividad, pero
también ciertas restricciones de espacio. Por eso las grandes empresas
proveedoras del servicio de internet migrarán a la versión IPv6.
La nueva versión del protocolo IP Internet Protocol recibe el nombre de IPv6,
aunque es también conocido comúnmente como IPng Internet Protocol Next
Generation. IPv6 ha sido diseñado como un paso evolutivo desde IPv4, por lo que
no representa un cambio radical respecto IPv4. Las características de IPv4 que
trabajan correctamente se han mantenido en el nuevo protocolo, mientras que se
han suprimido aquéllas que no funcionaban bien. De todos modos, los cambios que
se introducen en esta nueva versión son muchos y de gran importancia debido a las
bondades que ofrecen. A principios de 2010, quedaban menos del 10% de IPs sin
asignar. En la semana del 3 de febrero del 2011, la IANA (Agencia Internacional de
Asignación de Números de Internet, por sus siglas en inglés) entregó el último
bloque de direcciones disponibles (33 millones) a la organización encargada de
asignar IPs en Asia, un mercado que está en auge y no tardará en consumirlas
todas. IPv4 posibilita 4, 294,967,296 (232) direcciones de red diferentes, un número
inadecuado para dar una dirección a cada persona del planeta, y mucho menos a
cada vehículo, teléfono, PDA, etcétera. En cambio, IPv6 admite
340.282.366.920.938.463.463.374.607.431.768.211.456 (2128 o 340 sextillones de
direcciones) —cerca de 6,7 × 1017 (670 milbillones) de direcciones por cada
milímetro cuadrado de la superficie de La Tierra. Otra vía para la popularización del
protocolo es la adopción de este por parte de instituciones. El Gobierno de los
Estados Unidos ordenó el despliegue de IPv6 por todas sus agencias federales en
el año 2008.
Efectos de internet en el cerebro
En 2008 el tecnólogo americano Nicholas Carr publicó un artículo en el que
afirmaba que Internet estaba erosionando nuestra capacidad de concentración y de
pensamiento crítico, e incluso aseguraba que la Red cambiaría la estructura de
nuestro cerebro y forma de pensar. Expertos de diversos ámbitos comenzaron a
realizar estudios y a reflexionar sobre la relación entre la Red y nuestras
capacidades cognitivas. Algunos coincidían con Carr, pero otros como Clive
Thompsondescartaban esos argumentos asegurando que siempre que surgía una
nueva tecnología se producía el mismo debate. Estos «tecnooptimistas» afirman
que la Red no solo potencia nuestra agilidad cerebral, sino que además nos permite
aprender más y más rápido, en definitiva, nos está haciendo más
inteligentes.Universo internet: ¿Más superficiales o más listos?
Efectos en las sociedades
Hay un intenso debate sobre el efecto Internet en las sociedades. Por un lado están
los que piensan que Internet, al favorecer el intercambio de información, favorece el
desarrollo de la participación ciudadana y la democratización. Este sería un motivo
de la Agenda de Libertad de Internet (en inglés The Internet Freedom Agenda)
del departamento de estado de los Estados Unidos. 44 Esta creencia es respaldada
por los llamados ciberutópicos, los cuales opinan que Internet es en sí
misma emancipatoria.45 Por otro lado otros, como por ejemplo Evgeny Morozov,
piensan que Internet facilita la vigilancia masiva, la represión política y la expansión
de progaganda nacionalista y extremista.46
Fuente de información
En 2009, un estudio realizado en Estados Unidos, indicó que un 56 % de los 3030
adultos estadounidenses entrevistados en una encuesta en línea manifestó que si
tuviera que escoger una sola fuente de información, elegiría Internet, mientras que
un 21 % preferiría la televisión y tanto los periódicos como la radio sería la opción
de un 10 % de los encuestados. Dicho estudio posiciona a los medios digitales en
una posición privilegiada en cuanto a la búsqueda de información y refleja un
aumento de la credibilidad en dichos medios.4748
Buscadores
Un buscador se define como el sistema informático que indexa archivos
almacenados en servidores web cuando se solicita información sobre algún tema.
Por medio de palabras clave, se realiza la exploración y el buscador muestra una
lista de direcciones con los temas relacionados. Existen diferentes formas de
clasificar los buscadores según el proceso de sondeo que realizan. La clasificación
más frecuente los divide en: índices o directorios temáticos, motores de búsqueda y
metabuscadores.
Los índices o buscadores temáticos son sistemas creados con la finalidad de
diseñar un catálogo por temas, definiendo la clasificación por lo que se puede
considerar que los contenidos ofrecidos en estas páginas tienes ya cierto orden y
calidad.
La función de este tipo de sistemas es presentar algunos de los datos de las páginas
más importantes, desde el punto de vista del tema y no de lo que se contiene. Los
resultados de la búsqueda de esta de estos índices pueden ser muy limitados ya
que los directorios temáticos, las bases de datos de direcciones son muy pequeñas,
además de que puede ser posible que el contenido de las páginas no esté
completamente al día.
Este tipo de buscadores son los de uso más común, basados en aplicaciones
llamadas spiders ("arañas") o robots, que buscan la información con base en las
palabras escritas, haciendo una recopilación sobre el contenido de las páginas y
mostrando como resultado aquellas que contengan la palabra o frase en alguna
parte del texto.
Los metabuscadores son sistemas que localizan información en los motores de
búsqueda más utilizados, realizan un análisis y seleccionan sus propios resultados.
No tienen una base de datos, por lo que no almacenan páginas web y realizan una
búsqueda automática en las bases de datos de otros buscadores, de los cuales
toma un determinado rango de registros con los resultados más relevantes y así
poder tener la información necesaria.
La función de este tipo de sistemas es presentar algunos de los datos de las páginas
más importantes, desde el punto de vista del tema y no de lo que se contiene. Los
resultados de la búsqueda de esta de estos índices pueden ser muy limitados ya
que los directorios temáticos, las bases de datos de direcciones son muy pequeñas,
además de que puede ser posible que el contenido de las páginas no esté
completamente al día.
Trabajo
Con la aparición de Internet y de las conexiones de alta velocidad disponibles al
público, Internet ha alterado de manera significativa la manera de trabajar de
algunas personas al poder hacerlo desde sus respectivos hogares. Internet ha
permitido a estas personas mayor flexibilidad en términos de horarios y de
localización, contrariamente a la jornada laboral tradicional, que suele ocupar la
mañana y parte de la tarde, en la cual los empleados se desplazan al lugar de
trabajo.
Un experto contable asentado en un país puede revisar los libros de una compañía
en otro país, en un servidor situado en un tercer país que sea mantenido
remotamente por los especialistas en un cuarto.
Internet y sobre todo los blogs han dado a los trabajadores un foro en el cual
expresar sus opiniones sobre sus empleos, jefes y compañeros, creando una
cantidad masiva de información y de datos sobre el trabajo que está siendo recogido
actualmente por el colegio de abogados de Harvard.
Internet ha impulsado el fenómeno de la Globalización y junto con la
llamada desmaterialización de la economía ha dado lugar al nacimiento de
una Nueva Economíacaracterizada por la utilización de la red en todos los procesos
de incremento de valor de la empresa.
Internet se ha convertido en el medio más fácilmente medible y de más alto
crecimiento en la historia. Actualmente existen muchas empresas que obtienen
dinero de la publicidad en Internet. Además, existen muchas ventajas que la
publicidad interactiva ofrece tanto para el usuario como para los anunciantes.
Censura
Es extremadamente difícil, si no imposible, establecer control centralizado y global
de Internet. Algunos gobiernos, de naciones tales como Irán, Arabia Saudita, Corea
del Norte, la República Popular de China y Estados Unidos restringen el que
personas de sus países puedan ver ciertos contenidos de Internet, políticos y
religiosos, considerados contrarios a sus criterios. La censura se hace, a veces,
mediante filtros controlados por el gobierno, apoyados en leyes o motivos
culturales, castigando la propagación de estos contenidos. Sin embargo, muchos
usuarios de Internet pueden burlar estos filtros, pues la mayoría del contenido de
Internet está disponible en todo el mundo, sin importar donde se esté, siempre y
cuando se tengan la habilidad y los medios técnicos necesarios. 49
Otra posibilidad, como en el caso de China, es que este tipo de medidas se combine
con la autocensura de las propias empresas proveedoras de servicios de Internet,
serían las empresas equivalentes a Telefónicas (proveedores de servicios de
Internet), para así ajustarse a las demandas del gobierno del país receptor. 50
Sin embargo algunos buscadores como Google, han tomado la decisión de
amenazar al gobierno de China con la retirada de sus servicios en dicho país si no
se abole la censura en Internet. Aunque posteriormente haya negado que tomará
dichas medidas.
Para saltarse cualquier tipo de censura o coerción en el uso de internet, se han
desarrollado múltiples tecnologías y herrramientas. Entre ellas cabe resaltar por un
lado las técnicas y herramientas criptológicas y por otro lado las tecnologías
encuadradas en la llamada Darknet. La Darknet es una colección de redes y
tecnologías que persiguen la consecución de un anonimato total de los
comunicantes, creando de esta forma una zona de total libertad. Aunque
actualmente no se suele considerar que consigan un anonimato total, sin embargo,
sí consiguen una mejora sustancial en la privacidad de los usuarios. Este tipo de
redes se han usado intensamente, por ejemplo, en los sucesos de la Primavera
Árabe y en todo el entramado de wikileaks para la publicación de información
confidencial. Las tecnologías de la Darknet están en fase de perfeccionamiento y
mejora de sus prestaciones.
Para luchar contra la censura en Internet, RSF ha decidido desbloquear nueve sitios
web informativos censurados en once países, es decir, permitirá que se pueda
acceder a ellos desde el territorio en el que actualmente se encuentran prohibidos:
Grani.ru, bloqueado en Rusia; Fregananews, censurado en Kazajistán, Uzbekistán
y Turkmenistán; The Tíbet Post y Mingjing News, prohibidos en China; Dan Lam
Bao, bloqueado en Vietnam; Hablemos Press, censurado en Cuba; Gooya News,
bloqueado en Irán; el Gulf Center for Human Rights, censurado en los Emiratos
Árabes Unidos y en Arabia Saudita, y Bahrain Mirror, prohibido en Baréin y en
Arabia Saudita.
Internet aparece muchas veces en obras de ficción. Puede ser un elemento más de
la trama, algo que se usa de forma habitual tal y como se hace en la vida real.
También hay obras donde Internet se presenta como un medio maligno que permite
a hackers sembrar el caos, alterar registros, como por ejemplo, las películas La
Red, Live Free or Die Hard, etc. Hay otras obras donde aparece como una gran
oportunidad para la libertad de expresión (por ejemplo, la película FAQ: Frequently
Asked Questions).
Tamaño
Páginas
Un estudio del año 2005 usando distintos motores de búsqueda (Google,
MSN, Yahoo! y Ask Jeeves) estimaba que existían 11 500 millones de páginas
Web. Otro estudio del año 2008 estimaba que la cantidad había ascendido a 63 000
millones de páginas web.54
Sin embargo es difícil establecer el tamaño exacto de Internet, ya que este crece
continuamente y no existe una manera fiable de acceder a todo su contenido y, por
consiguiente, de determinar su tamaño. Para estimar esta cantidad se usan las
webs indexadas por los distintos motores de búsqueda, pero este método no abarca
todas las páginas en línea. Utilizando este criterio Internet se puede dividir en:

 Internet superficial: Incluye los servicios indexados por los motores de


búsqueda.
 Internet profunda: Incluye el resto de servicios no indexados como páginas en
Flash, páginas protegidas por contraseña, inaccesibles para las arañas, etc.
Usuarios
Gráfica que representa el número de usuarios de Internet.

Idiomas usados en internet.


En general el uso de Internet ha experimentado un tremendo crecimiento. De 2000
a 2009, el número de usuarios de Internet a nivel mundial aumentó 394 millones a
1858 millones. En 2010, el 22 por ciento de la población mundial tenía acceso a las
computadoras con mil millones de búsquedas en Google cada día, 300 millones de
usuarios de Internet leen blogs, y 2 mil millones de vídeos vistos al día en
YouTube.5758
El idioma predominante de la comunicación en internet ha sido inglés. Este puede
ser el resultado del origen de la internet, así como el papel de la lengua como lengua
franca. Los primeros sistemas informáticos se limitaban a los personajes en el
Código Estándar Americano para Intercambio de Información (ASCII), un
subconjunto del alfabeto latino.
Después de inglés (27 %), los idiomas más solicitados en la World Wide Web son
el chino (23 %), español (8 %), japonés (5 %), portugués y alemán (4 % cada uno),
árabe, francés y ruso (3 % cada uno) y coreano (2 %). Por regiones, el 42 % de los
usuarios de Internet en el mundo están en Asia, 24 % en Europa, el 14 % en
América del Norte, el 10 % en Latinoamérica y el Caribe, adoptado en conjunto, un
6 % en África, 3 % en el Oriente Medio y un 1 % en Oceanía. Las tecnologías del
internet se han desarrollado lo suficiente en los últimos años, especialmente en el
uso de Unicode, que con buenas instalaciones están disponibles para el desarrollo
y la comunicación en los idiomas más utilizados del mundo. Sin embargo, algunos
problemas, tales como la visualización incorrecta de caracteres de algunos idiomas,
aún permanecen.
En un estudio norteamericano en el año 2005, el porcentaje de varones que utilizan
internet estaba muy ligeramente por encima del porcentaje de las mujeres, aunque
esta diferencia estaba invertida en los menores de 30 años. Los hombres se
conectaron más a menudo, pasan más tiempo en línea, y eran más propensos a ser
usuarios de banda ancha, mientras que las mujeres tienden a hacer mayor uso de
las oportunidades de comunicación, como el correo electrónico. Los hombres eran
más propensos a utilizar el internet para pagar sus cuentas, participar en las
subastas, y para la recreación, tales como la descarga de música y vídeos. Ambos
sexos tenían las mismas probabilidades de utilizar internet para hacer compras y la
banca. Los estudios más recientes indican que en 2008, las mujeres superaban en
número a los hombres de manera significativa en la mayoría de los sitios de redes
sociales, como Facebook y Myspace, aunque las relaciones variaban con la edad.
Además, las mujeres vieron más contenido de streaming, mientras que los hombres
descargaron más. En cuanto a los blogs, los varones eran más propensos a tener
uno profesional, mientras que las mujeres eran más propensas a tener
un blogpersonal.
Servicios o aplicaciones específicas
En cuanto a redes sociales, a fecha de 24 de marzo de 2016, Facebook tiene más
de 1 936 millones de usuarios.61 Twitter tiene más de 319 millones61 y Googletiene
más de 434 millones.61 Cada segundo se publican unos 700 fotos en Instagram,61 y
también, cada segundo se envían casi tres mil correos electrónicos y se realizan
aproximadamente dos mil llamadas por Skype.61
Diariamente se realizan más de 2 566 000 000 de búsquedas en Google y cada
segundo se ve más de 119 00061 videos en YouTube. Además, hay que tener en
cuenta que, en internet se maneja un tráfico de más de 33 000 GB por segundo, se
consume 1 763 000 MWh por día y diariamente se lanzan 1.5 millones de toneladas
de CO2 por el consumo de internet.
Correo electrónico

El correo electrónico (en inglés: electronic mail, comúnmente abreviado e-mail2


o email)3 es un servicio de red que permite a los usuarios enviar y recibir mensajes
(también denominados mensajes electrónicos o cartas digitales) mediante redes de
comunicación electrónica. El término «correo electrónico» proviene de la analogía
con el correo postal: ambos sirven para enviar y recibir mensajes, y se utilizan
«buzones» intermedios (servidores de correo). Por medio del correo electrónico se
puede enviar no solamente texto, sino todo tipo de archivos digitales,4 si bien suelen
existir limitaciones al tamaño de los archivos adjuntos.
Los sistemas de correo electrónico se basan en un modelo de almacenamiento y
reenvío, de modo que no es necesario que ambos extremos se encuentren
conectados simultáneamente. Para ello se emplea un servidor de correo que hace
las funciones de intermediario, guardando temporalmente los mensajes antes de
enviarse a sus destinatarios.5 En Internet, existen multitud de estos servidores, que
incluyen a empresas, proveedores de servicios de internet y proveedores de correo
tanto libres como de pago
Rigen del correo electrónico
El correo electrónico es anterior a la creación de Internet. El primer antecedente
data de 1962, cuando el Massachusetts Institute of Technology adquirió una
computadora de tiempo compartido modelo IBM 7090 (actualizado en 1963 a un
IBM 7094) que permitía a varios usuarios iniciar sesión desde terminales remotas,
y así guardar archivos en el disco. Este sistema se utilizó informalmente para
intercambiar mensajes, pero ya en 1965 se desarrolló el servicio MAIL, que
facilitaba el envío de mensajes entre los usuarios de esta máquina. 6
El primer mensaje de correo electrónico genuinamente enviado a través de
una red data del año 1971. El mensaje, que contenía únicamente el texto
«QWERTYUIOP», se envió a través de la red ARPANET, aunque las máquinas
estaban físicamente una junto a la otra. La idea del correo electrónico sobre redes
se debe a Ray Tomlinson, quien utilizó el protocolo experimental CYPNET para
enviar por red los mensajes, que hasta ese momento solo comunicaban a los
usuarios de una misma computadora.7
Fue así mismo Tomlinson quien incorporó el uso de la arroba (@) como divisor entre
el usuario y la computadora en la que se aloja la cuenta del usuario de destino.
Anteriormente no había necesidad de especificar la máquina de destino puesto que
todos los mensajes que se enviaban eran locales; sin embargo, con el nuevo
sistema era preciso distinguir el correo local del correo de red. El motivo de elegir
este símbolo fue que en inglés la arroba se lee «at» (en español en). Así, la
dirección ejemplo@máquina.com se lee ejemplo en máquina punto com.8
En 1977, el correo electrónico se convirtió en un servicio de red estandarizado,
gracias a diversos estándares parciales,9 que culminaron con la especificación RFC
733.10
Direcciones de correo electrónico
Para poder enviar o recibir mensajes de correo electrónico es necesario disponer
de una cuenta de correo. Dicha cuenta es un buzón virtual identificado por una
dirección de correo electrónico de la forma «Juan.Nadie@ejemplo.com». Cada
dirección se compone de una parte local (en este caso Juan.Nadie), el símbolo
separador @ y una parte que identifica un dominio (en este caso ejemplo.com).11
Existen diversos modos de obtener una cuenta de correo electrónico:

 las empresas y administraciones suelen proporcionar una cuenta de correo


corporativo a sus empleados.
 los centros educativos, especialmente los universitarios, hacen lo propio con
empleados y alumnos.
 en el ámbito doméstico, los proveedores de servicios de internet suelen facilitar
una o varias cuentas por cada contrato.
 existen proveedores de correo que proporcionan este servicio a cambio de una
cuota.
 finalmente, es posible obtener gratuitamente una cuenta de correo en servicios
tales como GMail, Yahoo Mail, Outlook.com y muchos otros.
Funcionamiento

Esquema de funcionamiento del correo electrónico mediante los


protocolos SMTPy POP3.
En el ejemplo ficticio descrito por la figura, Ana (ana@a.org) envía un correo
electrónico a Bea (bea@b.com). Cada una de ellas tiene su cuenta de correo
electrónico en un servidor distinto (una en a.org, otra en b.com), pero estos se
pondrán en contacto para transferir el mensaje.
Secuencialmente, son ejecutados los siguientes pasos:

1. Ana escribe el correo con la ayuda de su cliente de correo electrónico.


Cuando envía el mensaje, el programa hace contacto con el servidor de
correo usado por Ana (en este caso, smtp.a.org). Se comunica usando un
lenguaje conocido como protocolo SMTP. Le transfiere el correo, y le da la
orden de enviarlo.
2. El servidor smtp.a.org debe entregar un correo a un usuario del
dominio b.com, pero no sabe con qué ordenador tiene que conectarse. Para
ello, efectúa una consulta al servidor DNS de su red, usando el
protocolo DNS, y le pregunta qué servidor es el encargado de gestionar el
correo del dominio b.com. Técnicamente, le está preguntando el registro
MX asociado a ese dominio.
3. Como respuesta a esta petición, el servidor DNS contesta con el nombre de
dominio del servidor de correo de Bea. En este caso es mx.b.com; que en
este caso en particular es un servidor gestionado por el proveedor de
Internet de Bea.
4. El servidor SMTP (smtp.a.org) ya puede conectarse con mx.b.com y
transferirle el mensaje, que quedará guardado en este ordenador. Se usa
otra vez el protocolo SMTP.
5. Posteriormente, cuando Bea inicie su programa cliente de correo electrónico,
su ordenador inicia una conexión, mediante el protocolo POP3 o IMAP, al
servidor que guarda los correos nuevos que le han llegado. Este ordenador
(pop3.b.com) es el mismo que el del paso anterior (mx.b.com), ya que se
encarga tanto de recibir correos del exterior como de entregárselos a sus
usuarios. En el esquema, Bea se descarga el mensaje de Ana mediante el
protocolo POP3.
Esta es la secuencia básica, pero pueden darse varios casos especiales:

 Si ambas cuentas de correo están en la misma red, como una Intranet de una
empresa o el mismo servidor de correo: en estos casos el mensaje no se envía
de un servidor a otro porque ambos son el mismo. En el primero de los casos ni
siquiera atravesará la red Internet.
 Ana podría tener instalado un servidor SMTP en su propio ordenador, de forma
que el paso 1 se haría en su mismo ordenador. De la misma forma, Bea podría
tener su servidor de correo en el propio ordenador.
 Una persona puede no usar un cliente de correo electrónico, sino un cliente de
correo con interfaz web. El proceso es casi el mismo, pero se usan
conexiones HTTP para acceder al correo de cada usuario en vez de usar SMTP
o IMAP/POP3.
 Normalmente existe más de un servidor de correo (MX) disponible de respaldo,
para que aunque uno falle, se siga pudiendo recibir correo.
 En los comienzos de Internet era habitual que los servidores estuvieran
configurados como open relay (relé abierto), es decir, que transmitían mensajes
de cualquier usuario y no solo de remitentes o destinatarios conocidos. Sin
embargo este tipo de funcionamiento ha caído en desuso, ya que facilitaban la
difusión del spam, y de hecho los estándares desaconsejan su uso.
Escritura del mensaje
No se pueden mandar mensajes entre computadores personales o entre dos
terminales de una computadora central. Los mensajes se archivan en un buzón (una
manera rápida de mandar mensajes). Cuando una persona decide escribir un correo
electrónico, su programa (o correo web) le pedirá como mínimo tres cosas:

 Destinatario: una o varias direcciones de correo a las que ha de llegar el


mensaje
 Asunto: una descripción corta que verá la persona que lo reciba antes de abrir
el correo
 El propio mensaje. Puede ser sólo texto, o incluir formato, y no hay límite de
tamaño
Además, se suele dar la opción de incluir archivos adjuntos al mensaje. Esto
permite traspasar datos informáticos de cualquier tipo mediante el correo
electrónico.
Para especificar el destinatario del mensaje, se escribe su dirección de correo en
el campo llamado Para dentro de la interfaz (ver imagen de arriba). Si el destino son
varias personas, normalmente se puede usar una lista con todas las direcciones,
separadas por comas o punto y coma.
Además del campo Para existen los campos CC y CCO, que son opcionales y
sirven para hacer llegar copias del mensaje a otras personas:

 Campo CC (Copia de Carbón): quienes estén en esta lista recibirán también el


mensaje, pero verán que no va dirigido a ellos, sino a quien esté puesto en el
campo Para. Como el campo CC lo ven todos los que reciben el mensaje, tanto
el destinatario principal como los del campo CC pueden ver la lista completa.
 Campo CCO (Copia de Carbón Oculta): una variante del CC, que hace que los
destinatarios reciban el mensaje sin aparecer en ninguna lista. Por tanto, el
campo CCO nunca lo ve ningún destinatario.
Un ejemplo: Ana escribe un correo electrónico a Beatriz (su profesora), para
enviarle un trabajo. Sus compañeros de grupo, Carlos y David, quieren recibir una
copia del mensaje como comprobante de que se ha enviado correctamente, así que
les incluye en el campo CC. Por último, sabe que a su hermano Esteban también le
gustaría ver este trabajo aunque no forma parte del grupo, así que le incluye en el
campo CCO para que reciba una copia sin que los demás se enteren.
Entonces:

 Beatriz recibe el mensaje dirigido a ella (sale en el campo Para), y ve


que Carlos y David también lo han recibido
 Carlos recibe un mensaje que no va dirigido a él, pero ve que aparece en el
campo CC, y por eso lo recibe. En el campo Para sigue viendo a Beatriz
 David, igual que Carlos, ya que estaban en la misma lista (CC)
 Esteban recibe el correo de Ana, que está dirigido a Beatriz. Ve
que Carlos y David también lo han recibido (ya que salen en el CC), pero no se
puede ver a él mismo en ninguna lista, cosa que le extraña. Al final, supone que
es que Ana le incluyó en el campo CCO.

 Campo Reply-To (responder) Dirección dónde el emisor quiere que se le


conteste. Muy útil si el emisor dispone de varias cuentas.

 Campo Date (fecha, y hora, del mensaje) Fecha y hora de cuando se envío del
mensaje. Si el sistema que envía el mensaje tiene la fecha y/u hora equivocadas,
puede generar confusión.
Otros campos, menos importantes son:

 Sender: Sistema o persona que lo envía


 Received: Lista de los MTA que lo transportaron
 Message-Id: Número único para referencia
 In-Reply-to: Id. del mensaje que se contesta
 References: Otros Id del mensaje
 Keywords: Palabras claves de usuario
 X-Usuario: Definibles por el usuario

Encabezado de un correo electrónico.


La cabecera del mensaje normalmente, se muestra resumida. Para ver todos los
detalles bastará con expandir, mediante la opción oportuna, dicha cabecera.
Proceso de envío de correo electrónico
Si el usuario quiere, puede almacenar los mensajes que envía, bien de forma
automática (con la opción correspondiente), o bien sólo para los mensajes que
desee. Estos mensajes quedan guardados en un directorio o carpeta reservada para
mensajes enviados en el ordenador del usuario.
Recepción
Cuando una persona recibe un mensaje de correo electrónico puede verse en la
denominada bandeja de entrada un resumen de éste:

 Remitente (o De o De: o From o From:-en inglés-): este campo indica quién


envía el mensaje. Puede aparecer el nombre o apodo de la persona o entidad
remitente. Si quien envía el mensaje no ha configurado su programa o correo
web al respecto aparecerá su dirección de correo electrónico, solamente.
 Asunto: en este campo se ve el tema que trata el mensaje (o lo que el remitente
de él desee). Si quien envía el mensaje ha dejado esta casilla en blanco pudieran
aparecer textos como ninguno o sin asunto.
 Si el mensaje es una respuesta el asunto suele empezar por RE: o Re:
(abreviatura de responder o reply -en inglés-, seguida de dos puntos).
Aunque según de dónde proceda el mensaje pueden aparecer An: (del
alemán antwort), Sv: (del sueco svar), etc.
 Cuando el mensaje procede de un reenvío el asunto suele comenzar por RV:
(abreviatura de reenviar) o Fwd: (del inglés forward), aunque a veces
empieza por Rm: (abreviatura de remitir)
 Fecha: esta casilla indica cuándo fue enviado el mensaje o cuándo ha llegado a
la bandeja de entrada del receptor. Puede haber dos casillas que sustituyan a
este campo, una para indicar la fecha y hora de expedición del mensaje y otra
para expresar el momento de su recepción.
Además pueden aparecer otras campos como:

 Tamaño: indica el espacio que ocupa el mensaje y los fichero(s) adjunto(s) si


existe(n).
 Destinatarios (o Para o Para: o To o To: -en inglés-): muestra a quiénes se envió
el mensaje.
 Datos adjuntos: si aparece una marca (habitualmente un clip) significa que el
mensaje viene con uno o varios ficheros anexos.
 Prioridad: expresa la importancia o urgencia del mensaje según el remitente (alta
-se suele indicar con un signo de exclamación-, normal -no suele llevar marca
alguna- o baja -suele indicarse con una flecha apuntando para abajo-)
 Marca (de seguimiento): si está activada (por ejemplo mostrando una bandera)
indica que hay que tener en cuenta este mensaje (previamente lo ha marcado
la persona que lo ha recibido).
 Inspeccionar u omitir: haciendo clic en este campo (o su equivalente) se puede
marcar el mensaje para inspeccionarlo (suelen aparecer el símbolo de unas
gafas en la casilla y ponerse de color llamativo -normalmente rojo- las letras de
los demás campos). Al hacer otro clic en este campo se puede marcar para
omitirlo (suele aparecer el símbolo de "prohibido el paso" en este campo y
ponerse en un tono suave -normalmente gris- las letras de las demás casillas).
Pinchando una vez más volvemos a dejar el mensaje sin ninguna de las dos
marcas mencionadas
 Cuenta: Si utilizamos un cliente de correo electrónico configurado con varias
cuentas de correo, esta casilla indica a cuál de ellas ha llegado el mensaje en
cuestión.
 Primeras palabras del (cuerpo del) mensaje.
Los mensajes recibidos pero sin haber sido leídos aún suelen mostrar su resumen
en negrillas. Después de su lectura figuran con letra normal. A veces si
seleccionamos estos mensajes sin abrirlos, puede observarse una previsualización
de su contenido.
Si el destinatario desea leer el mensaje tiene que abrirlo (normalmente haciendo
(doble) clic sobre el contenido de su asunto con el puntero del ratón). Entonces el
receptor puede ver un encabezado arriba seguido por el cuerpo del mensaje. En la
cabecera del mensaje aparecen varias o todas las casillas arriba mencionadas
(salvo las primeras palabras del cuerpo del mensaje). Los ficheros adjuntos, si
existen, pueden aparecer en el encabezado o debajo del cuerpo del mensaje.
Una vez que el destinatario ha recibido (y, normalmente, leído) el mensaje puede
hacer varias cosas con él. Normalmente los sistemas de correo
(tanto programascomo correo web) ofrecen opciones como:

 Responder: escribir un mensaje a la persona que ha mandado el correo (que


es sólo una). Existe la variante Responder a todos, que pone como
destinatarios tanto al que lo envía como a quienes estaban en el campo CC
 Reenviar (o remitir): pasar este correo a una tercera persona, que verá quién
era el origen y destinatario original, junto con el cuerpo del mensaje. De forma
opcional se puede añadir más texto al mensaje o borrar los encabezados e
incluso el cuerpo (o parte de él) de anteriores envíos del mensaje.
 Marcar como correo no deseado (spam): separar el correo y esconderlo para
que no moleste, de paso instruyendo al programa para que intente detectar
mejor mensajes parecidos a éste. Se usa para evitar la publicidad no solicitada.
 Archivar: guardar el mensaje en el ordenador, pero sin borrarlo, de forma que
se pueda consultar más adelante. Esta opción no está en forma explícita, ya que
estos programas guardan los mensajes automáticamente.
 Borrar: Se envía el mensaje a una carpeta Elementos eliminados que puede ser
vaciada posteriormente.
 Mover a carpeta o Añadir etiquetas: algunos sistemas permiten catalogar los
mensajes en distintos apartados según el tema del que traten. Otros permiten
añadir marcas definidas por el usuario (ej: "trabajo", "casa", etc.).

Problemas
El principal problema actual es el correo no deseado, que se refiere a la recepción
de correos no solicitados, normalmente de publicidad engañosa, y en grandes
cantidades, promoviendo pornografía y otros productos y servicios de calidad
sospechosa.13
Usualmente los mensajes indican como remitente del correo una dirección falsa.
Por esta razón, es más difícil localizar a los verdaderos remitentes, y no sirve de
nada contestar a los mensajes de correo no deseado: las respuestas serán recibidas
por usuarios que nada tienen que ver con ellos. Por ahora, el servicio de correo
electrónico no puede identificar los mensajes de forma que se pueda discriminar la
verdadera dirección de correo electrónico del remitente, de una falsa. Esta situación
que puede resultar chocante en un primer momento, es semejante por ejemplo a la
que ocurre con el correo postal ordinario: nada impide poner en una carta o postal
una dirección de remitente aleatoria: el correo llegará en cualquier caso. No
obstante, hay tecnologías desarrolladas en esta dirección: por ejemplo el remitente
puede firmar sus mensajes mediante criptografía de clave pública.
Además del correo no deseado, existen otros problemas que afectan a la seguridad
y veracidad de este medio de comunicación:

 los virus informáticos, que se propagan mediante ficheros adjuntos infectando


el ordenador de quien los abre
 la suplantación de identidad, que es correo fraudulento que generalmente
intenta conseguir información bancaria
 los bulos (bromas, burlas, o hoax), que difunden noticias falsas masivamente
 las cadenas de correo electrónico, que consisten en reenviar un mensaje a
mucha gente; aunque parece inofensivo, la publicación de listas de direcciones
de correo contribuye a la propagación a gran escala del correo no deseado y de
mensajes con virus, suplantadores de identidad y engaños.
Pérdida progresiva de la privacidad
En 2014, los principales proveedores de correo web como Google, Hotmail o Yahoo
exigen como requisito proveer datos personales como un número de teléfono
obligatorio o una dirección de correo alternativa obligatoria para así impedir las
altas anónimas o de personas que no puedan tener acceso a la compra de un
teléfono móvil.
Blog

Un blog o bitácora es un sitio web que incluye, a modo de diario personal de su


autor o autores, contenidos de su interés, actualizados con frecuencia y a menudo
comentados por los lectores.
Sirve como publicación en línea de historias con una periodicidad muy alta, que son
presentadas en orden cronológico inverso, es decir, lo más reciente que se ha
publicado es lo primero que aparece en la pantalla. Antes era frecuente que los
blogs mostraran una lista de enlaces a otros blogs u otras páginas para ampliar
información, citar fuentes o hacer notar que se continúa con un tema que empezó
otro blog.
Actualmente un blog puede tener diversas finalidades 3 según el tipo, taxonomía o
incluso su autoría, como por ejemplo para reforzar la marca personal del autor,
generar información para comunidades temáticas concretas o incluso servir como
medio para buscar oportunidades laborales.
Historia
Antes de que los blogs se hicieran populares, existían comunidades digitales
como USENET, xrt listas de correo electrónico y BBS.
En los años 90, los programas para crear foros de internet, por ejemplo WebEx,
posibilitaron conversaciones con hilos. Los hilos son mensajes que están
relacionados con un tema del foro.
1994-2000
El blog moderno es una evolución de los diarios en línea, donde la gente escribía
sobre su vida personal, como si fuese un diario íntimo pero dándole difusión en la
red. Las páginas abiertas Webring incluían a miembros de la comunidad de diarios
en línea. Justin Hall, quien escribió desde 1994 su blog personal mientras era
estudiante de la Universidad de Swarthmore, es reconocido generalmente como
uno de los primeros blogueros.4
También había otras formas de diarios en línea. Un ejemplo era el diario del
programador de juegos John Carmack, publicado mediante el protocolo Finger.
Los sitios web, como los sitios corporativos y las páginas web personales, tenían y
todavía tienen a menudo secciones sobre noticias o novedades, frecuentemente en
la página principal, y clasificados por fecha. Uno de los primeros precursores de un
blog fue el sitio web personal de Kibo, actualizado mediante USENET.
Los primeros blogs eran simplemente componentes actualizados de sitios web
comunes. Sin embargo, la evolución de las herramientas que facilitaban la
producción y mantenimiento de artículos web publicados y ordenados de forma
cronológica, hizo que el proceso de publicación pudiera dirigirse hacia muchas más
personas, y no necesariamente a aquellos que tuvieran conocimientos técnicos.
Últimamente, esto ha llevado a que en la actualidad existan diversos procedimientos
para publicar blogs. Por ejemplo, el uso de algún tipo de software basado en
navegador, es hoy en día un aspecto común del blogging.
Los blogs pueden ser construidos y almacenados usando servicios de alojamiento
de blogs dedicados, o pueden ser concretados y accedidos mediante software
genérico para blogs, por ejemplo usando los productos Blogger o LiveJournal, o
mediante servicios de alojamiento web corrientes.
El término «weblog» fue acuñado por Jorn Barger el 17 de diciembre de 1997. La
forma corta, «blog», fue acuñada por Peter Merholz, quien dividió la
palabra weblogen la frase we blog en la barra lateral de su blog Peterme.com en
abril o mayo de 1999,567 y rápidamente fue adoptado tanto como nombre y verbo
(asumiendo «bloguear» como «editar el weblog de alguien o añadir un mensaje en
el weblog de alguien»).
Tras un comienzo lento, los blogs ganaron popularidad rápidamente; el sitio Xanga,
lanzado en 1996, solo tenía 100 diarios en 1997, pero más de 50 000 000 en
diciembre de 2005. El uso de blogs se difundió durante 1999 y los siguientes años,
siendo muy popularizado durante la llegada casi simultánea de las primeras
herramientas de alojamiento de blogs:

 Open Diary lanzado en octubre de 1998, pronto creció hasta miles de diarios en
línea. Open Diary innovó en los comentarios de los lectores, siendo el primer
blog comunitario donde los lectores podían añadir comentarios a las entradas
de los blogs.
 Brad Fitzpatrick comenzó LiveJournal en marzo de 1999.
 Andrew Smales creó Pitas.com en julio de 1999 como una alternativa más fácil
para mantener una «página de noticias» en un sitio web, seguido
de Diaryland en septiembre de 1999, centrándose más en la comunidad de
diarios personales.8
 Evan Williams y Meg Hourihan (Pyra Labs) lanzaron Blogger.com en agosto de
1999, que posteriormente fue adquirido por Google en febrero de 2003.
El blogging combinaba la página web personal con herramientas para poder
enlazar más fácilmente con otras páginas – en
concreto permalinks, blogrolls y trackbacks. Esto, junto a los motores de búsqueda
de weblogs, permitió a los blogueros llevar un seguimiento de los hilos que les
conectaban con otros usuarios con intereses similares.
2000-2006
Los primeros blogs estadounidenses populares aparecieron en 2001:
AndrewSullivan.com de Andrew Sullivan, Politics1.com de Ron
Gunzburger, Political Wire de Taegan Goddard y MyDD de Jerome Armstrong,
tratando principalmente temas políticos.
En idioma español también aparecieron los primeros blogs en esa época. Los más
destacados fueron en el año 2000 el blog llamado Terremoto.net y en el año 2001
aparecieron Claudia-P.com, donde una adolescente de Madrid explicaba su peculiar
vida personal, y El hombre que comía diccionarios.9
En 2002, el blogging se había convertido en tal fenómeno que comenzaron a
aparecer manuales, centrándose principalmente en la técnica. La importancia de la
comunidad de blogs (y su relación con una sociedad más grande) cobró importancia
rápidamente. Las escuelas de periodismo empezaron a investigar el fenómeno de
los blogs y a establecer diferencias entre el periodismo y el blogging.
En 2002, el amigo de Jerome Armstrong y exsocio Markos Moulitsas
Zúniga comenzó DailyKos. Con picos de hasta un millón de visitas diarias, ese
espacio web se ha convertido en uno de los blogs con más tráfico de Internet.
En el año 2006, se escogió la fecha del 31 de agosto para celebrar en toda la red el
llamado Día internacional del blog. La idea nació de un bloguero (usuario de blog)
israelí llamado Nir Ofir, que propuso que en esta fecha, los blogueros que
desarrollaban bitácoras personales enviaran cinco invitaciones de cinco blogs de
diferentes temáticas a cinco diferentes contactos, para que así los internautas dieran
difusión a blogs que seguramente otras personas desconocían, y que
eventualmente les pudiera resultar interesantes.10
-Presente
Entre los servidores de blogs más populares se encuentran Blogger y Wordpress.
Los cofundadores de Twitter, Evan Williams y Biz Stone, crearon la plataforma de
escritura Medium.11
Algunos blogueros se han ido trasladando a la televisión y a los medios de
prensa: Duncan Black, Glenn Reynolds (Instapundit), Markos Moulitsas
Zúniga (Daily Kos), Alex Steffen (Worldchanging), Ana Marie Cox (Wonkette), Nate
Silver (FiveThirtyEight.com), Nora Ephron (Huffington Post) y Ezra Klein (que se
integró primeramente al blog American Prospect, después a The Washington Post).
Herramientas para su construcción y mantenimiento
Existen variadas herramientas de mantenimiento de blogs que permiten, muchas de
ellas gratuitamente y sin necesidad de elevados conocimientos técnicos, administrar
todo el weblog, coordinar, borrar o reescribir los artículos, moderar los comentarios
de los lectores, etc., de una forma casi tan sencilla como administrar el correo
electrónico. Actualmente su modo de uso se ha simplificado a tal punto, que casi
cualquier usuario es capaz de crear y administrar un blog personal.
Las herramientas de mantenimiento de weblogs se clasifican, principalmente, en
dos tipos: aquellas que ofrecen una solución completa de alojamiento, gratuita
(como Freewebs, Blogger y LiveJournal), y aquellas soluciones consistentes
en software que, al ser instalado en un sitio web, permiten crear, editar y administrar
un blog directamente en el servidor que aloja el sitio (como es el caso
de WordPress o de Movable Type). Este software es una variante de las
herramientas llamadas Sistemas de Gestión de Contenido (CMS), y muchos son
gratuitos. La mezcla de los dos tipos es la solución planteada por WordPress.
Las herramientas que proporcionan alojamiento gratuito asignan al usuario una
dirección web (por ejemplo, en el caso de Blogger, la dirección asignada termina en
"blogspot.com") y le proveen de una interfaz, a través de la cual se puede añadir y
editar contenido. Obviamente, la funcionalidad de un blog creado con una de estas
herramientas, se limita a lo que pueda ofrecer el proveedor del servicio, o hosting.
Un software que gestione el contenido, en tanto, requiere necesariamente un
servidor propio para ser instalado, del modo en que se hace en un sitio web
tradicional. Su gran ventaja es que permite un control total sobre la funcionalidad
que ofrecerá el blog, posibilitando así adaptarlo totalmente a las necesidades del
sitio, e incluso combinarlo con otros tipos de contenido.
Características diferenciales de un blog
El éxito de los blogs se debe a que tienen una naturaleza muy peculiar que se
caracteriza, sobre todo, por tres propiedades:

1. Es una publicación periódica. Los blogs publican nuevos contenidos en


periodos de tiempo relativamente cortos.
2. Un blog admite comentarios de los lectores y esto hace posible que se cree
una comunidad en torno al autor. Los blogs son uno de los medios que mejor
representan su esencia. Gracias a la posibilidad de recibir comentarios de
los lectores, se pasa de una comunicación unilateral (medio de comunicación
hacia el lector) a una comunicación bilateral, en la que el lector es también
protagonista. El efecto que esta ha tenido es la creación de "comunidades"
de lectores muy fieles, muy parecidas a las que existen, por ejemplo, en
un foro de discusión. Esto ha resultado ser también muy ventajoso desde un
punto de vista profesional o comercial porque estos lectores son personas
fidelizadas que confían en el autor y, por tanto, muy abiertas a las
recomendaciones e incluso venta de productos y servicios por parte del autor
del blog.
3. Un blog tiene un marcado toque personal. Aunque esta característica se haya
diluido quizás un poco en los últimos años con la aparición de blogs
corporativos y profesionales, incluso estos blogs intentan mantener un
ambiente mucho más personal e informal que ayuda mucho a que se vaya
forjando una relación de confianza entre el autor del blog y sus lectores,
buscando mucho más la creación de un ambiente parecido al que hay entre
amigos que la relación clásica entre una publicación comercial y sus lectores.
Características técnicas
Existe una serie de elementos comunes a todos los blogs.
Comentarios
Mediante un formulario se permite, a otros usuarios de la web, añadir comentarios
a cada entrada, pudiéndose generar un debate alrededor de sus contenidos,
además de cualquier otro intercambio de información (si el autor del blog lo prefiere,
no se podrán añadir comentarios a las entradas).
Enlaces
Una particularidad que diferencia a los weblogs de los sitios de noticias, es que las
anotaciones suelen incluir múltiples enlaces a otras páginas web (no
necesariamente weblogs), como referencias o para ampliar la información
agregada. Además, y entre otras posibilidades, permite la presencia y uso de:

 Un enlace permanente (permalink) en cada anotación, para que cualquiera


pueda citarla.
 Un archivo de las anotaciones anteriores.
 Una lista de enlaces a otros weblogs seleccionados o recomendados por los
autores, denominada habitualmente blogroll.
Enlaces inversos
En algunos casos las anotaciones o historias permiten que se les haga trackback,
un enlace inverso (o retroenlace) que permite, sobre todo, saber que alguien ha
enlazado nuestra entrada, y avisar a otro weblog que estamos citando una de
sus entradas o que se ha publicado un artículo relacionado. Todos
los trackbacksaparecen automáticamente a continuación de la historia, junto con los
comentarios, aunque no siempre es así.
Fotografías y vídeos
Es posible además agregar fotografías y vídeos a los blogs, a lo que se le ha
llamado fotoblogs o videoblogs, respectivamente.
Redifusión
Otra característica de los weblogs es la multiplicidad de formatos en los que se
publican. Aparte de HTML, suelen incluir algún medio para redifundirlos, es decir,
para poder leerlos mediante un programa que pueda incluir datos procedentes de
muchos medios diferentes. Generalmente, para la redifusión se usan fuentes
web en formato RSS o Atom.
Características sociales
También se diferencian en su soporte económico: los sitios de noticias o periódicos
digitales suelen estar administrados por profesionales, mientras que los weblogs
son principalmente personales y aunque en algunos casos pueden estar incluidos
dentro de un periódico digital o ser un blog corporativo, suelen estar escritos por un
autor o autores determinados que mantienen habitualmente su propia identidad.
Un aspecto importante de los weblogs es su interactividad, especialmente en
comparación a páginas web tradicionales. Dado que se actualizan frecuentemente
y permiten a los visitantes responder a las entradas, los blogs funcionan a menudo
como herramientas sociales, para conocer a personas que se dedican a temas
similares, con lo cual en muchas ocasiones llegan a ser considerados como
una comunidad.

Enemigos del correcto funcionamiento de un blog


Al igual que en los foros, los principales enemigos son el spam, los troles y
los leechers. También suelen provocar problemas los fake (usuarios que se hacen
pasar por otros usuarios) y algunos usuarios títeres (usuarios que se hacen pasar
por varios y diferentes usuarios).
Aunque no son enemigos, los recién llegados (o newbies) pueden ocasionar
problemas en el funcionamiento del blog al cometer errores; ya sea por no poder
adaptarse rápidamente a la comunidad, o por no leer las reglas específicas que
puede tener el blog en el que acaban de ingresar.
Otro problema es el de la lectura, producto del lenguaje usado por los chaters.
Tipos de blogs
Hay muchos tipos diferentes de blogs, no solo por el contenido, sino por la forma en
la que el contenido se escribe.
Blog personal
El blog personal, un diario en curso o un comentario de un individuo, es el blog más
tradicional y común. Los blogs suelen convertirse en algo más que en una forma
para comunicarse, también se convierten en una forma de reflexionar sobre la vida
u obras de arte. Los blogs pueden tener una calidad sentimental. Pocos blogs llegan
a ser famosos, pero algunos de ellos pueden llegar a reunir rápidamente un gran
número de seguidores. Un tipo de blog personal es el micro blog, es
extremadamente detallado y trata de capturar un momento en el tiempo. Algunos
sitios, como Twitter, permiten a los blogueros compartir pensamientos y
sentimientos de forma instantánea con amigos y familiares, y son mucho más
rápidos que el envío por correo o por escrito.
Microblogging
Microblogging es la práctica de publicar pequeños fragmentos de contenidos
digitales (puede ser texto, imágenes, enlaces, vídeos cortos u otros medios de
comunicación) en Internet. Ofrece un modo de comunicación que para muchos es
orgánica, espontánea y captura la imaginación del público. Lo utilizan amigos para
mantenerse en contacto, socios de negocios para coordinar las reuniones o
compartir recursos útiles, y las celebridades y políticos para las fechas de sus
conciertos, conferencias, lanzamientos de libros u horarios de viajes. Una amplia y
creciente gama de herramientas adicionales permite actualizaciones complejas y la
interacción con otras aplicaciones, y la profusión resultante de la funcionalidad está
ayudando a definir nuevas posibilidades para este tipo de comunicación.
Blogs corporativos y organizacionales
Un blog puede ser privado, como en la mayoría de los casos, o puede ser para fines
comerciales. Los blogs que se usan internamente para mejorar la comunicación y
la cultura de una sociedad anónima o externamente para las relaciones de
marketing, branding o relaciones públicas se llaman blogs corporativos. Blogs
similares para los clubes y sociedades se llaman blogs de club, blogs de grupo o
por nombres similares; el típico uso consiste en informar a los miembros y a otras
partes interesadas sobre las fiestas del club y las actividades de sus miembros.
Un blog corporativo suele formar parte de una estrategia de content
marketing o marketing de contenidos, cuya finalidad es atraer tráfico orgánico hacia
la web de empresa y conseguir clientes interesados en un producto o servicio. Para
este fin, se aconseja que el blog corporativo se delimite a ciertas normas no
consensuadas, pero aceptadas por las buenas prácticas:

1. Hay que escribir de lo que se sabe. Añadir valor es aportar conocimientos


cualificados y contrastables, es evitar la confusión informativa y es prohibirse
a uno mismo la polémica. Qué mejor forma de realizar esta máxima que
escribiendo desde la propia profesión.
2. Hay que evitar la autocomplacencia. Un blog corporativo busca atraer, no
convencer, por lo que escribir únicamente sobre las cualidades positivas y
excelentes de uno mismo o de la empresa suele causar suspicacia. En
realidad, la seriedad con la que se expresa el contenido ya hace el trabajo
de la propia excelencia.
3. Hay que ser constante. No se debe publicar de tanto en tanto ni crear la
sensación de vacío y silencio entre aquellos que puedan estar esperando
una respuesta. Un artículo por semana puede ser suficiente para dar a
entender que la empresa está viva, pero dos o tres reflejan que está
trabajando.
4. Hay que ganar suscriptores. Ley incondicional de todo blog: si se recaba
información de los lectores, se crea la propia base de datos de clientes
potenciales y, a partir de ahí, se crean estrategias de marketing más amplias
y complejas, como la de los e-mailing.
5. Hay que ser participativo. Esto es aplicable en dos sentidos.
1. Si la empresa cuenta con varios trabajadores cualificados, es
recomendable darles también la palabra y que escriban artículos.
Esto es sumamente efectivo si cada uno de esos trabajadores es
experto en un campo determinado. Además, de este modo se
asegura que el blog fluya porque no depende de la disponiblidad de
una sola persona.
2. El autor o autores de los artículos deben permitir la interacción con y
entre los usuarios que acceden al blog. Responder siempre y con
educación no es recomendable: es obligatorio. No se debe prohibir
nada, pero sí intervenir cuando el tono de algún usuario (sobre todo
contra otro usuario) resulte grosero o insultante: hay que crear
comunidad.
6. Hay que tener una sola voz. Esto no atenta contra el apartado anterior: una
sola voz no es un solo escritor, sino un estilo determinado, una firma
corporativa específica, un tono característico. Si el blog está conformado por
varios autores, estos deben coordinarse para evitar contradicciones entre
artículos o cambios de tono demasiado evidentes.
7. Hay que planificar. Significa crear una política clara de publicación,
atendiendo a elementos tales como:
1. Categorías: es recomendable que todas las categorías del blog
tiendan al mismo número de artículos.
2. Calendario: la constancia se consigue, la mayor parte de las veces,
fijando fechas de publicación.
3. Actualidad: el contenido de un artículo es más relevante cuanto más
se aproxime a la realidad del lector. Esto se suele conseguir si el tema
que se trata es actual, pues dada la realidad hiper-informada en la
que vivimos, prácticamente todos compartimos el mismo contenedor
de actualidad. Si, además, se consigue que el blog corporativo sea
uno de los primeros en hablar sobre un tema concreto, habrá
alcanzado un nivel de prevalencia que la comunidad tendrá en
cuenta.
Blogs educativos
Un blog educativo está compuesto por materiales, experiencias, reflexiones y
contenidos didácticos, que permite la difusión periódica y actualizada de las
actividades realizadas en la escuela. Los blogs educativos permiten al profesorado
la exposición y comunicación entre la comunidad educativa y el alumnado,
potenciando un aprendizaje activo, crítico e interactivo.
Por el género
Algunos blogs se centran en un tema particular, como los blogs políticos, blogs de
lgbt, blogs educativos, blogs de salud, blogs de viajes (también conocidos como
cuadernos de viajes), blogs de jardinería, blogs de la casa, blogs de moda, blogs de
proyectos educativos, blogs de música clásica, blogs de esgrima, blogs jurídicos,
etc. Dos tipos comunes de blogs de género son los blogs de música y los blogs de
arte. A los blogs con discusiones especialmente sobre el hogar y la familia no es
infrecuente llamarlos blogs mamá, y este tipo de blogs se hizo popular por Erica
Diamond, creadora de Womenonthefence.com, que es seguido por más de dos
millones de lectores mensuales. Aunque no es un tipo legítimo de blog, ya que se
utiliza con el único propósito de hacer spams, se conoce como un Splog.
Por el tipo de medios de comunicación
Un blog que incluye vídeos se llama vlog, uno que incluye enlaces se denomina
linklog, un sitio que contiene un portafolio de bocetos se llama sketchblog, u otro
que incluye fotos se llama fotolog. Los blogs con mensajes cortos y con tipos de
medios mixtos se llaman tumblelogs. Aquellos blogs que se redactan en máquinas
de escribir y luego son escaneados, se denominan blogs typecast. Un tipo raro de
blog incluido en el protocolo Gopher es conocido como un Phlog.
Por el dispositivo
Los blogs también pueden diferenciarse por el tipo de dispositivo que se utiliza para
construirlo. Un blog escrito por un dispositivo móvil, como un teléfono móvil o una
PDA, podría llamarse moblog. Uno de los blogs más nuevos es el Wearable
Wireless Webcam, un diario en línea compartido de la vida personal de un individuo,
que combina texto, vídeo e imágenes transmitidas en directo desde un ordenador
portátil y un dispositivo Eye Tap a un sitio web. Esta práctica semiautomatizada de
blogs con vídeo en directo junto con el texto se conoce como sub-supervisión. Estas
revistas se han utilizado como pruebas en asuntos legales.
Blog inversa
Este blog está compuesto por sus usuarios en lugar de un solo bloguero. Este
sistema tiene las características de un blog y la escritura de varios autores. Estos
blogs pueden estar escritos por varios autores que han contribuido en un tema o
que han abierto uno para que cualquiera pueda escribir. Normalmente hay un límite
para el número de entradas, para evitar que se opere como un foro de Internet.
Red de blogs
Es un grupo de blogs que están conectados entre sí en una red. Una red de blogs
puede ser o bien un grupo de blogs vagamente conectados, o un grupo de blogs
que son propiedad de la misma empresa. El propósito de esta red es por lo general
promover los otros blogs en la misma red y, por tanto, aumentar los ingresos
publicitarios generados a partir de la publicidad en línea en los blogs.12
Taxonomía
Algunas variantes del weblog son los openblog, fotolog, los vlogs (videoblogs),
los audioblogs y los moblog (desde los teléfonos móviles). Además, cada vez son
más los weblogs que incorporan podcast como sistema adicional de información u
opinión.
Hispanización de la palabra
Muchas personas denominan bitácora a una bitácora de red o blog, haciendo
referencia a la idea de llevar un registro cronológico de sucesos, contando
cualquier historia o dándole cualquier otro uso (posiblemente influidos por el uso del
término que se hace en la serie de ciencia ficción Star Trek para aludir al diario de
a bordo del capitán de la nave).
En el año 2005 la Real Academia Española introdujo el vocablo en el Diccionario
Panhispánico de Dudas13 con el objeto de someterlo a análisis para su aceptación
como acepción y su posterior inclusión en el Diccionario.
Páginas web
Una página web se define como un documento electrónico el cual contiene
información textual, visual y/o sonora que se encuentra alojado en un servidor y
puede ser accesible mediante el uso de navegadores. Una página web forma
parte de una colección de otras páginas webs dando lugar al denominado sitio
web el cual se encuentra identificado bajo el nombre de un dominio.

La creación y desarrollo de una página web se realiza bajo un lenguaje de


programación capaz de ser interpretados por los navegadores, lenguajes como el
HTML, PHP, ASP, JSP o RUBY son ejemplos entre otros. Al inicio de la era de
internet accesible, sobre los años 90, era necesario el conocimiento de algún
lenguaje de programación para el desarrollo de una web, siendo una tarea
encomendada a personas con altos conocimientos informáticos, hoy en día
contamos con software especializado capaz de trabajar como un editor de texto
,estilo Word, que transforman toda la información insertada en un lenguaje de
programación capaz de ser interpretado por los navegadores, de esta forma se
liberalizó y se globalizó la creación de páginas webs con apenas unos escasos
conocimientos informáticos, programas como Dreamweaver, Amaya, Sharepoint
Designer o Mozilla Composer son entre otros los denominados WYSIWYG
(acrónimo del inglés " lo que ves es lo que obtienes") capaces de crear complejas
páginas webs con el entorno de un simple editor de texto.

Una vez que hemos creado y desarrollado nuestras páginas webs es necesario
alojarlas en un servidor el cuál lo podemos definir como un ordenador conectado
constantemente a la intranet privada o a internet cuyo objetivo es poder disponer
de la página web a cualquier hora del día. Para poder acceder al servidor es
necesario el uso de programas denominados clientes FTP, los cuales conectan
el ordenador personal donde se ha desarrollado la página con el servidor donde
se alojará, Filezilla, FileFTP o Cute FTP son entre otros ejemplos de clientes FTP.

Por último, una vez alojadas nuestras páginas webs estas son accesibles
mediante el uso de navegadores los cuales permiten visualizar correctamente la
información alojada y desarrollada, Chrome, Mozilla, Internet Explorer y Safari
son entre otros ejemplos de navegadores ampliamente utilizados.

Podemos agrupar o clasificar todas las páginas webs en 2 grandes grupos:


 Webs estáticas.
 Webs dinámicas.

Las webs estáticas son aquellas cuya información no varía en un tiempo a medio
o a corto plazo, también se las reconoce puesto que no interactúan con el usuario
o navegante, su lenguaje de programación está basado en HTML y están
compuestas principalmente de textos e imágenes.

Las webs estáticas fueron el primer tipo de páginas que aparecieron durante el
desarrollo y expansión de Internet, su creación y desarrollo es relativamente fácil
al disponer de programas estilos editores de texto que nos permiten programarlas
sin tener conocimiento ninguno sobre HTML, esto es una de las grandes ventajas
que presentan este tipo de páginas. Por otro lado cada vez que se necesite
modificar alguna parte de la web es necesario conectarse al servidor donde está
alojado y subir los documentos modificados, cosa que conlleva tiempo y esfuerzo.

Las webs dinámicas son aquellas que son capaces de interactuar con el usuario
o navegante dado a que están conectadas con bases de datos que permiten el
desarrollo de aplicaciones webs, su principal ventaja es la personalización de la
web en función del usuario así como la rapidez de modificación de los contenidos.
Este tipo de webs están desarrolladas bajo lenguajes de programación como
PHP, ASP, JSP o RUBY, el manejo de dichos lenguajes requiere de ciertos
conocimientos informáticos.

Las primeras webs dinámicas se crearon a principios de los años 90 a raíz de la


expansión y crecimiento exponencial que adquiría la Red y las nuevas
necesidades que se originaban, el inmenso volumen de información que existía
necesitaba disponer de buscadores al estilo Google, la venta por internet
desencadenó el desarrollo de las primeras webs de comercio electrónico como
Amazon, por último la web 2.0 nos condujo al desarrollo de las primeras redes
sociales como Facebook lanzado en el año 2004.

Foros de opinión, redes sociales, tiendas virtuales, buscadores, gestores de


emails o aplicaciones empresariales alojadas en la nube, son entre otros ejemplos
de webs dinámicas.

Las webs dinámicas y estáticas pueden clasificarse a su vez en páginas webs:

 Privadas
 Públicas
Las páginas privadas son aquellas que solo pueden acceder un número limitado
de personas que puedan ser identificadas y reconocidas por el sistema de acceso,
mientras que las públicas son accesibles por cualquier persona que disponga de
una conexión a Internet.

Hoy en día dentro de un mismo sitio web existen las 4 clases de páginas descritas
anteriormente, por ejemplo el acceso a nuestra cuenta bancaria es una página
dinámica dado a que el saldo disponible cambia instantáneamente cuando
realizamos una compra, a su vez es una página privada puesto que su acceso
está restringido a las personas que puedan autentificarse mediante claves o
password. Pero dentro de la página web de nuestro banco encontramos páginas
estáticas como direcciones de contacto o información global sobre el sitio como
las políticas de uso, a su vez estas páginas son públicas dado a que se requiere
ningún tipo de autentificación para acceder a ellas.
Ejemplo de una página web.
Una página web, o página electrónica, página digital, o ciberpágina12 es
un documento o información electrónica capaz de contener texto, sonido, vídeo,
programas, enlaces, imágenes, y muchas otras cosas, adaptada para la
llamada World Wide Web (WWW) y que puede ser accedida mediante
un navegador web. Esta información se encuentra generalmente en
formato HTML o XHTML, y puede proporcionar acceso a otras páginas web
mediante enlaces de hipertexto. Frecuentemente también incluyen otros recursos
como pueden ser hojas de estilo en cascada, guiones (scripts), imágenes digitales,
entre otros.
Las páginas web pueden estar almacenadas en un equipo local o en un servidor
web remoto. El servidor web puede restringir el acceso únicamente a redes
privadas, por ejemplo, en una intranet corporativa, o puede publicar las páginas en
la World Wide Web. El acceso a las páginas web es realizado mediante una
transferencia desde servidores, utilizando el protocolo de transferencia de
hipertexto (HTTP).
Características y tipos de páginas

Cartel de la calle "WWW", en el Parque Científico Tecnológico de la Universidad de


Alcalá.
Una página web está compuesta principalmente por información de un tema factible
(sólo texto y/o módulos multimedia) así como por hiperenlaces; además puede
contener o asociar hoja de estilo, datos de estilo para especificar cómo debe
visualizarse, y también aplicaciones embebidas para así permitir interacción.
Las páginas web son escritas en un lenguaje de marcado que provee la capacidad
de manejar e insertar hiperenlaces, generalmente HTML.
Respecto a la estructura de las páginas web, algunos organismos, en especial
el World Wide Web Consortium (W3C), suelen establecer directivas con la intención
de normalizar el diseño, y para así facilitar y simplificar la visualización e
interpretación del contenido.
Una página web es en esencia una tarjeta de presentación digital, ya sea para
empresas, organizaciones, o personas, así como una manera de comunicar ideas,
pensamientos, conocimientos, informaciones o teorías. Así mismo, la nueva
tendencia orienta a que las páginas web no sean sólo atractivas para los
internautas, sino también optimizadas (preparadas), para los buscadores a través
del código fuente. Forzar esta doble función puede, sin embargo, crear conflictos
respecto de la calidad del contenido.
Uso correcto del término "página web"
Conviene reseñar que en la jerga popular se han generalizado un cierto mal uso del
término de página web.
Es frecuente ver a personas referirse con "página web" a un sitio web completo.
Siendo rigurosos, esto es incorrecto ya que "página web" se refiere a una página
concreta, con una URL específica y no a un sitio completo compuesto por múltiples
páginas web con diferentes URLs.
Páginas estáticas versus páginas dinámicas
El contenido de una página web puede ser predeterminado (página web estática) o
generado al momento de visualizarla, o solicitarla a un servidor web (página web
dinámica).
En el caso de las páginas estáticas, al acceder el usuario, el servidor descarga
simplemente un simple fichero con un contenido codificado en HTML que se
visualiza a continuación en su navegador. Un proceso muy similar a la descarga de
cualquier fichero, por ejemplo un documento PDF.
El principal problema de estas páginas es que no permiten la interacción con el
usuario, equivalente a una colección de documentos invariables, como un libro, en
la web.
Las páginas dinámicas que se generan al momento de la visualización. No son un
simple documento HTML, sino que se están creadas en algún lenguaje interpretado.
El ejemplo más popular es PHP, el lenguaje en el que están programadas
aplicaciones muy populares como WordPress o MediaWiki, el software en el que
está implementado la propia Wikipedia.
Esto permite la creación de aplicaciones muy complejas. Un ejemplo típico serían
las tiendas online como Amazon.
Aquí la web interactúa con el usuario y es necesario que componga las páginas de
manera dinámica. Por ejemplo: cuando un usuario busca determinados productos,
la aplicación realiza una consulta a su base de datos, obtiene los resultados y
compone con ellos "sobre la marcha" el HTML que corresponde a la lista de los
productos. Una vez compuesto dinámicamente el HTML de la página entera, se
devuelve al navegador exactamente igual que si hubiese sido una página HTML
estática.
JavaScript
Por otra parte, existe la posibilidad de introducir dinamismo en el lado cliente a
través del lenguaje JavaScript, diseñado específicamente para navegadores web.
Los controles de interfaz de usuario como árboles o tablas con funciones de
páginación están creados típicamente en JavaScript.
Creación y edición de páginas web
La manera más simple de crear páginas web consiste en utilizar un simple editor de
texto como, por ejemplo, Notepad++ y editar directamente el código HTML más las
hojas de estilo. Es la manera en la que en los inicios de Internet se creaban la
mayoría de las páginas web.
Sistemas CMS
Este enfoque "artesanal" es poco productivo por la gran cantidad de codificación de
HTML que implica y, además, sirve sólo para webs completamente estáticas. No
permite implementar cosas como, por ejemplo, una sección de comentarios de los
lectores como las que son habituales en blogs o en periódicos digitales.
Por ese motivo surgieron los sistemas CMS como, por ejemplo, Joomla que evitan
al usuario la codificación en HTML y ofrecen herramientas como editores visuales
que convierten la tarea de la creación de páginas web a algo parecido a la edición
de un documento en una aplicación de ofimática como OpenOffice o Word.
Estas herramientas son aplicaciones web creadas con lenguajes de programación
como PHP y que usan bases de datos como MySQL que no solamente permiten
una edición más cómoda de los contenidos, sino también implementar webs
dinámicas.
Entre estos sistemas destacan las herramientas para la creación de blogs por ser
las más populares, lideradas por el CMS Blogger WordPress.
WordPress en particular, además de ser la herramienta líder para la creación de
blogs, se está conviertiendo en la herramienta más utilizada para la creación de
webs pequeñas y medianas.3
Posicionamiento web (SEO)
El posicionamiento web de una página web es la base para optimizar todo un sitio
web el cual es un conjunto de páginas web.
La finalidad es que la página sea lo más inteligible posible para los bots de los
buscadores, lo cual ayudará a que se posicionen más alto en las búsquedas para
las cuales están optimizadas.

Las páginas web por definición son documentos que pueden contener textos,
imágenes, vídeos y, en resumen, contenidos digitales y/o aplicaciones que pueden
ser visualizados por un usuario web desde un dispositivo remoto a través de
un navegador web. Para ejemplificar lo que que son las páginas web, imaginemos
que queremos escribir un libro, este supuesto libro debe contener una portada
o página inicial, un índice o menú, diferentes capítulos o páginas principales y los
datos del autor o la página de contacto. Así que cuando entro en la página principal
de un sitio web (conjunto de páginas web), es como si fuera la portada de un libro,
desde donde puedo acceder a las páginas principales de sitio web navegando por
el menú.
En términos genéricos, una página web se puede estructurar en varias partes:
 Cabecera (header)
 Cuerpo (body)
 Pié de Página (footer)

Cabecera o Header: la cabecera se encuentra en la parte superior de la página web,


generalmente contiene información relativa a la temática del sitio web. Suele
contener el Logo, un título o eslogan, información de contacto y el menú para
navegar por las páginas principales. Muchos diseñadores también incluyen un
buscador.
Cuerpo o Body: en el cuerpo encontraremos el contenido más relevante para esa
página en particular. Puede ser de cuerpo entero o con una barra lateral. Las barras
laterales generalmente se usan para poner contenido complementario y para
mostrar accesos a otras páginas relevantes.
Pié de Página o Footer: en el footer generalmente encontraremos información de
contacto, un menú a las páginas más relevantes, links a otras webs y en general
contenido complementario referente a la temática del sitio web.
Mantenimiento y reparación de computadoras
El mantenimiento adecuado de la computadora es de gran importancia para que
esta no tenga que llegar a necesitar servicios técnicos de reparación, además,
muchas veces las fallas que esta presenta se debe simplemente a polvo o un cable
en mal estado, por lo tanto es importante verificar la fuente de la falla antes de tomar
una decisión concreta.

Algunas reparaciones básicas pueden ser ejecutadas por nosotros mismos, sin
embargo este no siempre es el caso ya que si no tenemos los conocimientos
necesarios podemos dañar el equipo por completo, en ese caso necesitamos ceder
al técnico el trabajo. En el siguiente bloque encontrará empresas y técnicos que
pueden proveerle servicio de mantenimiento y reparación de computadoras en
Guatemala.
Si lees este artículo aprenderás la verdadera importancia del mantenimiento
preventivo como elemento de gran valor para evitar fallas en la PC, al evitar muchas
de las causas que generan estos daños que afectan nuestros computadores.
Gran parte de los problemas que se presentan en los sistemas de cómputo se
pueden evitar o prevenir si llevamos a cabo un mantenimiento preventivo periódico
de cada uno de los componentes de la PC.
Existen dos grandes enemigos de tu PC que son el calor y la humedad. El exceso
de calor acelera el deterioro de los delicados circuitos de tu equipo. Las causas más
comunes del recalentamiento son el polvo y la suciedad: los conductos de
ventilación y los ventiladores tupidos pueden bloquear la circulación del aire en el
interior de la cubierta, y hasta la capa de polvo más delgada puede elevar la
temperatura de los componentes de tu máquina. Por eso es necesario mantener tu
sistema limpio por dentro y por fuera.
El objetivo principal del mantenimiento preventivo es alargar la vida útil del
computador y evitar posibles fallas en un futuro, y que básicamente consiste en la
limpieza física Interna y Externa del equipo de cómputo.
Deberás de limpiar básicamente los componentes externos y los componentes
internos que se encuentran dentro del gabinete del CPU.
Durante el proceso de reparación de la PC te vas a encontrar con muchas
situaciones, una de ellas puede ser fallas con algún dispositivo y es probable que
no tengas claridad de la manera adecuada de detectar estas fallas de manera
efectiva.
Si prestas atención a lo que te voy a explicar aprenderás el funcionamiento básico
de la BIOS y su gran utilidad como herramienta de diagnostico durante el proceso
de reparación de la PC.
La BIOS es un programa que se carga en la memoria ROM (memoria de solo
lectura) , que en el momento de encender la PC o reiniciar la misma realiza un
chequeo del hardware que se encuentra conectado a la misma.
Durante este proceso realiza realmente un diagnostico al cual comúnmente se le
llama POST o prueba automática de encendido, lo cual entenderás es muy
importante a tener en cuenta cuando se trata de establecer fallas en un proceso
de reparación de la PC.
Durante el proceso de reparación de la PC debemos tener especial atención con
la tarjeta principal es sin duda alguna uno de los principales componentes de una
PC, ya que es allí donde se conectan los diferentes componentes de la
computadora y allí se ubican todos los conectores tanto de alimentación como de
datos, las diferentes ranuras de expansión, puerto y diferentes dispositivos.
Si alguno de estos componentes presenta problemas sin duda alguna todo el
funcionamiento de la computadora se vera afectado, a continuación me permito
explicarte como resolver problemas con la tarjeta principal, específicamente cuando
se presenta problemas con los slots o zócalos donde se insertan los diferentes
componentes como el procesador, la memoria, tarjetas de interface, entre otros.
Si en algún momento tu equipo no quiere arrancar y no sabes cual es la raíz del
problema, te comento que una de esas causas puede ser que se esta presentando
un conflicto con la tarjeta madre, entonces deberás realizar un diagnostico de una
manera ordenada y siguiendo una adecuada metodología, para poder ser efectivo
durante la actividad de reparación de la computadora, dicho procedimiento te lo
explicare a continuación.

Solucionando problemas con los drivers

Uno de los problemas mas comunes que se presentan con nuestra PC durante el
proceso de reparación de la computadora, es que se presenten fallas con los
controladores de alguno de los dispositivos de nuestro equipo, y tal vez no sepamos
que hacer ante esta situación. Si prestas atención a lo que te voy a explicar
aprenderás a solucionar los problemas que se presentan por fallas con los
controladores durante el proceso de reparación de la pc.
Cuando un driver genera problemas, nuestro sistema operativo no se carga
adecuadamente, se generan mensajes de error y el equipo se reinicia, esto ocurre
porque el sistema busca protegerse y comenzar una instancia anterior a la carga
del controlador defectuoso. Lo ideal entonces es que durante el proceso de reinicio
presionemos la tecla F8 y seleccionemos la opción “volver a la última configuración
que funcionó correctamente”, de esta manera el equipo iniciara correctamente.
(Más…)

Solucionando problemas con el teclado

El teclado en uno de los dispositivos que cumplen una función muy importante, ya
que es un componente necesario para interactuar con nuestra computadora, por lo
tanto es conveniente que analicemos un poco su funcionamiento y la manera
correcta de resolver los conflictos qie se puedan presentar con el mismo.
Si prestas atención a los que te voy a explicar conocerás la funcionalidad básica
del teclado y aprenderás a solucionar los problemas que se puedan presentar con
el teclado de una manera efectiva.
Un teclado es un conjunto de interruptores que están conectados a un
microprocesador, que vigila su correcto funcionamiento, estos suelen tener cuatro
tipos de teclas:
 De escritura
 De función
 De control
 Numéricas

Su funcionamiento está gobernado por el microprocesador y los circuitos de control,


cada tecla al ser presionada cierra un circuito, estos son detectados por el
microprocesador y acude a la memoria ROM del teclado en donde se encuentran
los mapas de caracteres asociados a cada tecla.
Sus fallas son muy evidentes, ya que podemos evidenciarlas fácilmente, pero lo
mas importante antes de entrar a repararlo es considerar si es mejor adquirir uno
nuevo o repararlo.

La PC no enciende: Fallas con la Fuente?

Talvez en muchas ocasiones tu computadora ni siquiera enciende, y has tenido que


buscar ayuda de alguien que te solucione este inconveniente, porque no sabías
como abordar este problema.
Bien, si prestas atención a lo que te voy a explicar, vas a conocer el funcionamiento
de la fuente de poder y la manera adecuada de detectar y solucionar los
diferentes problemas que se puedan presentar con esta.
La función principal de la fuente de poder es convertir la energía del tomacorriente
(corriente alterna) de la pared en aquello que sea utilizable por los diferentes
circuitos de la computadora (corriente continua), por lo tanto asegura un suministro
estable de corriente para que los diferentes componentes del equipo funcionen
adecuadamente.
Es decir convierte la corriente de 110-120 Volts /230 Volts dependiendo del país ,
en +5,+12 y +3.3 Volts que utilizan los diferentes componentes de la PC.
Además de suministrar de suministrar la energía que requiere la computadora para
trabajar normalmente, también asegura que esta no opere si la corriente no es la
adecuada, es decir nuestra PC no arrancara hasta que estén presentes todos los
niveles de energía adecuados para que la computadora trabaje adecuadamente.

Reparación de la PC: Entendiendo el proceso de arranque de la computadora.

En un articulo anterior observamos el recorrido de la electricidad de la PC desde


que apretamos el botón de encendido, hasta que finalmente llega a cada uno de
sus componentes, también analizamos los elementos y dispositivos que intervienen
en el encendido de la misma.
Ahora me dispongo a explicarte realmente como es el proceso de arranque de una
computadora, esta información te permitira realizar diagnósticos acertados en el
momento de presentarse fallas en la PC.
Muchas veces tal ves te habrás preguntado cual es el proceso interno que
ejecutara la computadora para que pueda comenzar a trabajar normalmente, pues
bien al iniciarse la computadora, ella necesita un programa que le diga que hacer,
cual será la siguiente función a realizar y como llevarla a cabo.
Desde el momento que en que prendemos la computadora, internamente se están
ejecutando una serie de procedimientos que permiten verificar que todos los
componentes de la computadora funcionan de manera correcta, estos
procedimientos reciben el nombre de POST (Power-On-SelfTest) que no es mas
que un sistema de auto prueba que realiza la computadora sobre sus componentes.
Las fases del POST son las siguientes:

 Verificación del correcto estado del microprocesador.


 Verificación de los dispositivos de video
 Prueba de la memoria RAM en busca de fallas o desperfectos en los módulos.
 Comprobación de la existencia del teclado.
 Superadas todas las pruebas, el programa de arranque de la BIOS chequea las
unidades de almacenamiento disponibles y configuradas en el SETUP, para
determinar la unidad de inicio, en la que encontrará el sector de arranque con el
programa de puesta en marcha del sistema operativo.

Reparación de la PC: Entendiendo los elementos que intervienen en el encendido


de la computadora

Si queremos realmente ser profesionales en el mantenimiento de la PC, debemos


conocer de manera detallada el funcionamiento de la computadora, inclusive desde
el mismo momento desde que oprimimos el botón de encendido, para que podamos
tener los fundamentos sólidos para diagnosticar y solucionar determinadas fallas
que se presentan al inicio, como cuando la PC no enciende.
Por lo anteriormente expresado, me propongo detallar el recorrido de la electricidad
de la PC desde que apretamos el botón de encendido y los elementos y dispositivos
que intervienen en el encendido de la misma:
1. La red domiciliaria nos permite obtener la energía que nuestra computadora
requiere para funcionar, inicialmente llega con tensiones de 110-120 ACV.
2. Nos encontramos luego con un regulador de voltaje, quien deberá estar entre
la red domiciliaria y la fuente de alimentación de la PC, este me permite mantener
los niveles de energía estables y de esta manera evitar bajas o altas de tensión que
puedan dañar los diferentes componentes de la computadora.
3. Posteriormente la Fuente de poder que se encuentra en nuestra computadora
es quien recibe la corriente de la red domiciliaria desde el regulador de voltaje, en
este momento la corriente alterna que esta llegando de la red domiciliaria es
transformada en corriente continua a través de un proceso de rectificación.
Entonces es enviada a través de los diferentes cables de poder a nuestro PC para
alimentar cada uno de sus componentes.
4. La acción de encendido de la PC realmente inicia desde el momento en que
oprimimos el botón POWER ON de la computadora, el cual esta conectado a la
computadora, la tensión corre por la tarjeta madre a través de circuitos integrados
hasta el conector de 20 contactos que alimenta la placa madre.
5. La tarjeta principal recibe esta corriente a través del conector de voltaje de 20
contactos que proviene de la fuente de poder, con una tensión de 12V que es la
utilizada para alimentar las partes mecánicas de los diferentes componentes como
unidades de CD/DVD, también se arroja un voltaje de 5V para alimentar las partes
lógicas y otros circuitos requieren 3.3 V para su funcionamiento.
6. También los demás dispositivos son alimentados a través de los diferentes
cables de poder que salen de la fuente, como los cables MOLEX o conectores mas
pequeños, que van al disco duro y unidades de CD o DVD.
7. En la tarjeta madre se encuentra un modulo de regulación de voltaje VRM,
quien regula los valores que salen de la fuente y van al procesador, haciendo llegar
a este los valores que necesita para su normal funcionamiento.
Mantenimiento del PC: Respaldando la información

Al finalizar el presente artículo aprenderás a utilizar una herramienta básica para la


generación de copias de respaldo que ofrece el sistema operativo Windows XP.
La realización de copias de respaldo es una actividad muy importante de tener en
cuenta antes de entrar a reparar cualquier computadora, ya que su valor es muy
alto, ya sea que se trate de información personal y más aun de información de una
empresa.
Es por esto que es fundamental contar con un método de respaldo de la
información que sea confiable.
Existen muchos métodos para realizar respaldos de la información y diferentes
medios de almacenamiento con los que podemos contar al momento de
resguardar los datos, hoy voy a abordar las herramientas que nos ofrecen los
sistemas operativos, para este caso me concentrare la herramienta para la
realización de copias de respaldo de Windows XP.
Mantenimiento de la Computadora: Identificando la causa de los problemas más
comunes que se presentan al inicio del sistema.

Estoy seguro que muchas veces al oprimir el botón de encendido de tu computador,


este no ha querido prender, o si lo hace no carga adecuadamente los programas, y
no sabes que puede ser.
Pues déjame decirte que al terminar de leer este articulo al menos abras aprendido
a establecer los posibles motivos de falla que se presentan al inicio cuando el equipo
esta arrancando, y podrás resolver o saber cual es la posible causa del problema
de manera efectiva.
A continuación te menciono algunos de los problemas mas comunes que se pueden
presentar cuando inicias tu computadora y las posibles causas de la falla:
Mantenimiento de la PC: Explorando el interior de la Computadora

Antes de continuar avanzando con este maravilloso tema de la computación,


quisiera detenerme un poco en definir un poco mas detalladamente algunos de los
componentes mas importantes que integran un sistema de computo, ya que en
muchas ocasiones pasamos de alto y pensamos que ya se tienen lo suficientemente
claros estos conceptos y resulta que no es así.
Lo que te voy a explicar te permitirán tener unas bases solidas para que inicies una
actividad realmente profesional en el mantenimiento de computadoras.
Tarjeta Principal: es uno de los elementos más importantes de la PC, es allí donde
donde se conectan los diferentes componentes indispensables para el
funcionamiento de la PC, sobre los cuales se realiza el flujo y proceso de la
información.
En ella encontramos los conectores que permiten la alimentación de energía desde
la fuente de poder, las ranuras de expansión o slots que es donde se instalan las
tarjetas de interface, las ranuras para la memoria RAM, y los circuitos electrónicos
integrados que permiten el procesamiento y control como el procesador y
Chipsets de soporte, por todo lo anterior se constituye en el modulo principal de la
computadora.
Mantenimiento de la PC: Conociendo como viajan los datos al interior de
la Computadora.

¿Deseas realmente meterte en las entrañas de la PC y conocer su funcionamiento


interno?
¿Quieres ser efectivo en tu trabajo al tomar buenas decisiones para resolver los
problemas que se te presenten?.
Si respondiste positivamente a estas preguntas entonces no te queda más que leer
todo lo que a continuación te lo voy explicar.
Conocer realmente como viajan los datos al interior de la PC es de verdad muy
importante, ya que nos permitirá establecer cuál es la función de cada componente
de la computadora y nos ayudara a realizar un diagnóstico acertado de las fallas
que se presenten con la misma.
Mantenimiento de la PC: identificando las fallas de acuerdo a la etapa en que se
manifiesten 2da Parte.

Al leer el siguiente artículo podrás tener una visión más completa de la importancia
de poder identificar las fallas de la computadora de acuerdo a la etapa en que se
presenten, ya que el observar el momento en que se presenta el problema es
fundamental para poder detectarlo y resolverlo de manera efectiva.
En el primer artículo hablamos de la clasificación de las fallas de acuerdo a su
comportamiento, y determinamos que existen fallas que se clasifican como
evidentes, sistemáticas y aleatorias, y profundizamos un poco en cada uno de ellos,
a continuación avanzaremos en esta temática hablando de la importancia de
aprender a establecer la falla de acuerdo a su etapa de manifestación.
Si realmente desea convertirse en un verdadero profesional en el mantenimiento de
la PC, es importante que lea este articulo y aprenda a identificar las fallas del
computador de acuerdo al momento en que se presenta, de esta manera será
mucho más preciso en el proceso de diagnóstico y por consecuencia más efectivo
a la hora de resolver el problema.
Aunque no existe una receta mágica que me permita establecer exactamente cuál
es la falla de la PC, si existen procesos que me ayudan a detectar con mayor
precisión el momento de la falla y establecer su causa, esto es lo que vamos a tratar
en este artículo.
Mantenimiento de la PC: ¡Profesional o amateur!

Al finalizar el presente artículo podrás comprender la importancia de convertirnos


en verdaderos profesionales al momento de desarrollar las actividades propias del
mantenimiento de computadoras, o por el contrario lo que significa el no hacerlo, y
continuar trabajando como simples amateurs o aficionados en el mundo del
mantenimiento de la PC.
Cuando desarrollamos una actividad cualquiera en la vida, debemos contar con
ciertos principios de trabajo, que nos permitan ir siempre un paso más allá, y
podamos ser mucho más eficientes en nuestro trabajo.
Mantenimiento de la PC: Detección metódica de fallas en la PC

Si aprendes y aplicas lo que te voy a enseñar vas a ser un verdadero profesional


en el mantenimiento de computadoras, mi experiencia y los diferentes soportes
bibliográficos sobre este tema, demuestran que debemos regirnos por un principio
fundamental que es demostrar en cada uno de nuestros trabajos que no estamos
improvisando, para lograr este objetivo debemos de conocer y aplicar una
metodología de trabajo que nos permita realizar el diagnostico y reparación de las
fallas de manera rápida y efectiva, como un verdadero profesional.
En mis inicios cuando no tenia la experiencia que ahora tengo, trabajaba de manera
desordenada y no utilizaba ninguna metodología que me permitiera resolver los
diferentes problemas que se me presentaban con las computadoras, ahora que
aplico esta metodología soy mucho mas eficiente y efectivo en mis actividades.
Cada computadora es una unidad cuyo comportamiento depende de múltiples
variables, de tal manera que es importante establecer una metodología y un orden
de trabajo en cada computadora que vayamos a reparar.
Mantenimiento de la PC: Explorando un sistema de computo 2da parte

Hola amigos, continuamos con este maravilloso tema: Mantenimiento de la PC o


computadora personal, como lo mencione anteriormente para hablar de
mantenimiento de una computadora, primero tenemos que conocer cuales son sus
principales componentes y como es en terminos generales su funcionamiento,
bueno eso es lo que estamos haciendo, en los articulos anteriores iniciamos este
tema tocando aspectos generales sobre lo que es un sistema de computo y sus
principales componentes.
Continuamos ahora hablando de los componentes de la computadora, y uno muy
importante que es la tarjeta principal o mainboard, y es importantisimo para
cualquier persona que quiera conocer sobre aspectos relacionados con el
mantenimiento de la PC, tener muy claro que es la tarjeta principal y conocer su
funcionamiento.

Tarjeta Principal:
En terminos generales podemos decir que la tarjeta principàl es un tablero de
circuitos impresos en el cual están montados los diferentes componentes
electrónicos y los conectores sobre los cuales se realiza el flujo y el proceso de la
información.
Mantenimiento de la PC: Explorando un sistema de computo 1ra parte

Antes de hablar del mantenimiento de la C, es necesario iniciar a conocer un poco


los componentes que la integran, de esta manera sera mucho mas facil poder
detectar cualquier problema que se presente con la computadora.
Es por esto que inicio una serie de articulos en donde aprenderas a identificar cuales
son los principales componentes de una PC o computadora, en donde poco a poco
iras adquiriendo los conocimientos basicos sobre los diferentes componentes de
una computadora , para poder mas adelante adentrarnos en temas mas especificos
que tienen que ver con el mantenimiento preventivo y correctivo de una pc o
computadora personal.
Inicio realizando la siguiente pregunta ¿que es un sistema de computo?: Un sistema
de computo es un conjunto de elementos electrónicos que interactúan entre si
(Hardware) para procesar y almacenar información de acuerdo a una serie de
instrucciones (Software).
Entonces definamos Hardware: El hardware se refiere a los componentes físicos de
un sistema informático. La función de estos componentes suele dividirse en tres
categorías principales: entrada, salida y almacenamiento, mas adelante
profundizaremos mas en este tema.
Definamos Software: Es el conjunto de instrucciones que un computador emplea
para manipular datos: por ejemplo, un procesador de textos como el word.
LIMPIEZA
MANTENIMIENTO DEL PC

Se puede definir Mantenimiento del PC como una serie de rutinas periódicas que
debemos realizar a la PC, necesarias para que la computadora ofrezca un
rendimiento óptimo y eficaz a la hora de su funcionamiento. De esta forma podemos
prevenir o detectar cualquier falla que pueda presentar el computador.

RAZONES PARA HACER UN MANTENIMIENTO AL PC: Las computadoras


funcionan muy bien y están protegidas cuando reciben mantenimiento. Si no se
limpian y se organizan con frecuencia, el disco duro se llena de información, el
sistema de archivos se desordena y el rendimiento general disminuye.
Si no se realiza periódicamente un escaneo del disco duro para corregir posibles
errores o fallas, una limpieza de archivos y la desfragmentación del disco duro, la
información estará más desprotegida y será más difícil de recuperar.
El mantenimiento que se debe hacer, se puede resumir en tres aspectos básicos
importantes, los cuales son:

• DIAGNOSTICO: La computadora trabaja más de lo que normalmente se cree.


Está constantemente dando prioridad a las tareas, ejecutando órdenes y
distribuyendo la memoria.
Sin embargo, con el tiempo ocurren errores en el disco duro, los datos se
desorganizan y las referencias se vuelven obsoletas.
Estos pequeños problemas se acumulan y ponen lento el sistema operativo, las
fallas del sistema y software ocurren con más frecuencia y las operaciones de
encendido y apagado se demoran más.
Para que el sistema funcione adecuadamente e incluso para que sobre todo no se
ponga tan lento, se debe realizar un mantenimiento periódico.

• LIMPIEZA: Para garantizar un rendimiento optimo y eficaz de la computadora,


debemos mantenerla limpia y bien organizada.Debemos eliminar los programas
antiguos, programas que no utilicemos y las unidades de disco para liberar la
memoria y reducir la posibilidad de conflicto del sistema.
Un disco duro puede presentar diversas deficiencias, que casi siempre se pueden
corregir estas son:

• Poco espacio disponible.


• Espacio ocupado por archivos innecesarios.
• Alto porcentaje de fragmentación.
Se debe eliminar los archivos antiguos y temporales. Además, entre más pocos
archivos innecesarios tenga la computadora, estará más protegida de amenazas
como el hurto de la identidad en Internet.
Cuando el espacio libre de un disco se acerca peligrosamente a cero, la PC entra
en una fase de funcionamiento errático: se torna excesivamente lenta, emite
mensajes de error (que en ocasiones no especifican la causa), algunas
aplicaciones no se inician, o se cierran después de abiertas, etc.
Como factor de seguridad aceptable, el espacio vacío de un disco duro no debe
bajar del 10% de su capacidad total, y cuando se llega a este límite deben
borrarse archivos innecesarios, o desinstalar aplicaciones que no se usen, o
comprimir archivos.
Todas las aplicaciones de Windows generan archivos temporales.
Estos archivos se reconocen por la extensión .tmp y generalmente existe uno o
varios directorios donde se alojan.
En condiciones normales, las aplicaciones que abren archivos temporales deben
eliminarlos cuando la aplicación concluye, pero esto a veces no sucede cuando se
concluye en condiciones anormales, o Windows "se cuelga" o por una deficiente
programación de la aplicación.
Estos archivos temporales deben borrarse del disco duro.
Existen otro tipo de archivos que pueden borrarse, y no son temporales: la
papelera de reciclaje, el caché de Internet (windowstemporary internet files) y
algunas carpetas que permanecen el disco después que se baja o se instala un
programa.
El caché de Internet debe borrarse si resulta estrictamente necesario, ya que
después de borrado no podrán verse las páginas visitadas sin estar conectado.
Debe hacerse mediante la función explícita del navegador, y además ajustarse el
tamaño del caché.
Un usuario experimentado puede intentar otras posibilidades, como por ejemplo
eliminar DLL duplicadas, instaladores, datos de aplicaciones desinstaladas, etc.
Debe obrar con mucho cuidado cuando haga esta "limpieza profunda" y si no hay
plena seguridad de que un archivo en cuestión puede ser borrado, no debe
eliminarlo de la papelera de reciclaje hasta comprobarlo, pudiendo reponerse a su
ubicación original si resultara necesario.

En general lo que se debe realizar son estas labores:

• Eliminar los programas antiguos y archivos temporales.


• Eliminar la información obsoleta
• Asegurarnos de guardar de manera segura la información.
• Eliminar las entradas de registro inválidas y los accesos directos dañados.

DESFRAGMENTACIÓN

De todos los componentes de una PC, el disco duro es el más sensible y el que
más requiere un cuidadoso mantenimiento.
La detección precoz de fallas puede evitar a tiempo un desastre con pérdida
parcial o total de información (aunque este evento no siempre puede detectarse
con anticipación).
Alto porcentaje de fragmentación: Durante el uso de una PC existe un
ininterrumpido proceso de borrado de archivos e instalación de otros nuevos.
Estos se instalan a partir del primer espacio disponible en el disco y si no cabe se
fracciona, continuando en el próximo espacio vacío.
Un índice bajo de fragmentación es tolerable e imperceptible, pero en la medida
que aumenta, la velocidad disminuye en razón del incremento de los tiempos de
acceso al disco ocasionado por la fragmentación, pudiendo hacerse notable.
Todas las versiones de Windows incluyen el desfragmentador de disco.
El proceso de desfragmentación total consume bastante tiempo (en ocasiones
hasta horas), y aunque puede realizarse como tarea de fondo no resulta
conveniente la ejecución simultanea de otro programa mientras se desfragmenta
el disco, debiendo desactivarse también el protector de pantalla.

Limpiar el interior de la PC
Los dos grandes enemigos de las computadoras han sido siempre el polvo y el calor, que
con el paso de los días se acumula sobre los componentes del gabinete, dando como
resultado que el hardware de nuestra PC se desgaste hasta un punto que dejen de funcionar
para siempre.

Por ello es aconsejable mantener nuestra PC en perfectas condiciones de limpieza y


refrigeración, con el fin de alargar la vida útil del equipo.

En cuanto a la refrigeración

No basta sólo con incorporar un buen sistema de ventiladores y disipadores en el interior del
gabinete, sino que además será necesario que elijamos cuidadosamente la ubicación física
que le asignaremos al equipo.

Es fundamental evitar lugares que sean propensos a acumular calor o polvo. Jamás
deberemos colocar nuestro equipo cerca de aparatos que expulsen calor, como lo son las
estufas y los calefactores. Mayor hincapié deberemos hacer durante las temporadas
estivales, períodos en los cuales es recomendable colocar los equipos en ambientes que se
caractericen por poseer una buena y constante ventilación, e incluso si es posible
refrigerados por aire acondicionado.

Lo mismo sucede con el polvo, el cual deberemos evitar en la medida en que sea posible.
En este punto no sólo es importante ubicar el equipo en un entorno libre de polvo, sino
también realizar frecuentemente una limpieza detallada de cada uno de los componentes
de nuestra PC.

Para limpiar nuestro equipo podemos utilizar: líquidos especiales, diseñados


exclusivamente para la higienización de computadoras, y productos de limpieza de
artefactos electrónicos para mantener en perfecto estado el gabinete, monitor, teclado,
mouse y el resto de los periféricos que acompañan nuestra PC.

Lo primero que haremos para comenzar con la limpieza del interior y del exterior de nuestra
computadora es desconectar todos los cables externos que proveen de electricidad a la PC
y sus periféricos.
Para limpiar los componentes que se encuentran dentro del gabinete

Es muy útil utilizar una mini aspiradora para computadoras o bien algún tipo de aparato
soplador, como por ejemplo un secador de pelo que posea la función de expulsar aire frío.
Esta tarea la realizaremos además con un pincel pequeño que utilizaremos como si fuera
una escoba.

Así, limpiaremos todos los componentes que se hallan dentro del gabinete, poniendo mayor
énfasis en el entorno cercano al procesador, a la fuente de energía y a los ventiladores.

En cuanto a los dispositivos de lectura

Tanto para la disquetera como para las lectograbadoras de CD y DVD es aconsejable no


desarmar estos aparatos, ya que puede realizarse una limpieza mediante los discos que
han sido diseñados para ello, que pueden ser adquiridos en cualquier tienda de
computación.

Una vez que hayamos finalizado con la limpieza interior de nuestra PC, debernos revisar
cuidadosamente todos los conectores internos del equipo, para asegurarnos que los cables
estén firmes y que los componentes como tarjeta de video, módulos de memoria y otros se
encuentren conectados de manera correcta.

Productos Necesarios Para Limpiar una Computadora


Antes de comenzar con este artículo, debo hacer una observación muy importante:

Asegurarse antes de empezar a dar mantenimiento y limpieza a cualquier parte del


equipo de computo (Monitor, Gabinete etc.), que estén desconectados de la
corriente eléctrica, con los equipos portátiles (Lap-Tops, Note-Pads, Notebooks,
Netbooks, etc.), asegurarse que también no tengan la batería puesta.

En el caso de las computadoras portátiles no les pasara nada si le quitan la batería,


no se van a desconfigurar ni perderán datos, todos los equipos de la actualidad
vienen con una batería que alimenta la memoria ROM y esta es la que se encarga
de mantener la configuración en su equipo.

Limpieza Interior:

Para hacer la limpieza son necesarios los siguientes Artículos:

Un desarmador Philips ó de cruz (la medida depende del tamaño de los tornillos)

Una aspiradora (de preferencia portátil ó alguna que se pueda regular la fuerza de
succión, y utilizar la succión más baja).
Una Brocha antiestática de 1” ó 2” de acuerdo con su equipo (Esto es para bajar el
polvo y sacarlo con la aspiradora).

Un paño limpio y que no suelte pelusa.

*Una precaución adicional deberán tener una pulsera antiestática, para evitar una
descarga por fricción, en caso de que no la tengan, deberán estar tocando
constantemente la parte metálica del gabinete con esto evitaran cargarse de
energía que dañe su equipo, asegúrense de no estar parados en alfombras,
traer ropa de lana, poliéster, seda ó materiales que generen estática, deben estar
en un lugar plano como una mesa sin nada más que el material necesario para
hacer mantenimiento.

Un Aerosol limpiador de circuitos electrónicos debe traer una manguerita delgada


que se usa como extensión (se las deben de entregar ), los hay de varias marcas
verifiquen que sea Dieléctrico , además que sea removedor de grasa y aceite,
sugiero que compren un bote grande (este liquido sirve para lavar y limpiar la tarjeta
principal, las memorias, el modem externo (si lo tienen), la tarjeta de Red externa
(si la tienen), la Tarjeta de Aceleradora de Gráficos (si la tienen),la tarjeta de Audio
(si la tienen) el ventilador del procesador, una recomendación cuando limpien la
Tarjeta Madre ó Principal, deben de quitar la batería antes de limpiar ó les dará un
error por no encontrar la batería, sucede que el liquido se queda entre el conector y
la batería y no hace contacto, esto se elimina limpiando la base de la batería y la
misma batería con un paño seco y que no suelte pelusa, debo recordar que lo único
que van a hacer es volver a configurar la fecha, hora y zona geográfica, si hicieron
algunos cambios en el BIOS antes de la limpieza, deberán volverlos a poner igual,
para que su equipo funcione como siempre ha funcionado, este liquido también sirve
para limpiar la tarjeta de la fuente de poder y su ventilador, las conexiones USB, las
conexiones del teclado y el ratón, y la conexión de la corriente del gabinete, de
hecho deberán aplicar la solución en toda conexión encontrada en su máquina,
recuerden se hace limpieza total.

Un aerosol lubricante debe de traer una manguerita (en este producto deberán tener
mucho cuidado en su uso, ya que es inflamable y deben de tener cuidado en no
ingerirlo porque es dañino), este producto nos servirá para lubricar los ventiladores
de nuestro equipo después de limpiarlos, esto evita los ruidos raros dentro del
gabinete, en lo personal yo utilizo uno que me da muy buenos resultados, saca la
humedad, afloja las piezas oxidadas , limpia y protege, el nombre del producto es
WD-40, si lo ven se los recomiendo.

Limpieza Exterior:

Paño ó Toallas de papel Industrial (también se puede utilizar Estopa)

Limpiador de Carcasas: existen diferentes tipos de este producto, los hay líquidos ,
en gel y en espuma, general mente vienen con aroma , en lo personal yo utilizo la
espuma con silicón, este producto lo aplicas, lo expandes, lo dejas actuar unos
minutos hasta que se haga liquido para que afloje la mugre, en las carcasa de
plástico las deja con una película de silicón, el producto en Gel es el preferido de
muchas personas viene en un envase de plástico de aproximadamente 500gms, y
viene con un aplicador semi rugoso que sirve para tallar, en este caso la limpieza
es en seco, este producto es indicado para limpiar el Gabinete y sus carcasas, la
carcasa del monitor, la carcasa de las maquinas portátiles, el teclado y el mouse.

*en los mouse que todavía tienen una esfera, esta se deberá de sacar de su lugar
y se deberá lavar con agua y jabón normal y utilizar un cepillo para quitar cualquier
residuo, se debe secar perfectamente bien y montar de nuevo la esfera.

Liquido limpiador de Pantallas: debo hacer una aclaración, nunca se deberá aplicar
este producto, directamente en la pantalla del monitor, para hacer la limpieza se
deberán utilizar dos paños limpios y secos, en uno aplicarán la solución e
inmediatamente después utilizarán el otro para secar, esto se deberá hacer en
tramos pequeños para que quede su pantalla limpia uniformemente, en los equipos
portátiles, existen dos tipos de pantallas, las de cristal y las de material opaco, en
estas deberán tener mucho más cuidado al aplicar el producto, ya que puede pasar
al otro lado de la pantalla y dañarla totalmente, aquí el paño deberán tener la
solución lo menos húmedo posible, si lo hacen con cuidado no tendrán ningún
problema.

Anuncios
PARTES INTERNAS DE LA CPU
DISCO DURO
En inglés hard disk drive) es un dispositivo de almacenamiento no volátil, que
conserva la información aun con la pérdida de energía, que emplea un sistema de
grabación magnética digital; es donde en la mayoría de los casos se encuentra
almacenado el sistema operativo de la computadora

TARJETA MADRE
Es una tarjeta de circuito impreso usada en una computadora personal. Esta es
también conocida como la tarjeta principal

FLOPPY
Un disquete o disco flexible (en inglés floppy disk o diskette) es un medio o soporte
de almacenamiento de datos formado por una pieza circular de material magnético,
fina y flexible (de ahí su denominación) encerrada en una cubierta de plástico
cuadrada o rectangular.
FUENTE DE PODER
Una fuente de alimentación es un circuito que convierte la tensión alterna de la red
industrial en una tensión prácticamente continua
DISIPARADOR DE
CALOR
Son componentes metálicos que utilizan para evitar que algunos elementos
electrónicos como los transistores bipolares, algunos diodos, SCR, TRIACs,
MOSFETS, etc., se calienten demasiado y se dañen.
MEMORIA RAM
Es donde el computador guarda los datos que está utilizando en el momento
presente. El almacenamiento es considerado temporal por que los datos y
programas permanecen en ella
mientras que la computadora este encendida o no sea reiniciada.

La memoria principal o RAM (Random Access Memory, Memoria de Acceso


Aleatorio) es donde el computador guarda los datos que está utilizando en el
momento presente. El almacenamiento es considerado temporal por que los datos
y programas permanecen en ella mientras que la computadora este encendida o no
sea reiniciada.
Se le llama RAM porque es posible acceder a cualquier ubicación de ella aleatoria
y rápidamente
Físicamente, están constituidas por un conjunto de chips o módulos de chips
normalmente conectados a la tarjeta madre. Los chips de memoria son rectángulos
negros que suelen ir soldados en grupos a unas plaquitas con "pines" o contactos:
La diferencia entre la RAM y otros tipos de memoria de almacenamiento, como
los disquetes o los discos duros, es que la RAM es mucho más rápida, y que se
borra al apagar el computador, no como los Disquetes o discos duros en donde
la información permanece grabada.

Tipos de RAM

Hay muchos tipos de memorias DRAM, Fast Page, EDO, SDRAM, etc. Y lo que es
peor, varios nombres. Trataremos estos cuatro, que son los principales, aunque mas
adelante en este Informe encontrará prácticamente todos los demás tipos.

· DRAM: Dinamic-RAM, o RAM DINAMICA, ya que es "la original", y por tanto la más
lenta.

· Usada hasta la época del 386, su velocidad típica es de 80 ó 70 nanosegundos


(ns), tiempo éste que tarda en vaciarse para poder dar entrada a la siguiente serie
de datos. Por ello, es más rápida la de 70 ns que la de 80 ns.

· Físicamente, aparece en forma de DIMMs o de SIMMs, siendo estos últimos de 30


contactos.

· Fast Page (FPM): a veces llamada DRAM (o sólo "RAM"), puesto que evoluciona
directamente de ella, y se usa desde hace tanto que pocas veces se las diferencia.
Algo más rápida, tanto por su estructura (el modo de Página Rápida) como por ser
de 70 ó 60 ns.

· Usada hasta con los primeros Pentium, físicamente aparece como SIMMs de 30 ó
72 contactos (los de 72 en los Pentium y algunos 486).

· EDO: o EDO-RAM, Extended Data Output-RAM. Evoluciona de la Fast Page;


permite empezar a introducir nuevos datos mientras los anteriores están saliendo
(haciendo su Output), lo que la hace algo más rápida (un 5%, más o menos).

· Muy común en los Pentium MMX y AMD K6, con velocidad de 70, 60 ó 50 ns. Se
instala sobre todo en SIMMs de 72 contactos, aunque existe en forma de DIMMs de
168.
· SDRAM: Sincronic-RAM. Funciona de manera sincronizada con la velocidad de
la placa (de 50 a 66 MHz), para lo que debe ser rapidísima, de unos 25 a 10 ns.
Sólo se presenta en forma de DIMMs de 168 contactos; es usada en los Pentium II
de menos de 350 MHz y en los Celeron.

· PC100: o SDRAM de 100 MHz. Memoria SDRAM capaz de funcionar a esos 100
MHz, que utilizan los AMD K6-2, Pentium II a 350 MHz y computadores más
modernos; teóricamente se trata de unas especificaciones mínimas que se deben
cumplir para funcionar correctamente a dicha velocidad, aunque no todas las
memorias vendidas como "de 100 MHz" las cumplen.

· PC133: o SDRAM de 133 MHz. La más moderna (y recomendable).

SIMMs y DIMMs

Se trata de la forma en que se juntan los chips de memoria, del tipo que sean, para
conectarse a la placa base del ordenador. Son unas plaquitas alargadas con
conectores en un extremo; al conjunto se le llama módulo.

El número de conectores depende del bus de datos del microprocesador, que más
que un autobús es la carretera por la que van los datos; el número de carriles de
dicha carretera representaría el número de bits de información que puede manejar
cada vez.

· SIMMs: Single In-line Memory Module, con 30 ó 72 contactos. Los de 30


contactos pueden manejar 8 bits cada vez, por lo que en un 386 ó 486, que tiene un
bus de datos de 32 bits, necesitamos usarlos de 4 en 4 módulos iguales. Miden
unos 8,5 cm (30 c.) ó 10,5 cm (72 c.) y sus zócalos suelen ser de color blanco.

Los SIMMs de 72 contactos, más modernos, manejan 32 bits, por lo que se usan de
1 en 1 en los 486; en los Pentium se haría de 2 en 2 módulos (iguales), porque el
bus de datos de los Pentium es el doble de grande (64 bits).

· DIMMs: más alargados (unos 13 cm), con 168 contactos y en zócalos


generalmente negros; llevan dos muescas para facilitar su correcta colocación.
Pueden manejar 64 bits de una vez, por lo que pueden usarse de 1 en 1 en los
Pentium, K6 y superiores. Existen para voltaje estándar (5 voltios) o reducido (3.3
V).

Y podríamos añadir los módulos SIP, que eran parecidos a los SIMM pero con
frágiles patitas soldadas y que no se usan desde hace bastantes años, o cuando
toda o parte de la memoria viene soldada en la placa (caso de algunos ordenadores
de marca).

Otros tipos de RAM

· BEDO (Burst-EDO): una evolución de la EDO, que envía ciertos datos en


"ráfagas". Poco extendida, compite en prestaciones con la SDRAM.

· Memorias con paridad: consisten en añadir a cualquiera de los tipos anteriores


un chip que realiza una operación con los datos cuando entran en el chip y otra
cuando salen. Si el resultado ha variado, se ha producido un error y los datos ya no
son fiables.
Dicho así, parece una ventaja; sin embargo, el ordenador sólo avisa de que el error
se ha producido, no lo corrige. Es más, estos errores son tan improbables que la
mayor parte de los chips no los sufren jamás aunque estén funcionando durante
años; por ello, hace años que todas las memorias se fabrican sin paridad.

· ECC: memoria con corrección de errores. Puede ser de cualquier tipo, aunque
sobre todo EDO-ECC o SDRAM-ECC. Detecta errores de datos y los corrige; para
aplicaciones realmente críticas. Usada en servidores y mainframes.

· Memorias de Vídeo: para tarjetas gráficas. De menor a mayor rendimiento,


pueden ser: DRAM -> FPM -> EDO -> VRAM -> WRAM -> SDRAM -> SGRAM
RANURA PCI
Estándar local que permite una comunicación más rápida entre la CPU de
unaLa computadora y los componentes periféricos, así acelerando tiempo de la
OPERACION
La memoria principal o RAM (Random Access Memory, Memoria de Acceso
Aleatorio) es donde el computador guarda los datos que está utilizando en el
momento presente. El almacenamiento es considerado temporal por que los datos
y programas permanecen en ella mientras que la computadora este encendida o no
sea reiniciada.
Se le llama RAM por que es posible acceder a cualquier ubicación de ella aleatoria
y rápidamente
Físicamente, están constituidas por un conjunto de chips o módulos de chips
normalmente conectados a la tarjeta madre. Los chips de memoria son rectángulos
negros que suelen ir soldados en grupos a unas plaquitas con "pines" o contactos:
La diferencia entre la RAM y otros tipos de memoria de almacenamiento, como
los disquetes o los discos duros, es que la RAM es mucho más rápida, y que se
borra al apagar el computador, no como los Disquetes o discos duros en donde
la información permanece grabada.

Tipos de RAM

Hay muchos tipos de memorias DRAM, Fast Page, EDO, SDRAM, etc. Y lo que es
peor, varios nombres. Trataremos estos cuatro, que son los principales, aunque mas
adelante en este Informe encontrará prácticamente todos los demás tipos.

· DRAM: Dinamic-RAM, o RAM DINAMICA, ya que es "la original", y por tanto la más
lenta.

· Usada hasta la época del 386, su velocidad típica es de 80 ó 70 nanosegundos


(ns), tiempo éste que tarda en vaciarse para poder dar entrada a la siguiente serie
de datos. Por ello, es más rápida la de 70 ns que la de 80 ns.

· Físicamente, aparece en forma de DIMMs o de SIMMs, siendo estos últimos de 30


contactos.

· Fast Page (FPM): a veces llamada DRAM (o sólo "RAM"), puesto que evoluciona
directamente de ella, y se usa desde hace tanto que pocas veces se las diferencia.
Algo más rápida, tanto por su estructura (el modo de Página Rápida) como por ser
de 70 ó 60 ns.

· Usada hasta con los primeros Pentium, físicamente aparece como SIMMs de 30 ó
72 contactos (los de 72 en los Pentium y algunos 486).

· EDO: o EDO-RAM, Extended Data Output-RAM. Evoluciona de la Fast Page;


permite empezar a introducir nuevos datos mientras los anteriores están saliendo
(haciendo su Output), lo que la hace algo más rápida (un 5%, más o menos).

· Muy común en los Pentium MMX y AMD K6, con velocidad de 70, 60 ó 50 ns. Se
instala sobre todo en SIMMs de 72 contactos, aunque existe en forma de DIMMs de
168.

· SDRAM: Sincronic-RAM. Funciona de manera sincronizada con la velocidad de la


placa (de 50 a 66 MHz), para lo que debe ser rapidísima, de unos 25 a 10 ns. Sólo
se presenta en forma de DIMMs de 168 contactos; es usada en los Pentium II de
menos de 350 MHz y en los Celeron.
· PC100: o SDRAM de 100 MHz. Memoria SDRAM capaz de funcionar a esos 100
MHz, que utilizan los AMD K6-2, Pentium II a 350 MHz y computadores más
modernos; teóricamente se trata de unas especificaciones mínimas que se deben
cumplir para funcionar correctamente a dicha velocidad, aunque no todas las
memorias vendidas como "de 100 MHz" las cumplen.

MI CPU
FUENTE DE PODER

Es la encargada de suministrar energía a todos los dispositivos internos de la


computadora.

MEMORIA ROM

Es un medio de almacenamiento utilizado en ordenadores y dispositivos


electrónicos que permite sólo la lectura de la información y no su escritura.

CABLE BUS DE DATOS


Es un dispositivo mediante el cual al interior de una computadora se transportan
datos e información.

UNIDAD DE CD - DVD
Es un soporte digital óptico utilizado para almacenar cualquier tipo de información
(audio, imágenes, video y documentos).

PROCESADOR

Es el cerebro del computador, parte que piensa y coordina todas las órdenes que
recibe el equipo para después procesarlas y llevarlas a cabo.

Potrebbero piacerti anche