Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Historia de la computadora
Originalmente el término "computadora personal" apareció en un artículo del New
York Times el 31 de enero de 1978 informando de la visión de John W.
Mauchlysobre el futuro de la computación, según lo detallado en una reciente
reunión del American Institute of Industrial Engineers. Mauchly indicó, «No hay
razón para suponer que un chico o chica promedio, no pueda ser dueño de una
computadora personal».1
Seis años más tarde un fabricante tomó el riesgo de referirse a su producto de esta
manera, cuando Hewlett-Packard hizo publicidad de sus "Powerful Computing
Genie" como "La nueva computadora personal Hewlett-Packard 9100A".2 Este
anuncio fue juzgado como demasiado radical para la audiencia a la que iba
destinado, y fue reemplazado por un anuncio mucho más sobrio para la calculadora
programable HP 9100A.34
Durante los siguientes siete años la expresión había ganado suficiente
reconocimiento, por lo que cuando la revista Byte publicó su primera edición, se
refirió a sus lectores como "en el campo de la computación personal", 5 y Creative
Computing definió la computadora personal como un "sistema no-compartido (es
decir, que no era de tiempo compartido, como los grandes equipos de la época),
que cuenta con suficiente potencia de procesamiento, y capacidades de
almacenamiento para satisfacer las necesidades de un usuario individual". 6 Dos
años más tarde, ocurrió lo que la revista Byte llamó la "Trinidad de 1977" de las
pequeñas computadoras pre-ensambladas que llegaron al mercado:7 el Apple II y
el PET 2001, que fueron promocionados como computadoras personales, 89
mientras que el TRS-80 era descrito como un microcomputador usado para las
tareas del hogar incluyendo la "gestión financiera personal". En 1979 fueron
vendidos más de medio millón de microcomputadoras y los jóvenes de esos días
tuvieron un nuevo concepto de la computadora personal.
Mainframes, minicomputadoras, y microcomputadoras.
Antes del advenimiento del computadora personal, Los computadora fueron usados
para acceso en tiempo compartido de las computadoras centrales (mainframes)
Antes de la introducción del microprocesador a principios de los años 1970, las
computadoras generalmente eran sistemas grandes y costosos cuyos dueños eran
grandes corporaciones, universidades, agencias gubernamentales, e instituciones
de tamaño similar. Los usuarios finales generalmente no interactuaban
directamente con la máquina, sino que preparaban tareas para el computador, en
equipos fuera de línea como perforadoras de tarjetas. Varias asignaciones para la
computadora serían recogidas y procesadas en proceso por lotes. Después de que
el trabajo hubiera terminado, los usuarios podían recoger los resultados. En algunos
casos podría tardar horas o días entre someter un trabajo al centro de computación
y la recepción de la salida, para una mejor calidad.
Una forma más interactiva de uso de la computadora se desarrolló comercialmente
por mediados de los años 1960. En un sistema de tiempo compartido, múltiples
terminales permitieron a mucha gente compartir el uso de un procesador de
computadora mainframe. Esto era común en aplicaciones empresariales y en
ciencia e ingeniería.
Un modelo diferente del uso de la computadora fue presagiado en la manera en que
fueron usadas las tempranas computadoras experimentales pre comerciales, donde
un usuario tenía uso exclusivo de un procesador. En lugares como el MIT, los
estudiantes con acceso a algunos de las primeras computadoras experimentaron
con aplicaciones que hoy serían típicas de una computadora personal, por ejemplo,
el diseño asistido por computadora fue previsto por el T-square, un programa
escrito en 1961, y un ancestro de los juegos de computadora de hoy se encontró en
el Spacewar! De 1962. Algunos de las primeras computadoras que pudieron
haberse llamados "personales" eran minicomputadores tempranos tales como
el LINC y el PDP-8, y posteriormente el VAX, y minicomputadoras más grandes
de Digital Equipment Corporation (DEC), Data General, Prime Computer, y otros.
Para los estándares de hoy, eran muy grandes (alrededor del tamaño de un
refrigerador) y de costo prohibitivo (típicamente decenas de miles de dólares), y por
lo tanto raramente fueron comprados por individuos. Sin embargo, eran mucho más
pequeños, menos costosos, y generalmente más simples de operar que muchos de
las computadoras mainframes de ese tiempo, por lo tanto eran asequibles por
laboratorios individuales y proyectos de investigación. Las minicomputadoras
liberaron en gran parte, a estas organizaciones, del procesamiento por lotes, y de
la burocracia de un centro de computación comercial o universitario.
Además, las minicomputadoras eran relativamente más interactivos que las
unidades centrales, y pronto tendrían sus propios sistemas operativos. El
minicomputador Xerox Alto (1973) fue un hito en el desarrollo de las computadoras
personales, debido a su interfaz gráfica de usuario, pantalla de mapa de bits de alta
resolución, gran almacenamiento de memoria interno y externo, ratón, y software
especial.12
Ya en 1945, Vannevar Bush, en un ensayo llamado As We May Think (Como
podemos pensar, en idioma español), esbozó una posible solución al creciente
problema del almacenamiento y la recuperación de información. En lo que fue
llamado más tarde como The Mother of All Demos (La Madre de todas las
demostraciones, en idioma español), el investigador Douglas Engelbart del SRI dio
en 1968 un adelanto de lo que se convertiría en los elementos básicos de la vida
laboral diaria en el siglo XXI (correo electrónico, hipertexto, procesamiento de
palabras, video conferencia, y el ratón). La demostración era la culminación de la
investigación en el laboratorio Augmentation Research Center de Engelbart, que se
concentró en la aplicación de la tecnología de computación para facilitar el
pensamiento humano creativo.
El microprocesador y la reducción de costos.
Los minicomputadores, ancestros de la moderna computadora personal, usaron
una temprana tecnología de circuitos integrados (microchip), que redujo el tamaño
y el costo, pero no contenía al microprocesador en un chip. Esto significaba que
todavía eran grandes y difíciles de fabricar justo como sus predecesores los
mainframes. Después de que la "computadora en un chip" fuera comercializada, el
costo para manufacturar un sistema de computación cayó dramáticamente. La
aritmética, lógica, y funciones de control, que previamente ocuparon varias costosas
placas de circuitos impresos ahora estaban disponibles en un solo circuito
integrado, haciendo posible producirlos en grandes volúmenes. Concurrentemente,
los avances en el desarrollo de la memoria de estado sólido eliminaron la abultada,
costosa y hambrienta de energía memoria de núcleo magnético usada en previas
generaciones de computadoras.
Había algunos investigadores en lugares tales como SRI y Xerox PARC que
estaban trabajando en computadoras que una sola persona pudiera usar y pudieran
ser conectados por redes rápidas y versátiles: no computadores caseros,
sino computadoras personales.
El Intel 4004, el primer microprocesador
Historia
Ejemplo de código fuente escrito en lenguaje Pauscal
Para crear un programa, y que la computadora lo interprete y ejecute las
instrucciones escritas en él, debe escribirse en un lenguaje de programación. En
sus inicios las computadoras interpretaban solo instrucciones en un lenguaje
específico, del más bajo nivel, conocido como código máquina, siendo éste
excesivamente complicado para programar. De hecho solo consiste en cadenas de
números 1 y 0 (sistema binario). Para facilitar el trabajo de programación, los
primeros científicos, que trabajaban en el área, decidieron reemplazar las
instrucciones, secuencias de unos y ceros, por palabras o abreviaturas provenientes
del inglés; las codificaron y crearon así un lenguaje de mayor nivel, que se conoce
como Assembly o lenguaje ensamblador. Por ejemplo, para sumar se podría usar
la letra A de la palabra inglesa add (sumar). En realidad escribir en lenguaje
ensamblador es básicamente lo mismo que hacerlo en lenguaje máquina, pero las
letras y palabras son bastante más fáciles de recordar y entender que secuencias
de números binarios. A medida que la complejidad de las tareas que realizaban las
computadoras aumentaba, se hizo necesario disponer de un método sencillo para
programar. Entonces, se crearon los lenguajes de alto nivel. Mientras que una tarea
tan trivial como multiplicar dos números puede necesitar un conjunto de
instrucciones en lenguaje ensamblador, en un lenguaje de alto nivel bastará con
solo una. Una vez que se termina de escribir un programa, sea en ensamblador o
en algunos lenguajes de alto nivel, es necesario compilarlo, es decir, traducirlo
completo a lenguaje máquina.1 Eventualmente será necesaria otra fase denominada
comúnmente link o enlace, durante la cual se anexan al código, generado durante
la compilación, los recursos necesarios de alguna biblioteca. En algunos lenguajes
de programación, puede no ser requerido el proceso de compilación y enlace, ya
que pueden trabajar en modo intérprete. Esta modalidad de trabajo es equivalente
pero se realiza instrucción por instrucción, a medida que es ejecutado el programa.
Léxico y programación
La programación se rige por reglas y un conjunto más o menos reducido de órdenes,
expresiones, instrucciones y comandos que tienden a asemejarse a una lengua
natural acotada (en inglés); y que además tienen la particularidad de una reducida
ambigüedad. Cuanto menos ambiguo es un lenguaje de programación, se dice, es
más potente. Bajo esta premisa, y en el extremo, el lenguaje más potente existente
es el binario, con ambigüedad nula (lo cual lleva a pensar así del lenguaje
ensamblador).[cita requerida]
En los lenguajes de programación de alto nivel se distinguen diversos elementos
entre los que se incluyen el léxico propio del lenguaje y las reglas semánticas y
sintácticas.
Programas y algoritmos
Un algoritmo es una secuencia no ambigua, finita y ordenada de instrucciones que
han de seguirse para resolver un problema. Un programa normalmente implementa
(traduce a un lenguaje de programación concreto) uno o más algoritmos. Un
algoritmo puede expresarse de distintas maneras: en forma gráfica, como
un diagrama de flujo, en forma de código como en pseudocódigo o un lenguaje de
programación, en forma explicativa.
Los programas suelen subdividirse en partes menores, llamadas módulos, de modo
que la complejidad algorítmica de cada una de las partes sea menor que la del
programa completo, lo cual ayuda al desarrollo del programa. Esta es una práctica
muy utilizada y se conoce como "refino progresivo".
Según Niklaus Wirth, un programa está formado por los algoritmos y la estructura
de datos.
La programación puede seguir muchos enfoques, o paradigmas, es decir, diversas
maneras de formular la resolución de un problema dado. Algunos de los principales
paradigmas de la programación son:
Programación declarativa
Programación estructurada
Programación modular
Programación orientada a objetos
Copilacion
El programa escrito en un lenguaje de programación de alto nivel (fácilmente
comprensible por el programador) es llamado programa fuente y no se puede
ejecutar directamente en una computadora. La opción más común es compilar el
programa obteniendo un módulo objeto, aunque también puede ejecutarse en forma
más directa a través de un intérprete informático.
El código fuente del programa se debe someter a un proceso de traducción para
convertirlo a lenguaje máquina o bien a un código intermedio, generando así un
módulo denominado "objeto". A este proceso se le llama compilación.
Habitualmente la creación de un programa ejecutable (un típico.exe para Microsoft
Windows o DOS) conlleva dos pasos. El primer paso se llama compilación
(propiamente dicho) y traduce el código fuente escrito en un lenguaje de
programación almacenado en un archivo de texto a código en bajo nivel
(normalmente en código objeto, no directamente a lenguaje máquina). El segundo
paso se llama enlazado en el cual se enlaza el código de bajo nivel generado de
todos los ficheros y subprogramas que se han mandado compilar y se añade el
código de las funciones que hay en las bibliotecas del compilador para que el
ejecutable pueda comunicarse directamente con el sistema operativo, traduciendo
así finalmente el código objeto a código máquina, y generando un módulo
ejecutable.
Estos dos pasos se pueden hacer por separado, almacenando el resultado de la
fase de compilación en archivos objetos (un típico .o para Unix, .obj para MS-
Windows, DOS); para enlazarlos en fases posteriores, o crear directamente el
ejecutable; con lo que la fase de compilación puede almacenarse solo de forma
temporal. Un programa podría tener partes escritas en varios lenguajes, por
ejemplo, Java, C, C++ y ensamblador, que se podrían compilar de forma
independiente y luego enlazar juntas para formar un único módulo ejecutable.
Claridad. Es muy importante que el programa sea lo más claro y legible posible,
para facilitar tanto su desarrollo como su posterior mantenimiento. Al elaborar
un programa se debe intentar que su estructura sea sencilla y coherente, así
como cuidar el estilo de programación. De esta forma se ve facilitado el trabajo
del programador, tanto en la fase de creación como en las fases posteriores de
corrección de errores, ampliaciones, modificaciones, etc. Fases que pueden ser
realizadas incluso por otro programador, con lo cual la claridad es aún más
necesaria para que otros puedan continuar el trabajo fácilmente. Algunos
programadores llegan incluso a utilizar Arte ASCII para delimitar secciones de
código; una práctica común es realizar aclaraciones en el código fuente
utilizando líneas de comentarios. Contrariamente, algunos por diversión o para
impedirle un análisis cómodo a otros programadores, recurren al uso de código
ofuscado.
En 1990 el CERN crea el código HTML y con él el primer cliente World Wide Web.
En la imagen el código HTML con sintaxis coloreada.
En el CERN de Ginebra, un grupo de físicos encabezado por Tim Berners-Lee creó
el lenguaje HTML, basado en el SGML.
2006: El 3 de enero, Internet alcanzó los mil cien millones de usuarios. Se prevé
que en diez años, la cantidad de navegantes de la Red aumentará a 2000
millones.29
El primer dato que nos llama la atención es el incremento en el número de usuarios
que utilizan Internet. En estos diez años se ha pasado de 559 millones a 2270
millones de personas que navegan en todo mundo, lo que equivale al 33 % total de
la población, una cifra muy superior al 9,1 % en el 2002.
El resultado de todo esto es lo que experimentamos hoy en día: la transformación
de una enorme red de comunicaciones para uso gubernamental, planificada y
construida con fondos estatales, que ha evolucionado en una miríada de redes
privadas interconectadas entre sí, a la que cualquier persona puede acceder.
Actualmente la red experimenta cada día la integración de nuevas redes y usuarios,
extendiendo su amplitud y dominio, al tiempo que surgen nuevos mercados,
tecnologías, instituciones y empresas que aprovechan este nuevo medio, cuyo
potencial apenas comenzamos a descubrir.30
Una red de computadoras es un conjunto de máquinas que se comunican a través
de algún medio (cable coaxial, fibra óptica, radiofrecuencia, líneas telefónicas, etc.)
con el objeto de compartir recursos.
De esta manera, Internet sirve de enlace entre redes más pequeñas y permite
ampliar su cobertura al hacerlas parte de una "red global". Esta red global tiene la
característica de que utiliza un lenguaje común que garantiza la intercomunicación
de los diferentes participantes; este lenguaje común o protocolo (un protocolo es el
lenguaje que utilizan las computadoras al compartir recursos) se conoce como
TCP/IP.
Así pues, Internet es la "red de redes" que utiliza TCP/IP como su protocolo de
comunicación.
Internet es un acrónimo de INTERconected NETworks (Redes interconectadas). 3132
Para otros, Internet es un acrónimo del inglés INTERnational NET, que traducido al
español sería Red Mundial.
Tecnología de internet
Enrutamiento y capas de servicio
Gráfica del encapsulamiento en paquetes de datos.
Usos modernos
Internet móvil
El Internet moderno permite una mayor flexibilidad en las horas de trabajo y la
ubicación. Con el Internet se puede acceder a casi cualquier lugar, a través de
dispositivos móviles de Internet. Los teléfonos móviles, tarjetas de datos, consolas
de juegos portátiles y routers celulares permiten a los usuarios conectarse a Internet
de forma inalámbrica. Dentro de las limitaciones impuestas por las pantallas
pequeñas y otras instalaciones limitadas de estos dispositivos de bolsillo, los
servicios de Internet, incluyendo correo electrónico y la web, pueden estar
disponibles al público en general. Los proveedores de internet puede restringir los
servicios que ofrece y las cargas de datos móviles puede ser significativamente
mayor que otros métodos de acceso.
Educación distribuida
Se puede encontrar material didáctico a todos los niveles, desde preescolar hasta
post-doctoral está disponible en sitios web. Los ejemplos van desde CBeebies, a
través de la escuela y secundaria guías de revisión, universidades virtuales, al
acceso a la gama alta de literatura académica a través de la talla de Google
Académico. Para la educación a distancia, ayuda con las tareas y otras
asignaciones, el auto-aprendizaje guiado, entreteniendo el tiempo libre, o
simplemente buscar más información sobre un hecho interesante, nunca ha sido
más fácil para la gente a acceder a la información educativa en cualquier nivel,
desde cualquier lugar. El Internet en general es un importante facilitador de la
educación tanto formal como informal.
Trabajo colaborativo y remoto
El bajo costo y el intercambio casi instantáneo de las ideas, conocimientos y
habilidades han hecho el trabajo colaborativo dramáticamente más fácil, con la
ayuda del software de colaboración. De chat, ya sea en forma de una sala de chat
IRC o del canal, a través de un sistema de mensajería instantánea, o un sitio web
de redes sociales, permite a los colegas a mantenerse en contacto de una manera
muy conveniente cuando se trabaja en sus computadoras durante el día. Los
mensajes pueden ser intercambiados de forma más rápida y cómodamente a través
del correo electrónico. Estos sistemas pueden permitir que los archivos que se
intercambian, dibujos e imágenes para ser compartidas, o el contacto de voz y vídeo
entre los miembros del equipo.
Sistemas de gestión de contenido permiten la colaboración a los equipos trabajar
en conjuntos de documentos compartidos al mismo tiempo, sin destruir
accidentalmente el trabajo del otro. Los equipos de negocio y el proyecto pueden
compartir calendarios, así como documentos y otra información. Esta colaboración
se produce en una amplia variedad de áreas, incluyendo la investigación científica,
desarrollo de software, planificación de la conferencia, el activismo político y la
escritura creativa. La colaboración social y político es cada vez más generalizada,
como acceso a Internet y difusión conocimientos de informática.
Internet permite a los usuarios de computadoras acceder remotamente a otros
equipos y almacenes de información fácilmente, donde quiera que estén. Pueden
hacer esto con o sin la seguridad informática, es decir, la autenticación y de cifrado,
dependiendo de los requerimientos. Esto es alentador, nuevas formas de trabajo, la
colaboración y la información en muchas industrias.
Ejemplos
Un contador sentado en su casa puede auditar los libros de una empresa con sede
en otro país. Estas cuentas podrían haber sido creado por trabajo desde casa
tenedores de libros, en otros lugares remotos, con base en la información enviada
por correo electrónico a las oficinas de todo el mundo. Algunas de estas cosas eran
posibles antes del uso generalizado de Internet, pero el costo de líneas privadas
arrendadas se han hecho muchos de ellos no factibles en la práctica. Un empleado
de oficina lejos de su escritorio, tal vez al otro lado del mundo en un viaje de
negocios o de placer, pueden acceder a sus correos electrónicos, acceder a sus
datos usando la computación en nube, o abrir una sesión de escritorio remoto a su
PC de la oficina usando un seguro virtual Private Network (VPN) en Internet. Esto
puede dar al trabajador el acceso completo a todos sus archivos normales y datos,
incluyendo aplicaciones de correo electrónico y otros, mientras que fuera de la
oficina. Este concepto ha sido remitido a los administradores del sistema como la
pesadilla privada virtual, [36], ya que amplía el perímetro de seguridad de una red
corporativa en lugares remotos y las casas de sus empleados.
Impacto social
Sitios de Internet por países.
Internet tiene un impacto profundo en el mundo laboral, el ocio y el conocimiento a
nivel mundial. Gracias a la web, millones de personas tienen acceso fácil e
inmediato a una cantidad extensa y diversa de información en línea. Este
nuevo medio de comunicación logró romper las barreras físicas entre regiones
remotas, sin embargo el idioma continúa siendo una dificultad importante. Si bien
en un principio nació como un medio de comunicación unilateral destinado a
las masas, su evolución en la llamada Web 2.0 permitió la participación de los ahora
emisores-receptores, creándose así variadas y grandes plazas públicas como
puntos de encuentro en el espacio digital.
Comparado a las enciclopedias y a las bibliotecas tradicionales, la web ha permitido
una descentralización repentina y extrema de la información y de los datos. Algunas
compañías e individuos han adoptado el uso de los weblogs, que se utilizan en gran
parte como diarios actualizables, ya en decadencia tras la llegada de
las plataformas sociales. La automatización de las bases de datos y la posibilidad
de convertir cualquier computador en una terminal para acceder a ellas, ha traído
como consecuencia la digitalización de diversos trámites, transacciones bancarias
o consultas de cualquier tipo, ahorrando costos administrativos y tiempo del usuario.
Algunas organizaciones comerciales animan a su personal para incorporar sus
áreas de especialización en sus sitios, con la esperanza de que impresionen a los
visitantes con conocimiento experto e información libre.
Esto también ha permitido la creación de proyectos de colaboración mundial en la
creación de software libre y de código abierto (FOSS), por ejemplo: la Free
Software Foundation con sus herramientas GNU y licencia de contenido libre, el
núcleo de sistema operativo Linux, la Fundación Mozilla con su navegador
web Firefox y su lector de correos Thunderbird, la suite ofimática Apache
OpenOffice y la propia Fundación Wikimedia.
Internet se extendió globalmente, no obstante, de manera desigual. Floreció en gran
parte de los hogares y empresas de países ricos, mientras que países y sectores
desfavorecidos cuentan con baja penetración y velocidad promedio de Internet. La
inequidad del acceso a esta nueva tecnología se le conoce como brecha digital, lo
que repercute menores oportunidades de conocimiento, comunicación y cultura. No
obstante a lo largo de las décadas se observa un crecimiento sostenido tanto en la
penetración y velocidad de Internet, como en su volumen de datos almacenados y
el ancho de banda total usado en el intercambio de información por día,
implementándose gradualmente en todas las naciones.
Filantropía
El voluntariado en línea es la modalidad de voluntariado que se lleva a cabo a través
de Internet. Esta modalidad de voluntariado remoto aumenta la capacidad de las
organizaciones en materia de desarrollo al tiempo que ofrece un espacio para que
mucha gente participe en el desarrollo, algo de lo que, de otro modo, no
disfrutarían41 Uno de los aspectos clave del voluntariado en línea es su poder de
inclusión. Dado que el voluntariado en línea no implica gastos ni viajes, cualquier
persona desde cualquier parte del mundo puede colaborar por la paz y el desarrollo.
Ocio
Muchos utilizan Internet para descargar música, películas y otros trabajos. Hay
fuentes que cobran por su uso y otras gratuitas, usando los servidores centralizados
y distribuidos, las tecnologías de P2P. Otros utilizan la red para tener acceso a las
noticias y el estado del tiempo.
La mensajería instantánea o chat y el correo electrónico son algunos de los
servicios de uso más extendido. En muchas ocasiones los proveedores de dichos
servicios brindan a sus afiliados servicios adicionales como la creación de espacios
y perfiles públicos en donde los internautas tienen la posibilidad de colocar en la red
fotografías y comentarios personales. Se especula actualmente si tales sistemas de
comunicación fomentan o restringen el contacto de persona a persona entre los
seres humanos.
En tiempos más recientes han cobrado auge portales sociales
como YouTube, Twitter o Facebook entre otros, en donde los usuarios pueden
tener acceso a una gran variedad de vídeos sobre prácticamente cualquier tema.
La pornografía representa buena parte del tráfico en Internet, siendo a menudo un
aspecto controvertido de la red por las implicaciones morales que le acompañan.
Proporciona a menudo una fuente significativa del rédito de publicidad para otros
sitios. Muchos gobiernos han procurado sin éxito poner restricciones en el uso de
ambas industrias en Internet.
El sistema multijugador constituye también buena parte del ocio en Internet.
Internet y su evolución
Inicialmente Internet tenía un objetivo claro. Se navegaba en Internet para algo muy
concreto: búsquedas de información, generalmente.
Ahora quizás también, pero sin duda algún hoy es más probable perderse en la red,
debido al inmenso abanico de posibilidades que brinda. Hoy en día, la sensación
que produce Internet es un ruido, una serie de interferencias, una explosión de ideas
distintas, de personas diferentes, de pensamientos distintos de tantas posibilidades
que, en ocasiones, puede resultar excesivo.
El crecimiento o, más bien, la incorporación de tantas personas a la red hacen que
las calles de lo que en principio era una pequeña ciudad llamada Internet se
conviertan en todo un planeta extremadamente conectado entre sí, entre todos sus
miembros.
El hecho de que Internet haya aumentado tanto implica una mayor cantidad de
relaciones virtuales entre personas. Es posible concluir que cuando una persona
tenga una necesidad de conocimiento no escrito en libros, puede recurrir a una
fuente más acorde a su necesidad, ahora esta fuente es posible en Internet.
Como toda gran revolución, Internet augura una nueva era de diferentes métodos
de resolución de problemas creados a partir de soluciones anteriores.
Internet produce algo que todos han sentido alguna vez; produce la esperanza que
es necesaria cuando se quiere conseguir algo. Es un despertar de intenciones que
jamás antes la tecnología había logrado en la población mundial.
Para algunos usuarios, Internet genera una sensación de cercanía, empatía,
comprensión y, a la vez, de confusión, discusión, lucha y conflictos que los mismos
usuarios pueden considerar como la vida misma.
La evolución del internet radica en la migración de la versión y uso del IPv4 a IPv6.
IP es un protocolo que no está orientado a la conexión y no es completamente
seguro en la transmisión de los datos, lo anterior permite que las conexiones
inalámbricas tengan siempre movilidad. Por otro lado, para mejorar la confiabilidad
se usa el protocolo TCP. El protocolo IP, es la forma en la que se enrutan los
paquetes entre las redes. Cada nodo en cada una de las redes tiene una dirección
IP diferente. Para garantizar un enrutamiento correcto, IP agrega su propio
encabezado a los paquetes. Este proceso se apoya en tablas de enrutamiento que
son actualizadas permanentemente. En caso de que el paquete de datos sea
demasiado grande, el protocolo IP lo fragmenta para poderlo transportar. La versión
que se está ocupando de este protocolo es la 4, donde se tiene conectividad, pero
también ciertas restricciones de espacio. Por eso las grandes empresas
proveedoras del servicio de internet migrarán a la versión IPv6.
La nueva versión del protocolo IP Internet Protocol recibe el nombre de IPv6,
aunque es también conocido comúnmente como IPng Internet Protocol Next
Generation. IPv6 ha sido diseñado como un paso evolutivo desde IPv4, por lo que
no representa un cambio radical respecto IPv4. Las características de IPv4 que
trabajan correctamente se han mantenido en el nuevo protocolo, mientras que se
han suprimido aquéllas que no funcionaban bien. De todos modos, los cambios que
se introducen en esta nueva versión son muchos y de gran importancia debido a las
bondades que ofrecen. A principios de 2010, quedaban menos del 10% de IPs sin
asignar. En la semana del 3 de febrero del 2011, la IANA (Agencia Internacional de
Asignación de Números de Internet, por sus siglas en inglés) entregó el último
bloque de direcciones disponibles (33 millones) a la organización encargada de
asignar IPs en Asia, un mercado que está en auge y no tardará en consumirlas
todas. IPv4 posibilita 4, 294,967,296 (232) direcciones de red diferentes, un número
inadecuado para dar una dirección a cada persona del planeta, y mucho menos a
cada vehículo, teléfono, PDA, etcétera. En cambio, IPv6 admite
340.282.366.920.938.463.463.374.607.431.768.211.456 (2128 o 340 sextillones de
direcciones) —cerca de 6,7 × 1017 (670 milbillones) de direcciones por cada
milímetro cuadrado de la superficie de La Tierra. Otra vía para la popularización del
protocolo es la adopción de este por parte de instituciones. El Gobierno de los
Estados Unidos ordenó el despliegue de IPv6 por todas sus agencias federales en
el año 2008.
Efectos de internet en el cerebro
En 2008 el tecnólogo americano Nicholas Carr publicó un artículo en el que
afirmaba que Internet estaba erosionando nuestra capacidad de concentración y de
pensamiento crítico, e incluso aseguraba que la Red cambiaría la estructura de
nuestro cerebro y forma de pensar. Expertos de diversos ámbitos comenzaron a
realizar estudios y a reflexionar sobre la relación entre la Red y nuestras
capacidades cognitivas. Algunos coincidían con Carr, pero otros como Clive
Thompsondescartaban esos argumentos asegurando que siempre que surgía una
nueva tecnología se producía el mismo debate. Estos «tecnooptimistas» afirman
que la Red no solo potencia nuestra agilidad cerebral, sino que además nos permite
aprender más y más rápido, en definitiva, nos está haciendo más
inteligentes.Universo internet: ¿Más superficiales o más listos?
Efectos en las sociedades
Hay un intenso debate sobre el efecto Internet en las sociedades. Por un lado están
los que piensan que Internet, al favorecer el intercambio de información, favorece el
desarrollo de la participación ciudadana y la democratización. Este sería un motivo
de la Agenda de Libertad de Internet (en inglés The Internet Freedom Agenda)
del departamento de estado de los Estados Unidos. 44 Esta creencia es respaldada
por los llamados ciberutópicos, los cuales opinan que Internet es en sí
misma emancipatoria.45 Por otro lado otros, como por ejemplo Evgeny Morozov,
piensan que Internet facilita la vigilancia masiva, la represión política y la expansión
de progaganda nacionalista y extremista.46
Fuente de información
En 2009, un estudio realizado en Estados Unidos, indicó que un 56 % de los 3030
adultos estadounidenses entrevistados en una encuesta en línea manifestó que si
tuviera que escoger una sola fuente de información, elegiría Internet, mientras que
un 21 % preferiría la televisión y tanto los periódicos como la radio sería la opción
de un 10 % de los encuestados. Dicho estudio posiciona a los medios digitales en
una posición privilegiada en cuanto a la búsqueda de información y refleja un
aumento de la credibilidad en dichos medios.4748
Buscadores
Un buscador se define como el sistema informático que indexa archivos
almacenados en servidores web cuando se solicita información sobre algún tema.
Por medio de palabras clave, se realiza la exploración y el buscador muestra una
lista de direcciones con los temas relacionados. Existen diferentes formas de
clasificar los buscadores según el proceso de sondeo que realizan. La clasificación
más frecuente los divide en: índices o directorios temáticos, motores de búsqueda y
metabuscadores.
Los índices o buscadores temáticos son sistemas creados con la finalidad de
diseñar un catálogo por temas, definiendo la clasificación por lo que se puede
considerar que los contenidos ofrecidos en estas páginas tienes ya cierto orden y
calidad.
La función de este tipo de sistemas es presentar algunos de los datos de las páginas
más importantes, desde el punto de vista del tema y no de lo que se contiene. Los
resultados de la búsqueda de esta de estos índices pueden ser muy limitados ya
que los directorios temáticos, las bases de datos de direcciones son muy pequeñas,
además de que puede ser posible que el contenido de las páginas no esté
completamente al día.
Este tipo de buscadores son los de uso más común, basados en aplicaciones
llamadas spiders ("arañas") o robots, que buscan la información con base en las
palabras escritas, haciendo una recopilación sobre el contenido de las páginas y
mostrando como resultado aquellas que contengan la palabra o frase en alguna
parte del texto.
Los metabuscadores son sistemas que localizan información en los motores de
búsqueda más utilizados, realizan un análisis y seleccionan sus propios resultados.
No tienen una base de datos, por lo que no almacenan páginas web y realizan una
búsqueda automática en las bases de datos de otros buscadores, de los cuales
toma un determinado rango de registros con los resultados más relevantes y así
poder tener la información necesaria.
La función de este tipo de sistemas es presentar algunos de los datos de las páginas
más importantes, desde el punto de vista del tema y no de lo que se contiene. Los
resultados de la búsqueda de esta de estos índices pueden ser muy limitados ya
que los directorios temáticos, las bases de datos de direcciones son muy pequeñas,
además de que puede ser posible que el contenido de las páginas no esté
completamente al día.
Trabajo
Con la aparición de Internet y de las conexiones de alta velocidad disponibles al
público, Internet ha alterado de manera significativa la manera de trabajar de
algunas personas al poder hacerlo desde sus respectivos hogares. Internet ha
permitido a estas personas mayor flexibilidad en términos de horarios y de
localización, contrariamente a la jornada laboral tradicional, que suele ocupar la
mañana y parte de la tarde, en la cual los empleados se desplazan al lugar de
trabajo.
Un experto contable asentado en un país puede revisar los libros de una compañía
en otro país, en un servidor situado en un tercer país que sea mantenido
remotamente por los especialistas en un cuarto.
Internet y sobre todo los blogs han dado a los trabajadores un foro en el cual
expresar sus opiniones sobre sus empleos, jefes y compañeros, creando una
cantidad masiva de información y de datos sobre el trabajo que está siendo recogido
actualmente por el colegio de abogados de Harvard.
Internet ha impulsado el fenómeno de la Globalización y junto con la
llamada desmaterialización de la economía ha dado lugar al nacimiento de
una Nueva Economíacaracterizada por la utilización de la red en todos los procesos
de incremento de valor de la empresa.
Internet se ha convertido en el medio más fácilmente medible y de más alto
crecimiento en la historia. Actualmente existen muchas empresas que obtienen
dinero de la publicidad en Internet. Además, existen muchas ventajas que la
publicidad interactiva ofrece tanto para el usuario como para los anunciantes.
Censura
Es extremadamente difícil, si no imposible, establecer control centralizado y global
de Internet. Algunos gobiernos, de naciones tales como Irán, Arabia Saudita, Corea
del Norte, la República Popular de China y Estados Unidos restringen el que
personas de sus países puedan ver ciertos contenidos de Internet, políticos y
religiosos, considerados contrarios a sus criterios. La censura se hace, a veces,
mediante filtros controlados por el gobierno, apoyados en leyes o motivos
culturales, castigando la propagación de estos contenidos. Sin embargo, muchos
usuarios de Internet pueden burlar estos filtros, pues la mayoría del contenido de
Internet está disponible en todo el mundo, sin importar donde se esté, siempre y
cuando se tengan la habilidad y los medios técnicos necesarios. 49
Otra posibilidad, como en el caso de China, es que este tipo de medidas se combine
con la autocensura de las propias empresas proveedoras de servicios de Internet,
serían las empresas equivalentes a Telefónicas (proveedores de servicios de
Internet), para así ajustarse a las demandas del gobierno del país receptor. 50
Sin embargo algunos buscadores como Google, han tomado la decisión de
amenazar al gobierno de China con la retirada de sus servicios en dicho país si no
se abole la censura en Internet. Aunque posteriormente haya negado que tomará
dichas medidas.
Para saltarse cualquier tipo de censura o coerción en el uso de internet, se han
desarrollado múltiples tecnologías y herrramientas. Entre ellas cabe resaltar por un
lado las técnicas y herramientas criptológicas y por otro lado las tecnologías
encuadradas en la llamada Darknet. La Darknet es una colección de redes y
tecnologías que persiguen la consecución de un anonimato total de los
comunicantes, creando de esta forma una zona de total libertad. Aunque
actualmente no se suele considerar que consigan un anonimato total, sin embargo,
sí consiguen una mejora sustancial en la privacidad de los usuarios. Este tipo de
redes se han usado intensamente, por ejemplo, en los sucesos de la Primavera
Árabe y en todo el entramado de wikileaks para la publicación de información
confidencial. Las tecnologías de la Darknet están en fase de perfeccionamiento y
mejora de sus prestaciones.
Para luchar contra la censura en Internet, RSF ha decidido desbloquear nueve sitios
web informativos censurados en once países, es decir, permitirá que se pueda
acceder a ellos desde el territorio en el que actualmente se encuentran prohibidos:
Grani.ru, bloqueado en Rusia; Fregananews, censurado en Kazajistán, Uzbekistán
y Turkmenistán; The Tíbet Post y Mingjing News, prohibidos en China; Dan Lam
Bao, bloqueado en Vietnam; Hablemos Press, censurado en Cuba; Gooya News,
bloqueado en Irán; el Gulf Center for Human Rights, censurado en los Emiratos
Árabes Unidos y en Arabia Saudita, y Bahrain Mirror, prohibido en Baréin y en
Arabia Saudita.
Internet aparece muchas veces en obras de ficción. Puede ser un elemento más de
la trama, algo que se usa de forma habitual tal y como se hace en la vida real.
También hay obras donde Internet se presenta como un medio maligno que permite
a hackers sembrar el caos, alterar registros, como por ejemplo, las películas La
Red, Live Free or Die Hard, etc. Hay otras obras donde aparece como una gran
oportunidad para la libertad de expresión (por ejemplo, la película FAQ: Frequently
Asked Questions).
Tamaño
Páginas
Un estudio del año 2005 usando distintos motores de búsqueda (Google,
MSN, Yahoo! y Ask Jeeves) estimaba que existían 11 500 millones de páginas
Web. Otro estudio del año 2008 estimaba que la cantidad había ascendido a 63 000
millones de páginas web.54
Sin embargo es difícil establecer el tamaño exacto de Internet, ya que este crece
continuamente y no existe una manera fiable de acceder a todo su contenido y, por
consiguiente, de determinar su tamaño. Para estimar esta cantidad se usan las
webs indexadas por los distintos motores de búsqueda, pero este método no abarca
todas las páginas en línea. Utilizando este criterio Internet se puede dividir en:
Si ambas cuentas de correo están en la misma red, como una Intranet de una
empresa o el mismo servidor de correo: en estos casos el mensaje no se envía
de un servidor a otro porque ambos son el mismo. En el primero de los casos ni
siquiera atravesará la red Internet.
Ana podría tener instalado un servidor SMTP en su propio ordenador, de forma
que el paso 1 se haría en su mismo ordenador. De la misma forma, Bea podría
tener su servidor de correo en el propio ordenador.
Una persona puede no usar un cliente de correo electrónico, sino un cliente de
correo con interfaz web. El proceso es casi el mismo, pero se usan
conexiones HTTP para acceder al correo de cada usuario en vez de usar SMTP
o IMAP/POP3.
Normalmente existe más de un servidor de correo (MX) disponible de respaldo,
para que aunque uno falle, se siga pudiendo recibir correo.
En los comienzos de Internet era habitual que los servidores estuvieran
configurados como open relay (relé abierto), es decir, que transmitían mensajes
de cualquier usuario y no solo de remitentes o destinatarios conocidos. Sin
embargo este tipo de funcionamiento ha caído en desuso, ya que facilitaban la
difusión del spam, y de hecho los estándares desaconsejan su uso.
Escritura del mensaje
No se pueden mandar mensajes entre computadores personales o entre dos
terminales de una computadora central. Los mensajes se archivan en un buzón (una
manera rápida de mandar mensajes). Cuando una persona decide escribir un correo
electrónico, su programa (o correo web) le pedirá como mínimo tres cosas:
Campo Date (fecha, y hora, del mensaje) Fecha y hora de cuando se envío del
mensaje. Si el sistema que envía el mensaje tiene la fecha y/u hora equivocadas,
puede generar confusión.
Otros campos, menos importantes son:
Problemas
El principal problema actual es el correo no deseado, que se refiere a la recepción
de correos no solicitados, normalmente de publicidad engañosa, y en grandes
cantidades, promoviendo pornografía y otros productos y servicios de calidad
sospechosa.13
Usualmente los mensajes indican como remitente del correo una dirección falsa.
Por esta razón, es más difícil localizar a los verdaderos remitentes, y no sirve de
nada contestar a los mensajes de correo no deseado: las respuestas serán recibidas
por usuarios que nada tienen que ver con ellos. Por ahora, el servicio de correo
electrónico no puede identificar los mensajes de forma que se pueda discriminar la
verdadera dirección de correo electrónico del remitente, de una falsa. Esta situación
que puede resultar chocante en un primer momento, es semejante por ejemplo a la
que ocurre con el correo postal ordinario: nada impide poner en una carta o postal
una dirección de remitente aleatoria: el correo llegará en cualquier caso. No
obstante, hay tecnologías desarrolladas en esta dirección: por ejemplo el remitente
puede firmar sus mensajes mediante criptografía de clave pública.
Además del correo no deseado, existen otros problemas que afectan a la seguridad
y veracidad de este medio de comunicación:
Open Diary lanzado en octubre de 1998, pronto creció hasta miles de diarios en
línea. Open Diary innovó en los comentarios de los lectores, siendo el primer
blog comunitario donde los lectores podían añadir comentarios a las entradas
de los blogs.
Brad Fitzpatrick comenzó LiveJournal en marzo de 1999.
Andrew Smales creó Pitas.com en julio de 1999 como una alternativa más fácil
para mantener una «página de noticias» en un sitio web, seguido
de Diaryland en septiembre de 1999, centrándose más en la comunidad de
diarios personales.8
Evan Williams y Meg Hourihan (Pyra Labs) lanzaron Blogger.com en agosto de
1999, que posteriormente fue adquirido por Google en febrero de 2003.
El blogging combinaba la página web personal con herramientas para poder
enlazar más fácilmente con otras páginas – en
concreto permalinks, blogrolls y trackbacks. Esto, junto a los motores de búsqueda
de weblogs, permitió a los blogueros llevar un seguimiento de los hilos que les
conectaban con otros usuarios con intereses similares.
2000-2006
Los primeros blogs estadounidenses populares aparecieron en 2001:
AndrewSullivan.com de Andrew Sullivan, Politics1.com de Ron
Gunzburger, Political Wire de Taegan Goddard y MyDD de Jerome Armstrong,
tratando principalmente temas políticos.
En idioma español también aparecieron los primeros blogs en esa época. Los más
destacados fueron en el año 2000 el blog llamado Terremoto.net y en el año 2001
aparecieron Claudia-P.com, donde una adolescente de Madrid explicaba su peculiar
vida personal, y El hombre que comía diccionarios.9
En 2002, el blogging se había convertido en tal fenómeno que comenzaron a
aparecer manuales, centrándose principalmente en la técnica. La importancia de la
comunidad de blogs (y su relación con una sociedad más grande) cobró importancia
rápidamente. Las escuelas de periodismo empezaron a investigar el fenómeno de
los blogs y a establecer diferencias entre el periodismo y el blogging.
En 2002, el amigo de Jerome Armstrong y exsocio Markos Moulitsas
Zúniga comenzó DailyKos. Con picos de hasta un millón de visitas diarias, ese
espacio web se ha convertido en uno de los blogs con más tráfico de Internet.
En el año 2006, se escogió la fecha del 31 de agosto para celebrar en toda la red el
llamado Día internacional del blog. La idea nació de un bloguero (usuario de blog)
israelí llamado Nir Ofir, que propuso que en esta fecha, los blogueros que
desarrollaban bitácoras personales enviaran cinco invitaciones de cinco blogs de
diferentes temáticas a cinco diferentes contactos, para que así los internautas dieran
difusión a blogs que seguramente otras personas desconocían, y que
eventualmente les pudiera resultar interesantes.10
-Presente
Entre los servidores de blogs más populares se encuentran Blogger y Wordpress.
Los cofundadores de Twitter, Evan Williams y Biz Stone, crearon la plataforma de
escritura Medium.11
Algunos blogueros se han ido trasladando a la televisión y a los medios de
prensa: Duncan Black, Glenn Reynolds (Instapundit), Markos Moulitsas
Zúniga (Daily Kos), Alex Steffen (Worldchanging), Ana Marie Cox (Wonkette), Nate
Silver (FiveThirtyEight.com), Nora Ephron (Huffington Post) y Ezra Klein (que se
integró primeramente al blog American Prospect, después a The Washington Post).
Herramientas para su construcción y mantenimiento
Existen variadas herramientas de mantenimiento de blogs que permiten, muchas de
ellas gratuitamente y sin necesidad de elevados conocimientos técnicos, administrar
todo el weblog, coordinar, borrar o reescribir los artículos, moderar los comentarios
de los lectores, etc., de una forma casi tan sencilla como administrar el correo
electrónico. Actualmente su modo de uso se ha simplificado a tal punto, que casi
cualquier usuario es capaz de crear y administrar un blog personal.
Las herramientas de mantenimiento de weblogs se clasifican, principalmente, en
dos tipos: aquellas que ofrecen una solución completa de alojamiento, gratuita
(como Freewebs, Blogger y LiveJournal), y aquellas soluciones consistentes
en software que, al ser instalado en un sitio web, permiten crear, editar y administrar
un blog directamente en el servidor que aloja el sitio (como es el caso
de WordPress o de Movable Type). Este software es una variante de las
herramientas llamadas Sistemas de Gestión de Contenido (CMS), y muchos son
gratuitos. La mezcla de los dos tipos es la solución planteada por WordPress.
Las herramientas que proporcionan alojamiento gratuito asignan al usuario una
dirección web (por ejemplo, en el caso de Blogger, la dirección asignada termina en
"blogspot.com") y le proveen de una interfaz, a través de la cual se puede añadir y
editar contenido. Obviamente, la funcionalidad de un blog creado con una de estas
herramientas, se limita a lo que pueda ofrecer el proveedor del servicio, o hosting.
Un software que gestione el contenido, en tanto, requiere necesariamente un
servidor propio para ser instalado, del modo en que se hace en un sitio web
tradicional. Su gran ventaja es que permite un control total sobre la funcionalidad
que ofrecerá el blog, posibilitando así adaptarlo totalmente a las necesidades del
sitio, e incluso combinarlo con otros tipos de contenido.
Características diferenciales de un blog
El éxito de los blogs se debe a que tienen una naturaleza muy peculiar que se
caracteriza, sobre todo, por tres propiedades:
Una vez que hemos creado y desarrollado nuestras páginas webs es necesario
alojarlas en un servidor el cuál lo podemos definir como un ordenador conectado
constantemente a la intranet privada o a internet cuyo objetivo es poder disponer
de la página web a cualquier hora del día. Para poder acceder al servidor es
necesario el uso de programas denominados clientes FTP, los cuales conectan
el ordenador personal donde se ha desarrollado la página con el servidor donde
se alojará, Filezilla, FileFTP o Cute FTP son entre otros ejemplos de clientes FTP.
Por último, una vez alojadas nuestras páginas webs estas son accesibles
mediante el uso de navegadores los cuales permiten visualizar correctamente la
información alojada y desarrollada, Chrome, Mozilla, Internet Explorer y Safari
son entre otros ejemplos de navegadores ampliamente utilizados.
Las webs estáticas son aquellas cuya información no varía en un tiempo a medio
o a corto plazo, también se las reconoce puesto que no interactúan con el usuario
o navegante, su lenguaje de programación está basado en HTML y están
compuestas principalmente de textos e imágenes.
Las webs estáticas fueron el primer tipo de páginas que aparecieron durante el
desarrollo y expansión de Internet, su creación y desarrollo es relativamente fácil
al disponer de programas estilos editores de texto que nos permiten programarlas
sin tener conocimiento ninguno sobre HTML, esto es una de las grandes ventajas
que presentan este tipo de páginas. Por otro lado cada vez que se necesite
modificar alguna parte de la web es necesario conectarse al servidor donde está
alojado y subir los documentos modificados, cosa que conlleva tiempo y esfuerzo.
Las webs dinámicas son aquellas que son capaces de interactuar con el usuario
o navegante dado a que están conectadas con bases de datos que permiten el
desarrollo de aplicaciones webs, su principal ventaja es la personalización de la
web en función del usuario así como la rapidez de modificación de los contenidos.
Este tipo de webs están desarrolladas bajo lenguajes de programación como
PHP, ASP, JSP o RUBY, el manejo de dichos lenguajes requiere de ciertos
conocimientos informáticos.
Privadas
Públicas
Las páginas privadas son aquellas que solo pueden acceder un número limitado
de personas que puedan ser identificadas y reconocidas por el sistema de acceso,
mientras que las públicas son accesibles por cualquier persona que disponga de
una conexión a Internet.
Hoy en día dentro de un mismo sitio web existen las 4 clases de páginas descritas
anteriormente, por ejemplo el acceso a nuestra cuenta bancaria es una página
dinámica dado a que el saldo disponible cambia instantáneamente cuando
realizamos una compra, a su vez es una página privada puesto que su acceso
está restringido a las personas que puedan autentificarse mediante claves o
password. Pero dentro de la página web de nuestro banco encontramos páginas
estáticas como direcciones de contacto o información global sobre el sitio como
las políticas de uso, a su vez estas páginas son públicas dado a que se requiere
ningún tipo de autentificación para acceder a ellas.
Ejemplo de una página web.
Una página web, o página electrónica, página digital, o ciberpágina12 es
un documento o información electrónica capaz de contener texto, sonido, vídeo,
programas, enlaces, imágenes, y muchas otras cosas, adaptada para la
llamada World Wide Web (WWW) y que puede ser accedida mediante
un navegador web. Esta información se encuentra generalmente en
formato HTML o XHTML, y puede proporcionar acceso a otras páginas web
mediante enlaces de hipertexto. Frecuentemente también incluyen otros recursos
como pueden ser hojas de estilo en cascada, guiones (scripts), imágenes digitales,
entre otros.
Las páginas web pueden estar almacenadas en un equipo local o en un servidor
web remoto. El servidor web puede restringir el acceso únicamente a redes
privadas, por ejemplo, en una intranet corporativa, o puede publicar las páginas en
la World Wide Web. El acceso a las páginas web es realizado mediante una
transferencia desde servidores, utilizando el protocolo de transferencia de
hipertexto (HTTP).
Características y tipos de páginas
Las páginas web por definición son documentos que pueden contener textos,
imágenes, vídeos y, en resumen, contenidos digitales y/o aplicaciones que pueden
ser visualizados por un usuario web desde un dispositivo remoto a través de
un navegador web. Para ejemplificar lo que que son las páginas web, imaginemos
que queremos escribir un libro, este supuesto libro debe contener una portada
o página inicial, un índice o menú, diferentes capítulos o páginas principales y los
datos del autor o la página de contacto. Así que cuando entro en la página principal
de un sitio web (conjunto de páginas web), es como si fuera la portada de un libro,
desde donde puedo acceder a las páginas principales de sitio web navegando por
el menú.
En términos genéricos, una página web se puede estructurar en varias partes:
Cabecera (header)
Cuerpo (body)
Pié de Página (footer)
Algunas reparaciones básicas pueden ser ejecutadas por nosotros mismos, sin
embargo este no siempre es el caso ya que si no tenemos los conocimientos
necesarios podemos dañar el equipo por completo, en ese caso necesitamos ceder
al técnico el trabajo. En el siguiente bloque encontrará empresas y técnicos que
pueden proveerle servicio de mantenimiento y reparación de computadoras en
Guatemala.
Si lees este artículo aprenderás la verdadera importancia del mantenimiento
preventivo como elemento de gran valor para evitar fallas en la PC, al evitar muchas
de las causas que generan estos daños que afectan nuestros computadores.
Gran parte de los problemas que se presentan en los sistemas de cómputo se
pueden evitar o prevenir si llevamos a cabo un mantenimiento preventivo periódico
de cada uno de los componentes de la PC.
Existen dos grandes enemigos de tu PC que son el calor y la humedad. El exceso
de calor acelera el deterioro de los delicados circuitos de tu equipo. Las causas más
comunes del recalentamiento son el polvo y la suciedad: los conductos de
ventilación y los ventiladores tupidos pueden bloquear la circulación del aire en el
interior de la cubierta, y hasta la capa de polvo más delgada puede elevar la
temperatura de los componentes de tu máquina. Por eso es necesario mantener tu
sistema limpio por dentro y por fuera.
El objetivo principal del mantenimiento preventivo es alargar la vida útil del
computador y evitar posibles fallas en un futuro, y que básicamente consiste en la
limpieza física Interna y Externa del equipo de cómputo.
Deberás de limpiar básicamente los componentes externos y los componentes
internos que se encuentran dentro del gabinete del CPU.
Durante el proceso de reparación de la PC te vas a encontrar con muchas
situaciones, una de ellas puede ser fallas con algún dispositivo y es probable que
no tengas claridad de la manera adecuada de detectar estas fallas de manera
efectiva.
Si prestas atención a lo que te voy a explicar aprenderás el funcionamiento básico
de la BIOS y su gran utilidad como herramienta de diagnostico durante el proceso
de reparación de la PC.
La BIOS es un programa que se carga en la memoria ROM (memoria de solo
lectura) , que en el momento de encender la PC o reiniciar la misma realiza un
chequeo del hardware que se encuentra conectado a la misma.
Durante este proceso realiza realmente un diagnostico al cual comúnmente se le
llama POST o prueba automática de encendido, lo cual entenderás es muy
importante a tener en cuenta cuando se trata de establecer fallas en un proceso
de reparación de la PC.
Durante el proceso de reparación de la PC debemos tener especial atención con
la tarjeta principal es sin duda alguna uno de los principales componentes de una
PC, ya que es allí donde se conectan los diferentes componentes de la
computadora y allí se ubican todos los conectores tanto de alimentación como de
datos, las diferentes ranuras de expansión, puerto y diferentes dispositivos.
Si alguno de estos componentes presenta problemas sin duda alguna todo el
funcionamiento de la computadora se vera afectado, a continuación me permito
explicarte como resolver problemas con la tarjeta principal, específicamente cuando
se presenta problemas con los slots o zócalos donde se insertan los diferentes
componentes como el procesador, la memoria, tarjetas de interface, entre otros.
Si en algún momento tu equipo no quiere arrancar y no sabes cual es la raíz del
problema, te comento que una de esas causas puede ser que se esta presentando
un conflicto con la tarjeta madre, entonces deberás realizar un diagnostico de una
manera ordenada y siguiendo una adecuada metodología, para poder ser efectivo
durante la actividad de reparación de la computadora, dicho procedimiento te lo
explicare a continuación.
Uno de los problemas mas comunes que se presentan con nuestra PC durante el
proceso de reparación de la computadora, es que se presenten fallas con los
controladores de alguno de los dispositivos de nuestro equipo, y tal vez no sepamos
que hacer ante esta situación. Si prestas atención a lo que te voy a explicar
aprenderás a solucionar los problemas que se presentan por fallas con los
controladores durante el proceso de reparación de la pc.
Cuando un driver genera problemas, nuestro sistema operativo no se carga
adecuadamente, se generan mensajes de error y el equipo se reinicia, esto ocurre
porque el sistema busca protegerse y comenzar una instancia anterior a la carga
del controlador defectuoso. Lo ideal entonces es que durante el proceso de reinicio
presionemos la tecla F8 y seleccionemos la opción “volver a la última configuración
que funcionó correctamente”, de esta manera el equipo iniciara correctamente.
(Más…)
El teclado en uno de los dispositivos que cumplen una función muy importante, ya
que es un componente necesario para interactuar con nuestra computadora, por lo
tanto es conveniente que analicemos un poco su funcionamiento y la manera
correcta de resolver los conflictos qie se puedan presentar con el mismo.
Si prestas atención a los que te voy a explicar conocerás la funcionalidad básica
del teclado y aprenderás a solucionar los problemas que se puedan presentar con
el teclado de una manera efectiva.
Un teclado es un conjunto de interruptores que están conectados a un
microprocesador, que vigila su correcto funcionamiento, estos suelen tener cuatro
tipos de teclas:
De escritura
De función
De control
Numéricas
Al leer el siguiente artículo podrás tener una visión más completa de la importancia
de poder identificar las fallas de la computadora de acuerdo a la etapa en que se
presenten, ya que el observar el momento en que se presenta el problema es
fundamental para poder detectarlo y resolverlo de manera efectiva.
En el primer artículo hablamos de la clasificación de las fallas de acuerdo a su
comportamiento, y determinamos que existen fallas que se clasifican como
evidentes, sistemáticas y aleatorias, y profundizamos un poco en cada uno de ellos,
a continuación avanzaremos en esta temática hablando de la importancia de
aprender a establecer la falla de acuerdo a su etapa de manifestación.
Si realmente desea convertirse en un verdadero profesional en el mantenimiento de
la PC, es importante que lea este articulo y aprenda a identificar las fallas del
computador de acuerdo al momento en que se presenta, de esta manera será
mucho más preciso en el proceso de diagnóstico y por consecuencia más efectivo
a la hora de resolver el problema.
Aunque no existe una receta mágica que me permita establecer exactamente cuál
es la falla de la PC, si existen procesos que me ayudan a detectar con mayor
precisión el momento de la falla y establecer su causa, esto es lo que vamos a tratar
en este artículo.
Mantenimiento de la PC: ¡Profesional o amateur!
Tarjeta Principal:
En terminos generales podemos decir que la tarjeta principàl es un tablero de
circuitos impresos en el cual están montados los diferentes componentes
electrónicos y los conectores sobre los cuales se realiza el flujo y el proceso de la
información.
Mantenimiento de la PC: Explorando un sistema de computo 1ra parte
Se puede definir Mantenimiento del PC como una serie de rutinas periódicas que
debemos realizar a la PC, necesarias para que la computadora ofrezca un
rendimiento óptimo y eficaz a la hora de su funcionamiento. De esta forma podemos
prevenir o detectar cualquier falla que pueda presentar el computador.
DESFRAGMENTACIÓN
De todos los componentes de una PC, el disco duro es el más sensible y el que
más requiere un cuidadoso mantenimiento.
La detección precoz de fallas puede evitar a tiempo un desastre con pérdida
parcial o total de información (aunque este evento no siempre puede detectarse
con anticipación).
Alto porcentaje de fragmentación: Durante el uso de una PC existe un
ininterrumpido proceso de borrado de archivos e instalación de otros nuevos.
Estos se instalan a partir del primer espacio disponible en el disco y si no cabe se
fracciona, continuando en el próximo espacio vacío.
Un índice bajo de fragmentación es tolerable e imperceptible, pero en la medida
que aumenta, la velocidad disminuye en razón del incremento de los tiempos de
acceso al disco ocasionado por la fragmentación, pudiendo hacerse notable.
Todas las versiones de Windows incluyen el desfragmentador de disco.
El proceso de desfragmentación total consume bastante tiempo (en ocasiones
hasta horas), y aunque puede realizarse como tarea de fondo no resulta
conveniente la ejecución simultanea de otro programa mientras se desfragmenta
el disco, debiendo desactivarse también el protector de pantalla.
Limpiar el interior de la PC
Los dos grandes enemigos de las computadoras han sido siempre el polvo y el calor, que
con el paso de los días se acumula sobre los componentes del gabinete, dando como
resultado que el hardware de nuestra PC se desgaste hasta un punto que dejen de funcionar
para siempre.
En cuanto a la refrigeración
No basta sólo con incorporar un buen sistema de ventiladores y disipadores en el interior del
gabinete, sino que además será necesario que elijamos cuidadosamente la ubicación física
que le asignaremos al equipo.
Es fundamental evitar lugares que sean propensos a acumular calor o polvo. Jamás
deberemos colocar nuestro equipo cerca de aparatos que expulsen calor, como lo son las
estufas y los calefactores. Mayor hincapié deberemos hacer durante las temporadas
estivales, períodos en los cuales es recomendable colocar los equipos en ambientes que se
caractericen por poseer una buena y constante ventilación, e incluso si es posible
refrigerados por aire acondicionado.
Lo mismo sucede con el polvo, el cual deberemos evitar en la medida en que sea posible.
En este punto no sólo es importante ubicar el equipo en un entorno libre de polvo, sino
también realizar frecuentemente una limpieza detallada de cada uno de los componentes
de nuestra PC.
Lo primero que haremos para comenzar con la limpieza del interior y del exterior de nuestra
computadora es desconectar todos los cables externos que proveen de electricidad a la PC
y sus periféricos.
Para limpiar los componentes que se encuentran dentro del gabinete
Es muy útil utilizar una mini aspiradora para computadoras o bien algún tipo de aparato
soplador, como por ejemplo un secador de pelo que posea la función de expulsar aire frío.
Esta tarea la realizaremos además con un pincel pequeño que utilizaremos como si fuera
una escoba.
Así, limpiaremos todos los componentes que se hallan dentro del gabinete, poniendo mayor
énfasis en el entorno cercano al procesador, a la fuente de energía y a los ventiladores.
Una vez que hayamos finalizado con la limpieza interior de nuestra PC, debernos revisar
cuidadosamente todos los conectores internos del equipo, para asegurarnos que los cables
estén firmes y que los componentes como tarjeta de video, módulos de memoria y otros se
encuentren conectados de manera correcta.
Limpieza Interior:
Un desarmador Philips ó de cruz (la medida depende del tamaño de los tornillos)
Una aspiradora (de preferencia portátil ó alguna que se pueda regular la fuerza de
succión, y utilizar la succión más baja).
Una Brocha antiestática de 1” ó 2” de acuerdo con su equipo (Esto es para bajar el
polvo y sacarlo con la aspiradora).
*Una precaución adicional deberán tener una pulsera antiestática, para evitar una
descarga por fricción, en caso de que no la tengan, deberán estar tocando
constantemente la parte metálica del gabinete con esto evitaran cargarse de
energía que dañe su equipo, asegúrense de no estar parados en alfombras,
traer ropa de lana, poliéster, seda ó materiales que generen estática, deben estar
en un lugar plano como una mesa sin nada más que el material necesario para
hacer mantenimiento.
Un aerosol lubricante debe de traer una manguerita (en este producto deberán tener
mucho cuidado en su uso, ya que es inflamable y deben de tener cuidado en no
ingerirlo porque es dañino), este producto nos servirá para lubricar los ventiladores
de nuestro equipo después de limpiarlos, esto evita los ruidos raros dentro del
gabinete, en lo personal yo utilizo uno que me da muy buenos resultados, saca la
humedad, afloja las piezas oxidadas , limpia y protege, el nombre del producto es
WD-40, si lo ven se los recomiendo.
Limpieza Exterior:
Limpiador de Carcasas: existen diferentes tipos de este producto, los hay líquidos ,
en gel y en espuma, general mente vienen con aroma , en lo personal yo utilizo la
espuma con silicón, este producto lo aplicas, lo expandes, lo dejas actuar unos
minutos hasta que se haga liquido para que afloje la mugre, en las carcasa de
plástico las deja con una película de silicón, el producto en Gel es el preferido de
muchas personas viene en un envase de plástico de aproximadamente 500gms, y
viene con un aplicador semi rugoso que sirve para tallar, en este caso la limpieza
es en seco, este producto es indicado para limpiar el Gabinete y sus carcasas, la
carcasa del monitor, la carcasa de las maquinas portátiles, el teclado y el mouse.
*en los mouse que todavía tienen una esfera, esta se deberá de sacar de su lugar
y se deberá lavar con agua y jabón normal y utilizar un cepillo para quitar cualquier
residuo, se debe secar perfectamente bien y montar de nuevo la esfera.
Liquido limpiador de Pantallas: debo hacer una aclaración, nunca se deberá aplicar
este producto, directamente en la pantalla del monitor, para hacer la limpieza se
deberán utilizar dos paños limpios y secos, en uno aplicarán la solución e
inmediatamente después utilizarán el otro para secar, esto se deberá hacer en
tramos pequeños para que quede su pantalla limpia uniformemente, en los equipos
portátiles, existen dos tipos de pantallas, las de cristal y las de material opaco, en
estas deberán tener mucho más cuidado al aplicar el producto, ya que puede pasar
al otro lado de la pantalla y dañarla totalmente, aquí el paño deberán tener la
solución lo menos húmedo posible, si lo hacen con cuidado no tendrán ningún
problema.
Anuncios
PARTES INTERNAS DE LA CPU
DISCO DURO
En inglés hard disk drive) es un dispositivo de almacenamiento no volátil, que
conserva la información aun con la pérdida de energía, que emplea un sistema de
grabación magnética digital; es donde en la mayoría de los casos se encuentra
almacenado el sistema operativo de la computadora
TARJETA MADRE
Es una tarjeta de circuito impreso usada en una computadora personal. Esta es
también conocida como la tarjeta principal
FLOPPY
Un disquete o disco flexible (en inglés floppy disk o diskette) es un medio o soporte
de almacenamiento de datos formado por una pieza circular de material magnético,
fina y flexible (de ahí su denominación) encerrada en una cubierta de plástico
cuadrada o rectangular.
FUENTE DE PODER
Una fuente de alimentación es un circuito que convierte la tensión alterna de la red
industrial en una tensión prácticamente continua
DISIPARADOR DE
CALOR
Son componentes metálicos que utilizan para evitar que algunos elementos
electrónicos como los transistores bipolares, algunos diodos, SCR, TRIACs,
MOSFETS, etc., se calienten demasiado y se dañen.
MEMORIA RAM
Es donde el computador guarda los datos que está utilizando en el momento
presente. El almacenamiento es considerado temporal por que los datos y
programas permanecen en ella
mientras que la computadora este encendida o no sea reiniciada.
Tipos de RAM
Hay muchos tipos de memorias DRAM, Fast Page, EDO, SDRAM, etc. Y lo que es
peor, varios nombres. Trataremos estos cuatro, que son los principales, aunque mas
adelante en este Informe encontrará prácticamente todos los demás tipos.
· DRAM: Dinamic-RAM, o RAM DINAMICA, ya que es "la original", y por tanto la más
lenta.
· Fast Page (FPM): a veces llamada DRAM (o sólo "RAM"), puesto que evoluciona
directamente de ella, y se usa desde hace tanto que pocas veces se las diferencia.
Algo más rápida, tanto por su estructura (el modo de Página Rápida) como por ser
de 70 ó 60 ns.
· Usada hasta con los primeros Pentium, físicamente aparece como SIMMs de 30 ó
72 contactos (los de 72 en los Pentium y algunos 486).
· Muy común en los Pentium MMX y AMD K6, con velocidad de 70, 60 ó 50 ns. Se
instala sobre todo en SIMMs de 72 contactos, aunque existe en forma de DIMMs de
168.
· SDRAM: Sincronic-RAM. Funciona de manera sincronizada con la velocidad de
la placa (de 50 a 66 MHz), para lo que debe ser rapidísima, de unos 25 a 10 ns.
Sólo se presenta en forma de DIMMs de 168 contactos; es usada en los Pentium II
de menos de 350 MHz y en los Celeron.
· PC100: o SDRAM de 100 MHz. Memoria SDRAM capaz de funcionar a esos 100
MHz, que utilizan los AMD K6-2, Pentium II a 350 MHz y computadores más
modernos; teóricamente se trata de unas especificaciones mínimas que se deben
cumplir para funcionar correctamente a dicha velocidad, aunque no todas las
memorias vendidas como "de 100 MHz" las cumplen.
SIMMs y DIMMs
Se trata de la forma en que se juntan los chips de memoria, del tipo que sean, para
conectarse a la placa base del ordenador. Son unas plaquitas alargadas con
conectores en un extremo; al conjunto se le llama módulo.
El número de conectores depende del bus de datos del microprocesador, que más
que un autobús es la carretera por la que van los datos; el número de carriles de
dicha carretera representaría el número de bits de información que puede manejar
cada vez.
Los SIMMs de 72 contactos, más modernos, manejan 32 bits, por lo que se usan de
1 en 1 en los 486; en los Pentium se haría de 2 en 2 módulos (iguales), porque el
bus de datos de los Pentium es el doble de grande (64 bits).
Y podríamos añadir los módulos SIP, que eran parecidos a los SIMM pero con
frágiles patitas soldadas y que no se usan desde hace bastantes años, o cuando
toda o parte de la memoria viene soldada en la placa (caso de algunos ordenadores
de marca).
· ECC: memoria con corrección de errores. Puede ser de cualquier tipo, aunque
sobre todo EDO-ECC o SDRAM-ECC. Detecta errores de datos y los corrige; para
aplicaciones realmente críticas. Usada en servidores y mainframes.
Tipos de RAM
Hay muchos tipos de memorias DRAM, Fast Page, EDO, SDRAM, etc. Y lo que es
peor, varios nombres. Trataremos estos cuatro, que son los principales, aunque mas
adelante en este Informe encontrará prácticamente todos los demás tipos.
· DRAM: Dinamic-RAM, o RAM DINAMICA, ya que es "la original", y por tanto la más
lenta.
· Fast Page (FPM): a veces llamada DRAM (o sólo "RAM"), puesto que evoluciona
directamente de ella, y se usa desde hace tanto que pocas veces se las diferencia.
Algo más rápida, tanto por su estructura (el modo de Página Rápida) como por ser
de 70 ó 60 ns.
· Usada hasta con los primeros Pentium, físicamente aparece como SIMMs de 30 ó
72 contactos (los de 72 en los Pentium y algunos 486).
· Muy común en los Pentium MMX y AMD K6, con velocidad de 70, 60 ó 50 ns. Se
instala sobre todo en SIMMs de 72 contactos, aunque existe en forma de DIMMs de
168.
MI CPU
FUENTE DE PODER
MEMORIA ROM
UNIDAD DE CD - DVD
Es un soporte digital óptico utilizado para almacenar cualquier tipo de información
(audio, imágenes, video y documentos).
PROCESADOR
Es el cerebro del computador, parte que piensa y coordina todas las órdenes que
recibe el equipo para después procesarlas y llevarlas a cabo.