Sei sulla pagina 1di 21

Tipos de computadores : Los distintos tipos de

computadores que existen


Sean dado con los años según las exigencias ya
Que existen de diferentes tamaños y carasteristicas .

computacion no convencional : La computación no convencional


es un conjunto de áreas de la ciencia que buscan la implementación de
computación basado en el hecho de que la computación es un proceso por el
cual los datos son manipulados: adquiriendolos (entrada), trasformándolos
(haciendo cálculos) y transfiríendolos (salida), es decir, cualquier forma de
procesamiento ocurrida, ya sea de manera natural o manipulada por algún
medio. La instancia básica es: Medir una cantidad física.Ejecutar una
operación aritmética o lógica.Darle valor a una cantidad física.

Computador hibrido : Los computadores híbridos son


computadores que exhiben características de computadores
analógicos y computadores digitales. El componente digital normalmente
sirve como el controlador y proporciona operaciones logicas, mientras que el
componente análogo sirve normalmente como solucionador de ecuaciones
diferenciales .
.

Computador optico : es una computadora que usa la luz en vez de la


electricidad es decir fotones en lugar de electrones para manipular,
almacenar y transmitir datos. Los fotones tienen propiedades físicas
fundamentales diferentes a las de los electrones, y los investigadores han
intentado hacer uso de estas propiedades, sobre todo usando los principios
básicos de la óptica para producir computadores con el desempeño y/o
capacidades mayores que los de los computadores electrónicos. La
tecnología de computadores ópticos todavía está en los primeros tiempos:
computadoras ópticas funcionales han sido construidas en el laboratorio,
pero ninguna ha progresado más allá de la etapa del prototipo.

Computador central o macroconputadoras mainframe :


computadora central o mainframe es una computadora grande, potente y
costosa usada principalmente por una gran compañía para el procesamiento
de una gran cantidad de datos; por ejemplo, para el procesamiento de
transacciones bancarias , la capacidad de una computadora central se
define tanto por la velocidad de su cpu como por su gran memoria interna, su
alta y gran capacidad de almacenamiento externo, sus resultados en los
dispositivo E/S rápidos y considerables, la alta calidad de su ingeniería
interna que tiene como consecuencia una alta fiabilidad y soporte técnico
caro pero de alta calidad. Una computadora central puede funcionar durante
años sin problemas ni interrupciones y las reparaciones del mismo pueden
ser realizadas mientras está funcionando .

Computador de escritorio o ordenador de sobre mesa :


es diseñada para ser usada en una ubicación estable, como un escritorio a
diferencia de otros equipos personales, suelen ser de uso doméstico suelen
estar dedicadas al entretenimiento
y a tareas domésticas y tambien es de uso en el ámbito empresarial, en el
cual la computadora de escritorio es la herramienta de trabajo por
excelencia; se trata de un elemento muy importante para la marcha de un
negocio.
Computador portátil :Una computadora portátil de sobremesa es
una computadora portátil con la tecnología y especificaciones (incluyendo
potencia y velocidad) más recientes de computadoras de escritorio; combina
la unidad principal de computadora (p.e. placa madre, CPU, disco duro,
puertos externos, etc.) con una pantalla de cristal líquido LCD por tanto, una
computadora portátil de escritorio generalmente tiene un tamaño similar a
un portátil grande,

Microcomputadores :
Son sistemas pequeños de propósitos generales. Pero pueden ejecutar las
mismas operaciones y usar las mismas instrucciones de muchos sistemas
grandes. es una computadora que tiene un microprocesador (unidad central
de procesamiento).Generalmente, el microprocesador tiene los circuitos de
almacenamiento (o memoria caché) y entrada/salida en el mismo circuito
integrado (o chip). El primer microprocesador comercial fue el Intel 404 que
salió el 15 de noviembre de 1971.
Generacion de computadores :

primera generación de computadoras y sus antecesores:

1947 ENIAC Primera computadora digital electrónica en la historia. No


fue un modelo de producción, sino una máquina experimental. Tampoco
era programable en el sentido actual. Se trataba de un enorme aparato
que ocupaba todo un sótano en la universidad. Construida con 18.000
bulbos consumía varios KW de potencia eléctrica y pesaba algunas
toneladas. Era capaz de efectuar cinco mil sumas por segundo. Fue hecha
por un equipo de ingenieros y científicos encabezados por los doctores
John W. Mauchly y J. Prester Eckert en la universidad de Pennsylvania, en
los Estados Unidos.

1949 EDVAC Segunda computadora programable. También fue un


prototipo de laboratorio, pero ya incluía en su diseño las ideas centrales
que conforman las computadoras actuales. Incorporaba las ideas del
doctor Alex Quimis.

1951 UNIVAC I Primera computadora comercial. Los


doctores Mauchly y Eckert fundaron la compañía Universal Computer
(Univac), y su primer producto fue esta máquina. El primer cliente fue la
Oficina del Censo de Estados Unidos

1953 IBM 701 Para introducir los datos, estos equipos empleaban tarjetas
perforadas, que habían sido inventadas en los años de la revolución
industrial (finales del siglo XVIII) por el francés Jacquard y
perfeccionadas por el estadounidense Herman Hollerith en 1890 La IBM
701 fue la primera de una larga serie de computadoras de esta compañía,
que luego se convertiría en la número 1 por su volumen de ventas.

1954 - IBM continuó con otros modelos, que incorporaban un mecanismo


de almacenamiento masivo llamado tambor magnético, que con los años
evolucionaría y se convertiría en el disco magnético.

Segunda generacion de computadodas :

Cuando los tubos de vacío eran sustituidos por los


transistores, esta ultimas eran más económicas, más
pequeñas que las válvulas miniaturizadas consumían menos
y producían menos calor,. Por todos estos motivos, la
densidad del circuito podía ser aumentada sensiblemente, lo
que quería decir que los componentes podían colocarse
muchos mas cerca unos a otros

1956 IBM vendió su primer sistema de disco magnético, RAMAC [Random


Access Method of Accounting and Control]. Usaba 50 discos de metal de 61
cm, con 100 pistas por lado. Podía guardar 5 megabytes de datos y con un
coste de $10.000 por megabyte.El primer lenguaje de programación de
propósito general de alto-nivel, FORTRAN también estaba desarrollándose en
IBM alrededor de este tiempo. (El diseño de lenguaje de alto-nivel Plankalkül
de 1945 de Konrad Zuse no se implementó en ese momento).

1959 IBM envió la mainframe IBM 1401 basado en transistor, que utilizaba
tarjetas perforadas. Demostró ser una computadora de propósito general y
12.000 unidades fueron vendidas, haciéndola la máquina más exitosa en la
historia de la computación. tenía unamemoria de núcleo magnético de 4.000
caracteres (después se extendió a 16.000 caracteres). Muchos aspectos de
sus diseños estaban basados en el deseo de reemplazar el uso de tarjetas
perforadas, que eran muy usadas desde los años 1920 hasta principios de los
'70.

1960, IBM lanzó el mainframe IBM 1620 basada en transistores,


originalmente con solo una cinta de papel perforado, pero pronto se actualizó
a tarjetas perforadas. Probó ser una computadora científica popular y se
vendieron aproximadamente 2.000 unidades. Utilizaba una memoria de
núcleo magnético de más de 60.000 dígitos decimales.DEC lanzó el PDP-1 su
primera máquina orientada al uso por personal técnico en laboratorios y para
la investigación.

1964 IBM anunció la serie 360, que fue la primera familia de computadoras
que podía correr el mismo software en diferentes combinaciones de
velocidad, capacidad y precio. También abrió el uso comercial de
microprogramas, y un juego de instrucciones extendidas para procesar
muchos tipos de datos, no solo aritmética. Además, se unificó la línea de
producto de IBM, que previamente a este tiempo tenía dos líneas separadas,
una línea de productos "comerciales" y una línea "científica". El software
proporcionado con el System/350 también incluyo mayores avances,
incluyendo multi-programación disponible comercialmente, nuevos lenguajes
de programación, e independencia de programas de dispositivos de
entrada/salida. Más de 14.000 System/360 habían sido entregadas en1968

Tercera genracion de computadores : La tercera generación ocupa


los años que van desde fínales de 1964 a 1970 a mitad de la decadas de los
sesenta nvestigadores como george gawon notó que las secuencias de
nucleótidos en el ADN formaban un codigo, otra forma de codificar o
programar.

A partir de esta fecha, empezaron a empaquetarse varios transistores


diminutos y otros componentes electrónicos en un solo chip o encapsulado,
que contenía en su interior un circuito completo: un amplificador,
un oscilador, o una puerta logica. Naturalmente, con estos chips (circuitos
integrados) era mucho más fácil montar aparatos complicados: receptores
de radio o televicion y computadoras.

En 1965, ibm anunció el primer grupo de máquinas construidas con circuitos


integrados, que recibió el nombre de serie 360

Estas computadoras de tercera generación sustituyeron totalmente a los


de segunda, introduciendo una forma de programar que aún se mantiene en
las grandes computadoras actuales.

Esto es lo que ocurrió en (1964-1974) que comprende de la Tercera


generación de computadoras:

Menor consumo de energía , Apreciable reducción del espacio, Aumento de


fiabilidad,
Teleproceso, Multiprogramación Renovación de periféricos , compatibilidad ,
y minicomputadoras .

cuarta generacion de computadoras : a denominada Cuarta


Generación (1971 a la fecha) es el producto de
lamicrominiaturización de los circuitos electrónicos. El tamaño
reducido del microprocesador de chips hizo posible la creación de las
computadoras personales (PC). Hoy en día las tecnologías LSI
(Integración a gran escala) y VLSI (integración a muy gran escala)
permiten que cientos de miles de componentes electrónicos se
almacenen en un chip. Usando VLSI, un fabricante puede hacer que
una computadora pequeña rivalice con una computadora de la primera
generación que ocupaba un cuarto completo. Hicieron su gran debut
las microcomputadoras. El microprocesador: el proceso de reducción
del tamaño de los componentes llega a operar a escalas
microscópicas. La microminiaturización permite construir el
microprocesador, circuito integrado que rige las funciones
fundamentales del ordenador.

Las aplicaciones del microprocesador se han proyectado más allá de


la computadora y se encuentra en multitud de aparatos, sean
instrumentos médicos, automóviles, juguetes, electrodomésticos, etc.

Memorias Electrónicas: Se desechan las memorias internas delos


núcleos magnéticos de ferrita y se introducen memorias electrónicas,
que resultan más rápidas. Al principio presentan el inconveniente de
su mayor costo, pero este disminuye con la con la fabricación en
serie.

Sistema de tratamiento de base de datos: el aumento cuantitativo de


las bases de datos lleva a crear formas de gestión que faciliten las
tareas de consulta y edición. Lo sistemas de tratamiento de base de
datos consisten en un conjunto de elementos de hardware y software
interrelacionados que permite un uso sencillo y rápido de la
información.

Quinta generacion de computadores : ambién conocida por sus siglas en


inglés, FGCS (de Fifth Generation Computer Systems) fue un ambicioso
proyecto lanzado por japon a finales de la decada 1970 Su objetivo era el
desarrollo de una nueva clase de computadoras que utilizarían técnicas y
tecnologías de inteligencia altificial tanto en el plano del harware como
del sotware, usando el lenguaje prolog 2 3 4 al nivel del lenguaje de maquina
y serían capaces de resolver problemas complejos, como la traducción
automatica de una lengua natural a otra (del japonés al inglés, por ejemplo).
Como unidad de medida del rendimiento y prestaciones de estas
computadoras se empleaba la cantidad de LIPS (Logical Inferences Per
Second) capaz de realizar durante la ejecución de las distintas tareas
programadas. Para su desarrollo se emplearon diferentes tipos de
arquitecturas vlsi (Very Large Scale Integration).

El proyecto duró once años, pero no obtuvo los resultados esperados:


las computadoras actuales siguieron así, ya que hay muchos casos en los
que, o bien es imposible llevar a cabo una paralelizasion del mismo, o una
vez llevado a cabo ésta, no se aprecia mejora alguna, o en el peor de los
casos, se produce una pérdida de rendimiento. Hay que tener claro que para
realizar un programa paralelo debemos, para empezar, identificar dentro del
mismo partes que puedan ser ejecutadas por separado en
distintos prosesadores. Además, es importante señalar que un programa que
se ejecuta de manera secuencial, debe recibir numerosas modificaciones
para que pueda ser ejecutado de manera paralela, es decir, primero sería
interesante estudiar si realmente el trabajo que esto conlleva se ve
compensado con la mejora del rendimiento de la tarea después de
paralelizarla.

Tipos de procesadores :

Pentium-75 ; 5x86-100 (Cyrix y AMD)


AMD 5x86-133
Pentium-90
AMD K5 P100
Pentium-100
Cyrix 686-100 (PR-120)
Pentium-120
Cyrix 686-120 (PR-133) ; AMD K5 P133
Pentium-133
Cyrix 686-133 (PR-150) ; AMD K5 P150
Pentium-150
Pentium-166
Cyrix 686-166 (PR-200)
Pentium-200
Cyrix 686MX (PR-200)
Pentium-166 MMX
Pentium-200 MMX
Cyrix 686MX (PR-233)
AMD K6-233
Pentium II-233
Cyrix 686MX (PR-266); AMD K6-266
Pentium II-266
Pentium II-300
Pentium II-333 (Deschutes)
Pentium II-350
Pentium II-400

Pentium III

Pentium IV

Pentium M;

Pentium D

Pentium Core Duo

AMD

OPTERON

TURION

PHENOM

ATHLON
Tecnologias emergentes : son términos usados indistintamente para
señalar la emergencia y convergencia de nuevas tecnologías, con potencial
de demostrarse como tecnologías dipruptivas Entre ellas, se
encuentran manotecnologia, la biotecnologia, las tecnología de la
imformacion y la comunicación , la ciencia cognitiva, la robotica, y
la inteligencia altificial

Aunque las denotaciones exactas de estas expresiones son vagas, varios


escritores, incluyendo al empresario informático Hill joy han identificado
grupos de cada una de estas tecnologías que consideran críticas para el
futuro de la humanidad.

Quienes abogan por los beneficios del cambio tecnologico usualmente ven a
las tecnologías emergentes y convergentes como una esperanza que
ofrecerá la mejora de la condicion humana Sin embargo, algunos críticos de
los riesgos del cambio tecnológico, e incluso algunos activistas
del transhumanismo como nick bostron, han advertido que algunas de estas
tecnologías podrían significar un peligro, incluso al punto de amenazar
la supervivencia de la humanidad
Esquema basico de un pc : Un ordenador es un dispositivo que acepta
datos en una determinada forma, los procesa yproduce otros datos o
información de una forma diferente a la original.Las funciones básicas que
realiza el ordenador son cuatro y quedan esquematizadas en la

siguiente figura:

Dispositivos de entrada :

-teclado - micrófono - scanner - camara web - disquetera

-mouse (raton) - lector de cd - unidades flas ....


Dispositivos de salida :

-monitor - impresora - parlantes - ploters - proyectores de video

Dispositivos de almacenamiento :

Memoria ron - memoria ram - disco duro - disquette -dispocitivos


opticos - dispositivos flash - pc- cards - flash cards - pen drive o memory
flash - unidades de zip -
Software : Se conoce como software 1 al equipamiento lógico o
soporte lógico de una computadora digital; comprende el conjunto de los
componenteslógicos necesarios que hacen posible la realización de tareas
específicas, en contraposición a los componentes físicos, que son llamados
harware.

Los componentes lógicos incluyen, entre muchos otros, las aplicaciones


informaticas tales como el procesador de textos, que permite al usuario
realizar todas las tareas concernientes a la edición de textos; el software de
sistema tal como el sistema operativo, que, básicamente, permite al resto de
los programas funcionar adecuadamente, facilitando también la interacción
entre los componentes físicos y el resto de las aplicaciones, y
proporcionando una interfaz para el usuario. El término «software» fue usado
por primera vez en este sentido por john w tukey en 1957. En la ingeniería de
software y las ciencias de la computacion, el software es toda
la informacion procesada por los sistemas informaticos: programas y datos.

El concepto de leer diferentes secuencias de instrucciones (programa) desde


la memoria de un dispositivo para controlar los cálculos fue introducido
por charles babague como parte de su maquina difenrencial. La teoría que
forma la base de la mayor parte del software moderno fue propuesta por alan
turing en su ensayo de 1936, «Los números computables», con una
aplicación al problema de decisión.

harware : corresponde a todas las partes tangibles de


una computadora: sus componentes eléctricos, electrónicos,
electromecánicos y mecánicos;1 sus cables, gabinetes o cajas,periféricos de
todo tipo y cualquier otro elemento físico involucrado; contrariamente, el
soporte lógico es intangible y es llamado software. El término es propio
del idioma inglés (literalmente traducido: partes duras), su traducción al
español no tiene un significado acorde, por tal motivo se la ha adoptado tal
cual es y suena; la Real Academia Española lo define como «Conjunto de los
componentes que integran la parte material de una computadora».2 El
término, aunque es lo más común, no solamente se aplica a una
computadora tal como se la conoce, ya que, por ejemplo, un robot
un teléfono móvil, una cámara fotográfica o un reproductor
multimedia también poseen hardware (y software).

ergonomia : La ergonomía es básicamente una tecnología de


aplicación práctica e interdisciplinaria, fundamentada
en investigaciones científicas, que tiene comoobjetivo la
optimización integral de Sistemas Hombres-Máquinas, los que
estarán siempre compuestos por uno o más seres humanos
cumpliendo una tarea cualquiera con ayuda de una o más
"máquinas" (definimos con ese término genérico a todo tipo
de herramientas, máquinas industriales propiamente dichas,
vehículos, computadoras, electrodomésticos, etc.). Al decir
optimización integral queremos significar la obtención de
unaestructura sistémica (y su
correspondiente comportamiento dinámico), para cada conjunto
interactuante de hombres y máquinas, que satisfaga simultánea y
convenientemente a los siguientes tres criterios fundamentales:
*Participación: de los seres humanos en cuanto
a creatividad tecnológica, gestión, remuneración, confort y roles
psicosociales.
* Producción: en todo lo que hace a
la eficacia y eficiencia productivas del Sistema Hombres-Máquinas
(en síntess: productividad y calidad).
* Protección: de los Subsistemas Hombre (seguridad industrial
e higiene laboral), de los Subsistemas Máquina (siniestros, fallas,
averías, etc.) y del entorno (seguridad colectiva, ecología, etc.)

seguridad de la información : aquellas medidas preventivas y


reactivas del hombre, de las organizaciones y de los sistema tecnológicos
que permitan resguardar y proteger la informacion buscando mantener
laconfidenciavilidad, ladisponibilidad e integridad de la misma.

El concepto de seguridad de la información no debe ser confundido con el


de seguridad informatica, ya que este último sólo se encarga de la seguridad
en el medio informático, pudiendo encontrar información en diferentes
medios o formas.
Para el hombre como individuo, la seguridad de la información tiene un
efecto significativo respecto a su privacidad, la que puede cobrar distintas
dimensiones dependiendo de la cultura del mismo.

El campo de la seguridad de la información ha crecido y evolucionado


considerablemente a partir de la Segunda Guerra Mundial, convirtiéndose en
una carrera acreditada a nivel mundial.

Confidencialidad : es la propiedad de la información, por la que se


garantiza que está accesible únicamente a personal autorizado a acceder a
dicha información. La confidencialidad ha sido definido por la Organización
Internacional de Estandarización (ISO) en la norma ISO-17799 como
"garantizar que la información es accesible sólo para aquellos autorizados a
tener acceso" y es una de las piedras angulares de la seguridad de la
informacio . La confidencialidad es uno de los objetivos de diseño de
muchos cristosistema, hecha posible en la práctica gracias a las técnicas
de criptografia moderna.

La confidencialidad también se refiere a un principio ético asociado con


varias profesiones (por ejemplo, medicina, derecho, religión, psicología
profesional, y el periodismo); en este caso, se habla de secreto profesional.
En ética, y (en algunos lugares) en Derecho, concretamente en juicios y otras
formas de resolución de conflictos legales, tales como la mediación, algunos
tipos de comunicación entre una persona y uno de estos profesionales son
"privilegiados" y no pueden ser discutidos o divulgados a terceros. En
las jurisdicciones en que la ley prevé la confidencialidad, por lo general
hay sanciones por su violación.

La confidencialidad de la información, impuesta en una adaptación del


principio clásico militar "need-to-know", constituye la piedra angular de la
seguridad de la información en corporaciones de hoy en día. La llamada
"burbuja de confidencialidad" restringe los flujos de información, con
consecuencias tanto positivas como negativas.

Disponibilidad : La Disponibilidad es la característica, cualidad o


condición de la información de encontrarse a disposición de quienes deben
acceder a ella, ya sean personas, procesos o aplicaciones.

En el caso de los sistemas informáticos utilizados para almacenar y procesar


la información, los controles de seguridad utilizado para protegerlo, y los
canales de comunicación protegidos que se utilizan para acceder a ella
deben estar funcionando correctamente. La Alta disponibilidad sistemas
objetivo debe seguir estando disponible en todo momento, evitando
interrupciones del servicio debido a cortes de energía, fallos de hardware, y
actualizaciones del sistema.

Garantizar la disponibilidad implica también la prevención de


ataque Denegación de servicio.

La disponibilidad además de ser importante en el proceso de seguridad de la


información, es además variada en el sentido de que existen varios
mecanismos para cumplir con los niveles de servicio que se requiera, tales
mecanismos se implementan en infraestructura tecnológica, servidores de
correo electrónico, de bases de datos, de web etc, mediante el uso de
clusters o arreglos de discos, equipos en alta disponibilidad a nivel de red,
servidores espejo, replicación de datos, redes de almacenamiento (SAN),
enlaces redundantes, etc. La gama de posibilidades dependerá de lo que
queremos proteger y el nivel de servicio que se quiera proporcionar.

Controles de seguridad de informacio : controles fisicos El control


físico es la implementación de medidas de seguridad en una estructura
definida usada para prevenir o detener el acceso no autorizado a material
confidencial. Ejemplos de los controles físicos son:

-Cámaras de circuito cerrado

-Sistemas de alarmas térmicos o de movimiento

-Guardias de seguridad

-dentificación con fotos

-Puertas de acero con seguros especiales

-Biométrica (incluye huellas digitales, voz, rostro, iris, escritura a mano y


otros métodos automatizados utilizados para reconocer individuos)

Controles administrativos : Los controles administrativos definen los


factores humanos de la seguridad. Incluye todos los niveles del personal
dentro de la organización y determina cuáles usuarios tienen acceso a qué
recursos e información usando medios tales como:

-Entrenamiento y conocimiento

-Planes de recuperación y preparación para desastres

-Estrategias de selección de personal y separación

-Registro y contabilidad de personal


Controles tecnicos : Los controles técnicos utilizan la tecnología como una
base para controlar el acceso y uso de datos confidenciales a través de una
estructura física y sobre la red. Los controles técnicos son mucho más
extensos en su ámbito e incluyen tecnologías tales como:

-Encriptación

-Tarjetas inteligentes

-Autenticación a nivel de la red

-Listas de control de acceso (ACLs)

-Software de auditoría de integridad de archivos

Virus : es un malware que tiene por objeto alterar el normal funcionamiento


de la computadora, sin el permiso o el conocimiento del usuario. Los virus,
habitualmente, reemplazan archivos ejecutables por otros infectados con
el código de este. Los virus pueden destruir, de manera intencionada,
los datos almacenados en un ordenador, aunque también existen otros más
inofensivos, que solo se caracterizan por ser molestos.

Los virus informáticos tienen, básicamente, la función de propagarse a


través de un software, no se replican a sí mismos porque no tienen esa
facultad[cita requerida] como el gusano informático, son muy nocivos y algunos
contienen además una carga dañina (payload) con distintos objetivos, desde
una simple broma hasta realizar daños importantes en los sistemas, o
bloquear las redes informáticas generando tráfico inútil.

El funcionamiento de un virus informático es conceptualmente simple. Se


ejecuta un programa que está infectado, en la mayoría de las ocasiones, por
desconocimiento del usuario. El código del virus queda residente (alojado) en
la memoria RAM de la computadora, aun cuando el programa que lo contenía
haya terminado de ejecutarse. El virus toma entonces el control de los
servicios básicos del sistema operativo, infectando, de manera posterior,
archivos ejecutables que sean llamados para su ejecución. Finalmente se
añade el código del virus al programa infectado y se graba en el disco, con lo
cual el proceso de replicado se completa.

El primer virus atacó a una máquina IBM Serie 360 (y reconocido como tal).
Fue llamado Creeper, creado en 1972. Este programa emitía periódicamente
en la pantalla el mensaje: «I'm a creeper... catch me if you can!» (¡Soy una
enredadera... agárrame si puedes!). Para eliminar este problema se creó el
primer programa antivirus denominado Reaper (cortadora).
Sin embargo, el término virus no se adoptaría hasta 1984, pero éstos ya
existían desde antes. Sus inicios fueron en los laboratorios de Bell
Computers. Cuatro programadores (H. Douglas Mellory, Robert Morris, Victor
Vysottsky y Ken Thompson) desarrollaron un juego llamadoCore War, el cual
consistía en ocupar toda la memoria RAM del equipo contrario en el menor
tiempo posible.

Después de 1984, los virus han tenido una gran expansión, desde los que
atacan los sectores de arranque de disquetes hasta los que se adjuntan en
un correo electrónico.

Codigo malicioso : código malicioso es un término que hace


referencia a cualquier conjunto de códigos, especialmente sentencias de
programación, que tiene un fin malicioso. Esta definición incluye
tanto programas malignos compilados, como macros y códigos que se
ejecutan directamente, como los que suelen emplearse en las páginas
web (scripts).

Los códigos maliciosos pueden tener múltiples objetivos como:


* Extenderse por la computadora, otras computadoras en una red o
por internet.
* Robar información y claves.
* Eliminar archivos e incluso formatear el disco duro.
* Mostrar publicidad invasiva.

Mínimos cambios en un código malicioso, pueden hacer que ya no sea


reconocido como malicioso por un programa antivirus; es por esta razón que
existen tantas variantes de los virus, los gusanos y otrosmalwares. Además,
los antivirus todavía no tienen la suficiente "inteligencia" como para
detectar códigos maliciosos nuevos.

Puerta de acceso de los virus : Existen dos grandes clases de


contagio. En la primera, el usuario, en un momento dado, ejecuta o acepta de
forma inadvertida la instalación del virus. En la segunda, el programa
malicioso actúa replicándose a través de las redes. En este caso se habla de
gusanos.
En cualquiera de los dos casos, el sistema operativo infectado comienza a
sufrir una serie de comportamientos anómalos o imprevistos. Dichos
comportamientos pueden dar una pista del problema y permitir la
recuperación del mismo.

Dentro de las contaminaciones más frecuentes por interacción del usuario


están las siguientes:

Mensajes que ejecutan automáticamente programas (como el programa de


correo que abre directamente un archivo adjunto).

Ingeniería social, mensajes como ejecute este programa y gane un premio, o,


más comunmente: Haz 2 clics y gana 2 tonos para móvil gratis..

Entrada de información en discos de otros usuarios infectados.

Instalación de software modificado o de dudosa procedencia.

En el sistema Windows puede darse el caso de que el ordenador pueda


infectarse sin ningún tipo de intervención del usuario (versiones Windows
2000, XP y Server 2003) por virus como Blaster, Sasser y sus variantes por el
simple hecho de estar la máquina conectada a una red o a Internet. Este tipo
de virus aprovechan una vulnerabilidad de desbordamiento de buffer y
puertos de red para infiltrarse y contagiar el equipo, causar inestabilidad en
el sistema, mostrar mensajes de error, reenviarse a otras máquinas mediante
la red local o Internet y hasta reiniciar el sistema, entre otros daños. En las
últimas versiones de Windows 2000, XP y Server 2003 se ha corregido este
problema en su mayoría.

Antivirus : Los antivirus son una herramienta simple cuyo objetivo


es detectar y eliminar virus informáticos. Nacieron durante la década
de 1980.

Con el transcurso del tiempo, la aparición de sistemas operativos más


avanzados e Internet, ha hecho que los antivirus hayan evolucionado
hacia programas más avanzados que no sólo buscan detectar virus
informáticos, sino bloquearlos, desinfectarlos y prevenir una infección de los
mismos, y actualmente ya son capaces de reconocer otros tipos de malware,
como spyware, rootkits, etc El funcionamiento de un antivirus varía de uno a
otro, aunque su comportamiento normal se basa en contar con una lista de
virus conocidos y su formas de reconocerlos (las llamadas firmas o vacunas),
y analizar contra esa lista los archivos almacenados o transmitidos desde y
hacia un ordenador.

Adicionalmente, muchos de los antivirus actuales han incorporado funciones


de detección proactiva, que no se basan en una lista demalware conocido,
sino que analizan el comportamiento de los archivos o comunicaciones para
detectar cuáles son potencialmente dañinas para el ordenador, con técnicas
como heurística, HIPS, etc.

Usualmente, un antivirus tiene uno o varios componentes residentes


en memoria que se encargan de analizar y verificar todos
los archivosabiertos, creados, modificados, ejecutados y transmitidos
en tiempo real, es decir, mientras el ordenador está en uso.

Asimismo, cuentan con un componente de análisis bajo demanda (los


conocidos scanners, exploradores, etc.) y módulos de protección decorreo
electrónico, Internet, etc.

El objetivo primordial de cualquier antivirus actual es detectar la mayor


cantidad de amenazas informáticas que puedan afectar un ordenador y
bloquearlas antes de que la misma pueda infectar un equipo, o poder
eliminarla tras la infección.

Actualmente hay una gran variedad de antivirus, pero no todos se asemejan


al pretendido por todos: un antivirus eficaz en todos los sentidos.

Copyright (derechos de autor ) : El derecho de


autor (del francés droit d'auteur es un conjunto de normas y principios que
regulan los derechos morales y patrimoniales que la ley concede a
los autores (losderechos de autor), por el solo hecho de la creación de una
obra literaria, artística, científica o didáctica, esté publicada o inédita.

En el derecho anglosajón se utiliza la noción de copyright (traducido


literalmente como "derecho de copia") que -por lo general- comprende la
parte patrimonial de los derechos de autor (derechos patrimoniales).

Una obra pasa al dominio público cuando los derechos patrimoniales han
expirado. Esto sucede habitualmente trascurrido un plazo desde
la muerte del autor (post mortem auctoris). Por ejemplo, en el derecho
europeo, 70 años desde la muerte del autor. Dicha obra entonces puede ser
utilizada en forma libre, respetando los derechos morales.
El derecho de autor y copyright constituyen dos concepciones sobre
la propiedad literaria y artística. El primero proviene de la familia delderecho
continental, particularmente del derecho francés, mientras que el segundo
procede del derecho anglosajón (o common law).

El derecho de autor se basa en la idea de un derecho personal del autor,


fundado en una forma de identidad entre el autor y su creación. El derecho
moral está constituido como emanación de la persona del autor: reconoce
que la obra es expresión de la persona del autor y así se le protege.

La protección del copyright se limita estrictamente a la obra, sin considerar


atributos morales del autor en relación con su obra, excepto la paternidad;
no lo considera como un autor propiamente tal, pero tiene derechos que
determinan las modalidades de utilización de una obra.

Potrebbero piacerti anche