Sei sulla pagina 1di 3

DEFINICIÓN DE GIGAHERTZ

El concepto de gigahertz se forma con la unión del elemento


compositivo giga (que se refiere a “mil millones de veces”) y el
término hertz (una unidad de frecuencia equivalente a un ciclo por
segundo). Un gigahertz, por lo tanto, es un múltiplo de esta unidad de
medida de frecuencia.
También llamado gigahercio (ya que hertzy hercio son sinónimos), el
gigahertz equivale a mil millones (1.000.000.000) de hertz. Teniendo
en cuenta que un hertz alude a un ciclo, puede decirse que un gigahertz hace
mención a un periodo de oscilación de un nanosegundo.
Para comprender esta idea, debemos saber que el periodo de oscilación es el
tiempo que transcurre entre dos puntos de una onda que son equivalentes.
Un nanosegundo, por su parte, es la milmillonésima parte de un segundo

Entonces, ¿qué es un gigabyte (GB)?


DEFINICIÓN DE GIGABYTE
El término gigabyte no forma parte del diccionario de la Real Academia
Española (RAE) pero es muy usual en la informática. Se trata de
una unidad de medida que se simboliza como GB y que puede tener
distintas equivalencias de acuerdo a su uso.
En concreto podemos establecer que el gigabyte equivale a 10 elevado a 9
byte. Además de ello es interesante dejar patente que es un término que
tiene su origen etimológico en el griego. Y es que el primer vocablo que le da
forma emana de la palabra griega guigas que puede traducirse como
“gigante”.
Además de todo lo expuesto también merece la pena dejar patente el hecho
de que cada vez más, y especialmente a un nivel mucho más coloquial, en vez
de usar el término gigabyte se sustituye ese por el vocablo giga.

La realidad muestra que la utilización binaria difiere del uso decimal. La


base binaria es más habitual en la aplicación del concepto para el diseño
de software y hardware. Gigabyte también se utiliza para medir la
capacidad de almacenamiento y de transmisión de un sistema informático.
La capacidad de los discos rígidos (o discos duros), por ejemplo, se mide en
gigabytes (que, en el lenguaje coloquial, se abrevia como giga)

Definición de un sistema operativo de 32 bits


Por David Dunning

Chad Baker/Ryan McVay/Digital Vision/Getty Images

La unidad de datos más pequeña que una computadora puede procesar es un dígito
binario, o "bit", y se representa numéricamente con un "0" o un "1". Un sistema operativo
de 32 bits es un sistema operativo (una colección de software que controla la operación
básica de una computadora) que manipula o mueve los datos en grupos de 32 bits.

Procesamiento de datos
Comparado con un sistema operativo de 16 bits, un sistema de 32 bits
proporciona un procesamiento de datos más rápido para aplicaciones grandes y
hambrientas de recursos como los paquetes de gráficos; este tipo de sistemas
duplica la cantidad de datos que la unidad central de procesamiento (CPU, del
inglés Central Processing Unit) puede gestionar por cada ciclo del reloj. También
permite que una computadora realice un procesamiento multitareas (es decir, el
envío al CPU de diferentes partes de dos o más aplicaciones, abiertas
simultáneamente, en momentos diferentes) de forma más rápida y permite el
direccionamiento de grandes cantidades de memoria y espacio en disco duro.




Inicio » Hardware

¿Qué significa un "sistema operativo de 64 bits"?


Por Warren Davies

Jupiterimages/Photos.com/Getty Images

A algunos sistemas operativos lanzados recientemente se les llama sistemas


de "64 bits". Windows Vista y Windows 7 están disponibles en encarnaciones de
64 bits, como Snow Leopard para las Mac. Estos sistemas de 64 bits están
reemplazando gradualmente a los antiguos sistemas de 32 bits debido a su mayor
capacidad de acceso y administración de la memoria de la computadora. Esto
permite que los sistemas de 64 bits se ejecuten más rápido y manejen procesos
más intensivos. Una comprensión de lo que significa el sistema de 64 bits
comienza con un conocimiento de las unidades básicas de información de la
computación, el bit.

Potrebbero piacerti anche