Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
INTRODUCCION
CODIGOS BINARIOS Y ALFANUMERICOS
En informtica y telecomunicaciones, el cdigo binario se utiliza con variados
mtodos de codificacin de datos, tales como cadenas de caracteres, o
cadenas de bits. Estos mtodos pueden ser de ancho fijo o ancho variable.
Por ejemplo en el caso de un CD, las seales que reflejarn el lser que
rebotar en el CD y ser recepcionado por un sensor de distinta forma
indicando as, si es un cero o un uno.
I.
II.
III.
IV.
V.
GRAY
BCD
ASCII
UNICODE
BIBLIOGRAFIA
GRAY
El cdigo binario reflejado o cdigo Gray, nombrado as
en honor del investigador Frank Gray, es un sistema de
numeracin binario en el que dos valores sucesivos
difieren solamente en uno de sus dgitos.
El cdigo Gray fue diseado originalmente para prevenir
seales ilegales (seales falsas o viciadas en la
representacin) de los switches electromecnicos, y
actualmente es usado para facilitar la correccin de
errores en los sistemas de comunicaciones, tales como
algunos sistemas de televisin por cable y la televisin
digital terrestre.
Las computadoras antiguas indicaban posiciones
abriendo y cerrando interruptores. Utilizando tres
interruptores como entradas usando Base 2, estas dos
posiciones estaran una despus de la otra:
011
100
El problema con el cdigo binario en base 2 es que con
interruptores mecnicos, es realmente difcil que todos
los interruptores cambien al mismo tiempo. En la
transicin de los dos estados mostrados arriba, tres
interruptores cambian de sitio. En el lapso en el que los
interruptores estn cambiando, se pueden presentar
salidas de informacin espurias. Si las salidas
mencionadas
alimentan
un
circuito
secuencial,
probablemente el sistema presentar un error en entrada
de datos.
El cdigo gray resuelve este problema cambiando
solamente un dgito a la vez, as que no existe este problema:
BCD
En sistemas de computacin, Binary-Coded Decimal (BCD) o Decimal
codificado en binario es un estndar para representar nmeros decimales en
el sistema binario, en donde cada dgito decimal es codificado con una
secuencia de 4 bits. Con esta codificacin especial de los dgitos decimales
Los nmeros decimales, se codifican en BCD con los de bits que representan
sus dgitos.
Por ejemplo, la codificacin en BCD del nmero decimal 59237 es:
FUNDAMENTOS
En BCD cada cifra que representa un dgito decimal (0, 1,...8 y 9) se
representa con su equivalente binario en cuatro bits (esto es as porque es el
nmero de bits necesario para representar el nueve, el nmero ms alto que
se puede representar en BCD). En la siguiente tabla se muestran los cdigos
BCD ms empleados:
ASCII
ASCII (American Standard Code for Information
Interchange) es un cdigo de caracteres
basado en el alfabeto latino, tal como se usa
en ingls moderno. Fue creado en 1963 por el
Comit Estadounidense de Estndares como
una refundicin o evolucin de los conjuntos
de cdigos utilizados entonces en telegrafa.
Ms tarde, en 1967, se incluyeron las
minsculas, y se redefinieron algunos cdigos
de control para formar el cdigo conocido
como US-ASCII.
El cdigo ASCII utiliza 7 bits para representar los caracteres, aunque
inicialmente empleaba un bit adicional (bit de paridad) que se usaba para
detectar errores en la transmisin. A menudo se llama incorrectamente ASCII
a otros cdigos de caracteres de 8 bits, como el estndar ISO-8859-1, que es
una extensin que utiliza 8 bits para proporcionar caracteres adicionales
usados en idiomas distintos al ingls, como el espaol.
Casi todos los sistemas informticos actuales utilizan el cdigo ASCII o una
extensin compatible para representar textos y para el control de
dispositivos que manejan texto como el teclado. No deben confundirse los
cdigos ALT+nmero de teclado con los cdigos ASCII.
VISTA GENERAL
Las computadoras solamente entienden nmeros. El cdigo ASCII es una
representacin numrica de un carcter como a o @.
ASCII es, en sentido estricto, un cdigo de siete bits, lo que significa que usa
cadenas de bits representables con siete dgitos binarios (que van de 0 a 127
en base decimal) para representar informacin de caracteres. En el momento
en el que se introdujo el cdigo ASCII muchos ordenadores trabajaban con
grupos de ocho bits (bytes u octetos), como la unidad mnima de
informacin; donde el octavo bit se usaba habitualmente como bit de
paridad con funciones de control de errores en lneas de comunicacin u
otras funciones especficas del dispositivo. Las mquinas que no usaban la
comprobacin de paridad asignaban al octavo bit el valor cero en la mayora
de los casos, aunque otros sistemas como las computadoras Prime, que
ejecutaban PRIMOS ponan el octavo bit del cdigo ASCII a uno. El cdigo
ASCII define una relacin entre caracteres especficos y secuencias de bits;
adems de reservar unos cuantos cdigos de control para el procesador de
textos, y no define ningn mecanismo para describir la estructura o la
apariencia del texto en un documento; estos asuntos estn especificados por
otros lenguajes como los lenguajes de etiquetas.
CARACTERES DE CONTROL DE ASCII
El cdigo ASCII reserva los primeros 32 cdigos (numerados del 0 al 31 en
decimal) para caracteres de control: cdigos no pensados originalmente para
representar informacin imprimible, sino para controlar dispositivos (como
impresoras) que usaban ASCII. Por ejemplo, el carcter 10 representa la
funcin "nueva lnea" (line feed), que hace que una impresora avance el
papel, y el carcter 27 representa la tecla "escape" que a menudo se
encuentra en la esquina superior izquierda de los teclados comunes.
UNICODE
Unicode es un estndar de codificacin de caracteres diseado para facilitar
el tratamiento informtico, transmisin y visualizacin de textos de mltiples
lenguajes y disciplinas tcnicas, adems de textos clsicos de lenguas
muertas. El trmino Unicode proviene de los tres objetivos perseguidos:
universalidad, uniformidad y unicidad.
BIBLIOGRAFIA
http://es.wikipedia.org/wiki/Unicode
http://es.wikipedia.org/wiki/ASCII
http://es.wikipedia.org/wiki/Decimal_codificado_en_binario
http://es.wikipedia.org/wiki/C%C3%B3digo_Gray