Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Teora de la informacin es una rama de la teora matemtica de la probabilidad y la estadstica que estudia la informacin y todo lo relacionado con ella: canales, compresin de datos, criptografa y temas relacionados. Fue iniciada por Claude E. Shannon a travs de un artculo publicado en el Bell System Technical Journal en 1948, titulado Una teora matemtica de la comunicacin (texto completo en ingls). La informacin es tratada como magnitud fsica y para caracterizar la informacin de una secuencia de smbolos se utiliza la Entropa. Se parte de la idea de que los canales no son ideales, aunque muchas veces se idealicen las no linealidades, para estudiar diversos mtodos para enviar informacin o la cantidad de informacin til que se puede enviar a travs de un canal.
Fuentes de informacin Teorema de muestreo de Nyquist-Shannon Entropa Neguentropa Informacin mutua Canales Capacidad Compresin de datos Cdigos fuente Cdigos no-singulares Cdigos unvocamente decodificables
Extensin de cdigo
Parada y espera
Tcnicas hbridas
Paridad
Cdigos de bloque
Distancia Hamming
Cdigos lineales
Cdigos cclicos
CRC16 CRC32
Fuente documental
(Redirigido desde Fuentes de informacin)
Fuente documental, es el origen de una informacin, especialmente para la investigacin, bien sea el periodismo, la historiografa y la produccin de literatura acadmica en general.
2.1 Prelacin de las fuentes 2.2 Tipologa de las fuentes 3 Tratamiento de las fuentes 3.1 Reunin de fuentes 3.2 Crtica de las fuentes 3.3 Contraste de fuentes 3.4 Respeto a las fuentes
3.4.1 Cita de las fuentes 3.4.2 Se puede ocultar una fuente por respeto?
4 Referencias
(el estudio de la historia), las fuentes secundarias son aquellos documentos que no fueron escritos contemporneamente a los sucesos estudiados. fuente terciaria es una seleccin y recopilacin de fuentes primarias y secundarias, por ejemplo: bibliografas, catlogos de biblioteca, directorios, listas de lecturas y artculos sobre encuestas. Los trabajos de investigacin, los libros de texto, las enciclopedias y la propia wikipedia suelen reunir los tres tipos de fuentes.
Referencias [editar]
ARSTEGUI, Julio (2001), La investigacin histrica: teora y mtodo, Barcelona : Crtica. ISBN 84-8432-137-1. TUN DE LARA, Manuel (1985), Por qu la Historia, Barcelona : Aula Abierta Salvat. ISBN 84-345-7814-X.
Entropa (informacin)
Entropa es un concepto en termodinmica, mecnica estadstica y Teora de la informacin. Los conceptos de informacin y entropa estn ampliamente relacionados entre s, aunque se tard aos en el desarrollo de la mecnica estadstica y la teora de la informacin para hacer esto aparente. Este artculo versa sobre la entropa, en la formulacin que hace de ella la Teora de la informacin. Esta entropa se llama frecuentemente Entropa de Shannon, en honor a Claude E. Shannon.
Tabla de contenidos
[ocultar]
Entropa de la informacin en un ensayo de Bernoulli X (experimento aleatorio en que X puede tomar los valores 0 o 1). La entropa depende de la probabilidad P(X=1) de que X tome el valor 1. Cuando P(X=1)=0.5, todos los resultados posibles son igualmente probables, por lo que el resultado es poco predecible y la entropa es mxima.
El concepto bsico de entropa en Teora de la Informacin tiene mucho que ver con la incertidumbre que existe en cualquier experimento o seal aleatoria. Es tambin la cantidad de "Ruido" o "desorden" que contiene o libera un
sistema. De esta forma, podremos hablar de la cantidad de informacin que lleva una seal. Como ejemplo, consideremos algn texto escrito en espaol, codificado como una cadena de letras, espacios y signos de puntuacin (nuestra seal ser una cadena de caracteres). Ya que, estadsticamente, algunos caracteres no son muy comunes (por ejemplo, 'y'), mientras otros s lo son (como la 'a'), la cadena de caracteres no es tan "aleatoria" como podra llegar a ser. Obviamente, no podemos predecir con exactitud cul ser el siguiente carcter en la cadena y eso la hara aparentemente aleatoria; pero es la entropa la encargada de medir precisamente esa aleatoriedad, y fue presentada por Shannon en su artculo de 1948 A Mathematical Theory of Communication ("Una Teora Matemtica de la Comunicacin", en ingls). Shannon ofrece una definicin de entropa que satisface las siguientes afirmaciones: La medida de informacin debe ser proporcional (continua). Es decir, el cambio pequeo en una de las probabilidades de aparicin de uno de los elementos de la seal debe cambiar poco la entropa. Si todos los elementos de la seal son equiprobables a la hora de aparecer, entonces, la entropa ser mxima.
donde H es la entropa, las p son las probabilidades de que aparezcan los diferentes cdigos y n el nmero total de cdigos. Si nos referimos a un sistema, las p se refieren a las probabilidades de que se encuentre en un determinado estado y n el nmero total de posibles estados.
Se utiliza habitualmente el logaritmo en base 2, y entonces la entropa se mide en bits. Por ejemplo: El lanzamiento de una moneda al aire para ver si sale cara o cruz (dos estados con probabilidad 0,5) tiene una entropa:
Neguentropa
La neguentropa se puede definir como el concepto antagnico a la entropa, o simplemente como su opuesto; de forma que, as como la entropa establece que la materia tiende a descomponerse y a permanecer en un estado de caos continuo, la neguentropa define la energa como medio indestructible que tiende a regular el comportamiento de la materia buscando provocar en ella una tendencia al orden.
Tabla de contenidos
[ocultar]
Referencias [editar]
Bibliografa [editar]
Luz Amanda Camacho: Teora general de sistemas Johansen O: Las comunicaciones y la conducta organizacional
Registrarse/Entrar
Navegacin Portada Portal de la comunidad Actualidad Cambios recientes Pgina aleatoria Ayuda Donativos Buscar
Ir Buscar
Herramientas Lo que enlaza aqu Cambios en enlazadas Subir archivo Pginas especiales Versin para imprimir Enlace permanente Citar este artculo Otros idiomas Deutsch English
Informacin mutua
El contenido de esta pgina es un esbozo sobre informtica. Amplindolo ayudars a mejorar Wikipedia. Puedes ayudarte con las wikipedias en otras lenguas.
En teora de la probabilidad, y en teora de la informacin, la informacin mutua o transinformacin de dos variables aleatorias es una cantidad que mide la dependencia mutua de dos variables. La unidad de medida ms comn de informacin mutua es el bit, ya que suelen ser usados logaritmos de base dos. Categoras: Wikipedia:Esbozo informtica | Teora de la informacin
Canal (comunicacin)
Un canal de comunicacin es el medio de transmisin por el que viajan las seales portadoras de la informacin que pretenden intercambiar emisor y receptor. Es frecuente referenciarlo tambin como canal de datos. Los canales pueden ser personales o masivos: los canales personales son aquellos en donde la comunicacin es directa. Voz a voz. Puede darse de uno a uno o de uno a varios. Los canales masivos pueden ser escrito, radial, televisivo e informtico. As sucesivamente se pueden ir identificando los diferentes canales de trasmisin del pensamiento. En telecomunicaciones, el trmino canal tambin tiene los siguientes significados: 1. Una conexin entre los puntos de inicio y terminacin de un circuito. 2. Un camino nico facilitado mediante un medio de transmisin que puede ser: 1. Con separacin fsica, tal como un par de un cable multipares. 2. Con separacin elctrica, tal como la multiplexacin por divisin de frecuencia (MDF) o por divisin de tiempo (MDT). 3. Un camino para el transporte de seales elctricas o electromagnticas, usualmente distinguido de otros caminos paralelos mediante alguno de los mtodos sealados en el punto anterior. 4. En conjuncin con una predeterminada letra, nmero o cdigo, hace referencia a una radiofrecuencia especfica. 5. Porcin de un medio de almacenamiento, tal como una pista o banda, que es accesible a una cabeza o estacin de lectura o escritura. 6. En un sistema de comunicaciones, es la parte que conecta una fuente (generador) a un sumidero (receptor) de datos. En comunicacin, Cada canal de transmisin es adecuado para algunas seales concretas y no todos sirven para cualquier tipo de seal. Por ejemplo, la seal elctrica se propaga bien por canales conductores, pero no ocurre lo mismo con las seales luminosas.
Un canal est definido desde el punto de vista telemtico por sus propiedades fsicas: naturaleza de la seal que es capaz de transmitir, velocidad de transmisin, ancho de banda, nivel de ruido que genera, modo de insercin de emisores y receptores, etc. El ejemplo ms comn de canal acstico es la atmsfera. Para seales electromagnticas se puede utilizar multitud de canales dependiendo de la frecuencia de las seales transmitidas: cables, el vaco (satlites), la propia atmsfera, etc. Un caso particular de canal electromagntico son las fibras pticas, especializadas en transmisiones luminosas, extraordinariamente rpidas e insensibles al ruido o las posibles contaminaciones de la seal luminosa. Fuente: Federal Standard 1037C y MIL-STD-188 Categora: Trminos de telecomunicaciones
Artculo Discusin Editar Historial
Registrarse/Entrar
Navegacin Portada Portal de la comunidad Actualidad Cambios recientes Pgina aleatoria Ayuda Donativos Buscar
Ir Buscar
Herramientas Lo que enlaza aqu Cambios en enlazadas Subir archivo Pginas especiales
Versin para imprimir Enlace permanente Citar este artculo Otros idiomas Dansk Deutsch English Franais Galego Nederlands rs Polski Portugus
Capacidad
Capacidad puede tener uno de los siguientes significados: Capacidad jurdica se refiere a la habilidad legal de cerrar ciertos actos, tales como la celebracin de un contrato Capacidad craneal es la medida del volumen del interior del crneo Capacidad de carga de poblacin es la capacidad de un ambiente para sostener una especie Capacidad calorfica, tambin llamada capacidad termal, es la capacidad de la materia de almacenar calor Capacidad txica es la capacidad de un organismo, un sistema orgnico o un ecosistema de sostener la introduccin de una toxina Compartimiento de gran capacidad es un dispositivo de alimentacin de municiones para el uso en un arma de fuego que pueda albergar ms de 10 rondas de municin Capacidad analtica es una funcin matemtica Capacidad de asiento se refiere al nmero de gente que puede sentarse en un lugar, en los trminos del espacio disponible o del sistema de limitaciones por ley. Tambin llamada aforo. Capacidad de representacin de color es una medida de qu tanto se puede percibir un espacio de color bajo la iluminacin de una luz especfica Capacidad elctrica es la propiedad de un conductor para adquirir carga elctrica. Capacidad de absorcin Capacidad de difusin Capacidad de canal Capacidad portante
Compresin de datos
La compresin de datos consiste en la reduccin del volumen de informacin tratable (procesar, transmitir o grabar). En principio, con la compresin se pretende transportar la misma informacin, pero empleando la menor cantidad de espacio. El espacio que ocupa una informacin codificada (datos, seal digital, etc.) sin compresin es el cociente entre la frecuencia de muestreo y la resolucin. Por tanto, cuantos ms bits se empleen mayor ser el tamao del archivo. No obstante, la resolucin viene impuesta por el sistema digital con que se trabaja y no se puede alterar el nmero de bits a voluntad; por ello, se utiliza la compresin, para transmitir la misma cantidad de informacin que ocupara una gran resolucin en un nmero inferior de bits. La compresin de datos se basa fundamentalmente en buscar repeticiones en series de datos para despus almacenar solo el dato junto al nmero de veces que se repite. As, por ejemplo, si en un fichero aparece una secuencia como "AAAAAA", ocupando 6 bytes se podra almacenar simplemente "6A" que ocupa solo 2 bytes, en algoritmo RLE. En realidad, el proceso es mucho ms complejo, ya que raramente se consigue encontrar patrones de repeticin tan exactos (salvo en algunas imgenes). Se utilizan algoritmos de compresin: Por un lado, algunos buscan series largas que luego codifican en formas ms breves. Por otro lado, algunos algoritmos, como el algoritmo de Huffman, examinan los caracteres ms repetidos para luego codificar de forma ms corta los que ms se repiten. Otros, como el LZW, construyen un diccionario con los patrones encontrados, a los cuales se hace referencia de manera posterior. A la hora de hablar de compresin hay que tener presentes dos conceptos: 1. Redundancia: Datos que son repetitivos o previsibles 2. Entropa: La informacin nueva o esencial que se define como la diferencia entre la cantidad total de datos de un mensaje y su redundancia.
La informacin que transmiten los datos puede ser de tres tipos: 1. Redundante: informacin repetitiva o predecible. 2. Irrelevante: informacin que no podemos apreciar y cuya eliminacin por tanto no afecta al contenido del mensaje. Por ejemplo, si las frecuencias que es capaz de captar el odo humano estn entre 16/20 Hz y 16.000/20.000 Hz s, seran irrelevantes aquellas frecuencias que estuvieran por debajo o por encima de estos valores. 3. Bsica: la relevante. La que no es ni redundante ni irrelevante. La que debe ser transmitida para que se pueda reconstruir la seal. Teniendo en cuenta estos tres tipos de informacin, se establecen tres tipologas de compresin de la informacin: 1. Sin prdidas reales: es decir, transmitiendo toda la entropa del mensaje (toda la informacin bsica e irrelevante, pero eliminando la redundante). 2. Subjetivamente sin prdidas: es decir, adems de eliminar la informacin redundante se elimina tambin la irrelevante. 3. Subjetivamente con prdidas: se elimina cierta cantidad de informacin bsica, por lo que el mensaje se reconstruir con errores perceptibles pero tolerables (por ejemplo: la videoconferencia).
original, aunque s una aproximacin cuya semejanza con la original depender del tipo de compresin. Se utiliza principalmente en la compresin de imgenes, videos y sonidos.
Registrarse/Entrar
Navegacin Portada Portal de la comunidad Actualidad Cambios recientes Pgina aleatoria Ayuda Donativos
Buscar
Ir Buscar
Herramientas Lo que enlaza aqu Cambios en enlazadas Subir archivo Pginas especiales Versin para imprimir Enlace permanente Citar este artculo Otros idiomas Alemannisch Bosanski Catal es y Dansk Deutsch English Eesti Suomi Franais Hrvatski Magyar Bahasa Indonesia Italiano Lietuvi Bahasa Melayu Nederlands Polski Portugus
Cdigo fuente
(Redirigido desde Cdigos fuente)
El cdigo fuente puede definirse: Un conjunto de lneas que conforman un bloque de texto, escrito segn las reglas sintcticas de algn lenguaje de programacin destinado a ser legible por humanos. Un Programa en su forma original, tal y como fue escrito por el programador, no es ejecutable directamente por el computador, debe convertirse en lenguaje de maquina mediante compiladores, ensambladores o intrpretes. Normalmente est destinado a ser traducido a otro cdigo, llamado cdigo objeto, ya sea lenguaje mquina nativo para ser ejecutado por una computadora o bytecode para ser ejecutado por un intrprete. Este proceso se denomina compilacin y permite la realizacin de programas. El proceso de formateado del cdigo fuente para ayudar a su legibilidad se denomina estilo de programacin.
Etapas [editar]
Etapas en la compilacin: A diferencia del cdigo objeto, el cdigo fuente es texto simple, capaz de ser ledo por cualquier editor de textos. En l estn escritos los pasos que deber realizar la computadora. Tener el cdigo fuente es vital si se necesita modificar el programa.
Obsrvese que aunque el lenguaje HTML puede contener embebido cdigo fuente en lenguajes como JavaScript, en s mismo no es un lenguaje ejecutable, al igual que los ficheros POV. Es por ello que estas acepciones son una generalizacin del trmino cdigo fuente, el cual nace con el significado de fuente para la generacin del cdigo objeto o ejecutable.
Wikcionario tiene una entrada sobre cdigo fuente. Categora: Partes de programas
Puedes buscar pginas sobre Cdigos no-singulares, ver todas las pginas desde este ttulo o solicitar su creacin. Para comenzar a crear un artculo, introduce la informacin en la caja situada debajo. Si has seguido un enlace rojo, no ests obligado a introducir un texto aqu. Puedes volver atrs y seguir en el artculo anterior. Puedes pedir informacin en Consultas, porque si lo haces aqu tu peticin ser borrada sin previo aviso. Si quieres hacer pruebas, por favor, utiliza la Zona de pruebas. Si ya habas creado la pgina con este nombre, limpia el cach de tu navegador. Tambin puede haber sido borrada. Busca Cdigos no-singulares en uno de los proyectos hermanos de Wikipedia:
Wikiversity Commons Wikilibros Wikcionario Wikiquote Wikisource Wikinews (contenido (imgenes y (noticias) (tutoriales/manuales) (diccionario) (citas) (biblioteca) acadmico) multimedia)
[Ayuda]
Atencin: est creando una pgina que ha sido borrada previamente. Debera considerar si es apropiado continuar editando esta pgina. Consulte a continuacin el registro de borrados:
11:44 8 sep 2006 Er Komandante (discusin | contribuciones) borr "Cdigos nosingulares (infraesbozo. el contenido era: {{esbozo|Teora de la Informacin}}Los cdigos no-singulares son simplemente los que usan de criterio que todas las palabras sean distintas.) 17:25 3 abr 2006 Airunp (discusin | contribuciones) borr "Cdigos no-singulares (el contenido era: Un cdigo es no singular si todas sus palabras son diferentes. (nico autor: 201.235.9.23))
13:35 10 nov 2005 Sanbec (discusin | contribuciones) borr "Cdigos nosingulares (el contenido era: Cdigos cuyo alfabeto contiene una palabra cdigo distinta para cada palabra fuente.{{esbozo de|matemticas}})
Ests a punto de editar un artculo sin haberte registrado como usuario. Esto har que quede registrada pblicamente tu direccin IP como autora de la edicin. Si quieres puedes crearte una cuenta de usuario.
20080102232409 20080102232410
Confirmo que mis cambios no violan ninguna de las polticas de derechos de autor y que estn basados en fuentes verificables. Resumen:
Grabar la pgina Mostrar previsualizacin Mostrar cambios
Son Cdigos no-singulares en donde adems la longitud entre las palabras usadas puede variar. Una forma de calcular la mejor longitud media es mediante la Inecuacin de Kraft. La idea bsica es asignar longitudes mayores a las palabras con menor probabilidad. Por definicin: Cdigo cuya extensin es no-singular. Sea A un alfabeto fuente y b un alfabeto cdigo. Se llama funcin codificadora a cualquier funcin. f: A+ > B+. El cdigo correspondiente es Unvocamente Decodificable (UD) si f es inyectiva. Hace parte del area de la matemtica discreta y los algoritmos computacionales.
El contenido de esta pgina es un esbozo sobre matemtica. Amplindolo ayudars a mejorar Wikipedia. Puedes ayudarte con las wikipedias en otras lenguas.
Para aclarar todo esto, debemos ir por pasos: Cdigos Unvocamente Decodificables 1. Un codigo es una asignacin de palabras codigo wi, a una fuente de informacin ya sea de memoria nula o con memoria (fuente de Markov). Estas palabras codigo wi, no son mas que combinaciones de simbolos de una alfabeto T. Por ejemplo: si tenemos la siguiente fuente de memoria nula. S = {s1,s2,s3} y tenemos el siguiente alfabeto T = {0,1}, podemos asignar el siguiente codigo a S, C = {0,10,11}. Cuyo codigo es U.D. 2. Pero que quiere decir, con exactitud codigo Unvocamente Decodificable. Significa que cualquier codificacin que se realize con ese codigo no debe ser ambigua es decir, un posible mensaje de la fuente o cualquier otro, tenga una y solo una interpretacin , es decir carezca de ambigedad. 3. En efecto el Teorema de Patterson-Sardinas nos ayudan a verificar si un codigo es U.D. o no, pero aqui debemos notar que para demostrar que un codigo no es unvocamente decodificable, bastara con encontrar una cadena que sea ambigua.
Cdigos Unvocamente Decodificables - Una aplicacin en lnea que permite identificar un cdigo unvocamente decodificable (UD) usando el teorema de Sardinas-Patterson. crearte una cuenta de usuario Categoras: Wikipedia:Artculos demasiado complejos | Wikipedia:Esbozo matemtica
Artculo Discusin Editar Historial
Registrarse/Entrar
Navegacin Portada Portal de la comunidad Actualidad Cambios recientes Pgina aleatoria Ayuda Donativos Buscar
Ir Buscar
Herramientas Lo que enlaza aqu Cambios en enlazadas Subir archivo Pginas especiales Versin para imprimir Enlace permanente Citar este artculo
Puedes buscar pginas sobre Extensin de cdigo, ver todas las pginas desde este ttulo o solicitar su creacin. Para comenzar a crear un artculo, introduce la informacin en la caja situada debajo. Si has seguido un enlace rojo, no ests obligado a introducir un texto aqu. Puedes volver atrs y seguir en el artculo anterior. Puedes pedir informacin en Consultas, porque si lo haces aqu tu peticin ser borrada sin previo aviso. Si quieres hacer pruebas, por favor, utiliza la Zona de pruebas. Si ya habas creado la pgina con este nombre, limpia el cach de tu navegador. Tambin puede haber sido borrada. Consulta la votacin de borrado. Busca Extensin de cdigo en uno de los proyectos hermanos de Wikipedia:
Wikilibros Wikinews
[Ayuda]
Atencin: est creando una pgina que ha sido borrada previamente. Debera considerar si es apropiado continuar editando esta pgina. Consulte a continuacin el registro de borrados:
12:19 11 oct 2005 Rsg (discusin | contribuciones) borr "Extensin de cdigo (Ver votacin de borrado en Wikipedia:Consultas de borrado/Extensin de cdigo)
Ests a punto de editar un artculo sin haberte registrado como usuario. Esto har que quede registrada pblicamente tu direccin IP como autora de la edicin. Si quieres puedes crearte una cuenta de usuario.
20080102232455 20080102232455
Confirmo que mis cambios no violan ninguna de las polticas de derechos de autor y que estn basados en fuentes verificables. Resumen:
Grabar la pgina
Mostrar previsualizacin
Mostrar cambios
En matemticas, computacin y teora de la informacin, la deteccin y correccin de errores es una importante prctica para el mantenimiento e integridad de los datos a travs de canales ruidosos y medios de almacenamiento poco confiables.
Tabla de contenidos
[ocultar]
1 Introduccin 2 Tipo de cdigos detectores 2.1 Paridad simple (paridad horizontal) 2.2 Paridad cruzada (paridad horizontal-vertical) 2.3 Cdigos de redundancia cclica tambin llamados CRC 2.4 Suma de comprobacin 2.5 Distancia de Hamming basada en comprobacin 3 Lista de los mtodos de correccin y deteccin de errores 4 Enlaces externos
Introduccin [editar]
La comunicacin entre varias computadoras produce continuamente un movimiento de datos, generalmente por canales no diseados para este propsito (lnea telefnica), y que introducen un ruido externo que produce errores en la transmisin. Por lo tanto, debemos asegurarnos que si dicho movimiento causa errores, stos puedan ser detectados. El mtodo para detectar y corregir errores es incluir en los bloques de datos transmitidos bits adicionales denominados redundancia. Se han desarrollado dos estrategias bsicas para manejar los errores:
Incluir suficiente informacin redundante en cada bloque de datos para que se puedan detectar y corregir los bits errneos. Se utilizan cdigos de correccin de errores. Incluir slo la informacin redundante necesaria en cada bloque de datos para detectar los errores. En este caso el nmero de bits de redundancia es menor. Se utilizan cdigos de deteccin de errores. Si consideramos un bloque de datos formado por m bits de datos y r de redundancia, la longitud final del bloque ser n, donde n = m + r.
E recept r ah ra, repite a peracin de c ntar a cantidad de un s que hay (menos el ltimo bit) y si coincide, es que no ha habido error. Problemas de este mtodo: Hay una alta probabilidad de que se cuelen casos en los que ha habido error, pero se ha pasado, como ocurre si se cambian dos nmeros en la transmisin en vez de uno.
Para ver ms claro este mtodo, se suelen agrupar los bits en una matriz de N filas por K columnas, luego se realizan todas las paridades horizontales por el mtodo anterior, y por ltimo, se hace las misma operacin de calcular el nmero de unos, pero ahora de cada columna. La probabilidad de encontrar un solo error es la misma, pero en cambio, la probabilidad de encontrar un nmero par errores ya no es cero, como en el caso anterior. Aun as, existen todava una gran cantidad de errores no detectables
Un ejemplo de paridad cruzada (o de cdigo geomtrico) 1 Tenemos este cdigo para transmitir: 1100101111010110010111010110 2 Agrupamos el cdigo en cada una de las palabras, formando una matriz de N x K: 1100101 1110101 1001011 1010110 3 Aadimos los bits de paridad horizontal: 1100101 1110101 1001011 1010110 0 1 0 0
0001101 1
Una vez creada la matriz, podemos enviar sta por filas, o por columnas. Enviando las palabras por columnas aumentamos la posibilidad de corregir una palabra que haya sufrido un error de rfaga (errores que afectan a varios bits consecutivos, debidos a causas generalmente electrnicas, como chispazos, y que haran que se perdiera toda una palabra completa)
Intentando mejorar los cdigos que slo controlan la paridad de bit, aparecen los cdigos cclicos. Estos cdigos utilizan la aritmtica modular para detectar una mayor cantidad de errores. Y para facilitar los clculos se trabaja (aunque solo tericamente con polinomios). La finalidad de este mtodo es crear una parte de redundancia la cual se aade al final del cdigo a transmitir (como en los mtodos de paridad) que siendo la ms pequea posible, detecte el mayor nmero de errores que sea posible. Pero adems de esto, debe ser un mtodo sistemtico, es decir, que con un mismo cdigo a transmitir, (y un mismo polinomio generador) se genere siempre el mismo cdigo final. El polinomio generador: es un polinomio elegido previamente, y que tiene como propiedad minimizar la redundancia. Suele tener una longitud de 16 bits, para mensajes de 128 bytes, lo que ndica que la eficiencia es buena. Ya que solo incrementa la longitud en un aproximado 1,6%
(16bits / (128bytes * 8bitsporbyte)) * 100 = 1,5625
Un ejemplo de polinomio generador usado normalmente en las redes WAN es: g(x) = x16 + x12 + x5 + 1 Los clculos que realiza el equipo transmisor para calcular su CRC son: 1. Aade tantos ceros por la derecha al mensaje original como el grado del polinomio generador 2. Divide el mensaje con los ceros incluidos entre el polinomio generador 3. El resto que se obtiene en la divisin se suma al mensaje con los ceros incluidos 4. Se enva el resultado obtenido Estas operaciones generalmente son incorporadas en el hardware para que pueda ser calculado con mayor rapidez, pero en la teria se utilizan los polinomios para facilitar los calculos.
Ejemplo de obtencin del CRC: Datos: Mensaje codificado en binario: 1101010 Polinomio generador: x4 + x + 1 Operaciones: 1 Obtener el polinomio equivalente al mensaje: x6 + x5 + x3 + x 2 Multiplicar el mensaje por x4 (aadir 4 ceros por la derecha): x10 + x9 + x7 + x4 3 Dividir en binario el mensaje por el polinomio generador y sacar el resto: x2 + 1 4 Restar el mensaje con el resto (en binario tambin): x10 + x9 + x7 + x4 + x3 + x1 +1 5 Transmitir el mensaje
El equipo receptor debe comprobar el cdigo CRC para comprobar si se han producido o no errores.
Ejemplo de los clculos del receptor: 1 Mediante el protocolo correspondiente acuerdan el polinomio generador 2 Divide el cdigo recibido entre el polinomio generador 3 comprueba el resto de dicha operacin 3.1 Si el resto es cero, no se han producido errores 3.2 Procesar el mensaje 3.1 Si el resto es distinto de cero, significa que se han producido errores 3.2 Reenviar el mensaje 3.2 Intentar corregir los errores mediante los cdigos correctores
En resumen, este mtodo requiere de un polinomio generador, que elegido correctamente, puede llegar a detectar gran cantidad de errores: Errores simples: todos Errores dobles: todos
Errores en las posiciones impares de los bits: todos Errores en rfagas con una longitud menor que el grado del polinomio generador: todos Otras rfagas: un porcentaje elevado, y cercano al 100%
Este mtodo al ser ms sencillo es ptimo para ser implementado en software ya que se puede alcanzar velocidades de clculo similares a la implementacin en hardware
Si queremos detectar d bit errneos en una palabra de n bits, podemos aadir a cada palabra de n bits d+1 bits predeterminados al final, de forma que quede una palabra de n+d+1 bits con una distancia mnima de Hamming de d+1. De esta manera, si uno recibe una palabra de n+d+1 bits que no encaja con ninguna palabra del cdigo (con una distancia de Hamming x <= d+1 la palabra no pertenece al cdigo) detecta correctamente si es una palabra errnea. An ms, d o menos errores nunca se convertirn en una palabra vlida debido a que la distancia de Hamming entre cada palabra vlida es de al menos d+1, y tales errores conducen solamente a las palabras invlidas que se detectan correctamente. Dado un conjunto de m*n bits, podemos detectar x <= d bits errores correctamente usando el mismo mtodo en todas las palabras de n bits. De hecho, podemos detectar un mximo de m*d errores si todas las palabras de n bits son transmitidas con un mximo de d errores.
Ejemplo: Palabras a enviar: 1: 000001 2: 000001 3: 000010 Codificadas con distancia mnima de Hamming = 2:
000001 0000 000001 0011 000010 1100 Si las palabras recibidas tienen una distancia de Hamming < 2 Son palabras incorrectas
Registrarse/Entrar
Navegacin Portada Portal de la comunidad Actualidad Cambios recientes Pgina aleatoria Ayuda Donativos Buscar
Ir
Buscar
Herramientas Lo que enlaza aqu Cambios en enlazadas Subir archivo Pginas especiales Versin para imprimir Enlace permanente Citar este artculo Otros idiomas Catal Deutsch English Franais Portugus