jueves, 20 de noviembre de 2008

QUE ES UN BIT, BYTE, NUMEROS BINARIOS Y CODIGO ASCII

QUE ES UN BIT
Bit es el acrónimo de Binary digit. (dígito binario). Un bit es un dígito del sistema de numeración binario. La Real Academia Española (RAE) ha aceptado la palabra bit con el plural bits. Mientras que en el sistema de numeración decimal se usan diez dígitos, en el binario se usan sólo dos dígitos, el 0 y el 1. Un bit o dígito binario puede representar uno de esos dos valores, 0 ó 1. Podemos imaginarnos un bit como una bombilla que puede estar en uno de los siguientes dos estados: apagada o encendida El bit es la unidad mínima de almacenamiento empleada en informática, en cualquier dispositivo digital, o en la teoría de la información. Con él, podemos representar dos valores cuales quiera, como verdadero o falso, abierto o cerrado, blanco o negro, norte o sur, masculino o femenino, rojo o azul, etc. Basta con asignar uno de esos valores al estado de "apagado" (0), y el otro al estado de "encendido" (1).


BYTE

Byte es una voz inglesa (pronunciada [bait] o ['bi.te]), que si bien la Real Academia Española ha aceptado como equivalente a octeto, es decir a ocho bits, para fines correctos, un byte debe ser considerado como una secuencia de bits contiguos, cuyo tamaño depende del código de información o código de caracteres en que sea definido. La unidad byte no tiene símbolo establecido internacionalmente, aunque en países anglosajones es frecuente B mientras que en los francófonos es o (de octet); la ISO y la IEC en la norma 80000-13:2008 recomiendan restringir el empleo de esta unidad a los octetos (bytes de 8 bit). Se usa comúnmente como unidad básica de almacenamiento de información en combinación con los prefijos de cantidad. Originalmente el byte fue elegido para ser un submúltiplo del tamaño de palabra de un ordenador, desde seis a nueve bits (un carácter codificado estaría adaptado a esta unidad). La popularidad de la arquitectura IBM S/360 que empezó en los años 1960 y la explosión de las microcomputadoras basadas en microprocesadores de 8 bits en los años 1980 ha hecho obsoleta la utilización de otra cantidad que no sean 8 bits. El término octeto se utiliza ampliamente como un sinónimo preciso donde la ambigüedad es indeseable (por ejemplo, en definiciones de protocolos).

NUMEROS BINARIOS

Internamente, la máquina computadora representa los valores numéricos mediante grupos de bits. agrupados en bytes. Por ejemplo, el número 3 se representa mediante un byte que tiene "activos" los bits primero y segundo (contando desde la derecha); 00000011. Esta sería la forma de representación del número 3 en un sistema numérico de base 2, también conocido como BINARIO. El sistema que utilizamos normalmente es un sistema DECIMAL o de base 10. En un sistema DECIMAL, contamos desde el 0 hasta el 9 antes de añadir un nuevo dígito. El número 22 en un sistema decimal significa que tenemos dos conjuntos de 10s y 2 conjuntos de 1s. En un sistema BINARIO sólo pueden haber dos valores para cada dígito: ya sea un 0=DESACTIVADO ó un 1=ACTIVADO. Para representar el número 22 en notación BINARIA lo haríamos como 00010110, notación que se explica según la siguiente tabla: Posición del BIT: 7 6 5 4 3 2 1 0 Valor Binario: 0 0 0 1 0 1 1 0 Valor Decimal: 128 64 32 16 8 4 2 1 Valores a Sumar: 0 0 0 16 0 4 2 0 Valor Resultante: 16 + 4 + 2=22 Todos los valores que corresponden a posiciones a las que se asigna el valor binario de 0 (cero) no se cuentan, ya que 0 representa DESACTIVADO. De la misma manera, los números que corresponden a las posiciones con valor binario 1 se sumarán, (16 + 4 + 2=22) ya que 1 representa ACTIVADO.

COPDIGO ASCII

El código ASCII (acrónimo inglés de American Standard Code for Information Interchange — (Código Estadounidense Estándar para el Intercambio de Información), pronunciado generalmente [áski], es un código de caracteres basado en el alfabeto latino tal como se usa en inglés moderno y en otras lenguas occidentales. Fue creado en 1963 por el Comité Estadounidense de Estándares (ASA, conocido desde 1969 como el Instituto Estadounidense de Estándares Nacionales, o ANSI) como una refundición o evolución de los conjuntos de códigos utilizados entonces en telegrafía. Más tarde, en 1967, se incluyeron las minúsculas, y se redefinieron algunos códigos de control para formar el código conocido como US-ASCII. El código ASCII utiliza 7 bits para representar los caracteres, aunque inicialmente empleaba un bit adicional (bit de paridad) que se usaba para detectar errores en la transmisión. A menudo se llama incorrectamente ASCII a otros códigos de caracteres de 8 bits, como el estándar ISO-8859-1 que es una extensión que utiliza 8 bits para proporcionar caracteres adicionales usados en idiomas distintos al inglés, como el español.


Binario Decimal Hex Abreviatura Repr AT Nombre Significado

0000 0000 0 00 NUL ␀ ^@ Carácter Nulo

0000 000 1 101 SOH ␁ ^A Inicio de Encabezado

0000 0010 2 02 STX ␂ ^B Inicio de Texto

0000 0011 3 03 ETX ␃ ^C Fin de Texto

0000 0100 4 04 EOT ␄ ^D Fin de Transmisión

0000 0101 5 05 ENQ ␅ ^E Enquiry