El término bit es un acrónimo inglés –cuyo significado es sigla que se pronuncia como una palabra y que por el uso termina por lexicalizarse- tomado de bi[nary digi]t que se traduce en español dígito binario.
Si bien tiene los mismos fonemas que el sustantivo inglés, éste significa un trozo, una pequeña parte del todo, por lo tanto ambos conceptos son totalmente diferentes.
Clase: acrónimo del inglés.
La definición correspondiente a esta palabra es la unidad de medida de información, dentro de la informática, que equivale a la alternativa de dos posibilidades en igualdad de probabilidad.
Por su parte esta unidad es un dígito correspondiente al sistema de numeración binario utilizado en computadoras digitales. Mientras en el sistema decimal se usan diez dígitos, en el binario solo se utilizan dos: el 0 y el 1. Por lo tanto con esta denominación se puede representar tanto al 0 como al 1, dándole a cada uno un valor cualquiera, tal como “apagado” o “encendido”; “alto” o “bajo” (referido a la corriente eléctrica) etc., aunque en electrónica e informática se utiliza para apagado/encendido.
Entonces, dado que con esta unidad solo se puede representar solamente dos valores, si se necesita representar más información, se necesidad mayor cantidad de bits. Ya que si se usan dos, solamente se tiene cuatro alternativas posibles:
-0 0 que significa ambos están apagados.
-0 1 donde el 0 significa que está apagado y 1, encendido.
-1 0 donde significa que el 1 está encendido y 0, apagado.
-1 1 que significa que ambos están encendidos.
Mediante las secuencias de esta unidad, se puede llegar a codificar cualquier valor tal como palabras, imágenes o números.
Desde este concepto se forma el nibble que se encuentra conformado por 4 y el octeto que está conformado por 8. Hay que aclarar que octeto y byte no es lo mismo ya que el byte puede estar formado por 6, 7, 8 o 9 b, si bien actualmente la mayoría de las computadoras un byte tiene 8 b, pueden existir excepciones.
Cuando esta magnitud se aplica a CPUs o a microprocesadores donde se especifica que tienen 4, 8, 16, 32 o 64 bits, se está aludiendo al tamaño que posee el registro interno del microprocesador y a su vez, a la capacidad de procesar la Unidad aritmético lógica. De este modo los microprocesadores de 16, o de 32 o de 64 tienen registros equivalentes a esos números y la Unidad aritmético lógica realiza operaciones de 16, 32 o 64 respectivamente. Estos procesadores realizan esa operación en el tamaño de la unidad de sus registros aunque también lo pueden realizar en submúltiplos, de acuerdo al diseño que posea.
Además de su uso para delimitar la capacidad de la computadora, esta unidad también se usa para clasificar colores de una imagen. De hecho una imagen de un solo color tiene un valor de 1 en cada punto sea blanco o negro, en tanto por ejemplo una imagen de 8 bits llega hasta 256 colores.
“Lo primero que le explicaron en el curso de técnico en computación es el valor del bit y para qué sirve”. En este ejemplo, se usa con el sentido de su función en informática.
“Le han recomendado que para realizar las fotos de la ceremonia de una boda las realice en 16 bits”. Se refiere en este caso a su aplicación en una imagen.
“El bit fue definido por el ingeniero Claude Shannon que utilizó este término por primera vez en 1948.”. Aquí, se aplica al creador de esta palabra.