Diferença entre binário e ASCII

Diferença entre binário e ASCII
Diferença entre binário e ASCII

Vídeo: Diferença entre binário e ASCII

Vídeo: Diferença entre binário e ASCII
Vídeo: Ovíparos, Vivíparos e Ovovivíparos - 8º ano 2024, Julho
Anonim

Binário vs ASCII

Código binário é um método usado em computadores e dispositivos digitais para representar e transferir texto, símbolos ou instruções do processador. Como computadores e dispositivos digitais realizam suas operações fundamentais com base em dois valores de tensão (Alta ou Baixa), cada bit de dados envolvido com um processo precisa ser convertido nessa forma. O método ideal para realizar essa tarefa é representar os dados no sistema numérico binário, que inclui apenas dois dígitos, 1 e 0. Por exemplo, a cada pressionamento de tecla no teclado, ele produz uma sequência de 1`s e 0`s, que é exclusivo para cada caractere e o envia como saída. O processo de conversão de dados em código binário é chamado de codificação. Muitos métodos de codificação são usados em computação e telecomunicações.

ASCII, que significa American Standard Code for Information Interchange, é uma codificação padrão para caracteres alfanuméricos usados em computadores e dispositivos relacionados. O ASCII foi introduzido pelo United States of America Standards Institute (USASI), agora conhecido como American National Standards Institute.

Mais sobre Códigos Binários

A maneira mais simples de codificar um dado é atribuir um valor específico (principalmente em números decimais) ao caractere ou ao símbolo ou à instrução e, em seguida, converter o valor (número decimal) para o número binário, que consiste apenas de 1`s e 0`s. A sequência de 1 `s e 0`s é chamada de string binária. O comprimento da string binária determina o número de caracteres ou instruções diferentes que podem ser codificados. Com apenas um dígito, apenas dois caracteres ou instruções diferentes podem ser representados. Com dois dígitos, quatro caracteres ou instruções podem ser representados. Geralmente, com uma string binária de n dígitos, 2 diferentes caracteres, instruções ou estados podem ser representados.

Existem muitos métodos de codificação com diferentes comprimentos de strings binárias, dos quais alguns têm comprimento constante e outros comprimento variável. Alguns dos códigos binários com cadeias de bits constantes são ASCII, ASCII estendido, UTF-2 e UTF-32. UTF-16 e UTF-8 são códigos binários de comprimento variável. Tanto a codificação Huffman quanto o código Morse também podem ser considerados códigos binários de comprimento variável.

Mais sobre ASCII

ASCII é um esquema de codificação de caracteres alfanuméricos introduzido na década de 1960. O ASCII original usa uma string binária de 7 dígitos, o que permite representar 128 caracteres. Uma versão posterior do ASCII, chamada ASCII estendido, usa uma string binária de 8 dígitos, dando-lhe a capacidade de representar 256 caracteres diferentes.

ASCII inclui, principalmente, dois tipos de caracteres, que são caracteres de controle (representados por 0-31 decimal e 127decimal) e caracteres imprimíveis (representados por 32- 126 decimal). Por exemplo, a exclusão da tecla de controle recebe o valor 127decimal que é representado por 1111111. O caractere a, que recebe o valor 97decimal, é representado por 1100001. ASCII pode representar letras em ambos os casos, números, símbolos e teclas de controle.

Qual é a diferença entre Código Binário e ASCII?

• Código binário é um termo geral usado para um método de codificação de caracteres ou instruções, mas ASCII é apenas uma das convenções de codificação de caracteres globalmente aceitas e foi o esquema de codificação binário mais usado por mais de três décadas.

• O código binário pode ter comprimentos diferentes para codificação dependendo do número de caracteres, instruções ou método de codificação, mas o ASCII usa apenas uma string binária de 7 dígitos e 8 dígitos para ASCII estendido.

Recomendado: