596 Shares 1371 views

Codificação de informações de texto no computador

Computador – um dispositivo sofisticado com o qual você pode criar, converter e armazenar informações. No entanto, o computador não funciona maneira muito compreensível para nós – gráfico, texto e dados numéricos é armazenada como matrizes binárias números. Neste artigo, vamos olhar para a forma como a codificação das informações de texto.

O que para nós é o texto de um computador – uma sequência de caracteres. Cada símbolo representa um determinado conjunto de zeros e uns. Sob os símbolos significava não só maiúsculas e minúsculas letras do latim alfabeto, mas também sinais de pontuação, sinais aritméticos, caracteres especiais, símbolos especiais e até mesmo o espaço.

codificação binária de informação textual

Premindo uma certa tecla no controlador interno envia um sinal eléctrico que é convertido para um código binário. Código é combinado com um determinado símbolo, que é exibido na tela. Para apresentação ao alfabeto latino em um sistema de codificação internacional ASCII formato digital foi criado. Isso requer um byte para o registo de um símbolo, portanto, consiste em sequência de oito símbolo de zeros e uns. O intervalo de gravação – de 00000000 a 11111111, ou seja, codificação de informações de texto usando este sistema permite-nos representar 256 caracteres. Na maioria dos casos, isso é suficiente.

ASCII é dividido em duas partes. Os primeiros 127 caracteres (de 00000000 a 01111111) são internacionais e são símbolos e letras do alfabeto Inglês específicos. A segunda parte – a extensão (10000000-11.111.111) – pretende representar o alfabeto nacional, a escrita de que é diferente do latim.

informações de texto codificação em ASCII é construído sobre o princípio da seqüência crescente, ou seja, quanto maior o número de seqüência de letras, maior será o valor de sua ASCII-código. Figuras e parte russa da mesa são construídas sobre o mesmo princípio.

No entanto, no mundo existem vários tipos de codificação para letras cirílicas. O mais comum – é KOI-8 (que codifica oito bits que foi usado para nos anos 70 no primeiro ruifitsirovannyh sistema operativo Unix), ISO 8859-5 (desenvolvido pelo Departamento de Normalização Internacional), o CP 1251 (que codifica informações textuais utilizado no moderna OS Windows), bem como a codificação de 2 bytes de Unicode, que pode ser usado para introduzir 65.536 caracteres. Tal variedade de codificações, devido ao fato de que eles foram desenvolvidos em momentos diferentes, para diferentes sistemas operacionais e diferentes considerações. Devido a isso, muitas vezes têm dificuldades na transferência de texto a partir de um meio para outro – de uma incompatibilidade codificar o usuário verá um conjunto de ícones confusos. Como posso corrigir esta situação? No Word, por exemplo, quando um documento é aberto, uma mensagem sobre problemas com a exibição de texto e oferece várias opções para transcodificação.

Assim, codificação e processamento de informações textuais na entranhas do computador – o processo é difícil e organizado demorado. Todos os símbolos de qualquer alfabeto são apenas uma determinada seqüência de dígitos do sistema binário, uma célula – este é um byte de informação.