Página  >  Edições  >  N.º 113  >  Os bits

Os bits

Uma explicação em torno do que são os bits e da sua importância na redução da incerteza na comunicação.

Em 1948, Claude Shannon finalizava a sua tese de doutoramento à qual deu o nome de "Teoria Matemática da Comunicação", um trabalho cujo conteúdo ficou famoso e é hoje mais conhecido pela designação de "Teoria da Informação". Outros cientistas, como Norbert Wiener - o "pai da Cibernética" -, também podem por boas razões ser ligados ao campo teórico da "Teoria da Informação". Contudo, foi basicamente através de Shannon - empregado como investigador dos laboratórios Bell dos EUA - que nos chegou a sistematização
apropriada ao desenvolvimento das comunicações digitais como hoje as conhecemos.
De tudo o que lá podemos ir buscar é, talvez, o conceito da unidade de quantidade de informação aquele cuja relação entre nível de compreensão acerca do seu significado e respectiva popularidade é mais baixa - com efeito, quase toda a gente já ouviu falar ou já falou acerca dos bits, mas pouco sabem exactamente do que são os bits. Ou não será assim? Por vezes mesmo, quem julga que sabe um pouco mais confunde-os com bauds ou com bytes. E quem faz confusões destes quilates não são autoridades de somenos. Já as temos visto assumidas por autoridades de renome mundial em áreas como o multimédia.
Os bits aparecem-nos normalmente por via da caracterização da capacidade de escoamento da informação transportada pelos sinais transmitidos por uma ligação de (tele-)comunicações. Neste sentido, para ser rigoroso, não se está a lidar exactamente com bits mas com bit/s (sabe-se, uma unidade não se escreve no plural e escoamento significa ritmo, neste caso velocidade de transmissão; daí o podermos falar em bit por segundo - os americanos escrevem mesmo "bps"). E mais, neste caso, vêem os ditos bits - os que se dão ao interesse de os imaginar - como impulsos eléctricos, os "1", e a sua ausência como os "0".
Mas, por aqui, assim, não chegamos à natureza da informação e da sua quantificação, tal como Shannon tão magistralmente simples a conceptualizou. Isto é, temos de ir à procura da mónada da informação, à sua "partícula" elementar. E essa foi definida por Shannon como sendo a quantidade de informação que é recebida - percebida - de uma fonte de informação capaz de assumir - emitir - um de dois estados distintos, sempre que um deles é definido. Essa quantidade elementar de informação foi chamada bit por Shannon. A palavra bit sendo, em termos literais, o resultado da contracção das palavras "binary digit".
Portanto, o receptor, antes da fonte de informação assumir um dos dois estados, encontra-se numa situação de incerteza. Situação que se resolve quando a fonte assume um dos seus dois estados possíveis. Ao reconhecer o estado assumido pela fonte, o estado de incerteza do receptor passa a um estado de certeza - recebeu um bit de informação. E, a partir desta situação, é possível analisar em termos de quantidade de informação todos os tipos de sinais - sonoros, vídeo, caracteres alfanuméricos, telegráficos - por mais complexos que sejam. Tecnicamente são convertidos de analógicos em digitais, é quanto basta.


  
Ficha do Artigo
Imprimir Abrir como PDF

Edição:

N.º 113
Ano 11, Junho 2002

Autoria:

Francisco Silva
Engenheiro, Portugal Telecom
Francisco Silva
Engenheiro, Portugal Telecom

Partilhar nas redes sociais:

|


Publicidade


Voltar ao Topo