Uma explicação em torno do que são os bits e da sua importância na redução da
incerteza na comunicação.
Em 1948, Claude Shannon finalizava a sua tese de doutoramento à qual deu o nome
de "Teoria Matemática da Comunicação", um trabalho cujo conteúdo ficou famoso e
é hoje mais conhecido pela designação de "Teoria da Informação". Outros
cientistas, como Norbert Wiener - o "pai da Cibernética" -, também podem por
boas razões ser ligados ao campo teórico da "Teoria da Informação". Contudo,
foi basicamente através de Shannon - empregado como investigador dos
laboratórios Bell dos EUA - que nos chegou a sistematização
apropriada ao desenvolvimento das comunicações digitais como hoje as
conhecemos.
De tudo o que lá podemos ir buscar é, talvez, o conceito da unidade de
quantidade de informação aquele cuja relação entre nível de compreensão acerca
do seu significado e respectiva popularidade é mais baixa - com efeito, quase
toda a gente já ouviu falar ou já falou acerca dos bits, mas pouco sabem
exactamente do que são os bits. Ou não será assim? Por vezes mesmo, quem julga
que sabe um pouco mais confunde-os com bauds ou com bytes. E quem faz confusões
destes quilates não são autoridades de somenos. Já as temos visto assumidas por
autoridades de renome mundial em áreas como o multimédia.
Os bits aparecem-nos normalmente por via da caracterização da capacidade de
escoamento da informação transportada pelos sinais transmitidos por uma ligação
de (tele-)comunicações. Neste sentido, para ser rigoroso, não se está a lidar
exactamente com bits mas com bit/s (sabe-se, uma unidade não se escreve no
plural e escoamento significa ritmo, neste caso velocidade de transmissão; daí
o podermos falar em bit por segundo - os americanos escrevem mesmo "bps"). E
mais, neste caso, vêem os ditos bits - os que se dão ao interesse de os
imaginar - como impulsos eléctricos, os "1", e a sua ausência como os "0".
Mas, por aqui, assim, não chegamos à natureza da informação e da sua
quantificação, tal como Shannon tão magistralmente simples a conceptualizou.
Isto é, temos de ir à procura da mónada da informação, à sua "partícula"
elementar. E essa foi definida por Shannon como sendo a quantidade de
informação que é recebida - percebida - de uma fonte de informação capaz de
assumir - emitir - um de dois estados distintos, sempre que um deles é
definido. Essa quantidade elementar de informação foi chamada bit por Shannon.
A palavra bit sendo, em termos literais, o resultado da contracção das palavras
"binary digit".
Portanto, o receptor, antes da fonte de informação assumir um dos dois estados,
encontra-se numa situação de incerteza. Situação que se resolve quando a fonte
assume um dos seus dois estados possíveis. Ao reconhecer o estado assumido pela
fonte, o estado de incerteza do receptor passa a um estado de certeza - recebeu
um bit de informação. E, a partir desta situação, é possível analisar em termos
de quantidade de informação todos os tipos de sinais - sonoros, vídeo,
caracteres alfanuméricos, telegráficos - por mais complexos que sejam.
Tecnicamente são convertidos de analógicos em digitais, é quanto basta.
|