A capacidade de transmitir digitalmente a voz, as imagens e os dados usando bits e bytes e enviando-os através de linhas telefônicas, cabos, satélites e da Internet, deve-se a um gênio chamado

CLAUDE ELWOOD SHANNON  

        O PAI do BIT ...

Shannon
Claude Elwood Shannon
(1916-2001)

.

Claude Elwood Shannon nasceu em Petoskey, no estado de Michigan, EUA, em 30 de Abril de 1916. O pai era descendente de pioneiros que se tinham estabelecido em Nova Jersey e a mãe, filha de imigrantes alemães. Manifestou desde jovem uma grande inclinação para a mecânica - construía modelos de aviões, miniaturas de barcos com controle remoto e até mesmo um telégrafo, com o qual se comunicava com os vizinhos. Na escola, mostrou grande inclinação para as ciências e para a matemática.

Frequentou depois a universidade de Michigan, onde a liberdade de escolha de cadeiras do sistema norte-americano lhe permitiu obter uma dupla licenciatura, em Engenharia Eletrotécnica e em Matemática. Continuou os seus estudos no Massachusetts Institute of Technology (MIT), onde trabalhou com Vannevar Bush (1890-1974) na construção do analisador diferencial, um pioneiro mecânico dos computadores analógicos e que era o sistema automático de cálculo mais potente da época.

ESTUDANDO BOOLE...

Interessado em problemas da computação, estudou Álgebra de BOOLE, a álgebra de cálculo lógico baseada na dicotomia zero-um (falso-verdadeiro).

No intervalo da atividade acadêmica trabalhou nos célebres Laboratórios Bell, onde estudou problemas de comunicação elétrica. Teve então a idéia pioneira de reduzir o conteúdo da informação a sequências de zeros e uns e de tratá-la segundo as regras da LÓGICA de BOOLE. "Até hoje, ninguém tinha sequer se aproximado dessa idéia", disse mais tarde o seu colega Robert Gallager, "foi um avanço que, sem ele, teria demorado muito a ser conseguido". A idéia foi desenvolvida na sua tese de mestrado de 1938, premiada e publicada numa revista científica. São apenas 11 páginas, mas condensadas com as inovações essenciais, e sem rodeios nem repetições.

Concluído o mestrado, Vannevar Bush sugeriu-lhe que continuasse os estudos no departamento de matemática do MIT. Percebeu então que a genética era um ramo científico com grande potencial de tratamento matemático. Sempre interessado nas aplicações, concluiu uma tese de doutoramento sobre Uma Álgebra da Genética Teórica. Apesar da sua notória dificuldade com línguas estrangeiras, exigidas para a graduação, Shannon consegue seus graus de mestre em Engenharia Eletrotécnica e de doutor em Matemática em 1940.

Terminados os estudos, Dr. Shannon foi trabalhar para o Instituto de Estudos Avançados de Princeton com o matemático Hermann Weyl (1885-1955). Passou depois para os Bell Labs, em Nova Jersey, onde trabalhavam muitos cientistas extraordinários, como John Pierce, um dos criadores da comunicação por satélite, Harry Nyquist, pioneiro do tratamento de sinais, e os inventores do transístor, Brattain, Bardeen e Shockley. Trabalhou em várias áreas: sistemas automáticos de defesa aérea, sensores ópticos, criptografia e, acima de tudo, teoria da informação.

 TEORIA MATEMÁTICA DA COMUNICAÇÃO (download)

No seu trabalho Uma Teoria Matemática da Comunicação, publicado em 1948 na revista Bell System Technical Journal, abriu uma área nova e inédita na matemática. Esta área surgiu essencialmente completa, com as definições e conceitos básicos formulados, com os teoremas e resultados fundamentais já estabelecidos e, o mais espantoso, sem precedentes visíveis na literatura existente na época. Raras vezes isso acontece, pois os avanços da ciência, mesmo que geniais, podem habitualmente se referir a problemas há muito discutidos ou a teorias em gestação.Nesse trabalho Shannon desenvolve a teoria da informação e transmissão de sinais digitais, baseados em sequências de zeros e uns.

É aí que define "o problema fundamental da comunicação como o de reproduzir num local, de forma aproximada ou exata, uma mensagem selecionada noutro local". Estabeleceu então o esquema de transmissão de informação hoje clássico, com uma mensagem que parte de uma fonte, é codificada e emitida por um transmissor, passa por um canal de comunicação, sofre perturbações designadas por ruídos, e chega depois ao receptor, passando por um sistema de decodificação. Ao falar de "uma mensagem selecionada", Shannon refere-se a uma sequência informativa que pode ser escolhida entre muitas outras, que aparecerão com iguais ou diferentes probabilidades. Define então a quantidade de informação com base na sua incerteza ou dificuldade de previsão.

Suponha, por exemplo, que um emissor transmite a mensagem "bom dia", letra por letra. Ao emitir as primeiras letras, há uma expectativa da parte do receptor, que vê surgir as letras "b", "o", "m", um espaço, e depois "d" e o "i". O "a" final é quase inútil, pois sua probabilidade de ocorrência é tão grande, para dar sentido à sequência anterior, que a quantidade de informação transmitida por essa letra é muito menor que a transmitida pelas primeiras. Para medir a quantidade de informação, Shannon criou o conceito de entropia, diferente do conceito homônimo encontrado em termodinâmica. Porque esta denominação foi escolhida? Ao que parece, foi o matemático norte-americano de origem húngara, John von Neumann (1903-1957), quem sugeriu este termo. Teria dito, ironicamente, "deve chamá-la de 'entropia' por duas razões: primeiro, porque essa mesma função matemática já é utilizada em termodinâmica, com esse nome; segundo, e mais importante, porque pouca gente sabe realmente o que é entropia e, se usar esse termo numa discussão, sairá sempre ganhando."

O IMPACTO NAS TRANSMISSÕES

Com o conceito de entropia pode-se definir a quantidade de informação transmitida e os limites ótimos de compressão dessa informação. Em 1948, quando Shannon anunciou a sua nova teoria matemática, o cabo elétrico de "banda mais larga" então existente podia transmitir 1800 conversas telefônicas simultâneas. 25 anos mais tarde, um cabo telefônico podia transmitir 230 mil conversas simultâneas. Hoje, uma nova fibra ótica da Lucent (Bell Labs), com a espessura de um cabelo humano, pode comportar 6,4 milhões de conversas. No entanto, mesmo com esta largura de banda, os limites teóricos de capacidade de canal determinados por Shannon estão muito além dos praticados. Os engenheiros sabem que ainda há muito o que melhorar.

Embora sua teoria seja bastante técnica, vejamos um exemplo da utilidade que tem tal unidade de informação. Voltemos ao problema que motivou os estudos de Shannon: o problema da capacidade de comunicação de um canal transmissor.
A solução do problema é resumida numa fórmula, hoje básica da Teoria da Informação, a chamada fórmula de Shannon:

ela dá a velocidade máxima Cmax ( em bits por segundo ) com que sinais de potência S watts podem passar por um canal de comunicação, o qual deixa passar sem distorção apenas os sinais de frequência até B hertz, e o qual produz ruídos de potência no máximo N watts ( e esses ruídos são do tipo usual, chamado ruído branco ).

Vejamos um exemplo numérico importante: o caso das linhas telefônicas analógicas, essas que comumente encontramos aqui no Brasil. Elas são construídas para passar voz humana, frequência de até 3 400 hertz. Consequentemente:

Dá para V. começar a entender as limitações do modem ligado em seu computador ?

Conhecendo a capacidade de um canal usando os conceitos da Teoria da Informação de Shannon, pode-se melhorar a transferência de um sinal e filtrar o ruído, alcançando uma confiabilidade maior. O meio mais simples de contornar o ruído é a repetição. Shannon demonstrou que, numa transmissão em que os erros acontecem com determinada probabilidade, pode-se diminuir a probabilidade de erro até ao ponto desejado introduzindo redundância na informação. Para isso, enquanto o canal estiver funcionando abaixo da sua capacidade teórica, o caminho consiste em melhorar a codificação, dando-lhe uma forma mais compacta, e em introduzir sistemas de correção de erro.

Um destes sistemas é o concebido pelo matemático norte-americano Richard W. Hamming (1915-1998) em 1950, atualmente utilizado na transmissão de pacotes digitais de informação com bits adicionais de controle em cada "palavra" base (byte).

 

 

CURIOSIDADES ...

Em 1956, mantendo seu trabalho nos laboratórios da Bell, Shannon aceitou o cargo de professor no MIT, atividade que exerceu durante muitos anos. Seus alunos lembram-se dele como sendo "um espírito matemático por excelência". No quadro negro "escrevia poucas fórmulas e falava muito". Preocupava-se com os conceitos e simplificava ao máximo a simbologia. Onde outros professores usariam símbolos e mais símbolos, índices e mais índices, Shannon colocava duas ou três letras e incentivava os alunos a perceber as relações matemáticas que essas letras traduziam.

Labirinto

Gênio matemático que combinava a intuição, a abstração e as aplicações, Claude Shannon tinha como passatempos andar de monociclo e construir máquinas aparentemente inúteis. Construiu várias máquinas de jogar xadrez, um autômato que procurava a saída num labirinto e aquela a que chamou de "máquina final". Nela, via-se apenas um interruptor. Ligando-o, o aparelho emitia um som zangado e dele emergia uma mão mecânica que desligava o interruptor, terminando a brincadeira.

Era um espírito irrequieto. "Apenas gosto de ver como as coisas funcionam", dizia. John Horgan, que há poucos anos o entrevistou para o Scientific American, disse que o matemático "não conseguia ficar parado" e que, quando lhe perguntou como tinha criado a teoria da informação, Shannon respondeu: "Não quer ver as minhas máquinas antes?".


George BOOLE   |  To BIT OR NOT To BIT  |  BACK   |

 

   

 

 

Free Web Hosting