Shannon: Quem foi o pai da teoria da informação
Graças a pensadores como Alan Turing e John von Neumann, as portas para a era do computador se abriram. A contribuição deles foi essencial, decisiva. Mas quem lançou as bases sólidas para construir a nova teoria da informação, quem conseguiu libertar, captar a essência da informação, ou seja, abstraí-la do mundo material, foi Claude Shannon. Que juntamente com Kotelnikov na União Soviética, desenvolveram de forma independente a teoria da informação, que revolucionaria o mundo das telecomunicações.
A família Shannon
Gaylord é uma pequena e charmosa cidade rural de 3.000 habitantes cercada por vegetação. Pomares, florestas de bordo e faia. Sentido: Uma pequena cidade em Michigan onde o Sr. Claude Shannon Sr. mora e administra uma loja de móveis. Enquanto a Sra. Mabel Wolf, nascida em Lansing em 14 de setembro de 1880, filha de um emigrante da Alemanha e segunda esposa de Shannon Sr, ensina idiomas em uma escola secundária em sua cidade natal, Lansing, localizada a poucos quilômetros de Gaylord. Lansing é também onde os dois se casaram em agosto de 1909. Crentes muito religiosos e devotos, eles eram visitantes frequentes de uma igreja protestante local. Eles tiveram dois filhos, a mais velha Catherine, nascida em 1910, e Claude Jr., nascido em 1916.
Infância
Claude Elwood Shannon nasceu em Petoskey, Michigan, em 30 de abril de 1916. Ele passou a infância na cidade de Gaylord. Uma infância tranquila e normal, na qual não é ele, mas sua irmã mais velha que se destaca na família . Aluno exemplar com jeito para a matemática e dotado de uma forte criatividade. A esta criatividade junta-se a paixão pela música e pelo piano. Catherine consegue se formar na Universidade de Michigan com uma licenciatura em matemática.
Tal preparação despertou muita curiosidade em um jovem Claude e um desejo de dar o seu melhor. Na verdade, foi ele quem declarou mais tarde: " O talento de minha irmã para a matemática pode ter induzido meu interesse por este assunto". Claude se formou na Gaylord High School em 1932, ao mesmo tempo em que realizava pequenos trabalhos, incluindo: entregar telegramas e consertar rádios.
No mesmo período, seu interesse em como as coisas funcionavam e em fazer, um ante litteram Maker, o impulsionou para a criação de equipamentos. Iniciou a construção de um telégrafo com o qual conseguiu ligar sua casa à de um amigo. Cabeando-o com o arame farpado que cercava e protegia suas casas.
Educação
Claude Shannon, pai da teoria da informação, formou-se na Gaylord High School em 1932. Seguindo os passos da família, ele se matriculou na faculdade, sua mãe Mabel e sua irmã Catherine eram ambas graduadas. Na Universidade de Michigan, ele cruzou seu primeiro marco em 1936 ao obter o diploma de bacharel em matemática.
A paixão pelo estudo, a necessidade crescente de engenheiros, também imposta pelos infelizes acontecimentos históricos pelos quais passavam a América e o mundo, levaram-no a continuar a universidade. Ele decidiu tirar proveito de um anúncio que viu publicado no quadro de avisos do Departamento de Engenharia Elétrica do MIT. Esse anúncio anunciava uma posição como aluno-assistente no desenvolvimento do famoso analisador diferencial, um computador eletromecânico analógico projetado para resolver equações diferenciais. A sorte está do seu lado, ele entra no MIT. Claude obtém (também graças à vantagem obtida com a sobreposição de muitas das provas dos dois cursos diferentes) a licenciatura em engenharia electrotécnica. Mais tarde, ele declararia: "Graças a essa sobreposição de exames, o segundo grau não me custou muito esforço."
Os anos do MIT
No MIT, juntou-se ao grupo de Vannevar Bush, criador do analisador diferencial. Graças ao seu aprofundamento científico e à sua notoriedade no mundo académico americano, Bush foi mais tarde também designado, expressamente pelo Presidente Roosevelt, para o National Defense Research Committee, contribuindo para o desenvolvimento de aparatos militares com funções até no Projeto Manhattan.
Como assistente, o trabalho de Shannon era manter e verificar os componentes complexos do analisador. Componentes também compostos por centenas e centenas de relés. Mas a virada, a virada, veio em 1937, quando ele foi do MIT para Nova York, para um lugar onde outro grupo de pessoas estudava simultaneamente para aproximar a lógica matemática do projeto de circuitos. Esse lugar era o Bell Laboratories, na época laboratórios da companhia telefônica americana, onde Shannon foi para um estágio de verão.
O ponto de viragem
Após este período de estágio de verão, Shannon começa a compor seu quebra-cabeça mental: ele junta, pela primeira vez, os conhecimentos que tinha da lógica de Boole com circuitos. Combinando assim a álgebra booleana (a álgebra desenvolvida em meados do século XIX pelo matemático inglês George Boole) com a comutação de circuitos elétricos com o objetivo de reduzir, ou melhor, simplificar a comutação em redes telefônicas com chaves e relés.
Suas idéias e seus estudos foram publicados na tese do MIT, "A Symbolic Analysis of Relay and Switching Circuits", publicada em 1938 no "Transactions of the American Institute of Electrical Engineers". Nas décadas seguintes foi chamada de "a tese mais importante que já foi escrita".
Teorema de Shannon
Uma curiosidade, podemos ouvir nossas músicas favoritas em dispositivos digitais, graças apenas ao Teorema de Shannon o fundador da teoria da informação, que em 1948 enunciou o teorema da amostragem que permite estabelecer as condições em que é possível transformar um sinal analógico em um digital sem degradar sua qualidade . Mas isso não é tudo, o outro importante teorema de Shannon usado em telecomunicações é chamado de: Teorema da codificação na presença de ruído.
Na teoria da informação, o segundo teorema de Shannon, também conhecido como teorema da codificação de canal, afirma que, apesar da presença de ruído em um canal de comunicação, ainda é possível transmitir dados ou informações por meio desse canal com uma probabilidade de erro Pe tão pequena quanto você desejar , até uma determinada frequência máxima.
Esse resultado surpreendente, considerado o teorema fundamental da teoria da informação, foi apresentado pela primeira vez por Claude Shannon em 1948. A capacidade de Shannon, ou limite de Shannon, representa a taxa máxima de transferência de dados que um canal de comunicação pode fornecer para uma determinada relação sinal/ruído , enquanto mantém uma baixa taxa de erro à vontade.
Créditos da imagem principal: “Estate of Francis Bello / Science Source ”
O artigo Shannon: quem foi o pai da teoria da informação foi escrito em: Tech CuE | Engenharia de close-up .