[adaptado da seção 1.2 da dissertação de mestrado A Criatividade do Excesso: Historicidade, Conceito e Produtividade da Sobrecarga da Informação, disponível aqui]
Segundo Robert K. Logan, em Que é informação? (2012), “a noção de informação como algo que pode ser armazenado em, transferido ou comunicado a um objeto inanimado e a noção de informação como uma quantidade definida matematicamente não surgem antes do século XX”. O autor aponta que o Oxford English Dictionary registra em 1937 e 1944 utilizações de “informação” como algo que se transporta ou transmite. Já “a primeira instância de matematicização da informação” data de 1925, em um artigo “Theory of Statistical Estimation”, do estatístico e biólogo Ronald Fischer.
Um segundo caso dessa acepção é de 1928: “Transmission of Information”, do pesquisador em eletrônica Ralph Hartley. Para Logan, tais trabalhos “prenunciam o conceito de informação” de Shannon, que foi apresentado no artigo “A Mathematical Theory of Communication”, de 1948.
No que segue, exporemos essa última teoria, com base em Teoria General de la Informacíon, de Gonzalo Abril (1997). O trabalho de Shannon se inscreve na engenharia da comunicação — tem em vista problemas técnicos da transmissão e do recebimento de mensagens. É com esse intuito que desenvolve a noção de informação. Dessa forma, não interessa à sua teoria o âmbito dos significados das mensagens — enfoca-se só os processos comunicacionais. Em um sistema, interagem um emissor e um receptor; o emissor seleciona, a partir de um repertório, o conteúdo a percorrer o canal de comunicação e chegar ao receptor. Nesse contexto, informação é medida da probabilidade da mensagem, do seu grau de surpresa ou novidade para o receptor. O receptor pode basear suas expectativas em uma memória do diálogo atual e em comunicações anteriores. Essa troca esquematizada por Shannon segundo a figura a seguir:
A fonte de informação passa a mensagem ao transmissor, que a codifica e envia; do outro lado do canal de comunicação, a mensagem é decodificada e chega ao seu destino. Esse intercâmbio é suscetível a ruído, isto é, a interferências que prejudiquem a qualidade da mensagem. Por esse potencial de distorção, se destaca outro conceito, o de redundância, definida por Abril como “uma repetição que tende a tornar inteligível, ou mais facilmente inteligível, uma mensagem”. Uma fonte de informação possui uma capacidade máxima de transmissão, em que todos os sinais enviados são informativos, ou seja, igualmente prováveis, igualmente potentes no que se refere à surpresa, à novidade; a ocorrência de distorções durante a transmissão, porém, seria irreparável nessas condições, já que todo sinal perdido significaria a perda de informação. A redundância, pela reafirmação dos dados, contrapõe-se aos problemas decorrentes do ruído.
Outro conceito importante da teoria matemática da informação é o de entropia, segundo Abril,
[…] uma noção que provém da mecânica estatística, mais concretamente, das teorias da termodinâmica de Carnot, Clausius e Boltzman. Refere-se a uma medida do grau de desordem que se dá na combinação de elementos díspares dentro de um sistema fechado. Segundo o teorema de Carnot, a entropia é uma função sempre crescente na natureza. O aumento de entropia de um sistema supõe a passagem de um estado menos provável a um mais provável. […]
Como é medida da desordem, a entropia é medida da improbabilidade de uma configuração: quanto mais desordenado é um sistema, tanto menos previsível será.
Esses raciocínios desenvolvidos na física foram transpostos à teoria matemática da informação de Shannon. A entropia mede a improbabilidade de uma combinação assim como, a informação, a probabilidade de uma mensagem; assim, entende-se informação como entropia negativa ou neguentropia. Dito de outra forma, a entropia designa uma tendência à desorganização ao passo que a informação é a cifra de um processo de organização.
A teoria da informação de Shannon teve grande alcance, tendo sido adaptada para diversas áreas além daquela de sua utilização inicial. Abril adverte que
A representação feita pela TI do processo comunicativo foi extrapolada rapidamente como modelo teórico da comunicação universalmente válido. A indefectível polissemia da própria noção de “comunicação” colaborou para a sua extensão a domínios múltiplos e heterogêneos. Este êxito teórico-científico entre as humanidades e as disciplinas sociológicas excedia em muito o propósito para o qual havia sido concebida a TI. Também é certo que o modelo comunicativo ‘E->M->R’ atribuído a Shannon e as definições conceituais implicadas nele (emissor, mensagem, receptor, canal, código, etc.) perderam, ao se popularizarem, seus perfis físicos-matemáticos originais e se converteram às vezes em caricaturas mais ou menos intuitivas ou em noções-coringas [clichês, termos de significado diluído].
O autor reconhece, todavia, desenvolvimentos significativos na linguística, na sociologia e nos estudos das comunicações de massa.
Referências Bibliográficas
ABRIL, Gonzalo. Teoría general de la información: Datos, Relatos y Ritos. Madrid, Cátedra, 1997.
LOGAN, Robert K. Que é informação? A propagação da organização na biosfera, na simbolosfera, na tecnosfera e na econosfera. Trad. Adriana Braga. Rio de Janeiro: Contraponto: PUC-Rio, 2012.
2 Comments