[adaptado da seção 1.3 da dissertação de mestrado A Criatividade do Excesso: Historicidade, Conceito e Produtividade da Sobrecarga da Informação, disponível aqui]
As ampliações do modelo de Claude Shannon feitas pelos linguistas partem da compreensão, por parte dos autores dessa área, de que a Teoria da Informação era insuficiente quando aplicada a outros domínios. Diana Luz Pessoa de Barros, em “A Comunicação Humana“, diz que o modelo simplifica excessivamente a comunicação verbal e dispõe uma caracterização linear, que só recobre o envio de uma sequência de sinais. Ainda mais, denuncia-se a incompetência da teoria no que se refere a aspectos socioculturais e semânticos das trocas informacionais (tais aspectos, como vimos, não eram do seu interesse). Essas limitações são delineadas com precisão também por Gonzalo Abril, no seu Teoría General de la Información (1997):
Ao se apoiar na confortável evidência de dois atores comunicativos, o emissor e o receptor, com uma repartição de papéis perfeitamente simétricos, as metodologias empiristas contornam as múltiplas instâncias de mediação que intervêm nos processos comunicativos da sociedade humana. Deixar de lado essas instâncias pode ser supérfluo para a engenharia, mas não o é para as ciências sociais: a dimensão simbólica da interação, as instituições, e, entre elas, a própria linguagem (espaço em que as relações sociais se autoconstituem e se expressam), a heterogeneidade interna dos sujeitos e da cultura… são problemas que põem em dúvida a possibilidade objetivar de forma válida a comunicação social em termos de uma sequência E->M->R.
Comparemos as declarações de Abril nesse trecho com as afirmações de outro autor, Kevin McGarry. Para Abril, como vimos, a linguagem é o “espaço em que as relações sociais se autoconstituem e se expressam” — a sociedade se constitui e se expressa dentro da linguagem. Na mesma direção, McGarry, em O Contexto Dinâmico da Informação (1999), afirma: “Pode-se argumentar que as civilizações são feitas de palavras, que mesmo o universo não-verbal — montanhas, pontes, rios — só existe por causa do que podemos afirmar a seu respeito”. Ainda mais, para Mcgarry, “a linguagem é o veículo fundamental da comunicação humana”. Os limites da Teoria da Informação de Shannon são encontrados, ressaltamos, na incapacidade de lidar com o que próprio da linguagem.
Abril se refere à “heterogeneidade interna dos sujeitos e da cultura”. Com McGarry, podemos entender que a linguagem absorve, fundamenta e articula essas heterogeneidades. Segundo ele, a linguagem é caracterizada por refletir as personalidades individuais e os valores culturais, por possibilitar a criação e a continuidade das sociedades humanas e suas culturas, por determinar a percepção da realidade e ordenar a memória. Constitui-se como “rede de relações” como um “sistema de signos e símbolos” usados para “evocar significado”. Frente a essa complexidade, é notório como a proposta E->M->R pode ser “simplista”. O esquema foi ampliado por vários autores, notadamente Roman Jakobson (1896-1982):
Como se vê, o que é emitido pelo remetente passa por uma série de mediações: a mensagem é ligada a um contexto, esse envio é codificado e se transmite por meio de um canal. A qualidade de cada um desses condicionantes constitui o processo comunicativo (poderíamos partir disso e chegar, por exemplo, aos estudos de Marshall McLuhan (1911-1980), que entende no meio já a mensagem, no sentido de que a forma implica conteúdo. Esse autor também diz que “o meio é a massagem”, denotando que a mídia conforma a recepção e condiciona o receptor).
Outras transformações do esquema E->M->R — as de Bertil Malmberg (1889-1958) e Ignácio Assis Silva — podem ser vistas em Barros (2002, p. 28-30). Não trataremos aqui da evolução do estudo comunicacional; vamos nos ater no que se refere ao conceito de informação.
Nesse sentido, John Lyons, em Semântica (1977), distingue entre informação de sinal e informação semântica: “A distinção entre estes dois sentidos de ‘informação’ […] tem a ver com a diferença entre identificar um sinal (como si em vez de sj) e interpretá-lo em termos da mensagem (pi ou pj) que ele codifica”. Expliquemos com uma paráfrase dos exemplos do autor: as palavras “bolo” e “lobo”, distinguimos pela percepção dos sinais L e B, seja de forma acústica ou escrita. Outra coisa é nos referirmos ao lado semântico dessas palavras, ao seu significado no interior de uma cultura — aspecto que Shannon deliberadamente não aborda. A teoria da informação lida com a informação de sinal, não com a informação semântica.
Nos enunciados linguísticos, esses dois tipos de informação interagem de modo complexo. Os sujeitos interpretam os sinais sonoros e as mensagens de forma contextual e baseados nas suas experiências anteriores. No exemplo anterior, usamos a palavra “lobo” — lembremos, então, da fábula “Pedro e o lobo”, em que a mesma palavra, o mesmo grito de perigo, incorpora duas mensagens diferentes pela mudança de circunstância (no primeiro caso, é vista como alerta real, embora falsa; no segundo, embora real, como embuste). Ainda mais, as mesmas formulações se entendem de formas variadas de acordo com o referente — “lobo” pode tanto se referir ao animal quanto a partes do corpo (lobo da orelha, do cérebro); “bolo” pode ser tanto o alimento quanto ter sido deixado esperando (“me deu um bolo”). O que se transmite na comunicação humana não se reduz ao mero deslocamento de sinais no espaço.
Uma teoria da informação semântica foi desenvolvida por Yehoshua Bar-Hillel (1915-1975) e Rudolf Carnap (1891-1970). Lyons (1977, p. 46-49) a expõe. De acordo com ele, Carnap e Bar-Hillel mobilizam dois elementos básicos: “uma descrição de estado […] um conjunto completo de proposições que descrevem um estado de coisas possível” e “o conteúdo semântico de uma proposição […] o conjunto de descrições de estado que ela elimina”. Destarte, temos de um lado um conjunto de enunciados a respeito da realidade que interage com proposições singulares que o confirmam, que o negam, que o alteram. Por exemplo, à questão “está chovendo?” (indicativa de um estado de conhecimentos mínimo sobre o clima), pode se responder com as proposições “está chovendo” ou “não está chovendo”, alterando aquela descrição de estado. Supondo que a mensagem tenha sido “está chovendo”, se novamente essa mensagem é passada, ela possui uma carga informacional menor, não altera o conhecimento dado, pois essa proposição em particular já faz parte do repertório do interlocutor. A quantidade de informação veiculada, afirma Lyons com base em Bar-Hillel e Carnap, é dada pela probabilidade da mensagem:
A ideia básica é que a informação semântica, tal como a informação de sinal, é equivalente à eliminação da incerteza. A diferença entre os dois tipos de informação pode ser expressa afirmando que uma elimina a incerteza quanto ao que o sinal é, e a outra a incerteza quanto ao que a mensagem é. Em ambos os casos, contudo, haverá o mesmo tipo de relação inversa entre probabilidade e conteúdo de informação; quando maior for a probabilidade estatística de um determinado sinal, tanto mais pequeno será o seu conteúdo de informação de sinal; quanto maior for a probabilidade lógica de uma proposição (transmitida ou não como uma mensagem), tanto mais pequeno será o seu conteúdo de informação semântica.
Lyons fala ainda sobre a informação semântica se dividir em três tipos, de acordo com a função exercida pela linguagem: descritiva (factual, o sentido mais prosaico de “informação”), social (ligada à construção de relações sociais, por exemplo, com o uso da função fática da linguagem) e expressiva (ditada pelas emoções e personalidade de quem fala). É à primeira que se referem as discussões anteriores dessa série de postagens, é ela que pode ser quantificada.
Referências Bibliográficas
ABRIL, Gonzalo. Teoría general de la información: Datos, Relatos y Ritos. Madrid, Cátedra, 1997.
BARROS, Diana Luz Pessoa de. A comunicação humana. In: Introdução à linguística: I. Objetos teóricos. Org. José Luiz Fiorin. São Paulo: Contexto, 2002.
MCGARRY, Kevin. O Contexto Dinâmico da Informação. Brasília, DF: Briquet de Livros, 1999.
LYONS, John. Comunicação e Informação. In: Semântica, vol. 1. São Paulo: Editorial Presença/Martins Fontes, 1977.
One Comment