Ciência da Informação

O Ponto de Vista Cognitivo sobre a Informação

Publicado em

[adaptado da seção 1.4 da dissertação de mestrado A Criatividade do Excesso: Historicidade, Conceito e Produtividade da Sobrecarga da Informaçãodisponível aqui]

As abordagens do conceito de informação discutidas nos posts anteriores são posicionadas por Peter IngwersenJärvelin Kalervo, no livro The Turn: Integration of Information Seeking and Retrieval in Context (2005, p. 25-26), em diversos estágios do processamento de informação. Extraído das pesquisas de Marc de Mey, esse pensamento postula os níveis monádico (em que unidades de informação são consideradas individualmente, como autônomas); estrutural (em que aquelas unidades são organizadas em entidades mais complexas); contextual (em que as estruturas são elementos dentro de um contexto, e, para que se possa extrair significados delas com precisão e sem ambiguidade, é necessário extrair informação desse contexto); cognitivo ou epistêmico (em que a informação complementa um sistema conceitual de conhecimento do mundo, seja de um indivíduo ou de uma máquina). Ingwersen diz que “os estágios 1-3 correspondem aos níveis morfo-léxico, sintático e semântico do entendimento da linguagem”. É apenas no quarto nível, “correspondente, em linguística, ao processamento pragmático”, que se encontra propriamente a informação, derivada ou da visão de mundo do indivíduo ou da mensagem.

A partir do que estabelece o autor, podemos fazer outras relações com o que vimos discutindo. O âmbito monádico recobre tanto o objeto da Teoria Matemática da Informação e a “informação de sinal” definida por Lyons, cuja “informação semântica” é abrangida pelo contextual (ambas tratadas em “Aspectos Semânticos da Informação“).

O quarto nível, cognitivo ou epistêmico, é o objeto do ponto de vista cognitivo. A perspectiva se caracteriza, como está dado na definição desse nível, por entender o processo informacional como a interação mediada por “sistemas conceituais de conhecimento de mundo”, ou estruturas de conhecimento, ou estados de conhecimento. Vejamos o modelo de Ingwersen e Kalervo:

Fonte: Produzido pelo autor com base em INGWERSEN; KALERVO, 2005, p. 33

De acordo com a figura, o indivíduo A, a partir de um “modelo de mundo”, gera um conteúdo informacional. Nesse processo de criação, esse conteúdo perde contexto ( “cognitive free fall”, traduzido como “queda livre cognitiva”) e foge, em alguma medida, do controle do emissor. Transmitido por meio da linguagem, chega ao indivíduo B, pelo qual é interpretado dentro de outro contexto, o que pode acarretar leituras não previstas no momento da emissão. O conteúdo linguístico é interpretado e modifica o estado de conhecimento do receptor. Perceba-se como até esse último momento o intercâmbio esteve no âmbito dos níveis monádico, estrutural e contextual; a partir daí, trata-se do nível cognitivo ou epistêmico. Tendo alterado as estruturas cognitivas do receptor, a mensagem pode ser causa de dúvida ou confusão, produzindo um estado de incerteza e um espaço-problema, que implica na necessidade de informação e em uma nova troca comunicativa.

Vejamos com mais atenção algumas ideias representadas na figura. Ingwersen, em Information Retrieval Interaction, (1992, p. 16) define “modelo de mundo”,

[…] também chamado de ‘conhecimento de mundo’, ‘schemata’ ou ‘imagem’, consiste em estruturas de pensamento, ou estruturas cognitivas, que são ‘determinadas pelo indivíduo e por suas experiências sociais e coletivas, educação etc’. As conexões e influências entre o conhecimento individual, social e organizacional, seus objetivos e propósitos, preferências assim como expectativas e experiências são assim refletidas neste ponto de vista cognitivista da ciência da informação e da recuperação da informação.

Assim, o estado de conhecimento que medeia o contato do indivíduo com os dados externos e é, por sua vez, resultado de relações anteriores do mesmo tipo. Vale ressaltar novamente que, em tal contexto, ainda segundo Ingwersen (1992, p. 31-32), informação é aquilo que transforma as estruturas cognitivas. Nesse texto também, o autor expõe outra representação da situação desse indivíduo em processo de absorção de informação — a “equação fundamental para ciência da informação”, criada por Bertram C. Brookes: K(S) + δI = K(S + δS), isto é, estado de conhecimento K(S) sofre a adição da informação δI e resulta em novo estado de conhecimento K(S + δS).  Ingwersen amplia o modelo, propondo pI → δI + K(S) → K(S + δS) → pI’: o sujeito percebe o potencial de informação pI que, mediado pelo seu estado de conhecimento implica em um novo estado de conhecimento que, enfim, pode produzir nova informação potencial pI’.

O quadro teórico do ponto de vista cognitivo permite também definir o desejo por informação. Ingwersen (1992, p. 28) diz: “Com Wersig e Machlup nós temos um profundo entendimento das razões do desejo por informação, os eventuais efeitos sobre o estado de conhecimento do recipiente”. Em outras palavras, por essa via podemos analisar o que move os indivíduos na busca por informação, isto é, temos para pensar a necessidade de informação.

Como visto na explicação da figura, essa necessidade está vinculada à incerteza. Uma origem desse elemento no modelo de Ingwersen é o conceito de estado anômalo de conhecimento, que foi desenvolvido por Nicholas Belkin. Trata-se de um estado de percepção da anomalia — isto é, da dúvida, da incerteza, da suspeita da inadequação. Em “Anomalous states of knowledge as a basis for Information Retrieval” (1980, p. 136), Belkin destaca que o seu conceito sintetiza preceitos anteriores: os quatro “níveis de questão” de Taylor, dos quais Belkin cita os dois primeiros, por serem análogos ao conceito de estado anômalo de conhecimento: necessidade visceral de informação, não-expressa ou inexprimível; e necessidade de informação consciente, subjetiva, parcamente definida e ambígua; as ideias de problema e necessidade em Kochen, segundo ele equivalentes aos dois estágios apresentados de Taylor; e o vínculo que Wersig estabelece entre necessidade de informação e uma situação problemática, uma insuficiência no modelo que o indivíduo faz do mundo. Como se percebe, em todos esses conceitos que seriam retrabalhados no estado anômalo de conhecimento, existe uma ligação forte entre o reconhecimento da ignorância e a necessidade de informação. O estado anômalo de conhecimento é, assim, um estado tenso que estimula a própria dissolução.

Em torno desta conceituação, Belkin propõe este modelo:

Fonte: Produzido pelo autor com base em BELKIN, 1980, p. 43

No lado direito do quadro, o usuário possui uma imagem de mundo que forma o seu estado de conhecimento. A percepção da necessidade de informação o coloca em um estado anômalo de conhecimento, que leva ao requerimento feito ao sistema de recuperação de informação. O requerimento é entregue ao sistema através de mediações linguísticas e pragmáticas. No lado esquerdo, o criador do documento também carrega uma imagem de mundo, que também forma um estado de conhecimento. Este por sua vez é emitido como informação e consolidado em um texto, que é disseminado também através de mediações linguísticas e pragmáticas. A partir dos resultados recuperados, o usuário avalia o sistema e reavalia a sua condição.

O ponto de vista cognitivo, nos primeiros momentos do seu desenvolvimento, não dava ênfase aos condicionantes sociais e culturais dos processos informacionais. Porém, movimentando-se rumo ao que se denomina sociocognitivismo, essa “deficiência” foi reparada. A importância de lidar com os aspectos socioculturais já foi abordada, quando nos referimos ao Teoría General de la Información (1997), de Gonzalo Abril, e à problemática da semântica no campo da informação. Na próxima seção, aprofundamos outras conceituações que deem atenção a esses âmbitos da cultura e da sociedade.

Referências Bibliográficas

ABRIL, Gonzalo. Teoría general de la información: Datos, Relatos y Ritos. Madrid, Cátedra, 1997.

BELKIN, Nicholas. Anomalous states of knowledge as a basis for Information Retrieval. Canadian Journal of Information and Library Sciences, n. 5, 133-143. University of Toronto Press, 1980.

INGWERSEN, Peter. Information Retrieval Interaction. Los Angeles: Taylor Graham Publishing, 1992.

INGWERSEN, Peter; KALERVO, Järvelin. The Turn: Integration of Information Seeking and Retrieval in Context. Springer, 2005.

Ciência da Informação

Aspectos Semânticos da Informação

Publicado em

[adaptado da seção 1.3 da dissertação de mestrado A Criatividade do Excesso: Historicidade, Conceito e Produtividade da Sobrecarga da Informaçãodisponível aqui]

As ampliações do modelo de Claude Shannon feitas pelos linguistas partem da compreensão, por parte dos autores dessa área, de que a Teoria da Informação era insuficiente quando aplicada a outros domínios. Diana Luz Pessoa de Barros, em “A Comunicação Humana“, diz que o modelo simplifica excessivamente a comunicação verbal e dispõe uma caracterização linear, que só recobre o envio de uma sequência de sinais. Ainda mais, denuncia-se a incompetência da teoria no que se refere a aspectos socioculturais e semânticos das trocas informacionais (tais aspectos, como vimos, não eram do seu interesse). Essas limitações são delineadas com precisão também por Gonzalo Abril, no seu Teoría General de la Información (1997):

Ao se apoiar na confortável evidência de dois atores comunicativos, o emissor e o receptor, com uma repartição de papéis perfeitamente simétricos, as metodologias empiristas contornam as múltiplas instâncias de mediação que intervêm nos processos comunicativos da sociedade humana. Deixar de lado essas instâncias pode ser supérfluo para a engenharia, mas não o é para as ciências sociais: a dimensão simbólica da interação, as instituições, e, entre elas, a própria linguagem (espaço em que as relações sociais se autoconstituem e se expressam), a heterogeneidade interna dos sujeitos e da cultura… são problemas que põem em dúvida a possibilidade objetivar de forma válida a comunicação social em termos de uma sequência E->M->R.

Comparemos as declarações de Abril nesse trecho com as afirmações de outro autor, Kevin McGarry. Para Abril, como vimos, a linguagem é o “espaço em que as relações sociais se autoconstituem e se expressam” — a sociedade se constitui e se expressa dentro da linguagem. Na mesma direção, McGarry, em O Contexto Dinâmico da Informação (1999), afirma: “Pode-se argumentar que as civilizações são feitas de palavras, que mesmo o universo não-verbal — montanhas, pontes, rios — só existe por causa do que podemos afirmar a seu respeito”. Ainda mais, para Mcgarry, “a linguagem é o veículo fundamental da comunicação humana”. Os limites da Teoria da Informação de Shannon são encontrados, ressaltamos, na incapacidade de lidar com o que próprio da linguagem.

Abril se refere à “heterogeneidade interna dos sujeitos e da cultura”. Com McGarry, podemos entender que a linguagem absorve, fundamenta e articula essas heterogeneidades. Segundo ele, a linguagem é caracterizada por refletir as personalidades individuais e os valores culturais, por possibilitar a criação e a continuidade das sociedades humanas e suas culturas, por determinar a percepção da realidade e ordenar a memória. Constitui-se como “rede de relações” como um “sistema de signos e símbolos” usados para “evocar significado”. Frente a essa complexidade, é notório como a proposta E->M->R pode ser “simplista”. O esquema foi ampliado por vários autores, notadamente Roman Jakobson (1896-1982):

Fonte: Elaborado pelo autor

Como se vê, o que é emitido pelo remetente passa por uma série de mediações: a mensagem é ligada a um contexto, esse envio é codificado e se transmite por meio de um canal. A qualidade de cada um desses condicionantes constitui o processo comunicativo (poderíamos partir disso e chegar, por exemplo, aos estudos de Marshall McLuhan (1911-1980), que entende no meio já a mensagem, no sentido de que a forma implica conteúdo. Esse autor também diz que “o meio é a massagem”, denotando que a mídia conforma a recepção e condiciona o receptor).

Outras transformações do esquema E->M->R — as de Bertil Malmberg (1889-1958) e Ignácio Assis Silva — podem ser vistas em Barros (2002, p. 28-30). Não trataremos aqui da evolução do estudo comunicacional; vamos nos ater no que se refere ao conceito de informação.

Nesse sentido, John Lyons, em Semântica (1977), distingue entre informação de sinal e informação semântica: “A distinção entre estes dois sentidos de ‘informação’ […] tem a ver com a diferença entre identificar um sinal (como si em vez de sj) e interpretá-lo em termos da mensagem (pi ou pj) que ele codifica”. Expliquemos com uma paráfrase dos exemplos do autor: as palavras “bolo” e “lobo”, distinguimos pela percepção dos sinais L e B, seja de forma acústica ou escrita. Outra coisa é nos referirmos ao lado semântico dessas palavras, ao seu significado no interior de uma cultura — aspecto que Shannon deliberadamente não aborda. A teoria da informação lida com a informação de sinal, não com a informação semântica.

Nos enunciados linguísticos, esses dois tipos de informação interagem de modo complexo. Os sujeitos interpretam os sinais sonoros e as mensagens de forma contextual e baseados nas suas experiências anteriores. No exemplo anterior, usamos a palavra “lobo” — lembremos, então, da fábula “Pedro e o lobo”, em que a mesma palavra, o mesmo grito de perigo, incorpora duas mensagens diferentes pela mudança de circunstância (no primeiro caso, é vista como alerta real, embora falsa; no segundo, embora real, como embuste). Ainda mais, as mesmas formulações se entendem de formas variadas de acordo com o referente — “lobo” pode tanto se referir ao animal quanto a partes do corpo (lobo da orelha, do cérebro); “bolo” pode ser tanto o alimento quanto ter sido deixado esperando (“me deu um bolo”). O que se transmite na comunicação humana não se reduz ao mero deslocamento de sinais no espaço.

Uma teoria da informação semântica foi desenvolvida por Yehoshua Bar-Hillel (1915-1975) e Rudolf Carnap (1891-1970). Lyons (1977, p. 46-49) a expõe. De acordo com ele, Carnap e Bar-Hillel mobilizam dois elementos básicos: “uma descrição de estado […] um conjunto completo de proposições que descrevem um estado de coisas possível” e “o conteúdo semântico de uma proposição […] o conjunto de descrições de estado que ela elimina”. Destarte, temos de um lado um conjunto de enunciados a respeito da realidade que interage com proposições singulares que o confirmam, que o negam, que o alteram. Por exemplo, à questão “está chovendo?” (indicativa de um estado de conhecimentos mínimo sobre o clima), pode se responder com as proposições “está chovendo” ou “não está chovendo”, alterando aquela descrição de estado. Supondo que a mensagem tenha sido “está chovendo”, se novamente essa mensagem é passada, ela possui uma carga informacional menor, não altera o conhecimento dado, pois essa proposição em particular já faz parte do repertório do interlocutor. A quantidade de informação veiculada, afirma Lyons com base em Bar-Hillel e Carnap, é dada pela probabilidade da mensagem:

A ideia básica é que a informação semântica, tal como a informação de sinal, é equivalente à eliminação da incerteza. A diferença entre os dois tipos de informação pode ser expressa afirmando que uma elimina a incerteza quanto ao que o sinal é, e a outra a incerteza quanto ao que a mensagem é. Em ambos os casos, contudo, haverá o mesmo tipo de relação inversa entre probabilidade e conteúdo de informação; quando maior for a probabilidade estatística de um determinado sinal, tanto mais pequeno será o seu conteúdo de informação de sinal; quanto maior for a probabilidade lógica de uma proposição (transmitida ou não como uma mensagem), tanto mais pequeno será o seu conteúdo de informação semântica.

Lyons fala ainda sobre a informação semântica se dividir em três tipos, de acordo com a função exercida pela linguagem: descritiva (factual, o sentido mais prosaico de “informação”), social (ligada à construção de relações sociais, por exemplo, com o uso da função fática da linguagem) e expressiva (ditada pelas emoções e personalidade de quem fala). É à primeira que se referem as discussões anteriores dessa série de postagens, é ela que pode ser quantificada.

Referências Bibliográficas

ABRIL, Gonzalo. Teoría general de la información: Datos, Relatos y Ritos. Madrid, Cátedra, 1997.

BARROS, Diana Luz Pessoa de. A comunicação humana. In: Introdução à linguística: I. Objetos teóricos. Org. José Luiz Fiorin. São Paulo: Contexto, 2002.

MCGARRY, Kevin. O Contexto Dinâmico da Informação. Brasília, DF: Briquet de Livros, 1999.

LYONS, John. Comunicação e Informação. In: Semântica, vol. 1. São Paulo: Editorial Presença/Martins Fontes, 1977.

 

Ciência da Informação

A Teoria Matemática da Informação

Publicado em

[adaptado da seção 1.2 da dissertação de mestrado A Criatividade do Excesso: Historicidade, Conceito e Produtividade da Sobrecarga da Informaçãodisponível aqui]

Segundo Robert K. Logan, em Que é informação? (2012), “a noção de informação como algo que pode ser armazenado em, transferido ou comunicado a um objeto inanimado e a noção de informação como uma quantidade definida matematicamente não surgem antes do século XX”. O autor aponta que o Oxford English Dictionary registra em 1937 e 1944 utilizações de “informação” como algo que se transporta ou transmite. Já “a primeira instância de matematicização da informação” data de 1925, em um artigo “Theory of Statistical Estimation”, do estatístico e biólogo Ronald Fischer.

Um segundo caso dessa acepção é de 1928: “Transmission of Information”, do pesquisador em eletrônica Ralph Hartley. Para Logan, tais trabalhos “prenunciam o conceito de informação” de Shannon, que foi apresentado no artigo “A Mathematical Theory of Communication”, de 1948.

No que segue, exporemos essa última teoria, com base em Teoria General de la Informacíon, de Gonzalo Abril (1997). O trabalho de Shannon se inscreve na engenharia da comunicação — tem em vista problemas técnicos da transmissão e do recebimento de mensagens. É com esse intuito que desenvolve a noção de informação. Dessa forma, não interessa à sua teoria o âmbito dos significados das mensagens — enfoca-se só os processos comunicacionais. Em um sistema, interagem um emissor e um receptor; o emissor seleciona, a partir de um repertório, o conteúdo a percorrer o canal de comunicação e chegar ao receptor. Nesse contexto, informação é medida da probabilidade da mensagem, do seu grau de surpresa ou novidade para o receptor. O receptor pode basear suas expectativas em uma memória do diálogo atual e em comunicações anteriores. Essa troca esquematizada por Shannon segundo a figura a seguir:

Fonte: Elaborado pelo autor

A fonte de informação passa a mensagem ao transmissor, que a codifica e envia; do outro lado do canal de comunicação, a mensagem é decodificada e chega ao seu destino. Esse intercâmbio é suscetível a ruído, isto é, a interferências que prejudiquem a qualidade da mensagem. Por esse potencial de distorção, se destaca outro conceito, o de redundância, definida por Abril como “uma repetição que tende a tornar inteligível, ou mais facilmente inteligível, uma mensagem”. Uma fonte de informação possui uma capacidade máxima de transmissão, em que todos os sinais enviados são informativos, ou seja, igualmente prováveis, igualmente potentes no que se refere à surpresa, à novidade; a ocorrência de distorções durante a transmissão, porém, seria irreparável nessas condições, já que todo sinal perdido significaria a perda de informação. A redundância, pela reafirmação dos dados, contrapõe-se aos problemas decorrentes do ruído.

Outro conceito importante da teoria matemática da informação é o de entropia, segundo Abril,

[…] uma noção que provém da mecânica estatística, mais concretamente, das teorias da termodinâmica de Carnot, Clausius e Boltzman. Refere-se a uma medida do grau de desordem que se dá na combinação de elementos díspares dentro de um sistema fechado. Segundo o teorema de Carnot, a entropia é uma função sempre crescente na natureza. O aumento de entropia de um sistema supõe a passagem de um estado menos provável a um mais provável. […]

Como é medida da desordem, a entropia é medida da improbabilidade de uma configuração: quanto mais desordenado é um sistema, tanto menos previsível será.

Esses raciocínios desenvolvidos na física foram transpostos à teoria matemática da informação de Shannon. A entropia mede a improbabilidade de uma combinação assim como, a informação, a probabilidade de uma mensagem; assim, entende-se informação como entropia negativa ou neguentropia. Dito de outra forma, a entropia designa uma tendência à desorganização ao passo que a informação é a cifra de um processo de organização.

A teoria da informação de Shannon teve grande alcance, tendo sido adaptada para diversas áreas além daquela de sua utilização inicial. Abril adverte que

A representação feita pela TI do processo comunicativo foi extrapolada rapidamente como modelo teórico da comunicação universalmente válido. A indefectível polissemia da própria noção de “comunicação” colaborou para a sua extensão a domínios múltiplos e heterogêneos. Este êxito teórico-científico entre as humanidades e as disciplinas sociológicas excedia em muito o propósito para o qual havia sido concebida a TI. Também é certo que o modelo comunicativo ‘E->M->R’ atribuído a Shannon e as definições conceituais implicadas nele (emissor, mensagem, receptor, canal, código, etc.) perderam, ao se popularizarem, seus perfis físicos-matemáticos originais e se converteram às vezes em caricaturas mais ou menos intuitivas ou em noções-coringas [clichês, termos de significado diluído].

O autor reconhece, todavia, desenvolvimentos significativos na linguística, na sociologia e nos estudos das comunicações de massa.

Referências Bibliográficas

ABRIL, Gonzalo. Teoría general de la información: Datos, Relatos y Ritos. Madrid, Cátedra, 1997.

LOGAN, Robert K. Que é informação? A propagação da organização na biosfera, na simbolosfera, na tecnosfera e na econosfera. Trad. Adriana Braga. Rio de Janeiro: Contraponto: PUC-Rio, 2012.