John Fiske (Introduction to Communication Studies) aplica os conceitos de redundância e entropia ao...

Post on 17-Apr-2015

111 views 2 download

Transcript of John Fiske (Introduction to Communication Studies) aplica os conceitos de redundância e entropia ao...

John Fiske (Introduction to Communication Studies) aplica os conceitos de redundância e entropia ao layout de um jornal popular inglês.

A foto mostra o confronto entre policiais ingleses e manifestantes negros em Londres.

A mulher em primeiro plano (“bem vestida”, observa preconceituosamente? - Fiske) Ela, no centro da cena, está sendo agarrada por um policial e outro avança em sua direção. Ela ocupa o centro da cena.

A fotografia foi editada na primeira página do Daily Mirror.

Fiske considera a situação – policiais agredindo manifestantes negros – entrópica, isto é, improvável para o senso comum, segundo o qual negros são arruaceiros e policiais ingleses defensores da lei. Mas terá a polícia tanto prestígio para o homem comum na Inglaterra?

A interpretação permite vários questionamentos:

A foto, aberta, recebe a legenda “Confrontação” e o título “Manifestantes negros chocam-se com a polícia de Londres”. Outra foto, menor, no canto da página, mostra o transporte de um policial ferido para a ambulância

Segundo Fiske, a transformação da agressão policial em “confronto” e a informação suplementar de que houve um soldado ferido representam uma intervenção no sentido de reafirmar o senso comum de que os negros são perigosos e a polícia protege os cidadãos desse perigo.

A edição teria transformado o entrópico em redundante.

1. Pode-se julgar uma situação prolongada por um flagrante?

2. Há razões técnicas para a edição?

3. Há intenções assim sutis na edição de uma página de jornal?

Tomemos a série das primeiras oito letras do alfabeto:

ABCDEFGH

Em um jogo de adivinhação, trata-se de saber quantas perguntas serão necessárias para identificar uma letra qualquer dessas – seja o A, o B, o C, o D, o E, o F, o G ou o H, selecionada pelo parceiro.

Perguntas do tipo “é esta?”, em qualquer ordem – do começo para o fim, do fim para o começo ou em série aleatória –, permitirão que se chegue ao resultado, em média, com quatro perguntas.

Seguindo-se a melhor estratégia possível, no entanto, chega-se ao resultado com três perguntas. Suponhamos que seja a letra D:

1 ª - A letra escolhida fica antes do E? ABCD EFGH

- Sim.

2 a - A letra escolhida fica antes do C? AB CD

- Não.

3 ª - A letra escolhida fica antes do D? C D

- Não.

- É o D.

Se duplicarmos o número de letras (para 16), o resultado, pela estratégia ótima, será alcançado com quatro perguntas:

1 ª - A letra escolhida fica antes do I? ABCDEFGH IJKLMNOP

- Sim.

2 ª - A letra escolhida fica antes do E? ABCD EFGH

- Sim.

3 ª - A letra escolhida fica antes do C? AB CD

- Não.

4 ª - A letra escolhida fica antes do D? C D

- Não.

- É o D.

Se duplicarmos novamente o número de letras (para 32), recorrendo a caracteres gregos, o número de perguntas necessárias, pela estratégia ótima, será cinco.

Verifiquem:

ABCDEFGHIJKLMNOP QRSTUVWXYZ .ΦΓΨΠ .

Comparando o número de letras n e o número de escolhas H, montamos uma tabela:

Grandeza do conjunto n

Número de perguntas H

1

2

4

8

16

0

1

2

3

4

A relação entre a grandeza de um conjunto n e o número de escolhas H para se chegar a um elemento desse conjunto, em situação de equiprobabilidade, é:

n = 2H ou H = log2 n

H mede a incerteza ou entropia de um conjunto. Seu valor será inteiro para qualquer valor do conjunto que pertença à progressão geométrica 1,2,4,8,16.

Consideremos, agora, situações não equiprováveis – isto é, em que há certa tendenciosidade.

Por exemplo, letras recortadas de um jornal. Admitindo-se que há mais letras A do que letras B e estas muito mais do que Z, a distribuição do conjunto de letras será desigual ou, em termos matemáticos, ponderada.

Supondo que existem duas letras B para cada letra C ou D e duas letras A para cada letra B, teríamos:

AAAABBCD

O número de perguntas para encontrar uma letra escolhida ao acaso na série acima varia: uma se for A, duas se for B, três se forem C ou D. Calculemos o número médio de perguntas – que corresponde, como vimos, à entropia considerando os fatores de ponderação:

Solução Número de Perguntas

Fator de Ponderação

A

B

C

D

1

2

3

3

1/2

1/4

1/8

1/8

Para isso, somaremos os produtos dos números de perguntas pelo fator de ponderação de cada letra:

(1 .1/2) + (2 . 1/4) + (3. 1/8) + (3 . 1/8) = 1/2 + 1/ 2 + 3/8 + 3/8 = 1 3/4

Observe-se na tabela que o número de perguntas necessárias para se encontrar cada letra é igual ao logaritmo base dois do inverso do fator de ponderação – ou seja, ao fator de ponderação elevado a –1: 1 é o logaritmo de 2, 2 o de 4 e 3 o de 8.

Os produtos alinhados acima correspondem, cada um, à multiplicação do fator de ponderação pelo logaritmo binário do inverso dele mesmo – ou dele mesmo elevado a –1.

A entropia é a soma desses produtos, ou seja:

H = (Σ pi.I)/ log2 pi

ou

H = (Σ pi.I) . (log2 pi)-1

em que p é o fator de ponderação e i um elemento qualquer i do conjunto.

A quantidade de informação expressa em bits contida em determinada solução é o número de perguntas necessárias para se chegar a essa solução.

Esse número é, como vimos, igual ao logaritmo da base 2 do inverso da probabilidade desse evento em particular, ou:

I = log2 1/pi ou I = log2 pi-1

em que pi é a probabilidade do evento i em particular.

A unidade em que se expressa a quantidade de informação é o bit, trocadilho criado por Tukey a partir da expressão binary digit (dígito binário). Bit, em inglês, quer dizer “pedaço”.

A condição binária do bit remete à álgebra da lógica, criada por George Boole, nos livros A análise matemática da Lógica, de 1847, e Investigações sobre as leis do pensamento, de 1854. Boole parte da concepção de que a interseção dos conjuntos descritos por duas proposições, P e Q, é igual o produto de P e Q:

P ∩Q = P . Q , ou PQ

Observa, então, que a classe dos indivíduos que são eles mesmos é igual a si mesma (a classe dos indivíduos ingleses que são ingleses é a classe dos indivíduos ingleses) e que, portanto,

PP = P

Isso apenas acontece, matematicamente, para os valores 1 e 0 de P. Por isso, na álgebra de Boole, os dois únicos valores reconhecidos são 0 e 1, representando, o primeiro, o conjunto vazio e o segundo o conjunto universo, ou universo do discurso.

Tomemos a afirmação “hoje é sexta-feira”. Qual a quantidade de informação que ela contém?

Depende. Se sabemos que ontem foi quinta, a resposta é:

I = log2 1 = 0 bits

Se temos que escolher entre os dias de trabalho, de segunda a sexta, a resposta é:

I = log2 5 = 2,32 bits

Se o universo é toda a semana, então:

I = log2 7 = 2,81 bits

A quantidade de informação expressa em bits de um evento singular é o número de escolhas binárias para se chegar a esse evento. Já a quantidade de informação de uma série ou conjunto de eventos é tão maior quanto mais esses eventos sejam independentes entre si, não se articulem uns com os outros.

A informação é igual à entropia ou desordem da série ou conjunto, o que significa dizer que há mais informação em uma série aleatória do que em qualquer série ordenada.

No entanto, o cérebro humano procura captar o máximo de informação com o mínimo de custo. Isso o leva a selecionar ordenações no mundo real para a percepção – por exemplo, para reconhecer e, portanto, dar nomes genéricos às coisas.

A forma ou Gestalt (plural Gestalten) reúne eventos ou elementos (gráficos, sonoros etc.) com alguma relação entre si, seja espacial (funções matemáticas), seja por semelhança, causa / conseqüência, etc. As formas mais articuladas (boas) serão mais facilmente percebidas

O processo do pensamento parte da realidade para, abstraindo o que ela tem de singular, torná-la inteligível, isto é, agrupá-la em conceitos genéricos.

A redundância reduz a quantidade de informação (ou torna a mensagem mais extensa, com a mesma quantidade de informação); envolve, entre outros mecanismos possíveis, a repetição, a simetria e a analogia.

Tudo aquilo que, na comunicação, não corresponde à mensagem (ao que se pretendeu comunicar) é chamado de ruído. Pode ser um ruído branco, desordenado (entrópico), como a cintilação no televisor quando não há emissora no canal; ou um ruído colorido, quando apresenta ordenação própria, como acontece nas linhas cruzadas.

A redundância reduz a possibilidade de o ruído afetar a percepção da mensagem.

Para a avaliação da quantidade de redundância deve-se considerar, por um lado, o custo do ruído (o prejuízo que ele pode causar) e, por outro, o grau de entropia ou imprevisibilidade da mensagem (maior, por exemplo, em códigos alfanuméricos, como aqueles que identificam reservas de passagens aéreas ou itens de um catálogo).

Ruídos, correspondendo a erros, podem significar, no entanto, enriquecimento da informação.

É o caso das mutações que, selecionadas, vão adaptando espécies biológicas ao habitat, ou de inserções do acaso na pesquisa científica – como a que levou à descoberta dos antibióticos.

Geralmente relaciona-se ruído ao fundo e mensagem ao primeiro plano. No entanto, o ruído pode ser capaz de competir com a mensagem – o primeiro plano com o fundo, como acontece em Céu e Inferno (gravura), de Maurits Escher.

Eu creio navida mansa!!