Information et création

mercredi 18 mars 2009

Les travaux de Shannon ont défini l’information comme ce qui réduit l’incertitude [1] entre 2 sources d’information susceptibles de vivre des évènements probables. Ainsi, si deux amis ont l’habitude de se serrer la main lorsqu’ils se rencontrent, il y a de forte chance que lors d’une rencontre, selon leur habitude, ils se serrent la main. Leur poignée de main contient alors peu d’information. Si, au contraire, lors d’une rencontre un ami omet de tendre la main ou même présente son poing, il donne une quantité d’informations quant à leur amitié. Du point de vue de celui qui tend la main, l’entropie indique la quantité d’information
 [2]qu’il lui faut obtenir pour lever complètement l’incertitude (ou le doute) sur ce que son ami a voulu lui dire en tendant son poing. Sous cet aspect, l’information est considérée comme ce qui permet de maintenir une organisation existante, de lutter contre la dégradation de l’ordre qui la menace.
C. Shannon, ingénieur de formation, l’introduisit, en 1948 afin d’étudier les limites du possible en matière de compression de données et de transmission d’informations au moyen de canaux bruités.

La notion d’information de Shannon répond aux 3 questions :

1.-Quelle est la limite ultime en matière de compression de données digitales reversibles ( rep : c’ est l entropie H de la source d’information)

2.- Quel est le débit maximal de transmission fiable de ce type de transmission sur un canal bruité (rep : la capacité C du canal)

3.- Sous quelles conditions un code de chiffrement est-il sûr ?

Les principales critiques formulées à l’encontre de cette définition de l’information désormais entrée dans le tryptique de la matière et de l’énergie sous forme de néguentropie touchent à l’évacuation du sens transmis non pas par 2 sources mais par 2 interlocuteurs, sens qui lui-même dépend de la situation dans laquelle se trouvent les interlocuteurs.

Ceci ressemble à s’y méprendre à une homéostase rétablie lors du processus créatif dont le cri d’Archimède représente l’expression émotionnelle qui accompagne généralement la jubilation esthètique. Cette homéostasie entre en particulier en jeu, à chaque fois qu’une convention sur la réalité extérieure à 2 individus est mis en défaut. Dans cette situation, un des sujets créateurs émets une organisation signifiante nouvelle exprimant une idée susceptible de rétablir l’équilibre des 2 antagonistes.


[1The mathematical theory of Communication, 1948)

[2C. Shannon, dit-on, discutant un jour avec John von Neuman sur sa définition de l’information, s’est rendu compte que l’information ainsi définie était l’inverse de l’entropie de Boltzmann.