Entropie


Entropie est une notion qui vient d’un mot grec qui peut être traduit par « tour » ou « transformation » (utilisé figurativement). Au XIXe siècle, Clausius a inventé le concept en physique pour désigner une mesure du désordre que l’on peut voir dans les molécules d’un gaz. Dès lors, ce concept serait utilisé avec des significations différentes dans de multiples sciences, comme la physique, la chimie, l’informatique, les mathématiques et la linguistique.

Voici quelques définitions: L’entropie peut être l’amplitude thermodynamique physique qui permet de mesurer la partie inutilisable de l’énergie contenue dans un système. Cela signifie que cette partie de l’énergie ne peut pas être utilisée pour produire un travail. L’entropie est également comprise comme la mesure du désordre d’un système. En ce sens, elle est associée à un degré d’homogénéité.

L’entropie de formation d’un composé chimique est établie en mesurant l’entropie qui se conforme à chacun de ses éléments constitutifs. Plus il y aura d’entropie de formation, plus leur formation sera favorable. En théorie de l’information, l’entropie est la mesure de l’incertitude qui existe devant un ensemble de messages (dont un seul message est reçu).

Il s’agit d’une mesure de l’information nécessaire pour réduire ou éliminer l’incertitude. Une autre façon de comprendre l’entropie est la quantité moyenne d’information contenue dans les symboles transmis. Des mots comme  » le  » ou  » ce qui  » sont les symboles les plus fréquents dans un texte, mais ce sont néanmoins ceux qui fournissent le moins d’information.

Le message contiendra des informations d’entropie pertinentes et maximales lorsque tous les symboles sont également probables.

La manière dont l’information est organisée et diffusée dans un discours est l’un des sujets les plus pertinents et les plus susceptibles d’être étudiés en linguistique.

Et grâce à l’entropie, une analyse plus approfondie de la communication peut être réalisée. Dans le cas de la communication écrite, le problème est facile à analyser (unités de base, lettres, sont bien définies); si vous voulez bien comprendre le message, il est possible de le décoder avec précision et de comprendre les énoncés littéraux et figurés.

Mais dans le langage oral, les choses changent un peu, ce qui présente quelques complications.

Il n’est pas facile de déterminer les éléments fondamentaux du code dans le discours oral; les mots sonnent différemment selon qui les prononce et, de la même façon, ils peuvent avoir des significations différentes. Il ne suffit donc pas de les classer en voyelles et phonèmes consonnes car cela ne nous permettrait pas de comprendre comment l’information est organisée car, par exemple, si les phonèmes voyelles sont supprimés, il n’est pas possible de comprendre le message.

Selon une étude menée à l’Université du Wisconsin-Madison, une bonne façon d’isoler et de comprendre le code oral est la décomposition spectrale des signaux sonores. Grâce à cette technique, nous essayons de comprendre comment la cochlée filtre et analyse ce qui lui arrive. La cochlée est la partie de nos oreilles qui a pour fonction de transformer les sons en signaux électriques et de les envoyer directement au cerveau.

Pour réaliser cette expérience, une unité de mesure appelée « entropie spectrale en échelle cochléaire » (CSE) a été utilisée, qui permet d’établir des connexions entre un signal et le signal précédent, en déterminant les possibilités de prédire un signal à partir du signal précédent. Les résultats montrent que plus les deux signaux sont similaires, plus il est facile de prédire la seconde; cela signifie que l’information que nous tirons de la seconde est presque nulle.

De même, plus elles diffèrent les unes des autres, plus l’information fournie par le second signal est importante, donc si elle est éliminée, elle aura des conséquences considérables sur la compréhension du discours.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *