La palabra entropía es un neologismo formado a partir del griego. En efecto esta palabra acuñada en 1865 por el científico alemán R. Clausius está formada a partir de ἐν- (pr.en-) que señala en, dentro, el sustantivo τρόπος, τρόπου(pr. tropos, tropu) que significa giro, cambio y el sufijo -ια (pr. -ia) que cuyo significado es acción, cualidad.
Su concepto etimológico entonces es la cualidad del giro o cambio dentro.
Clase: sustantivo, femenino, singular.
La definición de este término es dentro del ámbito de la Termología es la función de estado que se encarga de medir lo que no se utiliza de energía dentro de un sistema y que se puede expresar como el cociente entre la temperatura absoluta de un cuerpo y el calor cedido por ese cuerpo.
La Física define a este vocablo también como la medida del grado de desorden de un sistema o la magnitud termodinámica que señala el nivel de desorden interno dentro de un sistema.
Asimismo se lo puede definir como la tendencia de un sistema a ir desde un estado de orden hacia uno de desorden, que se expresa en la física como la medición de la parte de calor o energía en un sistema termodinámico que no es utilizable para efectuar un trabajo.
En este caso entonces se puede decir que con este concepto se está especificando la aparición de un desorden en todo sistema, o sea, la demostración de que desde el momento en que algo no se controla, se puede modificar y desordenar. En este concepto también está implícito que de ese desorden o caos dentro del sistema pueda surgir una situación que lo equilibre o lo vuelva homogéneo, ya que si bien esas partes son diferentes en la condición inicial, luego se hallan en situación de equilibrio.
Para la Psicología es la medida que señala el nivel de información que no se aprovecha de una determinada fuente, teniendo en cuenta el número de posibles respuestas.
Por otra parte, se denomina entropía de la información y de Shannon (dedicada a Claude E. Shannon 1916-2001, creador de la teoría de la información) es la que mide la incertidumbre de una fuente de información.
También se la considera como la cantidad promedio de información que tienen los símbolos que se usan. Según esto los símbolos que tienen menor probabilidad son los que otorgan mayor información. De esta manera los sustantivos, verbos que son los menos frecuentes aportan más información en tanto que las preposiciones, artículos y pronombres relativos que tienen más frecuencia aportan menos información. En el caso en que todos los símbolos se distribuyen con una probabilidad plana, o sea están en igualdad de probabilidad, todos contribuyen con información significativa y la entropía se convierte en máxima.
“Consideró que el peor escenario que se puede producir es que aumente la entropía en el sistema y que quienes deban controlar el delito económico no lo hicieran”. En este ejemplo, se usa con el sentido de desorden.
“Ante la pregunta de sus alumnos para que aclarara el concepto dijo que entropía significaba desorden y confusión”. Se refiere en este caso, a la aclaración de un significado.
“Aplicado a la ciudad el arquitecto dijo que en ella existe una dialéctica entre imagen y apariencia, entre energía y entropía”. Aquí, se aplica al ámbito urbano y social.