Entropía (información)

It's only fair to share...Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedInEmail this to someonePin on Pinterest

En el ámbito de la teoría de la información la entropía, también llamada entropía de la información y entropía de Shannon (en honor a Claude E. Shannon), mide la incertidumbre de una fuente de información.

La entropía también se puede considerar como la cantidad de información promedio que contienen los símbolos usados. Los símbolos con menor probabilidad son los que aportan mayor información; por ejemplo, si se considera como sistema de símbolos a las palabras en un texto, palabras frecuentes como «que», «el», «a» aportan poca información, mientras que palabras menos frecuentes como «corren», «niño», «perro» aportan más información. Si de un texto dado borramos un «que», seguramente no afectará a la comprensión y se sobreentenderá, no siendo así si borramos la palabra «niño» del mismo texto original. Cuando todos los símbolos son igualmente probables (distribución de probabilidad plana), todos aportan información relevante y la entropía es máxima.

El concepto entropía es usado en termodinámica, mecánica estadística y teoría de la información. En todos los casos la entropía se concibe como una «medida del desorden» o la «peculiaridad de ciertas combinaciones». La entropía puede ser considerada como una medida de la incertidumbre y de la información necesarias para, en cualquier proceso, poder acotar, reducir o eliminar la incertidumbre. Resulta que el concepto de información y el de entropía están básicamente relacionados entre sí, aunque se necesitaron años de desarrollo de la mecánica estadística y de la teoría de la información antes de que esto fuera percibido.

Dicho todo lo anterior me gustaría traer la analogía entre palabras frecuentes como «que», «el», «a» aportan poca información (noticias inanes cada vez más frecuentes) , mientras que palabras menos frecuentes como «corren», «niño», «perro» (noticias). Internet y la publicación de contenidos, y aquí incluyo a todos; a   los medios, a los blogs incluso a mi mismo… vamos por el camino de la entropía máxima cuando  lo entendible, razonable, deseable, esperable por la capacidad tecnológica, sería que fuera un escenario tendente a cero. Vamos a toda velocidad por un camino que nos hace saber mucho de la nada.

Un cambio de tendencia requiere  cada vez mejor conocimiento del medio para ejecutar un mejor filtro. La tecnología tiene que abrirme paso para abandonar los discursos globales, por abandonar los discursos locales y llegar a los discursos personales.  La personalización.

Como puntilla a este estado de las cosas los medios quieren salir de su crisis (¿de identidad?) con becarios, reproduciendo notas de prensa, colgando teletipos… en vez de hacer periodismo.

Hoy me mandaban esto.

Content is not king. Distribution is not king. Conversation is the kingdom.

https://tinius.com/blog/death-to-the-mass

¿Cuantas conversaciones tienes al mismo tiempo?

It's only fair to share...Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedInEmail this to someonePin on Pinterest

Deja un comentario