it.information-theory

it.information-theory

it.information-theory – Complejidad condicional de Kolmogorov: $ K (y | x ^ *) $ vs $ K (y | x) $

Pregunta: En "The Similarity Metric", Li, et al dan la primera definición de la distancia de información normalizada como $ \ Displaystyle d (x, y) = \ frac {\ max \ left \ {K (x | y ^ *), K (y | x ^ *) \ right \}} {\ max \ left \ {K ( …

it.information-theory – Complejidad condicional de Kolmogorov: $ K (y | x ^ *) $ vs $ K (y | x) $ Read More »

it.information-theory – Información mutua algorítmica entre una cadena aleatoria y una estadística mínima suficiente de Kolmogorov

Pregunta: Con respecto a la notación a continuación, la función $ \ ell (B) $ devuelve la longitud de la cadena de bits $ B $, y la cardinalidad del conjunto $ S $ se denota por $ | S | $. Una cadena de bits $ B $ se genera dibujando 0 y 1 …

it.information-theory – Información mutua algorítmica entre una cadena aleatoria y una estadística mínima suficiente de Kolmogorov Read More »

it.information-theory – ¿Son la entropía de Shannon y la entropía de Boltzmann mutuamente convertibles?

Pregunta: ¿Son la entropía de Shannon y la entropía de Boltzmann mutuamente convertibles, al igual que la masa y la energía según la fórmula de Einstein? Respuesta: En la práctica, la única diferencia es que la entropía de Boltzmann trata con una constante termodinámica $ K_B $: $ H = -K_B \ sum_ {i = …

it.information-theory – ¿Son la entropía de Shannon y la entropía de Boltzmann mutuamente convertibles? Read More »

it.information-theory – ¿Cuál es el volumen de información?

Pregunta: Esta pregunta se le hizo a Jeannette Wing después de su presentación PCAST sobre informática. "Desde la perspectiva de la física, ¿hay un volumen máximo de información que podemos tener?" (una buena pregunta de desafío para la comunidad teórica de la informática, ya que creo que plantea la pregunta "¿Qué es la información?") Más …

it.information-theory – ¿Cuál es el volumen de información? Read More »

it.information-theory – Comparación de la codificación Shannon-Fano y Shannon

Pregunta: Estoy interesado en algunos algoritmos para crear códigos de prefijo: Codificación de Shannon : tomamos $ l_i = \ lceil – \ log p_i \ rceil $. Codificación Shannon-Fano : enumere las probabilidades en orden decreciente y luego divídalas por la mitad en cada paso para mantener equilibrada la probabilidad en cada lado. Luego, …

it.information-theory – Comparación de la codificación Shannon-Fano y Shannon Read More »

it.information-theory – Complejidad de comunicación esperada frente al peor de los casos

Pregunta: En el problema de desarticulación de conjuntos de la complejidad de la comunicación entre dos partes, Alice y Bob reciben una cadena de $ n $ -bit como entrada; denotado por $ X $ para la entrada de Alice y $ Y $ para la entrada de Bob. Necesitan generar "no" si y solo …

it.information-theory – Complejidad de comunicación esperada frente al peor de los casos Read More »

Scroll to Top

istanbul avukat

-

web tasarım