WARNING:
JavaScript is turned OFF. None of the links on this concept map will
work until it is reactivated.
If you need help turning JavaScript On, click here.
Este Cmap, tiene información relacionada con: FSI-5 Teoría de la información de Shannon, Entropía conjunta Fórmula <math xmlns="http://www.w3.org/1998/Math/MathML"> <mrow> <mtext> H(X,Y)=- </mtext> <munderover> <sum/> <mtext> (x,y)∈XxY </mtext> <mtext> </mtext> </munderover> <mtext> p(x,y) </mtext> <mmultiscripts> <mtext> log </mtext> <mtext> 2 </mtext> <none/> </mmultiscripts> <mtext> p(x,y) </mtext> </mrow> </math>, Información mutua Fórmula I(X,Y)=H(X)-H(X/Y)= H(X)+H(Y)-H(X,Y), Entropía relativa Fórmula <math xmlns="http://www.w3.org/1998/Math/MathML"> <mrow> <mtext> D(p </mtext> <mfenced open="‖" close=""> <mtext> q </mtext> </mfenced> <mtext> )= </mtext> <munderover> <sum/> <mtext> x∈X </mtext> <mtext> </mtext> </munderover> <mtext> p(x) </mtext> <mmultiscripts> <mtext> log </mtext> <mtext> 2 </mtext> <none/> </mmultiscripts> <mfrac> <mtext> p(x) </mtext> <mtext> q(x) </mtext> </mfrac> </mrow> </math>, Información de Hartley (Incertidumbre) Fórmula <math xmlns="http://www.w3.org/1998/Math/MathML"> <mrow> <mtext> I(n)= </mtext> <mmultiscripts> <mtext> log </mtext> <mtext> 2 </mtext> <none/> </mmultiscripts> <mtext> N (bits) </mtext> </mrow> </math>, <math xmlns="http://www.w3.org/1998/Math/MathML"> <mrow> <mtext> n= </mtext> <mfrac> <mmultiscripts> <mtext> I </mtext> <mtext> t </mtext> <none/> </mmultiscripts> <mmultiscripts> <mtext> I </mtext> <mtext> r </mtext> <none/> </mmultiscripts> </mfrac> </mrow> </math> Donde <math xmlns="http://www.w3.org/1998/Math/MathML"> <mrow> <mmultiscripts> <mtext> I </mtext> <mtext> r </mtext> <none/> </mmultiscripts> <mtext> es el número de bits empleados </mtext> </mrow> </math>, <math xmlns="http://www.w3.org/1998/Math/MathML"> <mrow> <mtext> I( </mtext> <mmultiscripts> <mtext> n </mtext> <none/> <mtext> s </mtext> </mmultiscripts> <mtext> )=k(n)·s </mtext> </mrow> </math> Donde <math xmlns="http://www.w3.org/1998/Math/MathML"> <mtext> s son las posibles selecciones de un conjunto de n elementos
k(n) es una constante desconocida que depende de n </mtext> </math>, <math xmlns="http://www.w3.org/1998/Math/MathML"> <mrow> <mtext> I(n)= </mtext> <mmultiscripts> <mtext> log </mtext> <mtext> 2 </mtext> <none/> </mmultiscripts> <mtext> N (bits) </mtext> </mrow> </math> Propiedades Normalización: I(2)=1, Redundancia Fórmula R=(1-n)100%, Eficiencia Fórmula <math xmlns="http://www.w3.org/1998/Math/MathML"> <mrow> <mtext> n= </mtext> <mfrac> <mmultiscripts> <mtext> I </mtext> <mtext> t </mtext> <none/> </mmultiscripts> <mmultiscripts> <mtext> I </mtext> <mtext> r </mtext> <none/> </mmultiscripts> </mfrac> </mrow> </math>, Cantidad de información Fórmula <math xmlns="http://www.w3.org/1998/Math/MathML"> <mrow> <mtext> I( </mtext> <mmultiscripts> <mtext> n </mtext> <none/> <mtext> s </mtext> </mmultiscripts> <mtext> )=k(n)·s </mtext> </mrow> </math>, <math xmlns="http://www.w3.org/1998/Math/MathML"> <mrow> <mtext> I(n)= </mtext> <mmultiscripts> <mtext> log </mtext> <mtext> 2 </mtext> <none/> </mmultiscripts> <mtext> N (bits) </mtext> </mrow> </math> Propiedades Monotonía: I(N)≤I(N+1) ∀ N ∈ N, Entropía de Shannon Fórmula <math xmlns="http://www.w3.org/1998/Math/MathML"> <mrow> <mtext> H( </mtext> <mmultiscripts> <mtext> p </mtext> <mtext> 1 </mtext> <none/> </mmultiscripts> <mtext> , </mtext> <mmultiscripts> <mtext> p </mtext> <mtext> 2 </mtext> <none/> </mmultiscripts> <mtext> ,..., </mtext> <mmultiscripts> <mtext> p </mtext> <mtext> n </mtext> <none/> </mmultiscripts> <mtext> )=- </mtext> <munderover> <sum/> <mtext> i=1 </mtext> <mtext> n </mtext> </munderover> <mmultiscripts> <mtext> p </mtext> <mtext> i </mtext> <none/> </mmultiscripts> <mmultiscripts> <mtext> log </mtext> <mtext> 2 </mtext> <none/> </mmultiscripts> <mmultiscripts> <mtext> p </mtext> <mtext> i </mtext> <none/> </mmultiscripts> <mtext> ∀n∈N </mtext> </mrow> </math>, <math xmlns="http://www.w3.org/1998/Math/MathML"> <mrow> <mtext> H( </mtext> <mmultiscripts> <mtext> p </mtext> <mtext> 1 </mtext> <none/> </mmultiscripts> <mtext> , </mtext> <mmultiscripts> <mtext> p </mtext> <mtext> 2 </mtext> <none/> </mmultiscripts> <mtext> ,..., </mtext> <mmultiscripts> <mtext> p </mtext> <mtext> n </mtext> <none/> </mmultiscripts> <mtext> )=- </mtext> <munderover> <sum/> <mtext> i=1 </mtext> <mtext> n </mtext> </munderover> <mmultiscripts> <mtext> p </mtext> <mtext> i </mtext> <none/> </mmultiscripts> <mmultiscripts> <mtext> log </mtext> <mtext> 2 </mtext> <none/> </mmultiscripts> <mmultiscripts> <mtext> p </mtext> <mtext> i </mtext> <none/> </mmultiscripts> <mtext> ∀n∈N </mtext> </mrow> </math> Donde <math xmlns="http://www.w3.org/1998/Math/MathML"> <mrow> <mmultiscripts> <mtext> p </mtext> <mtext> i </mtext> <none/> </mmultiscripts> <mtext> son las probabilidades de sucesos </mtext> </mrow> </math>, <math xmlns="http://www.w3.org/1998/Math/MathML"> <mrow> <mtext> I(n)= </mtext> <mmultiscripts> <mtext> log </mtext> <mtext> 2 </mtext> <none/> </mmultiscripts> <mtext> N (bits) </mtext> </mrow> </math> Propiedades Aditividad: I(N·M)=I(N)+I(M) ∀ N, M ∈ N, <math xmlns="http://www.w3.org/1998/Math/MathML"> <mrow> <mtext> n= </mtext> <mfrac> <mmultiscripts> <mtext> I </mtext> <mtext> t </mtext> <none/> </mmultiscripts> <mmultiscripts> <mtext> I </mtext> <mtext> r </mtext> <none/> </mmultiscripts> </mfrac> </mrow> </math> Donde <math xmlns="http://www.w3.org/1998/Math/MathML"> <mrow> <mmultiscripts> <mtext> I </mtext> <mtext> t </mtext> <none/> </mmultiscripts> <mtext> es el número de bits que representa </mtext> </mrow> </math>, Entropía condicional Fórmula <math xmlns="http://www.w3.org/1998/Math/MathML"> <mrow> <mtext> H(X/Y)=- </mtext> <munderover> <sum/> <mtext> y∈Y </mtext> <mtext> </mtext> </munderover> <mtext> p(y) </mtext> <munderover> <sum/> <mtext> x∈X </mtext> <mtext> </mtext> </munderover> <mtext> p(x/y) </mtext> <mmultiscripts> <mtext> log </mtext> <mtext> 2 </mtext> <none/> </mmultiscripts> <mtext> p(x/y) </mtext> </mrow> </math>