3.3+Ley+de+Shannon.

En teoría de información, ** Teorema de Shannon-Hartley ** es un uso del teorema ruidoso de la codificación del canal al caso arquetipo de un canal de comunicaciones análogo del continuo-tiempo conforme a Ruido Gaussian. El teorema establece ** Shannon capacidad de canal **, un límite en la cantidad máxima de datos digitales sin error (es decir, información) que puede ser excedente transmitido tal puente de comunicaciones con especificado anchura de banda en presencia de la interferencia de ruido, bajo la asunción que la energía de la señal está limitada y proceso Gaussian del ruido es caracterizada por una energía sabida o una densidad espectral de la energía. La ley se nombra después Claude Shannon y Ralph Hartley.

Considerando todas las posibles técnicas de codificación de niveles múltiples y polifásicas, el teorema de Shannon-Hartley indica que la capacidad del canal // C // es: donde:
 * [[image:http://upload.wikimedia.org/wikipedia/es/math/9/d/5/9d5ed678fe57bcca610140957afab571.png caption="external image 9d5ed678fe57bcca610140957afab571.png"]]es el ancho de banda del canal.
 * [[image:http://upload.wikimedia.org/wikipedia/es/math/0/d/6/0d61f8370cad1d412f80b84d143e1257.png caption="external image 0d61f8370cad1d412f80b84d143e1257.png"]]es la capacidad del canal (tasa de bits de información bit/s)
 * [[image:http://upload.wikimedia.org/wikipedia/es/math/5/d/b/5dbc98dcc983a70728bd082d1a47546e.png caption="external image 5dbc98dcc983a70728bd082d1a47546e.png"]]es la potencia de la señal útil, que puede estar expresada en vatios, milivatios, etc., (W, mW, etc.)
 * [[image:http://upload.wikimedia.org/wikipedia/es/math/8/d/9/8d9c307cb7f3c4a32822a51922d1ceaa.png caption="external image 8d9c307cb7f3c4a32822a51922d1ceaa.png"]]es la potencia del ruido presente en el canal, (mW, [[image:http://upload.wikimedia.org/wikipedia/es/math/b/7/2/b72bb92668acc30b4474caff40274044.png caption="external image b72bb92668acc30b4474caff40274044.png"]]W, etc.) que trata de enmascarar a la señal útil.

El desarrollo de la teoría de la información de Claude Shannon durante la Segunda Guerra Mundial estimuló el siguiente gran paso para entender qué cantidad de información se podría comunicar, sin errores y de manera fiable, a través de canales con ruido gausiano de fondo.
 * Teorema de codificación de canales con ruido y capacidad **

Fundamentado sobre las ideas de Hartley, el teorema de Shannon de la codificación de canales con ruido (1948) describe la máxima eficiencia posible de los métodos de corrección de errores versus los niveles de interferencia de ruido y corrupción de datos. La prueba del teorema muestra que un código corrector de errores construido aleatoriamente es, esencialmente, igual de bueno que el mejor código posible. El teorema se prueba con la estadística de tales códigos aleatorios.

El teorema de Shannon demuestra cómo calcular la capacidad de un canal sobre una descripción estadística del canal y establece que, dado un canal con ruido con capacidad e información transmitida en una tasa , entonces si  existe una técnica de codificación que permite que la probabilidad de error en el receptor se haga arbitrariamente pequeña. Esto significa que, teóricamente, es posible transmitir información casi sin error hasta un límite cercano a bits por segundo. El inverso también es importante. Si la probabilidad del error en el receptor se incrementa sin límite mientras se aumente la tasa. De esta manera no se puede transmitir ninguna información útil por encima de la capacidad del canal. El teorema no trata la situación, poco frecuente, en que la tasa y la capacidad son iguales.