6.1 Medida de la información y Codificación de Fuente: Concepto y medida de información. Entropía y rata de información. Teorema de Shannon. Codificación para una fuente discreta sin memoria. Codificación predictiva para fuentes con memoria.
6.2 Transmisión de información en canales discretos: Información mutua. Capacidad de un canal discreto. Codificación para canal binario simétrico.
6.3 Canales continuos y comparación de sistemas: Información continua. Capacidad de canal contínuo. Sistemas ideales de comunicaciones. Comparación de sistemas.
6.4 Espacio de señal: Señales como vectores. Procedimiento Gram-Schmidt.
6.5 Detección digital óptima: Detección óptima y Receptores Máximo a Posteriori (MAP). Probabilidades de error.
viernes, 16 de abril de 2010
Suscribirse a:
Enviar comentarios (Atom)
No hay comentarios:
Publicar un comentario