TP n°2 TELECOM .pdf
-
Upload
faysal-bensalah -
Category
Documents
-
view
247 -
download
15
Transcript of TP n°2 TELECOM .pdf
2011
-CHARAF MOHAMED EL MEHDI
-LAGRAWI HAMZA
MASTER RESEAUX &
TELECOMMUNICATIONS
2011/2012
TP n°2: TELECOM
Pr. M BOUSMAHPr. M BOUSMAH
Pr. Mme LABOUIDYAPr. Mme LABOUIDYA
Pr. M SABRI Pr. M SABRI
Binôme :
LAGRAWI HAMZALAGRAWI HAMZA CHARAF Mohamed EL Mehdi
CHARAF Mohamed EL Mehdi
TP n°2: TELECOM
1. La commande permettant la saisie de cette matrice :
Pxy=[1/15 3/15 1/15;8/27 7/27 1/27;1/27 4/135 1/135]
2. La commande permettant de vérifier que :
sum(sum(Pxy))
3. Le programme permettant de vérifier que :
s=0;for i=1:3 for j=1:3 s=s+Pxy(i,j); endenddisp(s)
4. La commande permettant de calculer les probabilités P(xi):
Px1=sum(Pxy(1,:)),Px2=sum(Pxy(2,:)),Px3=sum(Pxy(3,:))
• sum(Pxy(1,:)) = 0.3333
• sum(Pxy(2,:))= 0.5926
• sum(pxy(3, :))= 0.0741
5. Le programme permettant de calculer les probabilités P(xi):
for i=1:3 s=0; for j=1:3 s=s+Pxy(i,j); end Px(i)=s;enddisp(Px)
6. La commande permettant de calculer les probabilités P(yj):
Py1=sum(Pxy(:,1)),Py2=sum(Pxy(:,2)),Py3=sum(Pxy(:,3))
• sum(Pxy( :,1)) = 0.4000
• sum(Pxy( :,2))= 0.4889
• sum(pxy( :, 3))= 0.1111
7. Le programme permettant de calculer les probabilités P(yj):
for j=1:3 s=0; for i=1:3 s=s+Pxy(i,j); end Py(j)=s;enddisp(Py)
8. la commande permettant de calculer l'entropie conjointe H(X,Y) :
Hxy=-sum(sum(Pxy.*log2(Pxy))) =2.5652
9. le programme permettant de calculer l'entropie conjointe H(X,Y) :
Hxy=0;for i=1:3 for j=1:3 Hxy=-Pxy(i,j).*log2(Pxy(i,j))+Hxy; endend
disp(Hxy)
10. la commande permettant de calculer l'entropie H(X) :
Hx=-sum(Px.*log2(Px))
11. la commande permettant de calculer l'entropie H(Y) :
Hy=-sum(Py.*log2(Py))
12. Les deux sources sont-elles indépendantes ? Justifier votre réponse
Non les deux sources ne sont pas indépendantes car : H(Y,X ) ˂ H(X). H(Y)
13. la commande permettant de calculer l'entropie H(Y/X ) :
Hylx=hxy-Hx
14. la commande permettant de calculer l'entropie H(X/Y) :
Hxly=hxy-Hy
15. la commande permettant de calculer la quantité d'information mutuelle I(X, Y) : Ixy=Hx+Hy-hxy
16. Conclusion :
Ixy est petit cela influence sur le canal
TP12On considère une source binaire avec deux symboles "0" et "1" de probabilités respectives p et 1-p et une entropie H(S) :
1. le programme permettant de représenter l’entropie H(S) en fonction de p:
P=0:1/100:1;H=-P.*log2(P)-(1-P).*log2(1-P);plot(P,H), grid onxlabel('P'),ylabel('H')
2. Représentation de résultat :
3. Conclusion :
L’entropie est maximale pour P=0,5 et vaut zéro pour P=0 et P=1
TP13On considère la chaîne de transmission suivante:
La capacité C du canal est atteinte lorsque les deux symboles de la source d'entrée sont équiprobables (voir cours) avec:
1. le programme permettant de représenter C en fonction de p:
P=0:1/100:1;C=1+P.*log2(P)+(1-P).*log2(1-P);plot(P,C),grid onxlabel('P'),ylabel('C')
2. Représentation de résultat :
3. Conclusion :
Lorsque la probabilité d'erreur est de 50%, la capacité du canal est nulle, lorsqu'elle est égale à 0% ou 100% la capacité du canal est maximale (une erreur de 100% correspond à une simple inversion des bits "0" et "1" par le canal)
TP14
Une source X génère des symboles à partir d’un alphabet à 8 lettres {A, B, C, D, E, F, G, H} avecdes probabilités :
P(A)=0.15, P(B)=0.15, P(C)=0.06, P(D)=0.1, P(E)=0.4, P(F)=0.1, P(G)=0.02, P(H)=0.02
1. la commande permettant de calculer l’entropie de la source
Hx= -sum((Px).*log2(Px)
2. Code Huffman
a. Générez le code Huffman pour cette source en utilisant le programmehuffman.m ci-joint.
symbole A B C D E F G Hcode 010 001 00010 011 1 0000 000110 000111
b. Représenter l’arbre de ce codage
c. Générez manuellement le code Huffman pour cette source
d. Déduire son efficacité et sa redondance
Efficacité = 0.97777 Redondance = 0.022231
e. Conclusions
Le codage de Huffman est un algorithme de compression de données sans perte.
3. Code Shannon-Fano
3 Code Shannon-Fano
a) Générez manuellement le code Shannon-Fano pour cette source
symbole A B C D E F G Hcode 100 01 1110 101 00 110 11110 11111
c. Calculez son efficacité et sa redondance
d. Représenter l’arbre de ce codage