TP n°2 TELECOM .pdf

12
2011 -CHARAF MOHAMED EL MEHDI -LAGRAWI HAMZA MASTER RESEAUX & TELECOMMUNICATIONS 2011/2012 TP n°2: TELECOM

Transcript of TP n°2 TELECOM .pdf

Page 1: TP n°2 TELECOM .pdf

2011

-CHARAF MOHAMED EL MEHDI

-LAGRAWI HAMZA

MASTER RESEAUX &

TELECOMMUNICATIONS

2011/2012

TP n°2: TELECOM

Page 2: TP n°2 TELECOM .pdf

Pr. M BOUSMAHPr. M BOUSMAH

Pr. Mme LABOUIDYAPr. Mme LABOUIDYA

Pr. M SABRI Pr. M SABRI

Binôme :

LAGRAWI HAMZALAGRAWI HAMZA CHARAF Mohamed EL Mehdi

CHARAF Mohamed EL Mehdi

TP n°2: TELECOM

Page 3: TP n°2 TELECOM .pdf

1. La commande permettant la saisie de cette matrice :

Pxy=[1/15 3/15 1/15;8/27 7/27 1/27;1/27 4/135 1/135]

2. La commande permettant de vérifier que :

sum(sum(Pxy))

3. Le programme permettant de vérifier que :

s=0;for i=1:3 for j=1:3 s=s+Pxy(i,j); endenddisp(s)

4. La commande permettant de calculer les probabilités P(xi):

Px1=sum(Pxy(1,:)),Px2=sum(Pxy(2,:)),Px3=sum(Pxy(3,:))

• sum(Pxy(1,:)) = 0.3333

• sum(Pxy(2,:))= 0.5926

• sum(pxy(3, :))= 0.0741

Page 4: TP n°2 TELECOM .pdf

5. Le programme permettant de calculer les probabilités P(xi):

for i=1:3 s=0; for j=1:3 s=s+Pxy(i,j); end Px(i)=s;enddisp(Px)

6. La commande permettant de calculer les probabilités P(yj):

Py1=sum(Pxy(:,1)),Py2=sum(Pxy(:,2)),Py3=sum(Pxy(:,3))

• sum(Pxy( :,1)) = 0.4000

• sum(Pxy( :,2))= 0.4889

• sum(pxy( :, 3))= 0.1111

7. Le programme permettant de calculer les probabilités P(yj):

for j=1:3 s=0; for i=1:3 s=s+Pxy(i,j); end Py(j)=s;enddisp(Py)

8. la commande permettant de calculer l'entropie conjointe H(X,Y) :

Hxy=-sum(sum(Pxy.*log2(Pxy))) =2.5652

9. le programme permettant de calculer l'entropie conjointe H(X,Y) :

Hxy=0;for i=1:3 for j=1:3 Hxy=-Pxy(i,j).*log2(Pxy(i,j))+Hxy; endend

Page 5: TP n°2 TELECOM .pdf

disp(Hxy)

10. la commande permettant de calculer l'entropie H(X) :

Hx=-sum(Px.*log2(Px))

11. la commande permettant de calculer l'entropie H(Y) :

Hy=-sum(Py.*log2(Py))

12. Les deux sources sont-elles indépendantes ? Justifier votre réponse

Non les deux sources ne sont pas indépendantes car : H(Y,X ) ˂ H(X). H(Y)

13. la commande permettant de calculer l'entropie H(Y/X ) :

Hylx=hxy-Hx

14. la commande permettant de calculer l'entropie H(X/Y) :

Hxly=hxy-Hy

15. la commande permettant de calculer la quantité d'information mutuelle I(X, Y) : Ixy=Hx+Hy-hxy

16. Conclusion :

Ixy est petit cela influence sur le canal

TP12On considère une source binaire avec deux symboles "0" et "1" de probabilités respectives p et 1-p et une entropie H(S) :

Page 6: TP n°2 TELECOM .pdf

1. le programme permettant de représenter l’entropie H(S) en fonction de p:

P=0:1/100:1;H=-P.*log2(P)-(1-P).*log2(1-P);plot(P,H), grid onxlabel('P'),ylabel('H')

2. Représentation de résultat :

3. Conclusion :

L’entropie est maximale pour P=0,5 et vaut zéro pour P=0 et P=1

Page 7: TP n°2 TELECOM .pdf

TP13On considère la chaîne de transmission suivante:

La capacité C du canal est atteinte lorsque les deux symboles de la source d'entrée sont équiprobables (voir cours) avec:

1. le programme permettant de représenter C en fonction de p:

P=0:1/100:1;C=1+P.*log2(P)+(1-P).*log2(1-P);plot(P,C),grid onxlabel('P'),ylabel('C')

Page 8: TP n°2 TELECOM .pdf

2. Représentation de résultat :

3. Conclusion :

Lorsque la probabilité d'erreur est de 50%, la capacité du canal est nulle, lorsqu'elle est égale à 0% ou 100% la capacité du canal est maximale (une erreur de 100% correspond à une simple inversion des bits "0" et "1" par le canal)

TP14

Une source X génère des symboles à partir d’un alphabet à 8 lettres {A, B, C, D, E, F, G, H} avecdes probabilités :

P(A)=0.15, P(B)=0.15, P(C)=0.06, P(D)=0.1, P(E)=0.4, P(F)=0.1, P(G)=0.02, P(H)=0.02

1. la commande permettant de calculer l’entropie de la source

Hx= -sum((Px).*log2(Px)

Page 9: TP n°2 TELECOM .pdf

2. Code Huffman

a. Générez le code Huffman pour cette source en utilisant le programmehuffman.m ci-joint.

symbole A B C D E F G Hcode 010 001 00010 011 1 0000 000110 000111

b. Représenter l’arbre de ce codage

c. Générez manuellement le code Huffman pour cette source

Page 10: TP n°2 TELECOM .pdf

d. Déduire son efficacité et sa redondance

Efficacité = 0.97777 Redondance = 0.022231

e. Conclusions

Le codage de Huffman est un algorithme de compression de données sans perte.

3. Code Shannon-Fano

Page 11: TP n°2 TELECOM .pdf

3 Code Shannon-Fano

a) Générez manuellement le code Shannon-Fano pour cette source

symbole A B C D E F G Hcode 100 01 1110 101 00 110 11110 11111

c. Calculez son efficacité et sa redondance

Page 12: TP n°2 TELECOM .pdf

d. Représenter l’arbre de ce codage