3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

36
Chapitre 3 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l'évaluation du risque de tachycardie ventriculaire et de mort subite Préambule: ce chapitre décrit la méthode conventionnelle de détection des potentiels tardifs sur l'électrocardiogramme moyenné à haute-résolution. Il précise ensuite les limites de cette méthode et présente les résultats que nous avons obtenu sur notre population de référence pour les évaluations . 3.1. Méthodes temporelles B. Scherlag [Shr 85] est l'un des tout premiers auteurs à avoir utilisé une forme filtrée de l’électrocardiogramme pour mettre en évidence les PT. Cet auteur montra que le filtrage analogique passe-haut de l'ECG présentait un inconvénient majeur: il distord la portion terminale du QRS et cache les PT. Avec l'apparition de l'électrocardiographie numérisée, on a eu recours à des filtres numériques qui permettent une analyse plus fine du signal mais qui, eux aussi, sont à l'origine de distorsions de la fin du complexe QRS. L'élimination de ces distorsions reste actuellement le problème majeur inhérent au filtrage de l’ECG. 3.1.1. Les différentes méthodes de filtrage de l'ECG-HR Les différentes étapes de traitement de l'ECG-HR dans le domaine temporel sont la détection et l'alignement des complexes QRS (cf. §1.3.5) et le filtrage passe-bande de 25, 40 ou 80 à 250Hz pour isoler les PT. Trois types de filtres digitaux ont été utilisés pour la détection des PT sur l’ECG-HR : les filtres à réponse infinie (FRI), à réponse finie (FRF) et les filtres utilisant des fenêtres spectrales particulières. Les avantages et les inconvénients de ces trois approches ont été décrits par Lander en 1989 [Lan 89] : - Les filtres FRI sont simples à mettre en oeuvre (formules de Butterworth). Ils sont caractérisés par une bande de fréquence étroite. Leurs réponses impulsionnelles sont théoriquement infinies. Il existe deux inconvénients à l’application de ce type de filtrage : l'apparition d'un phénomène de "rebond" sur la partie terminale du complexe QRS et un

Transcript of 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

Page 1: 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

Chapitre 3

3. Méthode conventionnelle d'analyse de l'ECG-HR pour

l'évaluation du risque de tachycardie ventriculaire et de mort

subite

Préambule: ce chapitre décrit la méthode conventionnelle de détection

des potentiels tardifs sur l'électrocardiogramme moyenné à haute-résolution.

Il précise ensuite les limites de cette méthode et présente les résultats que

nous avons obtenu sur notre population de référence pour les évaluations .

3.1. Méthodes temporelles

B. Scherlag [Shr 85] est l'un des tout premiers auteurs à avoir utilisé une forme filtrée de

l’électrocardiogramme pour mettre en évidence les PT. Cet auteur montra que le filtrage

analogique passe-haut de l'ECG présentait un inconvénient majeur: il distord la portion terminale

du QRS et cache les PT.

Avec l'apparition de l'électrocardiographie numérisée, on a eu recours à des filtres

numériques qui permettent une analyse plus fine du signal mais qui, eux aussi, sont à l'origine de

distorsions de la fin du complexe QRS. L'élimination de ces distorsions reste actuellement le

problème majeur inhérent au filtrage de l’ECG.

3.1.1. Les différentes méthodes de filtrage de l'ECG-HR

Les différentes étapes de traitement de l'ECG-HR dans le domaine temporel sont la

détection et l'alignement des complexes QRS (cf. §1.3.5) et le filtrage passe-bande de 25, 40 ou

80 à 250Hz pour isoler les PT.

Trois types de filtres digitaux ont été utilisés pour la détection des PT sur l’ECG-HR : les

filtres à réponse infinie (FRI), à réponse finie (FRF) et les filtres utilisant des fenêtres spectrales

particulières. Les avantages et les inconvénients de ces trois approches ont été décrits par Lander

en 1989 [Lan 89] :

- Les filtres FRI sont simples à mettre en oeuvre (formules de Butterworth). Ils sont

caractérisés par une bande de fréquence étroite. Leurs réponses impulsionnelles sont

théoriquement infinies. Il existe deux inconvénients à l’application de ce type de filtrage :

l'apparition d'un phénomène de "rebond" sur la partie terminale du complexe QRS et un

Page 2: 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

Chapitre 3

déphasage du signal. Il s'ensuit une augmentation apparente de la durée du complexe QRS

aboutissant à une mauvaise évaluation de la présence des PT.

- Les filtres FRF ont une très bonne précision temporelle et un faible décalage de phase.

Ils présentent néanmoins des effets de rebond au début et à la fin du complexe QRS. Ces rebonds

rendent impossible la détection du début et de la fin du complexe. Néanmoins, la morphologie du

QRS est mieux préservée qu'avec les filtres FRI.

- Les filtres à fenêtre fréquentielle opèrent dans le domaine fréquentiel par fenêtrage du

spectre du signal étudié. On obtient un filtrage sans distorsion car il s'effectue sans décalage de

phase. Plusieurs types de fenêtres peuvent être utilisés. L'une des plus remarquables est la fenêtre

de Kaiser-Bessel [Har 78] car elle donne une valeur optimale du coefficient correspondant au

produit de la bande passante (BP) à -3dB par la durée de la réponse impulsionnelle (DRI ) du

filtre :

Q BP DRI= × équation 3.1

Bien que leurs réponses impulsionnelles soient théoriquement infinies, les filtres à fenêtre

fréquentielle présentent en pratique une réponse impulsionnelle plus courte que les filtres FRI. Ils

restent le meilleur compromis entre les filtres FRI et FRF pour l'analyse de l'ECG-HR, car ils

permettent une bonne atténuation du segment ST avec une minimisation des rebonds sur la fin du

complexe QRS.

3.1.2. Méthode de Simson

La méthode la plus utilisée dans les milieux hospitaliers pour établir un pronostic de TV

après infarctus a été définie en 1981 par MB Simson [Sim 81,1].

3.1.2.1. Filtrage bidirectionnel de l'ECG-HR

Simson a proposé une méthode originale utilisant un filtre du type FRI. Les phénomènes de

rebond sont éliminés par une technique de filtrage bidirectionnel. L'ECG-HR est filtré d'abord de

l'onde P vers QRS, puis du segment ST vers QRS. Les effets de rebonds sont éliminés en

reconstruisant le signal à partir des premières moitiés de chacun des signaux filtrés. Le filtre

utilisé est un filtre de Butterworth à quatre pôles avec une bande passante définie entre 40 et 250

Hz.

Page 3: 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

Chapitre 3

3.1.2.2. Le vecteur amplitude

La deuxième caractéristique de cette méthode est de calculer une fonction de détection

définie par l'équation :

VA t x t y t z t( ) ( )² ( )² ( )²= + + . équation 3.2

où x(t), y(t) et z(t) sont les coordonnées instantanées mesurées sur les trois dérivations

filtrées et VA le vecteur amplitude. L’utilisation de ce vecteur simplifie considérablement

l’analyse car il est censé contenir l'ensemble des informations incluses dans les trois dérivations

pseudo-orthogonales. Ceci semble logique lorsqu'il s'agit de traiter comme en vectocardiographie

de véritables dérivations orthogonales, mais n'a pas été vérifié pour la méthode de Simson.

3.1.2.3. Détermination du début et de la fin du QRS filtré

La localisation du début et de la fin du complexe QRS filtré est effectuée sur la courbe du

VA par un algorithme proposé par Simson. Cet algorithme compare des mesures d'activité

effectuées à l'aide d'une série de trois fenêtres de durée fixe:

- Deux fenêtres, l'une d'une durée de 20 ms et l'autre d'une durée de 40 ms sont utilisées

pour mesurer deux niveaux de bruit de référence : le premier pour la détection du début du

complexe QRS (BdQRS) et l'autre pour celle de la fin du complexe (BfQRS). Ces fenêtres sont

respectivement centrées sur les instants 40 ms avant le complexe QRS et 80 ms après ce

complexe.

- Pour la détection du début de QRS, une fenêtre glissante de 5 ms est progressivement

décalée à partir de 40 ms avant le début du complexe QRS dans le sens croissant du temps

jusqu'à détecter un intervalle sur lequel l'estimation de l'activité est supérieure à la moyenne du

BdQRS plus 3 écart types. Le point milieu de cette fenêtre définit alors la localisation du début

du complexe QRS. Pour la détection de la fin du complexe, une démarche similaire est utilisée

mais dans le sens rétrograde, de l'onde T vers le QRS, avec une valeur de référence fixée à

l'activité moyenne de BfQRS plus trois écarts types.

Cette méthode a été validée en comparant les résultats de l'analyse automatique avec ceux

obtenus visuellement par deux observateurs. L'écart type des différences entre la détermination

visuelle et la détermination automatique était de ±1.2 ms ([Sim 81,1], N=66).

Page 4: 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

Chapitre 3

3.1.2.4. Paramètres et critères de Simson

Simson [Sim 81, 1] a proposé trois paramètres pour la quantification des PT. Leur

définition repose sur le constat que les potentiels anormaux prolongent la durée de QRS et de ce

fait diminuent le potentiel moyen de la fin de QRS.

3.1.2.4.1. La durée de QRS filtré (QRSf)

C'est la durée mesurée entre les points de début et de fin de QRS déterminés par la

méthode décrite ci-dessus. Cette durée est significativement plus élevée chez les patients avec

TV que chez les patients sans TV. Dans l'étude initiale de Simson portant sur 39 patients avec

TV et 27 patients sans TV, les durées de QRSf sont de 139 ms versus 95 ms, différence qui est

hautement significative (p<0.0001). Cet allongement de durée est lié à l'apparition des PT.

3.1.2.4.2. Le RMS401

C'est l'amplitude du potentiel quadratique moyen des 40 dernières millisecondes du signal.

Ce paramètre mesure l'énergie du signal dans la partie terminale du complexe QRS. En l'absence

de PT, les 40 dernières millisecondes du complexe coïncident avec la fin de la phase de

dépolarisation classique, caractérisée par une amplitude importante. La présence de PT est

caractérisée par des signaux fractionnés, de faible amplitude, abaissant significativement la

valeur du RMS40 (dans l’étude de Simson : 74 µV versus 15 µV, p<0.0001).

3.1.2.4.3. Le LAS402

Ce paramètre est la durée (en millisecondes) de la partie terminale du complexe QRS sur la

courbe du VA dont l'amplitude est inférieure à 40 µV. Cette mesure fut introduite à l'initiative de

Gomes et al [Gom 89] pour quantifier la durée des potentiels de faible amplitude présents à la fin

du complexe QRS. Le LAS40 est significativement plus élevé pour les patients avec TV que

pour les patients sans TV (44±19 ms versus 26±6 ms pour respectivement 29 et 33 patients,

[Gom 89]).

Les critères de présence des PT sont basés sur ces paramètres. Nous verrons que les critères

diffèrent selon les auteurs, avec des valeurs de seuils qui varient en fonction des fréquences de

filtrage.

1 " Root mean square in the last 40 msec of the filtered QRS complex".2 "Low amplitude signal under 40 µV of the terminal portion of the filtered QRS complex".

Page 5: 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

Chapitre 3

3.1.3. Les principales études utilisant cette analyse

La validation de la méthode de Simson a fait l’objet de diverses études qui ont également

cherché à définir une bande passante optimale pour la détection des PT. Les deux études

majeures sur ce sujet [Gom 87] [Car 89] ont permis d'évaluer la valeur pronostique des trois

paramètres de Simson, pour des valeurs de fréquence de coupure basses variant entre 10 et 100

Hz et une fréquence de coupure haute égale à 250 Hz.

Sept valeurs distinctes de fréquences de coupure basse ont été étudiées par Gomes et onze

valeurs par Caref. Ces études sont basées sur des populations comprenant chacune un groupe de

sujets sains et deux groupes de patients en post-infarctus, l'un avec TV et l'autre sans.

L'étude de Gomes [Gom 87], réalisée en 1987, montre que la durée du QRS filtré est plus

importante pour des fréquences de coupure basses situées entre 25 et 40 Hz.

En dessous et au-delà de ces valeurs, cette durée est plus faible et moins discriminante. Au

contraire du QRSf, le LAS40 augmente et le RMS40 diminue de façon monotone lorsque la

fréquence de coupure basse croît. Lorsque l'on considère la combinaison des trois paramètres,

l’efficacité diagnostique3 optimale (70%) est obtenue pour une fréquence de coupure basse fixée

à 80 Hz et non à 40 Hz.

Dans l’étude de Caref [Car 89], les durées de QRSf et de LAS40 sont plus courtes chez

les sujets normaux et les patients en post-infarctus sans TV que chez les patients avec TV, et cela

quelle que soit la fréquence de coupure du filtre. Les valeurs de RMS40 apparaissent plus basses

chez les patients avec TV, là aussi indépendamment de la fréquence de coupure utilisée. La

fréquence de coupure basse optimale est de 40 Hz.

Finalement, les conclusions que l'on peut tirer des résultats concernant les variations des

paramètres de Simson en fonction de la fréquence de coupure basse sont les mêmes pour les deux

études. La durée de QRS s’avère être le paramètre le plus discriminant lorsque les fréquences de

coupure basses sont comprises entre 25 et 80 Hz. En revanche, les fréquences de coupure basses

sont différentes lorsque l'on cherche à maximiser l'efficacité diagnostique (80 Hz pour Gomes,

40 Hz pour Caref).

3 L'efficacité diagnostique est définie comme la somme des valeurs de sensibilité et de spécificité multipliées

respectivement par le nombre de patients du groupe pathologique et du groupe de patient définit comme non-

pathologique ou de référence et divisée par le nombre total de patients.

Page 6: 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

Chapitre 3

Les études les plus récentes, comme celle de Steinberg [Ste 92], confirment la bonne

corrélation entre la présence de PT détectés quelques semaines après l’infarctus et l'apparition

d'événements arythmiques (mort subite, TV et FV) quelques mois plus tard. D'autres encore se

sont focalisées sur la recherche de valeurs de seuils optimaux pour les critères de Simson. Leurs

résultats sont récapitulés dans le tableau 3-1.

Denes a étudié la sensibilité et la spécificité de chacun des paramètres de Simson pour les

deux fréquences de coupure de 25 et de 45 Hz, après avoir définis des seuils optimaux en rapport

avec sa population. Ses conclusions montrent que la méthode la plus sensible et la plus

spécifique est obtenue pour une fréquence de coupure fixée à 40 Hz. Les études de Kuchar [Kuc

87], Verzoni [Ver 89], El-Sherif [She 89] et Steinberg [Ste 92] convergent vers les mêmes

valeurs de seuils à savoir QRSf > 120 ms, RMS40 < 20 µV et LAS40 > 38ms. Cependant, les

valeurs de sensibilité et de spécificité qu’ils obtiennent sont sensiblement différentes (cf. tableau

3-1).

En définitive, ces résultats confirment clairement l'intérêt diagnostique des paramètres de

Simson. Les valeurs médianes des résultats obtenus sont de 75.5% en sensibilité et 80% en

spécificité. Donc globalement, la méthode semble être un peu plus spécifique que sensible. Si les

variations des valeurs des paramètres en fonction de la fréquence de coupure basse sont dans

l'ensemble les mêmes, les résultats en termes de sensibilité et de spécificité sont généralement

différents d'une étude à l'autre. Il semblerait que ces différences soient attribuables à des

différences méthodologiques telles que : l'équipement, le nombre de cycle moyennés, les critères

de bruit, les méthodes d’alignement et de détection des début et fin de QRS et l'utilisation de

populations présentant des caractéristiques cliniques différentes (période d'enregistrement des PT

après l'infarctus, thérapeutique pharmacologique, topographie des infarctus, etc.). Pour la

détection des PT, une fréquence de coupure basse de 40 Hz apparaît globalement plus pertinente

mais aucune étude n'a défini clairement une bande de fréquence optimale.

Page 7: 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

Chapitre 3

Auteurs Nombre

de Pts

Année Référence Fré

(Hz)

QRSf

(ms)

RMS40

(µV)

LAS40

(ms)

Sens

(%)

Spec

(%)

VPP

(%)

Gomes 102 1981 [Gom 85] 40 > 114 < 20 > 38 87 63 29

Denes 52 1983 [Den 83] 25

40

≥ 120

≥ 120

< 25

< 20

≥ 30

≥ 39

NC

NC

NC

NC

NC

NC

Kacet 165 1987 [Kac 87, 1] 25 ∆QRS

< 13

< 35 > 27 76 96 NC

Gomes 87 1987 [Gom 87] 10

15

20

25

40

80

100

> 104

> 112

> 113

> 114

> 114

> 107

> 105

< 190

< 63

< 42

< 25

< 20

< 17

< 14

> 8

> 27

> 30

> 32

> 38

> 42

> 63

41

41

44

37

52

74

55

72

90

79

90

86

76

76

58

78

67

77

78

74

68

Kuchar 200 1987 [Kuc 86] 40 > 120 < 20 NC 92 62 17

Caref 180 1989 [Car 89] 10

20

25

30

40

50

60

70

80

90

100

>106

>115

>115

>113

>111

>111

>109

>107

>106

>105

>104

<103

<32

<25

<21

<16

<13

<11

<10

<9

<8

<7

>13

>31

>32

>35

>39

>45

>48

>49

>50

>50

>51

79

79

82

82

82

82

79

79

75

75

75

81

85

87

87

87

89

79

87

75

75

75

76

83

84

84

84

84

85

83

81

80

78

Verzoni 220 1989 [Ver 89] 40 > 120 < 20 > 38 83 73 8

El-Sherif 156 1989 [She 89] 25 ≥ 120 ≥ 25 NC 75 79 23

Breithardt 130 1990 [Bre 90] 25

40

non

utilisé

non

utilisé

non

utilisé

NC

NC

NC

NC

NC

NC

Steinberg 182 1992 [Ste 92] 40 > 110 < 20 > 38 69 62 15

Tableau 3-1 : tableau récapitulatif des principales études décrivant l'incidence (1) de la fréquence

de coupure basse du filtrage et (2) des valeurs de seuils des critères de Simson sur la sensibilité et la

spécificité de la méthode. Les résultats de sensibilité et de spécificité sont donnés pour une combinaison

des critères correspondant à deux critères satisfaits sur trois et lorsque les groupes considérés sont des

patients avec et sans TV. Pts : nombre de sujets. Année : année de publication. Référence

bibliographique. Fré : fréquence de coupure basse utilisée. QRSf, LAS40, RMS40 : valeurs des seuils

utilisés pour les critères. Sens : sensibilité. Spec : spécificité. VPP : Valeur prédictive positive. ∆QRS :

Page 8: 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

Chapitre 3

différence entre les durées de QRS standard et de QRS filtré (critère spécifique à l’étude de Kacet). NC :

valeurs non communiquées.

3.1.4. Standardisation internationale de la méthode

Pour éviter une certaine disparité dans les techniques d'enregistrement et les algorithmes

d'analyse de l'ECG-HR, une standardisation fut proposée en 1991 par un groupe de travail

international constitué par Breithardt, Cain, El-Sherif, Flowers, Hombach, Janse, Simson et

Steinbeck dans le but d'aider le cardiologue dans le choix d'une méthodologie. "L’objectif de ce

comité de travail est d’établir des standards pour l’acquisition et l’analyse ainsi que de définir le

rôle de l’électrocardiologie à haute-résolution pour la prise de décision clinique" [Bre 91].

Si la standardisation concernant les aspects techniques des systèmes d’acquisition est claire

(cf. chapitre 1, §1.3.5.2), certains aspects méthodologiques de l’analyse du signal restent encore

aujourd’hui mal définis, notamment :

- les méthodes de mesure du bruit pour l'estimation du nombre de cycle à moyenner. La

méthode décrite initialement par Simson est à l'heure actuelle très controversée par certains

auteurs (cf chap 1, §1.3.5.4).

- le choix des fréquences de coupure basse du filtre pour le calcul des paramètres de

Simson peut être de 25 Hz, de 40Hz ou de 80 Hz. Chaque cardiologue est invité à définir ses

propres valeurs de seuil.

- la détermination de la fin du complexe QRS, qui semble être une des principales sources

de discordances entre les différentes études [Hen 89] [Oef 86] reste, pour le comité international,

un problème non résolu et une pierre d'achoppement majeure.

3.1.5. Reproductibilité de la méthode conventionnelle

La fiabilité d'une méthode diagnostique est fortement liée à sa reproductibilité, c'est-à-dire

à sa capacité à reproduire des résultats identiques à partir de différents enregistrements d’un

même patient.

Denes [Den 83] fut le premier à analyser la reproductibilité à l'occasion d'une évaluation de

la méthode de Simson. Il utilisa pour cela un groupe de sujets sains (n=15) sur lesquels deux

enregistrements avaient été effectués à 15 minutes d'intervalle avec un niveau de bruit moyen de

0.6 µV. Il obtint une reproductibilité parfaite (100%) des valeurs des paramètres de Simson.

Steinberg [Ste 89] eut une approche différente. Il étudia en 1989 l'incidence du bruit

contenu dans l'ECG-HR sur la reproductibilité des paramètres de Simson. Il compara des

Page 9: 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

Chapitre 3

enregistrements avec des niveaux de bruit de 1.0 µV et de 0.3 µV sur trois types de sujets : des

patients avec TV (n=26), sans TV (n=59) et des sujets sains (n=14). Les valeurs des paramètres

de Simson étaient significativement différentes (p<0.05, test de Student) dans chaque groupe. La

présence d'un niveau de bruit élevé (>0.3µV) dans le signal implique systématiquement une

diminution de la durée du QRS filtré, de la valeur du RMS40 et une augmentation de la valeur du

LAS40. De plus, les valeurs de ces paramètres étaient plus sensibles au bruit sur les

enregistrements des patients en post-infarctus que sur ceux des sujets sains. Ce résultat est

expliqué par le fait que chez le sujet sain le point de jonction entre le complexe QRS et le

segment ST est généralement plus franc et donc plus reproductible que chez les autres types de

patients.

Borbola [Bor 88] a examiné en 1988 la reproductibilité des paramètres de Simson sur des

patients avec nécrose myocardique (n=60). La reproductibilité à court terme a été évaluée sur des

enregistrements effectués à une heure d'intervalle, la reproductibilité à plus long terme sur des

enregistrements à huit jours d'intervalle. Le niveau de bruit des enregistrements était inférieur à

0.8 µV et la différence entre les niveaux de bruit des enregistrements initiaux et finaux était

inférieure à 0.2 µV. Les résultats de cette étude montrent que la reproductibilité à court et à plus

long terme est excellente pour les sujets en post-infarctus. Cette étude met donc également en

évidence que le niveau de bruit est un facteur déterminant dans l'analyse de l'ECG-HR, car il a

une forte incidence sur les reproductibilités des paramètres à long et à court terme.

Deux ans plus tard, Sager [Sag 91] a présenté une étude sur la reproductibilité à court terme

de la méthode de Simson. Il a utilisé une population de patients avec risque d'apparition de

tachyarythmies (TV syncopales, affection coronarienne sévère, n=114). Deux enregistrements ont

été réalisés à 10 minutes d'intervalle. Dans cette étude, les ECG-HR ont été définis comme

anormaux si un seul des paramètres de Simson présentait une valeur anormale. Les seuils de

normalité des paramètres de Simson étaient légèrement différents de ceux généralement utilisés:

LAS40 > 40ms, RMS40 < 20µV et QRSf > 120ms. Le niveau de bruit moyen était inférieur à 0.4

µV sur tous les enregistrements. La durée du QRS filtré était le paramètre le plus reproductible,

avant le RMS40 et le LAS40. La reproductibilité était légèrement meilleure sur les

enregistrements pathologiques que sur les enregistrements des sujets sains (96% vs 92%),

contrairement aux résultats de Steinberg que nous venons de citer.

Une des toutes dernières études réalisées par Aganauskiene [Aga 95] évalue la

reproductibilité dite «immédiate» de la méthode de Simson, sur des enregistrements à huit

Page 10: 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

Chapitre 3

minutes d'intervalle. Cet auteur utilise une méthode originale de détection de la fin de QRS qui

consiste à faire une estimation statistique de l'amplitude des PT au moyen d'une procédure basée

sur le maximum de vraisemblance [Ata 95]. Avec cette technique et sur l'ensemble des

enregistrements, la valeur de la durée du QRS filtré est plus importante qu'avec la méthode

classique. Les moyennes sont significativement différentes : 121 ms pour la méthode statistique

contre 116 ms pour la méthode conventionnelle (p<0.05, test de Student) sur une population de

34 patients en post-infarctus avec TV. La reproductibilité de la mesure est également supérieure

pour la méthode statistique : les différences de mesure, en pourcentage, entre deux

enregistrements successifs sont significativement plus élevées en utilisant la méthode

conventionnelle (5.7 % vs 3.1 %).

D'autres auteurs [Vas 95][Kau 93][Mal 92] ont étudié la reproductibilité de la méthode

temporelle en parallèle avec d'autres méthodes que nous décrirons dans le paragraphe 4.2.4. Dans

ces études, la méthode conventionnelle est systématiquement plus reproductible que les autres

méthodes lorsque la fréquence de coupure basse est égale à 40 Hz plutôt qu'à 25 Hz. Kautzner

définit également le QRSf comme le paramètre le plus robuste pour les mesures de variabilité

intra-patient, puis vient le LAS40 et enfin le RMS40.

Finalement le QRSf s'avère être le paramètre le plus reproductible, mais la reproductibilité

de la méthode conventionnelle n'est pas parfaite. D'après Engel [Eng 93] cet inconvénient est lié

aux facteurs suivant:

- les mécanismes biologiques présentent une variabilité intrinsèque. Cependant ces

variations sont généralement faibles.

- l'apparition d'un second infarctus peut modifier les valeurs des paramètres de Simson. Ce

type de modifications n’apparaît que dans l'estimation à long terme.

- la qualité des enregistrements : la reproductibilité s'avère être très dépendante de la

détermination correcte de la fin du complexe QRS pour la méthode conventionnelle de Simson

[Vac 89] [Aga 95]. Elle est directement liée au bruit contenu dans le signal [Ste 89].

En conclusion, les paramètres de Simson sont d'autant plus reproductibles que les niveaux

de bruit sont faibles [Sag 91][Den 83].

3.1.6. Incidence de la localisation de l'infarctus

Les conclusions de Simson à propos de l'incidence de la topographie de l'infarctus sur les

valeurs des paramètres qu'il utilise sont claires : les valeurs moyennes de QRSf, de LAS40 et de

Page 11: 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

Chapitre 3

RMS40 pour les patients en post-infarctus avec risque de TV ne sont pas significativement

différentes pour des infarctus inférieurs et antérieurs. Ces conclusions ne font cependant pas

l'unanimité des auteurs. Gomes [Gom 89] a trouvé une fréquence d'apparition des PT deux fois

plus élevée chez les patients avec un IM inférieur que chez ceux ayant un IM antérieur (56% vs

27%). Buxton [Bux 87] avait déjà noté l'importance de la localisation de l'infarctus quelques

années auparavant, à l'occasion d'études sur des enregistrements électrocardiologiques

endocavitaires. L'interprétation de ce résultat reste encore hypothétique : les PT qui naissent dans

la paroi inférieure sont plus visibles sur l'ECG car ils seraient retardés par rapport à la fin de

l'onde normale de dépolarisation alors que les PT naissant dans la paroi antérieure sont plus

précoces et ont tendance à être noyé dans le complexe QRS.

3.1.7. Limites de la méthode

Les différentes études que nous venons de décrire mettent en évidence qu'il est difficile de

définir précisément la durée et les composantes fréquentielles des PT. Il est cependant reconnu

que les PT sont des phénomènes transitoires, fractionnés et de faible amplitude localisés dans les

40 dernières millisecondes du complexe QRS filtré.

Les limites de la méthode temporelle sont liées à la qualité du signal ECG-HR. Son niveau

de bruit, par exemple, est un paramètre difficile à maîtriser, qui entre en ligne de compte à deux

niveaux: (1) il joue un rôle déterminant dans la localisation de la fin du complexe QRS [Sve 92].

Une mauvaise détermination de ce point diminue la robustesse de la méthode [Oef 86][Hen 89].

Cette localisation dépend également de l'algorithme utilisé et celui de Simson ne semble pas être

optimal [Aga 95]. (2) il diminue la reproductibilité des résultats [Ste 89].

L'incidence des thérapeutiques sur la mesure des PT a été peu étudié. Les quelques résultats

sur ce sujet sont généralement discordants ou non significatifs. Néanmoins, certaines conclusions

semblent ressortir de l'ensemble de ces études : les anti-arythmiques touchent peu le début du

complexe QRS mais ont une action nette sur la portion terminale [Fre 91]. Effectivement, les PT

semblent être plus importants après l'utilisation de certains types d'anti-arythmiques, en

particulier ceux modifiant la conductance sodique (dit de classe I) [Hoh 91]. En revanche, les

médicaments avec une action anti-adrénergique (bêta-bloquants) qui sont dépourvus d'effets

électrophysiologiques directs ne modifient pas les potentiels tardifs [Den 86].

L'incidence des thérapies médicamenteuses anti-arythmiques sur les PT est peut-être plus

importante que ce que l'on peut penser. Il est donc recommandé de réaliser, si possible, les

Page 12: 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

Chapitre 3

enregistrements haute-résolution moyennés en dehors de toute thérapeutique susceptible d'en

modifier l'amplitude ou la durée.

La méthode de Simson n'est généralement appliquée qu'aux patients en post-infarctus sans

bloc de branche. Le bloc de branches, qui peut être droit, gauche ou complet, est un trouble de la

propagation de l'onde de dépolarisation ventriculaire. Ce trouble apparaît comme un

ralentissement ou un arrêt de la conduction et implique un allongement du complexe QRS. Ces

blocs apparaissent dans 3 % des infarctus du myocarde [Fre 87]. Les patients porteurs d’un bloc

de branche (BB) présentent donc une anomalie de la conduction qui masque les PT puisque la

durée du complexe QRS non filtré est généralement supérieure à 120 ms [Lac 90]. Cette

conséquence inhérente aux BB, justifie pour la plupart des auteurs, l’exclusion de ces patients

des populations d'étude. Ainsi pour Haberl [Hab 90], Lindsay [Lin 88] et Breithardt [Bre 91],

l'efficacité diagnostique de la méthode temporelle pour la détection des PT chez les patients avec

un BB est trop faible (<60%). Pour d'autres auteurs [Fon 91][Kac 87, 2], elle est acceptable (de

62 à 83 % selon les études). La conclusion adoptée par la majorité des auteurs est d'éliminer les

patients avec un BB ou alors de les étudier indépendamment [Kac 87] , [Kin 86] , [Edw 87],

[Buc 88], [Bab 91], [Bre 90], [Wat 89].

3.2. Application de la méthode temporelle à notre population d'étude

La méthode classique de Simson a été appliquée sur notre population selon la

normalisation internationale. Nous avons utilisé le système ARTTM EPX 1200, avec une bande

passante fixée entre 40 et 250 Hz et un nombre de cycles de moyennage variable en fonction du

niveau de bruit moyen (mesure du bruit sur le VA inférieure à 0.5 µV, cf. § 1.3.5.4.1). Le nombre

moyen de cycles enregistrés sur notre population d'étude est égal à 155±14 cycles (m±σ).

3.2.1. Analyse des paramètres de la méthode conventionnelle

Caractéristiques/Groupes IM+TV

(n=23)

IM-TV

(n=40)

IM+TV

ant.

(n=11)

IM+TV

inf.

(n=12)

IM-TV

ant. (n=20)

IM-TV

inf.

(n=20)

Sains

(n=31)

Bruit moyen (µV) 0.33±0.1 0.32±0.1 0.33±0.1 0.35±0.1 0.36±0.1 0.30±0.1 0.43±0.1

RMSQRS (µV) 69±38 80±28 47±15 88±42 70±24 90±29 117±52

QRSf (ms) 125±25 99±12 131±33 119±15 97±12 102±11 96±7

LAS40 (ms) 48±20 34±11 48±25 47±19 30±10 37±12 26±8

RMS40 (µV) 17±10 40±28 20±12 14±5 46±31 34±23 63±4

StdQRS (ms) 104±8 98±10 104±7 104±9 99±9 98±11 94±8

Page 13: 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

Chapitre 3

Tableau 3-2 : moyennes et écart types des différentes valeurs des paramètres de Simson ainsi que

du niveau de "Bruit moyen" et de l'énergie du complexe QRS total filtré (RMSQRS) sur notre population

d'étude. IM+TV : patients après un infarctus du myocarde avec tachycardies ventriculaires. IM-TV :

patients en post-infarctus sans tachycardie ventriculaire, ant. : topographie antérieure, inf. :

topographie inférieure.

Les principales caractéristiques cliniques de notre population d'étude, ainsi que les valeurs

moyennes et écart types des paramètres de Simson, sont récapitulés dans le tableau 3.2.

3.2.1.1. Etude statistique

3.2.1.1.1. Tests de comparaison de moyennes

Les résultats des tests de comparaison de moyennes des paramètres de Simson sont

présentés dans la figure 3-1. L'ensemble des résultats sont significativement différents (p<0.001),

à l'exception de la mesure de la durée du QRS filtré (QRSf) lorsque l'on compare le groupe de

contrôle et les patients en post-infarctus sans TV (p<0.05). Le QRSf mesure donc une anomalie

caractérisant uniquement les patients en post-infarctus avec TV.

Figure 3-1 : comparaison des moyennes (m+σ) de chaque paramètre de Simson. Utilisation de la

méthode du test de Student pour l’évaluation de la significativité des différences de moyennes sur notre

population (NS : non significatif).

Page 14: 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

Chapitre 3

Ces résultats sont concordants avec les données de la littérature présentées dans le

paragraphe §3.1.2.4 : des valeurs de QRSf plus élevées chez les post-infarctus avec TV, des

durées de la portion terminale du QRS avec des potentiels inférieurs à 40 µV (LAS40) également

plus élevées et enfin des énergies des 40 dernières millisecondes du QRS plus faibles.

3.2.1.1.1.1. Incidence de la topographie de l’infarctus

Il est également intéressant de vérifier les résultats de Simson concernant l'incidence de la

topographie de l’infarctus sur les valeurs des paramètres temporels lorsqu'ils sont appliqués à

notre population.

D'après Simson, la topographie de l'infarctus n’influence en aucun cas les valeurs de ses

paramètres temporels. Ces résultats se vérifient globalement sur notre population, pour un seuil

de significativité égale à 0.05 (test de Student). Seule la valeur du LAS40 semble légèrement

différente lorsque l'on compare les IM+TV antérieurs aux IM+TV inférieurs (cf. figure 3-2). Ceci

est expliqué par la présence de deux patients en post-infarctus et sans TV présentant des valeurs

de LAS40 très élevées (86 et 106 ms).

Figure 3-2 : comparaison des moyennes (m+σ) des paramètres de Simson entre les différentes

localisations de l'infarctus sur notre population. Utilisation du test de Student pour l’évaluation de la

significativité des différences (NS : non significatif, ant. : antérieur, inf. : inférieur).

3.2.1.1.2. Etude par coalescence

Page 15: 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

Chapitre 3

L'écart type nous donne une image de la dispersion des valeurs des paramètres de Simson

sur notre population d'étude. Néanmoins cette valeur statistique ne permet pas d'évaluer dans

quelle mesure les valeurs d'un patient donné interviennent sur l'ensemble des valeurs étudiées. En

fait, nous cherchons à connaître clairement les caractéristiques de notre population d'étude, et en

particulier si les distributions des valeurs des paramètres de la méthode conventionnelle sont

homogènes et uni-modales. Un outil de choix pour séparer chacune des classes de l'ensemble

d'apprentissage en sous-classes homogènes est la classification automatique non hiérarchique. La

méthode par coalescence ou "K-means" proposée par le logiciel BMDP (KM), est appropriée à ce

type d'analyse de données quantitatives [Eng 80].

L'analyse par coalescence est une méthode statistique non-supervisée [Har 75][Did 82] qui

permet de subdiviser un ensemble de cas en des sous-ensembles (ou nuées) afin d'évaluer

l'homogénéité d'une série de cas décrivant une population. Dans l'algorithme KM, le centre de la

nuée est défini comme la moyenne des valeurs des cas constituant cette nuée. L'analyse associe

chaque cas à la nuée dont le centre est le plus proche au sens des distances euclidiennes. Cette

analyse utilise une démarche itérative séparant l'ensemble des cas en deux nuées puis chacune

d'elles en deux autres et ainsi de suite jusqu'à obtenir le nombre de nuées désiré.

Nous appliquons l'analyse par coalescence sur nos trois groupes (IM+TV, IM-TV et Sains)

indépendamment les uns des autres en fonction des trois paramètres classiques de Simson :

RMS40, QRSf et LAS40. Le choix du nombre de groupes est fixé à quatre et découle d'une

démarche empirique qui a mis en évidence que :

• deux groupes aboutissent généralement à isoler des cas extrêmes ayant des valeurs

atypiques par rapport aux autres cas.

• trois groupes font généralement apparaître une ou plusieurs nuées avec une

configuration hétérogène.

• quatre groupes s'avèrent être suffisants et semblent capables de définir des groupes

homogènes.

Nous présentons ci-après les résultats de la classification automatique des groupes IM+TV,

IM-TV et Sains par l'algorithme KM. Les représentations utilisées dans les figures 3.3, 3.4 et 3.5

sont les projections orthogonales des cas sur le plan défini par les centres des trois nuées

comportant le plus de cas.

Page 16: 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

Chapitre 3

Analyse du groupe IM avec TV

La méthode par coalescence met en évidence que deux nuées (A1 et A2) sont très

excentrées par rapport aux deux autres, qui contiennent la majorité des cas (cf. figure 3.3).

....+....+....+....+....+....+....+....+....+....+....+....+...

- 1 -

- -

- -

- 1 -

2 + +

- -

- 1 -

- 2 -

- -

- -

- 333 4 -

0 + 3 333 4 44 +

- 3 4 -

- 33 -

....+....+....+....+....+....+....+....+....+....+....+....+...

-3 -1 1 3 5 7

-4 -2 0 2 4 6

Figure 3-3 : résultats de la classification des cas du groupe IM+TV en quatre groupes. Dans cette

représentation, quatre cas de la nuée A3 sont superposés.

La nuée A1 est constituée de trois patients présentant une durée de QRS filtré (QRSf)

supérieure à 158 ms. Ces cas sont évidemment bien classés par la méthode de Simson. La nuée

A2 correspond à un seul cas qui au contraire du groupe précédent est caractérisé par une valeur

de QRSf très faible (98 ms) et une valeur de RMS40 très élevé. Ce cas est classé comme patient

sans TV par la méthode conventionnelle. La nuée A3 contient le nombre le plus élevé de cas (14

patients), et apparaît comme la plus homogène. La nuée A4 est formée de 5 patients qui, bien que

présentant tous une valeur de LAS40 élevée (>44 ms), sont tous correctement classés par la

méthode conventionnelle.

Analyse du groupe IM et sans TV

Cette analyse a abouti à la définition de quatre nuées B1 à B4, respectivement constituées

de huit, cinq, neuf et 18 cas (cf. figure 3-4).

La nuée B1 regroupe les cas présentant des valeurs de RMS40 très élevées (>70 µV) et de

LAS40 faibles (<30ms). La nuée B2 contient des cas qui présentent une durée de QRS filtré

A1

A2

A3A4

Page 17: 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

Chapitre 3

(QRSf) supérieure à 110 ms et simultanément un RMS40 faible (<10 µV). La totalité de ces cas

sont classés comme patients avec TV par la méthode conventionnelle. La nuée B3 concentre les

cas dont le RMS40 est faible (de 10 à 20 µV). Sept de ces neuf patients sont classés de façon

incorrecte par la méthode conventionnelle. La dernière nuée (B4) définit apparemment un groupe

homogène caractérisant une population type de patients tous classés en post-infarctus sans TV

par la méthode conventionnelle.

...+....+....+....+....+....+....+....+....+....+....+....+....

2 L +

- -

- -

- -

- -

- 1 1 -

L 1 -

1 + 1 +

- -

- 1 -

- 1 3 H

- 4 4 -

- 44 4 -

- 4 4 3 -

0 + 4 4 4 3 3 3 3 22 2 +

- 4 4 3 -

- 4 4 4 4 3 3 2 -

- 4 4 -

...+....+....+....+....+....+....+....+....+....+....+....+....

-1.5 -.50 .50 1.5 2.5 3.5

-2.0 -1.0 0.0 1.0 2.0 3.0

Figure 3-4 : représentation des cas de la population IM-TV par l'analyse par coalescence en

quatre nuées. La nuée B4 présente 2 cas superposés. Les nuées B1 et B2 ont respectivement 2 et 1 cas en

dehors de la représentation, L et H indiquent les ordonnées de ces cas.

Analyse du groupe de sujets sains ou groupe de contrôle

Les quatre sous-groupes constitués par l'analyse par coalescence de la population de sujets

sains présentent des centres qui sont plus proches les uns des autres que dans les deux analyses

précédentes. Ceci traduit une meilleure homogénéité de l'ensemble de cette population (cf. figure

3-5). La nuée C1 contient 5 cas qui présentent un RMS40 très faible (<35 µV) et un cas

caractérisé par un LAS40 très élevé (>40 ms). La nuée C2 isole un seul cas caractérisé par une

valeur très élevée de RMS40 (>190 µV) et un LAS40 faible (15 ms). Les deux dernières nuées

(C3 et C4) se distinguent uniquement par les valeurs de RMS40, plus élevées pour les cas de C3.

Tous les sujets sains sont correctement classés par la méthode conventionnelle.

B1

B2B3B4

Page 18: 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

Chapitre 3

.+....+....+....+....+....+....+....+....+....+....+....+....+.

- -

- 1 -

- 1 3 -

- 1 -

- 1 1 -

- -

- -

.90 + 4 +

- 4 -

- 4 -

- 3 -

- 1 3 -

- 4 4 4 -

- 4 3 3 -

- -

0.0 + +

- 3 3 -

- -

- 4 4 -

- 4 4 3 -

- -

- 4 3 -

- 3 -

-.90 + 3 +

- -

- -

- 4 -

- 2 -

.+....+....+....+....+....+....+....+....+....+....+....+....+.

-1.5 -.50 .50 1.5 2.5 3.5

-2.0 -1.0 0.0 1.0 2.0 3.0 4.0

Figure 3-5 : résultats de la classification de la population de sujets sains par l'algorithme du "K-

means".

3.2.1.1.3. Conclusion

Le groupe de patients avec TV est le moins homogène. L'étude par coalescence de ce

groupe a fait apparaître des nuées ayant des centres éloignés les uns des autres en comparaison

avec les distances séparant les nuées des deux autres populations (IM-TV et Sains). Finalement,

le groupe IM+TV n'a pas une distribution uni-modale. L'analyse par coalescence des deux autres

populations (IM-TV et Sains) met en évidence que ces groupes sont plus homogènes que le

C1 C

C2C4

Page 19: 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

Chapitre 3

premier puisque seules les nuées B1 et C2, composées respectivement de huit et un cas,

correspondent à des patients dont les valeurs des paramètres temporels sont atypiques. Ces cas

restent en général correctement classés par la méthode conventionnelle.

3.2.2. Détection des potentiels tardifs par la méthode classique

Les critères utilisés dans cette section sont ceux recommandés par le comité international

pour une fréquence de coupure basse égale à 40 Hz. Les résultats sont présentés dans le tableau

3-3. L'efficacité diagnostique maximale de la méthode conventionnelle est obtenue en utilisant

trois critères satisfaits sur trois (79.3%). Cependant, l'équilibre entre la sensibilité et la spécificité

(47.8 et 97.5%) est mauvais (cf. tableau 3-3). Pour un critères sur trois, le résultat est également

déséquilibré avec une spécificité trop faible (62.5 %). Finalement, l'utilisation de deux critères

sur trois fournit une efficacité diagnostique plus faible (73%) mais assure un meilleur équilibre

entre les valeurs de sensibilité et la spécificité (69.5 et 75 %). Avec ce type de combinaison,

aucun des sujets normaux n'est classé comme pathologique.

D'après notre revue de la littérature et pour une utilisation classique des critères (deux

critères positifs sur trois) ainsi qu'une fréquence de coupure basse fixée à 40 Hz, les valeurs les

plus couramment citées pour la sensibilité et la spécificité de la méthode de Simson sont

respectivement de 70% et 75%. Les résultats que nous obtenons sur notre population coïncident

donc avec ceux de la littérature.

Nb de

critères

Sensibilité

(%)

Spécificité

(%)

Efficacité

diagnostique

(%)

Normaux

1/3 95.6 62.5 74.6 96.7

2/3 69.5 75.0 73.0 100

3/3 47.8 97.5 79.3 100

Tableau 3-3 : résultats de la méthode de Simson en termes de sensibilité et de spécificité.

Nous avons choisi, dans notre méthode, d’opter pour un équilibre des valeurs de sensibilité

et de spécificité. Cependant, souvent les cardiologues préfèrent utiliser une méthode plus

spécifique que sensible. Ce choix est argumenté par le fait que la méthode est appliquée

systématiquement aux patients qui viennent de faire un infarctus et que le pourcentage du

nombre de patients avec risque de TV est faible dans cette population. Il est donc préférable

d'être plus spécifique pour ne pas avoir un nombre de faux positifs trop important. Cette option

méthodologique permet d'éviter de prescrire à un trop grand nombre de patients des

thérapeutiques qui présentent un risque iatrogéne important, alors que statistiquement les patients

Page 20: 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

Chapitre 3

traités ne présentent pas vraiment de risque de TV. D'autres choix restent possibles en fonction

du contexte clinique du patient (antécédent familiaux, etc.).

3.2.3. Optimisation de la détection des potentiels tardifs par les paramètres

de Simson

La méthode conventionnelle propose des critères validés sur des populations différentes de

la nôtre. Cette partie de notre travail redéfinit des valeurs de seuils pour adapter et optimiser ces

critères en fonction de notre population d'étude. Cette optimisation sera réalisée par

l'intermédiaire de deux méthodes statistiques: les courbes ROC appliquées sur chaque paramètre

de Simson afin d'en étudier très précisément et indépendamment leurs caractéristiques, et une

méthode d'apprentissage avec professeur, l'analyse factorielle discriminante pas-à-pas.

3.2.3.1. Optimisation par utilisation de courbes ROC

Les courbes ROC (Receiver Operating Characteristic) présentent l'évolution de la

sensibilité d'une méthode en fonction de sa spécificité. Les points de cette courbe sont obtenus en

faisant varier la valeur du seuil du critère de discrimination des cas. La courbe ROC idéale a des

variations en sensibilité qui se font pour une valeur de spécificité proche de la valeur maximale

(100%) et des variations en spécificité qui s’opèrent pour une valeur de sensibilité optimale

proche de 100%. Sa surface doit idéalement tendre vers la valeur 1. Cette courbe permet de

connaître très précisément la valeur du seuil permettant de séparer au mieux les deux groupes en

fonction du critère d'optimisation que l'on s'est fixé. De plus, elle met en évidence le pouvoir

discriminant d'un paramètre en mesurant l'aire sous la courbe : plus cette aire s’approche de sa

valeur maximale, plus ce paramètre est pertinent [Deg 91].

Elle permet également d'opter pour une méthode plus spécifique ou plus sensible selon les

priorités de l'utilisateur. Nous définissons le point optimal sur la courbe ROC comme le point

correspondant à la fois à une efficacité diagnostique optimale et au point le plus proche de la

diagonale du plan. Ce point correspond donc au meilleur équilibre entre les valeurs maximales de

sensibilité et de spécificité. La mise en œuvre de cette méthode et la détection de ce point sont

réalisées par des algorithmes simples explicités dans l'annexe C.

3.2.3.1.1. Seuil de QRSf

Les résultats sont récapitulés dans le tableau 3-4. La différence de valeurs entre le seuil

normal et le seuil optimal est d'une seule milliseconde pour la durée du QRS filtré (113 ms

Page 21: 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

Chapitre 3

versus 114 ms). La valeur du seuil optimisé correspond à un gain en sensibilité de 4,4 %, soit un

patient mieux classé.

Sensibilité Spécificité Sains Efficacité

Diagnostique

Critère conventionnel QRSf>114 69.6 90.0 100 82.6

Critère optimisé QRSf>113 73.9 90.0 100 84.1

Tableau 3-4 : valeurs de sensibilité et de spécificité pour les valeurs standards et optimales des

critères basés sur le paramètre QRSf appliqué à notre population d'étude.

Ce paramètre est très pertinent puisque l'on remarque que la courbe ROC (cf. figure 3-6)

présente une allure idéalisante avec une surface importante (0.86 pour une valeur maximale de

1). Il est également plus spécifique que sensible et permet de séparer les sujets sains des patients

en post-infarctus avec TV.

3.2.3.1.2. Seuil du LAS40

L'écart en termes d'efficacité diagnostique entre la valeur optimale et la valeur normale est

de 7.9% (cf. tableau 3-5). La différence des valeurs de seuil est de 4 ms (38 ms versus 34 ms

pour le critère conventionnel). La pente de la courbe ROC s'approche d'une droite de pente 1 et

l'aire sous la courbe est beaucoup plus faible que pour le QRSf (0.74 versus 0.86) (cf. figure 3-6).

Ces caractéristiques traduisent la difficulté du paramètre à séparer les deux populations. Cette

observation va dans le sens des comparaisons de moyenne qui ont mis en évidence que le QRSf

est un paramètre plus pertinent que le LAS40 (p=0.003 vs p=9.5 10-5).

% Sensibilité Spécificité Sains Efficacité

Diagnostique

Critères conventionnels LAS40>38 60.9 67.5 90.3 65.1

Critères optimisés LAS40>34 86.9 65.0 87.1 73.0

Tableau 3-5 : valeurs de sensibilité et de spécificité pour les valeurs standards et optimales des

critères basés sur le paramètre LAS40 appliqués à notre population d'étude.

Page 22: 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

Chapitre 3

3.2.3.1.3. Seuil du RMS40

Sensibilité Spécificité Sains Efficacité

Diagnostique

Critères conventionnels RMS40<20 73.9 72.5 100 73.0

Critères optimisés RMS40<21.3 82.6 70.0 93.5 74.6

Tableau 3-6 : valeurs de sensibilité et de spécificité pour les valeurs standards et optimales des

critères basés sur le paramètre RMS40 appliqués à notre population d'étude.

Ce paramètre présente également une courbe éloignée de la forme idéale et plus proche de

la diagonale du repère avec une surface sous la courbe égale à 0.78 (cf. figure 3-6). Les valeurs

optimales et normales sont très proches, 20 µV versus 21.3 µV pour la valeur optimisée (cf.

tableau 3-6). L'amélioration en termes d'efficacité diagnostique n'est que de 1.6%. L'équilibre

entre la sensibilité et la spécificité est néanmoins meilleur pour la valeur de seuil normal.

3.2.3.1.4. Combinaison des paramètres et discussion

La superposition des courbes ROC des paramètres QRSf, LAS40 et RMS40 permet de

comparer visuellement leurs aires respectives (cf. figure 3-6). La supériorité du paramètre QRSf

par rapport aux deux autres est évidente. C'est également le paramètre dont le seuil optimal est le

plus proche de sa valeur conventionnelle, caractéristique qui traduit une bonne robustesse de ce

critère.

Utilisant la même démarche que Simson, c'est-à-dire une combinaison logique (au sens

booléen) des résultats de chaque critère, a conduis aux résultats présentés dans le tableau 3-7.

Le fait de chercher à optimiser les critères s'est traduit par une amélioration de la sensibilité

de la méthode (+13%) mais au détriment de la spécificité qui a diminué (-7.5%). Les valeurs

d'efficacité diagnostique sont les mêmes entre les deux approches. L'optimisation ne permet donc

pas, en fin de compte, une augmentation de la performance diagnostique de la méthode mais

seulement un réajustement des valeurs de sensibilité et de spécificité de la méthode.

Page 23: 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

Chapitre 3

Nb de

critères

Sensibilité

(%)

Spécificité

(%)

Efficacité diagnostique Sains

1/3 95.7 65.0 76.2 80.6

2/3 82.6 67.5 73.0 93.5

3/3 65.2 82.5 76.2 100

Tableau 3-7 : résultats en termes de sensibilité et de spécificité sur la population d'étude en

utilisant trois combinaisons des critères basés des valeurs optimales de seuils déterminées par les

courbes ROC.

Seulement trois patients en post-infarctus avec TV interviennent dans l’augmentation de la

sensibilité. Ces patients présentent des valeurs de RMS40 ou de LAS40 à la limite des seuils

(respectivement 20.1 à 23.1 µV et 37 à 38 ms). Le classement de deux patients avec IM et sans

TV change selon le critère utilisé, standard ou optimisé. L'un de ces patients présente une valeur

de RMS40 à la limite du seuil (20.1 µV) et l'autre est caractérisé par une valeur de LAS40 élevée

(37 ms). Comme on peut le constater, les différences de valeurs de sensibilité et de spécificité

entre les critères standards et optimisés sont dues aux paramètres LAS40 et RMS40. Ces résultats

démontrent le manque de robustesse de ces deux paramètres temporels.

Page 24: 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

Chapitre 3

Figure 3-6 : courbes ROC des paramètres de la méthode conventionnelle. Courbes ROC de la

durée de QRS filtré, du LAS 40 et du RMS40 pour un filtrage entre 40 et 250 Hz. Sur ces courbes ROC,

les triangles et les carrés repèrent respectivement les valeurs de sensibilité et de spécificité pour les

critères conventionnels et les valeurs optimisées.

3.2.3.2. Optimisation par analyse factorielle discriminante

La méthode décisionnelle utilisant les courbes ROC présente un inconvénient majeur. C'est

en effet une méthode décisionnelle de type heuristique où les surfaces de décision sont

orthogonales aux axes des paramètres descripteurs, c'est-à-dire que cette méthode considère

séparément les valeurs des paramètres temporels. Une méthode multidimensionnelle telle que

l'analyse factorielle discriminante pas-à-pas (proposé par le logiciel BMDP-7M) a une approche

différente : elle détermine une fonction de classification combinant linéairement les valeurs des

paramètres temporels. Dans le cas d'une dichotomie, ces paramètres sont projetés sur un axe

discriminant qui optimise la séparation des groupes. De plus, l'utilisation de l'analyse

discriminante en mode "pas-à-pas" procure un classement des paramètres en fonction de leur

pertinence.

Finalement, l’objectif de l'utilisation de l'analyse discriminante est double :

(1) hiérarchiser les paramètres temporels en fonction de leur pertinence pour la

discrimination des deux groupes de patients avec IM. Cette méthode calcule à chaque pas la

valeur du F de Fischer permettant d'évaluer le pouvoir discriminant de chaque paramètre.

(2) améliorer la qualité de la discrimination entre les groupes IM+TV et IM-TV en

introduisant des fonctions de décision multidimensionnelle.

Pour être généralisable, l'analyse discriminante doit être effectuée sur un échantillon

supposé représentatif d'une population et pour laquelle on connaît la catégorie à laquelle

appartient chaque individu. Dans la pratique, il est difficile d'évaluer si la population est

statistiquement représentative de la classe de problèmes considérée, a fortiori si elle est

comprend un nombre faible de cas. Dans ce cas, l'approche la plus couramment utilisée consiste

à effectuer une phase d'apprentissage utilisant une partie de la population et ensuite à vérifier la

validité de la fonction de classification sur le reste de la population (phase de test). Si les

résultats de la phase de test sont les mêmes que ceux de la phase d'apprentissage, on peut alors

supposer que la méthode décisionnelle est fiable et généralisable.

L'analyse discriminante est une méthode de classement linéaire dont les surfaces de

décision sont limitées à des hyperplans concourants. Nous aurions pu adopter une autre approche

Page 25: 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

Chapitre 3

telle que le classement par réseaux de neurones. Cette option n'a pas été retenue car nous ne

disposons que d'une population d'analyse très limitée en nombre. Les réseaux de neurones ont en

effet tendance à "apprendre par cœur" et pour pouvoir être généralisables, nécessitent des phases

d'apprentissage mettant en œuvre des ensembles d'apprentissage possédant un nombre de cas

sensiblement plus élevé que les méthodes linéaires.

L'analyse discriminante a tout d'abord été appliquée à toute la population d'étude afin

d'obtenir une hiérarchisation des paramètres sur un nombre maximal de cas. Ensuite nous avons

évalué la robustesse des fonctions de classification en utilisant des groupes d'apprentissage et des

groupes de test constitués aléatoirement. Dans chaque analyse, nous n'avons considéré que les

deux groupes de patients en post-infarctus (IM+TV, IM-TV), le groupe de sujets sains ayant été

déclaré en anonyme. Notre objectif est en effet de séparer les patients avec risque de TV de

l'ensemble des patient en post-infarctus. Le groupe de sujet sains n'est utilisé qu'à titre de contrôle

pour évaluer le comportement de nos méthodes sur les ECG-HR normaux.

3.2.3.2.1. Analyse de la totalité de la population

3.2.3.2.1.1. Séparation IM+TV versus IM-TV

L'analyse discriminante est utilisée sur trois pas avec la possibilité d'examiner les résultats

de la classification après chaque paramètre introduit. Les résultats sont présentés dans le tableau

3-8.

N° du pas Paramètre

introduit

Sensibilité Spécificité Efficacité

diagnostique

Sains

1 QRSf 73.9 90.0 84.1 100

2 LAS40 65.2 90.0 80.9 87.0

3 RMS40 73.9 87.5 82.5 83.8

Tableau 3-8 : récapitulatif des résultats de l'AD sur les deux groupes (IM+TV), (IM-TV) avec le

groupe des sujets sains en anonyme.

Les deux fonctions de classification élaborées par l'analyse discriminante à l'issue de la

phase d'apprentissage sur trois pas sont définies par la matrice des coefficients suivants :

GROUPES = IM+TV IM-TVVARIABLES QRSf 1.03657 0.87763 RMS40 0.14425 0.18043 LAS40 -0.75772 -0.61824

CONSTANTE -48.68689 -37.52473

Page 26: 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

Chapitre 3

L'analyse discriminante affectera un cas anonyme X au groupe pour lequel la fonction

discriminante est maximale.

Au premier pas et en ne considérant que le paramètre de la durée de QRS filtré, on obtient

des valeurs de sensibilité et de spécificité optimales ainsi qu'un classement parfait des sujets

sains. Ce résultat est tout à fait comparable à celui obtenu par les courbes ROC lorsque l'on

considère les paramètres isolément (cf. tableau 3-4). L'introduction des autres paramètres

diminue ce résultat. Cette évolution des résultats est a priori surprenante car on observe

généralement ce genre de problèmes beaucoup plus tard après l'introduction d'un grand nombre

de paramètre. Elle s'explique d'une part par la très grande qualité du paramètre QRSf qui a lui

tout seul permet d'obtenir une efficacité diagnostique proche de 84%, et d'autre part par le fait

que la distribution de notre population n'est pas uni-modale (cf. étude par coalescence,

§3.2.1.1.2.).

Pour la séparation des groupes IM+TV et IM-TV, c'est le LAS40 qui apparaît comme le

paramètre le plus discriminant après le QRSf. Son utilisation diminue néanmoins

considérablement les valeurs de sensibilité (-8.7%). Le RMS40, introduit comme troisième

variable, rééquilibre les valeurs de spécificité et de sensibilité mais donne un nombre plus

important de sujets sains mal classés.

Parmi les six patients du groupe IM+TV mal classés par l'AD, deux patients sont bien

classés par la méthode conventionnelle. Un des patients présente une valeur faible de LAS40 (40

ms) et l'autre une durée de QRS filtré élevée (119 ms). Dans le groupe IM-TV, quatre patients sur

les cinq mal classés par l'analyse discriminante le sont également par la méthode

conventionnelle. Le cinquième présente une valeur de QRSf légèrement élevée (110 ms).

3.2.4. Variabilité des résultats en fonction des ensembles d'apprentissage et

de test.

3.2.4.1. Variabilité des résultats dérivés des courbes ROC

L'évolution des seuils optimaux et des résultats des courbes ROC en fonction des sous-

populations d'apprentissage et de test (cf. annexe B) est intéressant à plus d'un titre. Elle constitue

un moyen privilégié pour avoir une idée de la robustesse de ces méthodes sur notre population

d'étude. Nous résumons ci-après les valeurs de sensibilité, spécificité et efficacité diagnostique

pour l'approche conventionnelle, la phase d'apprentissage et la phase de test ainsi que les valeurs

Page 27: 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

Chapitre 3

des surfaces sous les courbes ROC (cf. tableau 3-9). La totalité des résultats sont décrits dans

l'annexe D.

Les différences de valeurs moyennes de sensibilité et de spécificité entre les phases

d'apprentissage et de test ne sont pas significatives pour le paramètre QRSf. De plus, l'égalité des

moyennes des surfaces sous les courbes ROC entre ces deux populations confirme la robustesse

de ce paramètre. Le LAS40 s'avère être beaucoup moins robuste. Ses valeurs de sensibilité sur les

différentes populations sont significativement différentes pour les deux évaluations. Les

moyennes des valeurs des surfaces sous les courbes ROC sont également différentes. Enfin, la

robustesse du paramètre RMS40 se situe entre celle du QRSf et celle du LAS40. Les surfaces des

courbes ROC sont quasiment égales et seules les valeurs de sensibilité entre les phases

d'apprentissage et de test sont significativement différentes.

Les valeurs d'efficacité diagnostique des phases de test sont globalement plus faibles que

celles d'apprentissage, et ceci pour les trois paramètres.

Cette étude de la variabilité des paramètres confirme donc les résultats obtenus avec les

surfaces des courbes ROC calculées sur l'ensemble des populations : le plus robuste des

paramètres de Simson est le QRSf puis vient le RMS40 et enfin le LAS40.

# Simson standard {Apprentissage} {Test} surfaces ROC

n

spec.

20

sens.

12

ED Norm

31

Seuils

opt.

spec.

20

sens.

12

ED Norm

31

spec.

20

sens.

11

ED App. Test

QRSf

moyenne 87.0 75.9 83.0 100 109.1 82.7 81.9 82.4 99.1 81.4 75.3 76.8 0.90 0.90

médiane 85.0 75.0 84.4 100 110.0 85.0 83.3 84.4 100 85.0 72.7 78.1 0.90 0.90

σ 5.2 7.3 5.1 0 4.4 13.2 5.7 6.9 0.0 12.8 8.7 5.9 0.0 0.0

LAS40

moyenne 66.2 62.7 64.6 90.3 34.0 62.6 94.0 74.4 86.2 62.9 81.8 67.4 0.80 0.70

médiane 65.0 66.6 65.6 90.3 34.0 63.1 91.6 75 87.2 65.0 81.8 68.7 0.80 0.70

σ 8.6 7.6 4.9 0.0 1.4 9.5 6.3 4,9 2.5 8.1 7.4 4.0 0.0 0.0

RMS40

moyenne 70.5 74.7 72.0 100 19.6 70.5 78.3 73.497.2 74.3 63.6 68.3 0.75 0.77

médiane 70.0 75.0 70.8 100 19.0 70.0 75.0 71,9 100 80.0 63.6 71.9 0.80 0.80

σ 5.4 6.9 4.5 0.0 2.2 5.4 8.0 5.2 3.5 11.7 17.4 5.8 0.1 0.1

Tableau 3-9 : tableau récapitulatif des résultats moyens obtenus avec les courbes ROC pour 7

tirages aléatoires des populations d'apprentissage et de test. Colonnes 2 à 5 : valeurs de spécificité,

sensibilité et efficacité diagnostique et du pourcentage de sains correctement classés par la méthode de

Simson standard. Colonne 6 : valeurs de seuils optimaux définis par les courbes ROC sur la population

Page 28: 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

Chapitre 3

d'apprentissage. Colonnes 7 à 10 : valeurs de spécificité, sensibilité, efficacité diagnostique et du

pourcentage de sains correctement classés pour les phases d'apprentissage. Colonne 11 à 13 : valeurs

de spécificité, sensibilité, efficacité diagnostique sur la population de test. Colonnes 14 et 15 : valeurs

des surfaces sous les courbes ROC pour les sous-ensembles d'apprentissage et de test. Nous avons

comparé les valeurs de la sensibilité, spécificité, efficacité diagnostique et le pourcentage de sains

correctement classés entre la phase d'apprentissage et la méthode de Simson standard, puis entre la

phase de test et la phase d'apprentissage. Les moyennes significativement différentes sont en gras.

Les valeurs de seuils optimaux sont systématiquement plus faibles pour le QRSf et le

LAS40 que ceux de l'approche conventionnelle. Cette modification va dans le sens d'une

optimisation de la sensibilité au détriment de la spécificité, pour la méthode utilisant les courbes

ROC.

En ce qui concerne le classement des sujets sains, il apparaît que le gain en terme

d'efficacité diagnostique obtenu par l'intermédiaire des courbes ROC est accompagné par une

baisse significative du pourcentage de sains bien classés (-1% à -4% selon les paramètres

considérés). La variabilité des valeurs du RMS40 et du LAS40 en termes de sensibilité, de

spécificité et de classement des sujets sains, souligne leur faible valeur discriminante par rapport

au QRSf.

3.2.4.2. Variabilité des résultats de l'analyse discriminante

Nous avons montré dans la section 3.2.3.2.1. que l'AD permettait, comparativement à

l'approche conventionnelle, d'améliorer de façon conséquente les résultats en termes de

sensibilité et de spécificité. Néanmoins, ces résultats ayant été établis sur la totalité de notre

population d'étude sans validation sur une population de test indépendante, il existe un risque que

notre méthode ne soit pas généralisable à une population autre que notre population d'étude. Afin

d'évaluer la robustesse de notre méthode, nous avons étudié le comportement de l'analyse

discriminante sur les sept populations aléatoires utilisées dans le paragraphe précédent. Les

fonctions de classifications sont construites sur les populations d'apprentissage, puis validées sur

les populations de test.

Les résultats récapitulant les valeurs de sensibilité et de spécificité pour ces 7 populations

sont présentés dans le tableau 3-10. Les sujets sains n'ont pas participé à l'apprentissage et

comme précédemment sont considérés anonymement. L'intégralité des résultats est rapportée

dans l'annexe E.

Page 29: 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

Chapitre 3

Apprentissage Test

n

Spécificité

20

Sensibilité

12

ED Spécificité

20

Sensibilité

11

ED Sains

31

Moyenne 90.0 75.0 84.4 85.0 72.7 79.8 83.8

Médiane 88.6 77.4 84.4 85.7 71.3 80.3 83.8

σ 9.4 6.3 7.2 6.7 9.6 4.6 4.3

Tableau 3-10 : valeurs moyennes et médianes des résultats des différentes analyses discriminantes

sur les groupes IM+TV et IM-TV pour les 7 tirages aléatoires du tableau 3-9. σ : écart type. ED :

efficacité diagnostique.

Les valeurs moyennes des valeurs de sensibilité et de spécificité sont relativement proches

des valeurs médianes pour les phases d'apprentissage ou de test, et les écarts types sont faibles

(<10%). Ce résultat démontre une certaine stabilité des performances de l'analyse discriminante

en fonction des populations utilisées.

Sur l'ensemble des sept analyses, le QRSf est apparut comme le plus pertinent. Sur cinq de

ces mêmes tirages, le LAS40 s'est avéré être le deuxième paramètre le plus pertinent mais à

chaque fois le pourcentage de bien classés a diminué. Le RMS40 apparaît comme le moins

pertinent des paramètres temporels.

3.2.5. Discussion des résultats

Le tableau 3-11 récapitule les principaux résultats de l'analyse de notre population d'étude

par la méthode conventionnelle, les courbes ROC et l'analyse discriminante. On note que

l'optimisation par les courbes ROC n'a finalement pas d'incidence directe sur la qualité

diagnostique globale puisque pour deux critères satisfaits sur trois, l'efficacité diagnostique reste

inchangée et égale à 73%. L'approche par courbe ROC implémentant notre stratégie de détection

du point optimal nous permet cependant d'obtenir une méthode plus sensible que la méthode

classique (+13.1%).

Les chiffres de sensibilité (69.5%) et spécificité (75%) obtenus avec la méthode

conventionnelle sont très proches des chiffres de sensibilité et de spécificité moyens relevés dans

la littérature (70% et 75% respectivement), validant ainsi à posteriori notre population d'étude.

L'AD fournit une méthode plus spécifique (+20%) et moins sensible (-8.7%) que la

méthode optimisée par les courbes ROC. Par rapport à la méthode conventionnelle, elle est à la

fois plus sensible (+12%) et plus spécifique (+4.4%). L'amélioration en termes d'efficacité

diagnostique est d'environ 10%. La méthode de classement multidimensionnelle s'avère

Page 30: 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

Chapitre 3

finalement être la plus pertinente. Cependant, cette méthode classe 16.2% des sujets sains

comme patients porteurs de PT.

Méthode Sensibilité Spécificité Efficacité

Diagnostique

Normaux

conventionnelle (2c/3) 69.5 75 73 100

optimisée par ROC (2c/3) 82.6 67.5 73 93.5

optimisée par AD 73.9 87.5 82.5 83.8

Tableau 3-11 : tableau récapitulant les résultats des différentes approches utilisées pour la

séparation des patients avec et sans TV sur la totalité de la population. La méthode conventionnelle

utilise les critères standard et la combinaison utilisée est deux critères satisfaits sur trois (2c/3). La

méthode optimisée par les courbes ROC utilise également deux critères satisfaits sur trois. Les résultats

de la dernière ligne sont ceux du troisième pas de l'AD lorsqu'elle est appliquée à toute la population

d'étude.

L'analyse des paramètres temporels en fonction de la topographie de l'infarctus a confirmé

les travaux de Simson, montrant qu'il n'y avait pas de différences significatives entre les valeurs

moyennes des paramètres QRSf, LAS40, RMS40 pour les localisations antérieures et inférieures

de l'infarctus. Nous verrons par la suite que des analyses plus fines telles que l'analyse temps-

fréquence permettront de nuancer ce résultat en mettant en évidence des différences de structures

des micro-potentiels en fonction de la localisation de l'infarctus.

3.3. Conclusion

La détection des PT dans le domaine temporel est réalisée par l'intermédiaire de trois

paramètres (RMS40, LAS40 et QRSf) caractérisant la partie terminale du QRS filtré de l'ECG-

HR. Le paramètre le plus pertinent et le plus fiable pour la caractérisation des patients avec des

PT est la durée de QRS filtré. Cette durée caractérise en effet de manière unique les patients en

post-infarctus avec TV. Le LAS40 et le RMS40 apparaissent comme des paramètres moins

discriminants et surtout moins reproductibles. Ils contribuent néanmoins de façon non

négligeable à la séparation des patients avec un risque de TV. Ces résultats vont dans le sens des

conclusions émises à partir des mesures de surface des courbes ROC.

Avec les paramètres temporels, on élabore des critères basés sur la détection de

franchissement de seuils permettant de séparer les patients avec risque de TV d'une population

constituée de patients en post-infarctus et de sujets sains. Cette méthode diagnostique donne, en

moyenne, un classement avec une sensibilité de 70% et une spécificité de 75%. Elle est plus

spécifique que sensible. La méthode de Simson présente néanmoins certains inconvénients : elle

Page 31: 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

Chapitre 3

est très dépendante du bruit, ne s'applique pas aux patients avec un bloc de branche et est limitée

à la portion terminale du complexe QRS.

Sur notre population d'étude, les résultats obtenus varient, en termes d'efficacité

diagnostique, entre 73% et 82.5% selon la méthode décisionnelle utilisée. L'optimisation des

critères par l'intermédiaire des courbes ROC n'a pas permis d'améliorer globalement les

performances de la méthode. En revanche, l'analyse discriminante s'est avérée plus pertinente en

apportant un gain de 9.5% en termes d'efficacité diagnostique. L'intérêt d'utiliser une méthode de

classement multidimensionnelle sur les paramètres temporels est ainsi clairement démontré.

Un autre résultat important est la mise en évidence de l'existence de sous-groupes dans nos

populations d'étude. L'analyse par coalescence démontre effectivement et tout particulièrement

sur le groupe de patients en post-infarctus avec TV, que la distribution des valeurs des

paramètres temporels n'a pas une configuration uni-modale et que ce groupe n'est pas homogène.

Finalement le filtrage classique comme l'utilise la méthode conventionnelle permet de

détecter les patients à risque de TV avec une efficacité limitée. Cette limitation de la méthode

conventionnelle a conduit les auteurs à aborder le problème de la détection des PT sous un

nouvel angle : l'analyse des composantes spectrales de ce signal.

Page 32: 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

Chapitre 3

[Lan 89] Lander P, Berbari EJ. Use of highpass filtering to detect late potentials in the

signal averaged ECG. J Electrocardiol. 225:7-12,1989.

[Har 1] Harris FJ, On the use of windows for harmonic analysis with the discrete

Fourier transform. Proc. IEEE 66:51-83,1978.

[Sim 81] Simson MB. Use of signals in the terminal QRS complex to identify patients

with ventricular tachycardia after myocardial infarction. Circulation. 1981;64:235-42.

[Car 89] Caref EB, Turrito G, Ibrahim BB, Henkin R, El-Sherif N. Role of the band-

pass filters in optimizing the value of the signal-averaged electrocardiogram as a predictor of

the result of programmed stimulation. Am J Cardiol 1989;64:16-26.

[Ver 89] Verzoni A, Romano S, Pozzoni L, Tarricone D, San Giorgo S, Croce L.

Prognostic significance and evolution of late ventricular potentials in the first year after the

myocardial infarction : prospective study. Pace 1989;12:41.

[Ste 92] Steinberg JS, Regan A, Sciacca RR, Bigger JT, Fleiss JL. Predicting

arrhythmic events after acute myocardial infarction using the signal averaged

electrocardiogram. Am J Cardiol 1992;69:13-21.

[Den 83] Denes P et al. Quantitative analysis of the high-frequency components of the

terminal portion of the body surface QRS in normal subjects and in patients with ventricular

tachycardia. Circulation 1983;;67:1129-37.

[Kac 87] Kacet S. Prévalence des potentiels tardifs dans les tachycardies

ventriculaires. Arch Mal Coeur 1987;9:1405-12.

[Gom 87] Gomes A. Optimal band pass filters for time domain analysis of the signal-

averaged elctrocardiogram. Am J Cardiol 1987;60: 1296-98.

[Ver 89] Verzoni A, Romano S, Pozzoni L, Tarricone D, San Giorgo S, Croce L.

Prognostic significance and evolution of late ventricular potentials in the first year after the

myocardial infarction : prospective study. Pace 1989;12:41.

Page 33: 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

Chapitre 3

[Ste 92] Steinberg JS, Regan A, Sciacca RR, Bigger JT, Fleiss JL. Predicting

arrhythmic events after acute myocardial infarction using the signal averaged

electrocardiogram. Am J Cardiol 1992;69:13-21.

[Hen 89] Henkin R, Caref EB, Kelen GJ, El-Sherif N. The signal-averaged

electrocardiograms and late potentials: A comparative analysis of commercial devices. J

Electrocardiol 1989:22(suppl I):19-24.

[Oef 86] oeff M, Von Leitner ER, Sthapit R, et al. Methods for non-invasive detection of

ventricular late potentials: a comparative multicenter study. Eur Heart J 1986;7:25-33.

[Ste 89] Steinberg JS, Bigger JT Jr. Importance of the end point of noise reduction in

analysis of the signal-averaged electrocardiogram. Am J Cardiol. 1989;63:556-60

[Bor 88] Borbola J, Denes P. Short and long-term reproducibility of the signal-

averaged electrocardiogram in coronary artery disease. Am J Cardiol 1988;61:1123-1124

[Sag 91] Sager PT, Widerhorn J, Pascual M, Leon C, Rahimtoola SH, Bhandari AK. A

prospective evaluation of the immediate reproducibility of the signal-averaged ECG. Am

Heart J 1991;121:1671-1678.

[Aga 95] Aganauskiene J, Sörnmo L, Atarius R, Blomström-Lundqvist C.

Reproducibility of the signal-averaged electrocardiogram using individual lead analysis. Eur

Heart J 1995 16,1244-1254

[Ata 95] Atarius R, Sörnmo L. Maximun likelihood analysis of cardiac late potentials.

IEEE Trans Biomed Eng (sous presse).

[Mal 92] Malik M, Kulakowski P, Staunton A, Odemuyiwa O, Farrell T, Camm AJ.

Frequency versus time-domain analysis of signal-averaged electrocardiograms. 1.

Reproducibility of the result. J Am Coll Cardiol 1992;20:127-134.

[Eng 93] Engel TR, Pierce DL, Murphy SP. Variation in late potentials and the

reproducibility of their measurement. Prog Cardio Disea XXXV,4:247-262, 1993.

Page 34: 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

Chapitre 3

[Vac 89] Vacek JL, Smith S, Dunn MI: Late potential parameter and noise level

variability caused by bandpass versus high-pass filtering ant type of signal averaging

equipment used. J electrophysiol 3:278-282,1989.

[Gom 89] Gomes JA, Winters SL, Martison M, Machac J, Stewart D, TargonskyA. The

prognostic significance of quantitative signal-averaged variables relative TO clinical

variables, site of myocardial infraction and ventricular premature beats : a prospective study.

J Am Coll Cardiol 1989;13:377.

[Bux 87] Buxton AE, Simson MB, Falcone RA, Marchlinski FE, Doherty JU, Josephson

ME. Results of signal-averaged electrocardiography and electrophysiologic study in patients

with non sustained ventricular tachycardia after healing of acute myocardial infarction. Am J

Cardiol 1987;60:80-85.

[Sve 92] Svensson O, Sörnmo L, Pahlm O. Influence of noise on the analysis of late

potentialsJ Electrocardiol. 25 (suppl):212:213,1992.

[Fre 91] Freedman RA, Steinberg JJ. Selective prolongation of the QRS late poentials

by sodium channel blocking antiarrhythmic drugs : relation TO slowing of ventricular

tachycardia. J Am Coll Cardiol 1991;17:1017-1025.

[Hoh 91] Hoher M, Axmann J, Weismuller P, Kocus M, Hombach V. Specific effects of

class I and III antiarrhythmic drugs on ventricular late potentials. Circulation 1991;84,4:II-

597a.

[Den 86] Denniss AR, Ross DL, Richards DA, Cody DV, Russel PA, Young AA, Uther

JB. Effect of antiarrhythmic therapy on delayed potentials detected by the signal-averaged

electrocardiogram in patients with ventricular tachycardia after acute myocardial infarction..

Am J Cardiol 1986;58:261-265

[Lac 90] Lacroix D, Savard P, Shenasa M, Kaltenbrunner W, Cardinal R, Pagé P, Joly

D, Derome D, Nadeau R. Spatial domain analysis of late potentials. Intraoperative and

thoracic correlations. Circ Res 1990;66:55-68.

Page 35: 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

Chapitre 3

[Hab 90] Haberl R, Schels HF, Steinbigher P, Jilge G, Steinbeck G. Top_resolution

frequency analysis of electrocardiogram with adaptative frequency determination.

Identification of late potentials in patients with coronary artery disease.Circulation 1990;

82:1183-1192.

[Lin 88] Lindsay BD, Markham J, Schechtman KB, Ambos HD, Cain ME. Identification

of patients xwith sustained ventricular tachycardia by frequency analysis of signal-averaged

electrocardiograms despite the presence of bundle branch bloc. Circulation 1988; 77:122-

130.

[Bre 91] Breithardt G et Al. Standards for analysis of ventricular late potentialsusing

high-resolution or signal-averaged electrocardiography. JACC 1991;17,5:999-1006.

[Fon 91] Fontaine JM, Rao R, Henkin R, Suneja R, Ursell SN, El-Sherif N. Study of the

influence of left bundle branch block on the signal-averaged electrocardiogram : a

quantitative and qualitative analysis. Am Heart J 1991;121:494-508.

[Kac 87] Kacet S, Dagano J, Lacroix D, Decoster H, Camier C, Lekieffre J. Results of

signal-averaged electrocardiogram in patients with complete right bundle branch block with

and without ventricular tachycardia (abstract). Pace 1987;10:605.

[Kac 87] Kacet S, Dagano J, Lacroix D, Decoster H, Camier C, Lekieffre J. Result of

signal averaged electrocardiogram in patient with complete right bundle branch block with

and without ventricular tachycardia (abstract). Pace 1987; 10:605.

[Kin 86] Kindwall KE, Auletto R, Falcone R, Simson MB. Abnormalities in the signal-

averaged electrocardiogram in patient with ventricular tachycardia and left bundle branch

block (abstract). J Am Coll Cardiol 1986; 7:103A.

[Edw 87] Edwardsson N, Lindblad A Hirsch I. Late potentials in patients with bundle

branch block with and without ventricular tachycardia/fibrillation (abstract). Pace

1987;10:1005.

Page 36: 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...

Chapitre 3

[Buc 88] Buckingham TA, Thessen CC, Stevens L, Red RM, Kennedy HL. Effects of

conduction deffects on the signal-averaged electrocardiographic determination of late

potentials. Am j Cardiol 1988; 61:1265-1271.

[Bab 91] Babuty D, Beuillac JC, Cosnay P, Fauchier JP. Signal-averaged

electrocardiogramability to identify patients predisposed to ventricular tachycardia despite

bundle branch bloc (abstract). IX Colloque Européen de vectocardiographie et

d’électrocardiographie quantitative. Gent -6-7 december 1991.

[Wat 89] Watterlot P, Hammill S, Bailey K. The signal-averaged electrocardiogram

predicts arrhythmic events in patients with left bundle branch bloc (abstract). J Am Coll

Cardiol 1989; 13:190A.

[Har 75] Hartigan RJ. Clustering algorithms. 1975. New-York:Wiley.

[Deg 91] Degoulet P, Fieschi M. Traitement de l'information médicale, méthodes et

applications hospitalière, Masson (ed) Paris, 1991,124-128.