Christophe Grova -...

305
N o d’ordre : 68 THÈSE présentée DEVANT L’UNIVERSITÉ DE RENNES I pour obtenir le grade de : DOCTEUR DE L’UNIVERSITÉ DE RENNES I Mention : Génie Biologique et Médical PAR Christophe Grova Équipe d’accueil : Laboratoire IDM - UPRES EA 3192 “Intégration de données multimedia en anatomie et physiologie cérébrale pour l’aide à la décision et l’enseignement” (Faculté de Médecine, Rennes) École doctorale: Vie, Agro, Santé (VAS) Titre de la thèse : Simulations réalistes de données de tomographie d’émission monophotonique (TEMP) pour l’évaluation de méthodes de recalage TEMP/IRM utilisant des mesures statistiques de similarité : application dans le contexte de la fusion de données en épilepsie Soutenue le 23 décembre 2002, devant la commission d’examen COMPOSITION DU JURY : M. Jean-Marie SCARABIN Directeur de thèse MM. Nicholas AYACHE Rapporteurs Jacques DARCOURT MM. Habib BENALI Examinateurs Jean-Yves BOIRE Bernard GIBAUD M. Arnaud BIRABEN Membre invité

Transcript of Christophe Grova -...

No d’ordre : 68

THÈSE

présentée

DEVANT L’UNIVERSITÉ DE RENNES I

pour obtenir

le grade de : DOCTEUR DE L’UNIVERSITÉ DE RENNES I

Mention : Génie Biologique et Médical

PAR

Christophe Grova

Équipe d’accueil : Laboratoire IDM - UPRES EA 3192 “Intégration de donnéesmultimedia en anatomie et physiologie cérébrale pour l’aide à la décision et

l’enseignement” (Faculté de Médecine, Rennes)

École doctorale : Vie, Agro, Santé (VAS)

Titre de la thèse :

Simulations réalistes de données de tomographie d’émissionmonophotonique (TEMP) pour l’évaluation de méthodes derecalage TEMP/IRM utilisant des mesures statistiques desimilarité : application dans le contexte de la fusion de

données en épilepsie

Soutenue le 23 décembre 2002, devant la commission d’examenCOMPOSITION DU JURY :

M. Jean-Marie SCARABIN Directeur de thèse

MM. Nicholas AYACHE RapporteursJacques DARCOURT

MM. Habib BENALI ExaminateursJean-Yves BOIRE

Bernard GIBAUD

M. Arnaud BIRABEN Membre invité

3

Remerciements

Si c’est possible, c’est fait ;Si c’est impossible, cela se fera

C.A. de Calonne

Ce travail de thèse a été réalisé au sein du laboratoire IDM de l’université de Rennes1, il s’agit d’un environnement hautement pluridisciplinaire, en lien direct avec le CHU deRennes, qui m’a permis de comprendre au mieux les enjeux de ce domaine de recherche trèscomplexe et passionnant qu’est l’épileptologie. La laboratoire IDM ainsi que les services deneurologie, neurochirurgie, radiologie et explorations fonctionnelles du CHU Pontchailloude Rennes m’ont permis de m’épanouir dans un cadre humain et technique unique de partles compétences et moyens mis à ma disposition.

Je tiens tout d’abord à témoigner ma profonde reconnaissance à Monsieur le professeurJean Marie Scarabin, Professeur des Universités, pour avoir accepté de diriger ce travailde thèse au sein du laboratoire IDM. Je tiens à lui témoigner toute ma gratitude poursa confiance ainsi que pour m’avoir appris à considérer l’application clinique comme unepriorité dans toutes mes approches.

Je tiens à remercier particulièrement Messieurs Nicholas Ayache, directeur de rechercheINRIA, et Jacques Darcourt, Professeur des Universités, pour m’avoir fait l’honneur derapporter cette thèse, ainsi que pour l’intérêt qu’ils ont porté à mes travaux et la qualité deleurs rapports.

Je tiens finalement à remercier Messieurs Habib Benali, directeur de recherche IN-SERM, Arnaud Biraben, neurologue, Jean-Yves Boire, Maître de Conférence Universitaire,et Bernard Gibaud, chargé de recherche INSERM, pour avoir accepté de participer à monjury.

J’exprime particulièrement ma reconnaissance à Bernard Gibaud et Pierre Jannin dulaboratoire IDM, pour lesquels l’encadrement de ce travail de thèse a été un travail quoti-dien. Ils ont contribué pour beaucoup à ma formation au monde de la recherche, ont réussià me convaincre qu’une recherche appliquée et proche des problématiques des cliniciens esttout à fait valorisante et passionnante. Ils ont su me guider tout au long de ses années,m’éclairer par leur vision d’ensemble des différentes problématiques et surtout me recentrersur ma problématique quand je voulais apprendre tout sur tout. Je tiens surtout à saluerleur patience et leur grande disponibilité. Je me souviendrais longtemps d’un plan de thèsediscuté avec Pierre sur le pont de la bisquine Cancalaise dans le port de Douarnenez.

4

Un grand merci aux personnes des l’unité INSERM U494 de la Pitié Salpétrière, notam-ment Habib Benali, Irène Buvat et Sébastien Hapdey. Ils étaient toujours là pour répondreà mes nombreuses interrogations sur la formation et la simulation des images en méde-cine nucléaire et sur des questions statistiques. Je remercie particulièrement Habib Benalid’avoir accepté d’être mon tuteur scientifique pour cette thèse. Nos nombreuses réunionsfurent toujours très enrichissantes et pleines de nouvelles idées sur la manière d’abor-der mon travail. Merci, encore pour m’avoir appris à me poser la fameuse question enstatistique : “qu’est ce qu’on fait lorsque ce n’est pas gaussien?”. Je tiens à exprimer mareconnaissance au docteur Leighton Barnden (Woodville, Australie), pour m’avoir donneraccès à sa base de données TEMP de sujets sains, ainsi qu’à Alexis Roche (INRIA SophiaAntipolis) pour ses conseils sur le rapport de corrélation.

Je tiens à remercier également tous les cliniciens avec qui j’ai collaboré au cours dema thèse. Je remercie surtout le docteur Arnaud Biraben, pour m’avoir permis d’assisterrégulièrement au staff du service d’épilepsie, et m’avoir ainsi fait prendre conscience del’intérêt des méthodes de fusion pour assister l’analyse des épileptologues. J’en profite pourremercier les docteurs Pierre Toulouse, Delphine Taussig, Claire Haegelen, Eric Seigneuretet Xavier Morandi ainsi que toutes les personnes des services de neurochirurgie, neurologieet explorations fonctionnelles que j’ai cotoyées. Je remercie le Centre Eugène Marquiset en particulier le docteur Anne-Marie Bernard et Olivier Schill pour leurs conseils surl’acquisition et le traitement des données TEMP. Merci également aux collègues de l’IRISA,notamment à Christian Barillot pour m’avoir fait découvrir ce monde obscure du recalaged’images médicales, et aussi à son équipe, Pierre et Isabelle notamment. Merci égalementà Elisabeth Le Rumeur pour son aide sur l’analyse des données IRMf, ainsi qu’à Jean-Yves Bansard et Michel Kerbaol pour leur conseils concernant l’analyse factorielle descorrespondences des données TEMP.

Bien évidemment un grand grand merci à tous mes collègues et amis du laboratoireIDM, qui m’ont permis de réaliser ces travaux dans une ambiance très sympathique et mo-tivante. Merci à Oliver pour ce travail d’équipe qui nous a permis de mettre en place unenvironnement multimodal utilisable au laboratoire et par les neurochirurgiens, et surtoutpour avoir toujours su répondre aux questions du style : “pourquoi ça ne compile pas?”.Merci à Bérengère et Mélanie, je leur serai toujours reconnaissant pour leur aide et leursupport à la fin de la rédaction de ce manuscrit, et puis merci pour leur sourire et leur bonnehumeur de tous les jours. Un clin d’œil au marin Olivier, et merci pour les nombreuses soi-rées labo qui ont fini à la Lupa et au Couleur Caf’ avec Isabelle. Outre cette joyeuse bandede thésards, un grand merci aux nombreuses autres personnes que j’ai côtoyées au labo-ratoire SIM devenu IDM, je cite dans le désordre: Eric, Chantal, Alain, Benoît, Laurent,Claudine, toute l’équipe du CRITT, Jérémie, Solène, Didier, Denis ... et à tous ceux queje risque certainement d’oublier, car il y en a eu du monde ...

Cette thèse n’aurait certainement jamais abouti, sans le soutien et la confiance de mesproches, je leur suis extrêmement reconnaissant, je pense particulièrement à mes parents,à ma sœur Nathalie, et aussi à ma cousine Christine, tous toujours là au bout du fil quandon en a besoin! Merci à tous d’avoir gardé confiance en moi et de m’avoir soutenu pendant

5

toutes ces années. Cette thèse a été également pour moi l’occasion de découvrir la Bretagne,de réaliser qu’il ne pleuvait pas tout le temps et surtout d’apprécier la chaleur des bretons.Merci aux doctoriales de Saint Malo, sans qui je n’aurais pas rencontré mes compagnonsthésards, embarqués dans la même galère, et devenus de vrais amis particulièrement JeanRené, Anthony, Malika, Frédérique, Olivier et Nico. Merci à vous tous les marins, onest tous arrivé à bon port. Merci encore merci à tous les rennais pour votre soutien etamitié, Géraldine, alias la meilleure des voisines, Sabrina, Bich Thuy, Luce, Eric, Anne,les complices d’Yfonkdufonk, les amis de la Bisquine ... et puis aussi aux amis de toujoursFranky, Franck à la guitare, Dan et Fred. Je terminerai par un petit clin d’œil tout spécialà Maggye pour son soutien venu d’outre Atlantique pendant les longues nuits de rédaction.Voilà cela fait beaucoup de merci tout ça, et je suis sur que j’en oublie pas mal ....

Merci à vous tous ...

6

Table des matières 7

Table des matières

Introduction générale 16

I FUSION DE DONNEES EN EPILEPSIE, RECALAGE ET VALI-DATION 21

1 Fusion de données multimodales anatomo-fonctionnelles en épilepsie 231.1 Chirurgie de l’épilepsie et réseau épileptogène . . . . . . . . . . . . . . . . . 23

1.1.1 Historique de l’épilepsie . . . . . . . . . . . . . . . . . . . . . . . . . 231.1.2 La chirurgie de l’épilepsie . . . . . . . . . . . . . . . . . . . . . . . . 241.1.3 Définition du réseau épileptogène . . . . . . . . . . . . . . . . . . . . 24

1.2 Techniques d’exploration du réseau épileptogène . . . . . . . . . . . . . . . . 261.2.1 Notions de neurophysiologie : origine de l’activité cérébrale? . . . . . 291.2.2 Examens statiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

1.2.2.1 La Tomodensitométrie ou Scanner X . . . . . . . . . . . . 321.2.2.2 L’Imagerie par Résonance Magnétique(IRM) morphologique

331.2.2.3 La spectroscopie RMN . . . . . . . . . . . . . . . . . . . . . 361.2.2.4 La Tomographie d’Emission de Positons (TEP): . . . . . . 38

1.2.3 Examens dynamiques de l’état inter-critique . . . . . . . . . . . . . 391.2.3.1 Approches électrophysiologiques . . . . . . . . . . . . . . . 401.2.3.2 Mesures de perfusion en médecine nucléaire : TEP et TEMP

inter-critiques . . . . . . . . . . . . . . . . . . . . . . . . . . 441.2.3.3 Imagerie par Résonance Magnétique (IRM) dynamique et

fonctionnelle : . . . . . . . . . . . . . . . . . . . . . . . . . . 521.2.4 Examens dynamiques de l’état critique . . . . . . . . . . . . . . . . 53

1.2.4.1 Approches électrophysiologiques . . . . . . . . . . . . . . . 531.2.4.2 Tomographie d’Emission MonoPhotonique (TEMP) critique 55

1.2.5 Analyse de l’environnement fonctionnel . . . . . . . . . . . . . . . . 571.2.5.1 Potentiels évoqués : EEG, MEG, ECoG, SEEG . . . . . . . 571.2.5.2 Imagerie d’activation : IRMf, TEP . . . . . . . . . . . . . . 571.2.5.3 Explorations invasives . . . . . . . . . . . . . . . . . . . . . 58

1.3 Méthodes d’analyse et de fusion de données : besoins pour l’épilepsie . . . . 581.3.1 Fusion de données guidée par le problème clinique . . . . . . . . . . 601.3.2 Aide au repérage sur l’anatomie du patient . . . . . . . . . . . . . . 62

8 Table des matières

1.3.3 Aide à la détection et quantification d’aires pathologiques ou fonc-tionnelles spécifiques au sujet exploré . . . . . . . . . . . . . . . . . . 651.3.3.1 Aider à une meilleure détection, localisation ou quantifica-

tion des anomalies épileptogènes : . . . . . . . . . . . . . . 651.3.3.2 Construction de nouvelles images dites de fusion : . . . . . 671.3.3.3 Comparaison d’informations fonctionnelles : . . . . . . . . 681.3.3.4 Fusion coopérative et méthodes de reconstruction de sources

en MEG/EEG : . . . . . . . . . . . . . . . . . . . . . . . . 691.3.4 Identification de “patterns” caractérisant des aires pathologiques ou

fonctionnelles au sein d’une population de sujets . . . . . . . . . . . 721.3.4.1 Analyse par standardisation anatomique : . . . . . . . . . . 721.3.4.2 Cartographies statistiques d’activation : . . . . . . . . . . . 73

1.3.5 Aide à la réalisation d’un acte chirurgical . . . . . . . . . . . . . . . 74

2 Méthodes de recalage par mesures statistiques de similarité 772.1 Revue générale des méthodes de recalage . . . . . . . . . . . . . . . . . . . . 77

2.1.1 Contextes de mise en œuvre de procédures de recalage . . . . . . . . 782.1.1.1 Contexte de fusion 1 : recalage intra-sujet et intra-modalité 782.1.1.2 Contexte de fusion 2 : recalage intra-sujet et inter-modalité 792.1.1.3 Contexte de fusion 3 : recalage sujet réel et modalités . . . 792.1.1.4 Contexte 4 : recalage inter-sujet et intra- ou inter-modalité 80

2.1.2 Classification des méthodes de recalage . . . . . . . . . . . . . . . . . 802.1.2.1 Définition des repères géométriques utilisés . . . . . . . . . 812.1.2.2 Espace de recherche : type de transformation géométrique . 812.1.2.3 Espace des paramètres : type d’information homologue . . . 832.1.2.4 Métrique de qualité de la mise en correspondance : fonction

de coût . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 842.1.2.5 Stratégie de recherche : méthodes d’optimisation . . . . . . 85

2.2 Recalage basé sur des mesures statistiques de similarité . . . . . . . . . . . . 862.2.1 Pourquoi s’intéresser aux mesures statistiques de similarité? . . . . . 862.2.2 Principe de la mise en correspondance par mesures statistiques de

similarité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 872.2.2.1 Position du problème . . . . . . . . . . . . . . . . . . . . . 872.2.2.2 L’image médicale : une variable aléatoire discrète . . . . . 882.2.2.3 Principales notations utilisées . . . . . . . . . . . . . . . . . 912.2.2.4 Interpolation et estimation des lois de probabilité . . . . . . 922.2.2.5 Normalisation : gestion du recouvrement partiel . . . . . . . 95

2.2.3 Éléments de théorie de l’information . . . . . . . . . . . . . . . . . . 962.2.3.1 Géométrie des variables aléatoires de carré intégrable . . . 962.2.3.2 Mesures de quantité d’information . . . . . . . . . . . . . . 1002.2.3.3 Métriques de comparaison des quantités d’information . . . 101

2.2.4 Classification des mesures statistiques de similarité . . . . . . . . . . 1052.2.4.1 Mesures considérant les images comme des variables quan-

titatives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1052.2.4.2 Mesures considérant les images comme des variables quali-

tatives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112

Table des matières 9

2.2.4.3 Approches hybrides . . . . . . . . . . . . . . . . . . . . . . 1172.2.5 Mesures basées sur une modélisation de la similarité entre les données

à recaler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1182.2.5.1 Modélisation de la similarité à partir des données . . . . . . 1182.2.5.2 Modélisation du processus de génération des données . . . . 118

2.2.6 Mise en œuvre du recalage : pré-traitements et méthodes d’optimisation1192.2.7 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120

3 Validation de méthodes de recalage : application aux recalages TEMP/IRMou TEMP/TEMP 1213.1 Classification des procédures de validation . . . . . . . . . . . . . . . . . . . 1223.2 Méthodes de recalage évaluées . . . . . . . . . . . . . . . . . . . . . . . . . . 1223.3 Hypothèse de validation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1273.4 Mise en œuvre d’une procédure de validation : . . . . . . . . . . . . . . . . 128

3.4.1 Type de gold standard . . . . . . . . . . . . . . . . . . . . . . . . . . 1293.4.2 Données de validation . . . . . . . . . . . . . . . . . . . . . . . . . . 1293.4.3 Calcul de la transformation de référence . . . . . . . . . . . . . . . . 1303.4.4 Paramètres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131

3.5 Métrique de validation : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1313.5.1 Type de divergence (discrepancy) : erreur (E) ou inconsistence (I) . . 1313.5.2 Objet de la mesure . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1313.5.3 Etude de la distribution des divergences . . . . . . . . . . . . . . . . 132

3.6 Test d’hypothèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1323.7 Evaluation clinique qualitative . . . . . . . . . . . . . . . . . . . . . . . . . . 133

II SIMULATIONS REALISTES D’IMAGERIE TEMP POUR L’EVA-LUATION DU RECALAGE TEMP/IRM 135

Position du problème 137

4 Construction d’un modèle théorique de perfusion par une analyse parstandardisation anatomique 1414.1 Méthodes de reconstruction tomographique et de correction pour la quanti-

fication en TEMP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1424.1.1 Quels phénomènes dégradent le signal en TEMP? . . . . . . . . . . . 142

4.1.1.1 Interactions rayonnement - matière . . . . . . . . . . . . . . 1424.1.1.2 Bruit stochastique d’acquisition . . . . . . . . . . . . . . . 1444.1.1.3 Limitations technologiques du détecteur . . . . . . . . . . . 1454.1.1.4 Perte de résolution en profondeur : . . . . . . . . . . . . . 1464.1.1.5 L’effet de volume partiel : . . . . . . . . . . . . . . . . . . . 146

4.1.2 Techniques de reconstruction tomographique . . . . . . . . . . . . . 1464.1.2.1 Rétroprojection filtrée : . . . . . . . . . . . . . . . . . . . . 1474.1.2.2 Méthodes itératives . . . . . . . . . . . . . . . . . . . . . . 1484.1.2.3 Modélisation du projecteur : . . . . . . . . . . . . . . . . . 1504.1.2.4 Mesure de la résolution spatiale : . . . . . . . . . . . . . . . 150

10 Table des matières

4.1.3 Méthodes usuelles de correction . . . . . . . . . . . . . . . . . . . . . 1514.1.3.1 Correction de l’atténuation : méthode de Chang . . . . . . . 1514.1.3.2 Correction de la diffusion : méthode de la fenêtre de Jaszczak1534.1.3.3 Correction de la perte de résolution en profondeur . . . . . 1544.1.3.4 Correction de volume partiel . . . . . . . . . . . . . . . . . 155

4.2 Etat de l’art des méthodes d’analyse de données TEMP ou TEP par stan-dardisation anatomique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1554.2.1 Définition d’une méthode d’analyse par standardisation anatomique 1554.2.2 Quels contextes cliniques? . . . . . . . . . . . . . . . . . . . . . . . . 1564.2.3 Méthodes de normalisation spatiale . . . . . . . . . . . . . . . . . . . 1574.2.4 Evaluation de la normalisation spatiale . . . . . . . . . . . . . . . . . 1584.2.5 Approches utilisant des ROIs ou VOIs . . . . . . . . . . . . . . . . . 1594.2.6 Approches basées voxels . . . . . . . . . . . . . . . . . . . . . . . . . 1614.2.7 Comparaison des approches basées VOIs et des approches basées voxels162

4.3 Méthode de construction d’un modèle théorique de perfusion . . . . . . . . 1624.3.1 Modèle spatial de l’anatomie cérébrale . . . . . . . . . . . . . . . . . 1634.3.2 Carte d’activité : modèle théorique de perfusion cérébrale . . . . . . 164

4.3.2.1 Choix d’une population homogène : . . . . . . . . . . . . . 1644.3.2.2 Acquisition et prétraitement des données : . . . . . . . . . 1654.3.2.3 Normalisation spatiale des données : . . . . . . . . . . . . . 1674.3.2.4 Normalisation en intensité des données TEMP : . . . . . . 1684.3.2.5 Mesures de perfusion sur des données TEMP réelles : . . . 1694.3.2.6 Création de la carte théorique d’activité : . . . . . . . . . . 169

4.4 Analyse statistique des mesures de perfusion . . . . . . . . . . . . . . . . . . 1704.4.1 Présentation des résultats des mesures . . . . . . . . . . . . . . . . . 1714.4.2 Phase 1 : analyse statistique descriptive . . . . . . . . . . . . . . . . 177

4.4.2.1 Méthode : estimateurs et erreurs standard bootstrap . . . . 1774.4.2.2 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1784.4.2.3 Analyse statistique descriptive de la perfusion chez les su-

jets sains . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1784.4.2.4 Analyse statistique descriptive de la perfusion ictale chez

les sujets épileptiques . . . . . . . . . . . . . . . . . . . . . 1784.4.3 Phase 2 : Effet de la localisation anatomique . . . . . . . . . . . . . . 182

4.4.3.1 Méthode : analyse de la variance (ANOVA) . . . . . . . . . 1824.4.3.2 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1854.4.3.3 Analyse de la variance de la perfusion chez les sujets sains

en fonction des VOIs . . . . . . . . . . . . . . . . . . . . . . 1854.4.3.4 Analyse de la variance de la perfusion ictale chez les sujets

épileptiques en fonction des VOIs . . . . . . . . . . . . . . . 1874.4.4 Phase 2 (suite) : comparaison inter-hémisphérique . . . . . . . . . . . 189

4.4.4.1 Méthode : test t standard et bootstrapé . . . . . . . . . . . 1894.4.4.2 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1904.4.4.3 Analyse des asymétries inter-hémisphériques de la perfu-

sion chez les sujets sains . . . . . . . . . . . . . . . . . . . . 1904.4.4.4 Analyse des asymétries inter-hémisphériques de la perfu-

sion ictale chez les sujets épileptiques . . . . . . . . . . . . 193

Table des matières 11

4.4.5 Phase 3 : étude des dépendances statistiques entre structures anato-miques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1964.4.5.1 Méthode : Analyse Factorielle des Correspondances (AFC) . 1964.4.5.2 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1994.4.5.3 AFC des mesures de perfusion chez les sujets sains (données

corrigées du diffusé) . . . . . . . . . . . . . . . . . . . . . . 1994.4.5.4 AFC des mesures de perfusion ictale chez les sujets épilep-

tiques en fonction des VOIs . . . . . . . . . . . . . . . . . . 2044.5 Discussion : des mesures au modèle de perfusion . . . . . . . . . . . . . . . . 204

4.5.1 Méthode d’analyse par standardisation anatomique . . . . . . . . . . 2044.5.1.1 Nécessité d’un modèle spatial de l’anatomie pour modéliser

la perfusion . . . . . . . . . . . . . . . . . . . . . . . . . . . 2044.5.1.2 Compensation de la variabilité anatomique inter-individuelle2054.5.1.3 Mesure de la variabilité fonctionnelle inter-individuelle . . . 206

4.5.2 Intérêt clinique des modèles de perfusion normaux et pathologiques . 2084.5.2.1 Analyse de la perfusion TEMP chez le sujet sain . . . . . . 2084.5.2.2 Analyse de la perfusion en épilepsie temporo-mésiale . . . . 2094.5.2.3 Qualité des données TEMP pour la quantification et la mo-

délisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2104.5.3 Perspectives de ces travaux de modélisation . . . . . . . . . . . . . . 210

5 Simulation réaliste de données TEMP 2135.1 Méthodes de simulation réaliste de données TEMP . . . . . . . . . . . . . . 213

5.1.1 Carte d’activité et carte d’atténuation des photons . . . . . . . . . . 2145.1.2 Simulations analytiques . . . . . . . . . . . . . . . . . . . . . . . . . 2155.1.3 Simulations réalistes par techniques de Monte Carlo . . . . . . . . . 2155.1.4 Reconstruction tomographique à partir des projections simulées . . . 217

5.2 Cartes d’activité et résultats des simulations réalistes de données TEMP . . 2175.2.1 Simulations par techniques de Monte Carlo . . . . . . . . . . . . . . 218

5.2.1.1 Perfusion normale moyenne . . . . . . . . . . . . . . . . . . 2185.2.1.2 Perfusion ictale moyenne caractéristique d’une épilepsie temporo-

mésiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2185.2.2 Simulations analytiques . . . . . . . . . . . . . . . . . . . . . . . . . 223

5.2.2.1 Effet du niveau du bruit de comptage . . . . . . . . . . . . 2235.2.2.2 Simulations d’activité extra-cérébrale . . . . . . . . . . . . 2235.2.2.3 Simulations d’activités pathologiques extrêmes . . . . . . . 223

5.3 Discussion : réalisme des simulations . . . . . . . . . . . . . . . . . . . . . . 2295.3.1 Simulations TEMP comme données de validation . . . . . . . . . . . 2295.3.2 Réalisme des simulations proposées . . . . . . . . . . . . . . . . . . . 231

6 Evaluation de méthodes de recalage TEMP/IRM utilisant des mesuresstatistiques de similarités 2336.1 Présentation des méthodes de recalage évaluées . . . . . . . . . . . . . . . . 234

6.1.1 Prétraitements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2346.1.2 Modèle de transformation géométrique et repère . . . . . . . . . . . 2346.1.3 Mesures statistiques de similarité . . . . . . . . . . . . . . . . . . . . 234

12 Table des matières

6.1.4 Méthode d’optimisation . . . . . . . . . . . . . . . . . . . . . . . . . 2346.1.5 Stratégie de recherche . . . . . . . . . . . . . . . . . . . . . . . . . . 2356.1.6 Résultat du recalage . . . . . . . . . . . . . . . . . . . . . . . . . . . 236

6.2 Hypothèse de validation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2366.2.1 Niveau d’évaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . 2366.2.2 Description des modalités . . . . . . . . . . . . . . . . . . . . . . . . 2366.2.3 Contexte clinique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2366.2.4 Objectif de validation . . . . . . . . . . . . . . . . . . . . . . . . . . 236

6.3 Mise en œuvre de la procédure de validation . . . . . . . . . . . . . . . . . . 2376.3.1 Gold standard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2376.3.2 Données de validation . . . . . . . . . . . . . . . . . . . . . . . . . . 2376.3.3 Transformation de référence . . . . . . . . . . . . . . . . . . . . . . . 237

6.4 Métriques de validation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2396.4.1 Type de divergence : une erreur absolue . . . . . . . . . . . . . . . . 2396.4.2 Objet de la mesure de l’erreur . . . . . . . . . . . . . . . . . . . . . . 2396.4.3 Etude de la distribution des erreurs . . . . . . . . . . . . . . . . . . . 239

6.4.3.1 Précision . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2396.4.3.2 Résolution . . . . . . . . . . . . . . . . . . . . . . . . . . . 2406.4.3.3 Pourcentage d’échec . . . . . . . . . . . . . . . . . . . . . . 240

6.4.4 Test d’hypothèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2416.5 Résultats de l’évaluation comparative de méthodes de recalage . . . . . . . . 242

6.5.1 Recalage multimodal TEMP/IRM . . . . . . . . . . . . . . . . . . . 2426.5.1.1 Perfusion moyenne normale et ictale . . . . . . . . . . . . . 2426.5.1.2 Niveau de bruit poissonnien . . . . . . . . . . . . . . . . . . 2456.5.1.3 Dissimilarités intrinsèques extrêmes . . . . . . . . . . . . . 2476.5.1.4 Analyses de la variance . . . . . . . . . . . . . . . . . . . . 249

6.5.2 Recalage monomodal TEMP/TEMP . . . . . . . . . . . . . . . . . . 2506.5.2.1 Analyses de la variance . . . . . . . . . . . . . . . . . . . . 250

6.6 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2526.6.1 Synthèse sur l’évaluation du recalage TEMP/IRM par mesures sta-

tistiques de similarité . . . . . . . . . . . . . . . . . . . . . . . . . . . 2526.6.1.1 Simulations analytiques versus simulations de Monte Carlo 2526.6.1.2 Explication du comportement instable du critère de Woods

avec nos simulations . . . . . . . . . . . . . . . . . . . . . . 2546.6.2 Synthèse de l’évaluation du recalage TEMP/TEMP basé par mesures

statistiques de similarité . . . . . . . . . . . . . . . . . . . . . . . . . 2556.6.3 Comparaison avec les résultats de la littérature . . . . . . . . . . . . 2566.6.4 Perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257

6.6.4.1 Quelques conseils pour le recalage des données cliniques . . 2576.6.4.2 Vers une modélisation complète du processus lié au recalage

TEMP/IRM . . . . . . . . . . . . . . . . . . . . . . . . . . 2586.6.4.3 Une meilleure modélisation pour les méthodes de recalage

par inférence statistique . . . . . . . . . . . . . . . . . . . . 258

Table des matières 13

Conclusion générale 260

A Annexe : suite des résultats de l’AFC 263

Bibliographie 281

Publications 302

Table des matières 15

Principales abbréviations

– BHE : Barrière Hémato-Encéphalique

– CC : Coefficient de Corrélation

– CT : Scanner X

– CW : Critère de Woods

– DSCr : Débit Sanguin Cérébral Régional

– EEG : Electro-EncéphaloGraphie

– GS : Gold Standard

– IM : Information Mutuelle

– IMN : Information Mutuelle Normalisée

– IRM : Imagerie par Résonance Magnétique

– LCR : Liquide Céphalo-Rachidien

– LMH : Largeur à Mi-Hauteur

– MEG : Magnéto-EncéphaloGraphie

– RCL1 : Rapport de Corrélation en Norme L1

– RCL2 : Rapport de Corrélation en norme L2

– RMN : Résonance Magnétique Nucléaire

– ROI : Region Of Interest

– SEEG : Stéréo-Electro-EncéphaloGraphie

– TEMP : Tomographie d’Emission MonoPhotonique

– TEP : Tomographie d’Emission de Positons

– VOI : Volume Of Interest

– ZE : Zone Epileptogène

– ZI : Zone Irritative

– ZL : Zone Lésionnelle

Introduction Générale 17

Introduction

La prise en charge chirurgicale des épilepsies partielles dites pharmaco-résistantes estun domaine de recherche particulièrement porteur en imagerie médicale et principalementdans le domaine de la fusion de données multimodales anatomo-fonctionnelles. En effet,la décision thérapeutique liée à ces épilepsies sévères nécessite la compréhension du réseauépileptogène qui caractérise la maladie et son environnement fonctionnel proche, afin des’assurer que le foyer épileptogène est résécable sans causer de déficit fonctionnel significa-tif. La compréhension du dit réseau épileptogène passe par la définition de trois zones quesont la zone lésionnelle (ZL), la zone irritative (ZI) et la zone épileptogène (ZE). Toutesles situations peuvent se rencontrer, depuis le recouvrement parfait entre ces zones, leurchevauchement partiel, jusqu’à leur distinction complète. La notion très récente de ré-seau provient plus particulièrement du fait que chacune de ces zones peut concerner un ouplusieurs territoires cérébraux mais aussi du fait qu’il est nécessaire d’identifier leur organi-sation dynamique ainsi que leurs interconnexions et synchronisations potentielles, pendantet entre les crises, pour comprendre les manifestations de la maladie. De l’identificationde ce réseau et de son environnement fonctionnel dépend la décision éventuelle d’un actethérapeutique chirurgical, et ainsi la possibilité d’une rémission complète de la maladie.

Pour caractériser ces réseaux, le clinicien dispose de sources d’informations diversesprovenant soit de l’investigation clinique habituelle (histoire de la maladie, sémiologie descrises), mais aussi de divers signaux et images. Les images renseignent sur l’organisa-tion morphologique et fonctionnelle du réseau épileptogène. Ainsi, la tomodensitométrieet surtout l’Imagerie par Résonance Magnétique (IRM) permettent la détection d’altéra-tions morphologiques du tissu nerveux. La Tomographie d’Emission de Positons (TEP)reflète une activité métabolique comme la capture du glucose. La Tomographie d’Emis-sion MonoPhotonique (TEMP) est un indicateur de la perfusion cérébrale au cours d’unecrise (TEMP ictale) ou entre les crises (TEMP inter-ictale). Les signaux disponibles ap-portent quant à eux des informations sur les phénomènes électrophysiologiques mis en jeuen période ictale ou inter-ictale (ElectroEncéphaloGraphie EEG, MagnétoEncéphaloGra-phie MEG, électrodes profondes : Stéréo-EEG, ElectroCorticoGraphie ECoG).

L’aspect complémentaire des divers phénomènes physiologiques observés ainsi que lesdifférentes résolutions temporelles et spatiales de ces techniques d’exploration rendent laconfrontation de ces données très informative. En pratique clinique courante, le clinicienfusionne mentalement ces informations d’origines et de natures diverses. Le traitementnumérique de ces données permet de rendre cette fusion plus objective et plus précise. Lesméthodes numériques de fusion de données apportent de nouvelles solutions en matière demise en correspondance des données (ou recalage), de représentation des données fusionnéeset d’analyse quantitative des informations notamment fonctionnelles. La prise en charge

18 Introduction Générale

chirurgicale des épilepsie partielles pharmaco-résistantes est donc un contexte clinique idéalpour mettre en œuvre une méthodologie de fusion de données. Dans ce travail, nous noussommes particulièrement intéressés à la TEMP ictale, qui consiste à l’heure actuelle enla principale technique d’imagerie dynamique permettant d’accéder au fonctionnementdu cerveau pendant les premières dizaines de secondes de la crise d’épilepsie. La faiblerésolution spatiale de ces données en rend l’interprétation difficile, notamment au niveaude la localisation des structures internes telles que les noyaux gris. Pour cela la mise encorrespondance et la fusion des données de TEMP ictale sur l’IRM 3D morphologique dupatient s’avère très informative pour le clinicien. L’objectif principal de ces travaux de thèseest l’évaluation de la précision de méthodes de recalage utilisant des critères statistiques desimilarité, dans ce contexte bien particulier qu’est la mise en correspondance TEMP ictale /IRM. Pour réaliser cette évaluation quantitative, nous proposons une méthode permettantde générer des simulations réalistes de données TEMP à partir d’une IRM. Pour cela nousconstruisons à la résolution de l’IRM, un modèle théorique de perfusion caractéristique ducontexte clinique étudié (sujets sains ou épileptiques), à partir de mesures sur des examensréels et nous modélisons la géométrie et les processus physiques d’une acquisition TEMPvia des techniques de Monte Carlo.

Ce document est organisé en deux parties. La première partie consiste principalementen un état de l’art présentant successivement la fusion de données dans le contexte del’épilepsie, les méthodes de recalage basées sur l’optimisation de critères statistiques desimilarité et une classification des études portant sur l’évaluation de méthodes de reca-lage impliquant des données TEMP ou utilisant des mesures statistiques de similarité. Ladeuxième partie présente la méthode qui a été mise en œuvre pour l’évaluation du recalageTEMP ictale / IRM. Elle consiste tout d’abord en une modélisation du profil de perfusionque l’on cherche à étudier, à partir d’une méthode d’analyse par standardisation anato-mique de données TEMP réelles. Suivent ensuite une présentation des outils utilisés poursimuler les aspects géométriques et physiques de l’acquisition TEMP, ainsi que des simu-lations réalisées. Dans le dernier chapitre ces simulations sont utilisées pour l’évaluationcomparative de méthodes de recalage utilisant des mesures statistiques de similarité.

Ainsi, l’objectif du premier chapitre est de présenter l’enjeu de l’utilisation de donnéesd’imagerie anatomique et fonctionnelle ou d’électrophysiologie pour aider à la caractérisa-tion du réseau épileptogène et de son environnement fonctionnel, pour assister un éventueltraitement chirurgical. Après avoir défini les différentes zones participant au réseau épilep-togène, nous présentons de quelle manière elles peuvent être appréhendées par différentestechniques de neuroimagerie ou d’électrophysiologie. Finalement, après avoir défini ce quenous entendons par fusion de données dans ce contexte clinique, les besoins en matièrede fusion de données que soulève cette caractérisation du réseau épileptogène sont sou-lignés. Certains de ces aspects sont illustrés à partir de travaux réalisés au laboratoire.Ces éléments soulignent l’importance des techniques de recalage comme composante debase de toute méthode de fusion et les besoins en matière de validation, essentielle avantd’envisager toute utilisation en clinique.

Le deuxième chapitre débute par une revue générale et une classification des diffé-rentes méthodes de recalage utilisables pour la mise en correspondance d’images médicalessuivant leur contexte d’utilisation et suivant leurs différentes composantes intrinsèques :espace de recherche, espace des paramètres, métrique de la qualité de la mise en corres-pondance et stratégie de recherche. La seconde partie de ce chapitre souligne l’importance

Introduction Générale 19

des méthodes basées sur des mesures statistiques de similarité pour la mise en correspon-dance automatique de données volumiques. Après un rappel des éléments de théorie del’information permettant de poser leurs fondements, nous proposons une classification desprincipales mesures statistiques de similarité utilisées dans la littérature, ainsi que leurimplémentation notamment pour répondre au problème du recalage TEMP/IRM.

Le troisième chapitre souligne la nécessité d’une évaluation objective des méthodes derecalage, étape préliminaire à l’évaluation de toute méthode de fusion de données. S’inspi-rant de travaux menés au laboratoire sur la standardisation des procédures de validation,nous commençons par définir les notions clés : hypothèses et objectifs de validation, donnéesde validation et gold standard, métriques de validation. A partir de ces définitions, nousproposons une classification des différentes techniques de validation de méthodes de reca-lage. Cet état de l’art se limite principalement aux méthodes de recalage faisant intervenirdes données de TEMP ou de TEP ou des techniques de recalage basées sur l’optimisationde mesures statistiques de similarité.

La partie II débute par l’énoncé de la problématique principale de ces travaux dethèse, à savoir l’étude et l’évaluation du recalage TEMP/IRM à partir de méthodes derecalage utilisant des mesures statistiques de similarité. Nous introduisons alors l’approcheadoptée pour répondre à cette problématique. Nous cherchons plus particulièrement àétudier le comportement de ces méthodes de recalage dans le contexte de l’épilepsie, oùles acquisitions de TEMP ictale génèrent des dissimilarités intrinsèques entre les donnéesTEMP et IRM (fonction vs anatomie).

Le quatrième chapitre expose la première partie de la méthode proposée qui est l’iden-tification d’un modèle théorique de perfusion cérébrale, caractéristique de la situation phy-siologique ou physiopathologique à laquelle on s’intéresse. Une méthode de mesure parstandardisation anatomique est proposée et appliquée à des données réelles obtenues surdes sujets sains et épileptiques. La seconde partie de ce chapitre consiste en l’analyse sta-tistique de ces mesures de perfusion afin d’en extraire des caractéristiques pouvant êtreutilisées à des fins de modélisation.

Dans le cinquième chapitre, nous présentons les méthodes de simulation réaliste dedonnées TEMP qui ont été mises en œuvre, simulations analytiques et de Monte Carlo.Les données obtenues grâce à ces simulations constituent les données de validation utiliséesdans le cadre de l’évaluation présentée au dernier chapitre. Différents contextes ont étésimulés, tels qu’un profil moyen de perfusion normale et ictale à partir de techniques deMonte Carlo. A l’aide de simulations analytiques, nous ajustons différents paramètres àpartir des profils moyens de perfusion normale ou ictale : simulation de différents niveauxde bruit de comptage poissonnien, simulation d’asymétries fonctionnelles hyperperfusées,contraintes ou non à la matière grise, simulation d’activités extra-cérébrales.

Le sixième chapitre présente les résultats de l’évaluation de méthodes de recalage uti-lisant différentes mesures statistiques de similarité, ainsi que les données créées par lesprocessus de simulation décrits au chapitre précédent. En ce qui concerne la validation durecalage multimodalité TEMP/IRM, cinq méthodes de recalage sont étudiées. Elle sontbasées sur l’optimisation des critères suivants : l’information mutuelle, l’information mu-tuelle normalisée, les rapports de corrélation en norme L1 et L2 et le critère de Woods.Ces mêmes méthodes de recalage ainsi que les simulations de Monte Carlo sont finalementutilisées pour étudier le recalage monomodalité TEMP/TEMP.

20 Introduction Générale

21

Première partie

FUSION DE DONNEES ENEPILEPSIE, RECALAGE ET

VALIDATION

Fusion de données multimodales anatomo-fonctionnelles en épilepsie 23

Chapitre 1

Fusion de données multimodalesanatomo-fonctionnelles en épilepsie

1.1 Chirurgie de l’épilepsie et réseau épileptogène

1.1.1 Historique de l’épilepsie

Dérivé du verbe grec “epilambanein”, le terme “épilepsie” signifie : saisir, attaquer parsurprise. Considérée comme une possession démoniaque pendant tout le Moyen Age, l’épi-lepsie fut pour la première fois considérée comme une maladie par le “Traité de l’épilepsie”de Tissot en 1770 qui propose une vision scientifique déjà très moderne de celle-ci : “pourproduire l’épilepsie, il faut nécessairement deux choses : 1) une disposition du cerveau à en-trer en contraction plus aisément qu’en santé ; 2) une cause d’irritation qui mette en actioncette disposition”. De nombreux progrès concernant la terminologie et la neuropathologiedes épilepsies sont réalisés au cours du XIXieme siècle, et c’est à partir des travaux deJ.H. Jackson (1825-1911) que l’épilepsie passe définitivement du champ de la psychiatrieà la neurologie [Jackson 38]. De nombreux progrès concernant le diagnostic des épilepsiessont réalisés par l’utilisation des techniques d’ElectroEncéphaloGraphie (EEG) introduitespar Hans Berger en 1929. Le traitement chirurgical des épilepsies a été proposé dans lesannées 50 avec les travaux de Penfield et Jaspers à Montréal [Penfield 54]. Ils utilisaientdes enregistrements et stimulations électriques sur la surface du cortex (électrocorticogra-phie peropératoire) afin d’identifier le foyer épileptogène, de proposer une cartographieanatomo-fonctionnelle du cortex et de décider au mieux de la zone d’exérèse. Grâce à cestravaux, Penfield et Jaspers ont réalisé les premières observations directes qu’une activitéélectrique épileptique, notamment une activité électrique rapide pendant la crise, est as-sociée à une augmentation locale de la perfusion cérébrale. Cette observation princeps estfondamentale, vu l’importance encore actuelle que prennent les mesures liées à l’électro-physiologie et à la perfusion cérébrale pour l’étude des épilepsies. L’œuvre de l’école deMontréal trouva naturellement un prolongement en France par les travaux de Bancaudet Talairach [Bancaud 65] qui proposèrent l’étude du décours spatio-temporel d’une criseà partir d’enregistrements intra-cérébraux via des électrodes profondes implantées aprèsrepérage stéréotaxique : la stéréo-ElectroEncéphaloGraphie (SEEG).

24 1.1 Chirurgie de l’épilepsie et réseau épileptogène

1.1.2 La chirurgie de l’épilepsie

En France, on compte de 350000 à 450000 sujets épileptiques parmi lesquels 50% pré-sentent une épilepsie dite partielle [Devaux 01]. Les crises d’épilepsie sont dites focales oupartielles lorsqu’elles prennent naissance dans une ou plusieurs régions cérébrales limitéeset entraînent des signes cliniques en rapport avec la fonction de la zone affectée par ladécharge. Pour 25% de ces épilepsies partielles, les traitements médicamenteux s’avèrentincapables de contrôler les crises, on parle alors d’épilepsies partielles pharmaco-résistantespour lesquelles un traitement chirurgical peut être envisagé. Ainsi, on estime de 40000 à50000 le nombre de patients en France qui pourraient bénéficier d’une chirurgie de l’épi-lepsie. Or seulement 200 à 300 interventions chirurgicales sont pratiquées chaque année enFrance, dont une trentaine au Centre Hospitalier Universitaire (CHU) de Rennes.

Du fait du caractère phasique et aléatoire de la survenue des crises, la prise en charge chi-rurgicale des épilepsies est lourde à mettre en œuvre, surtout lorsque le planning préchirur-gical nécessite d’avoir recours à des enregistrements intra-cérébraux en SEEG. Les indica-tions suivantes sont nécessaires pour envisager un traitement chirurgical [SaintHilaire 90] :

– l’épilepsie doit être résistante au traitement médical : épilepsie partielle pharmaco-résistante dite “grave”,

– le foyer épileptogène doit être bien limité et unique,– le foyer épileptogène doit être résécable sans déficit fonctionnel significatif.

Le premier point comprend en plus de la pharmaco-résistance une évaluation de l’influencedes crises dans la vie de tous les jours et sur la qualité de vie du patient (e.g. fréquencedes crises, gravité des crises). Il est d’ailleurs fondamental d’étudier si le patient est apte àcollaborer avec les cliniciens au cours des investigations nécessaires avant la chirurgie. Destroubles comportementaux ou un retard mental peuvent par exemple contre-indiquer uneprise en charge chirurgicale, car dangereuse pour le patient.

L’étude des deux autres indications est appréhendée pendant le bilan préopératoire. Laméthode consiste à confronter les résultats des investigations cliniques à ceux des examensd’électrophysiologie et de neuroimagerie, afin de caractériser le foyer épileptogène sous-jacent ainsi que son environnement fonctionnel. Si l’indication chirurgicale est confortéeaprès ce bilan préopératoire, l’intervention consiste soit en une cortectomie standardisée(principalement temporale), soit en une cortectomie sélective, réalisée “à façon”, après unrepérage préopératoire très précis de l’épilepsie du patient. Cette dernière technique, né-cessitant souvent un recours aux explorations SEEG, a été principalement développée parl’école parisienne de Sainte Anne [Bancaud 65].

1.1.3 Définition du réseau épileptogène

L’objectif de la chirurgie de l’épilepsie étant de traiter le principal symptôme de lamaladie qu’est la crise, il faut identifier la zone cérébrale dont la resection permet l’arrêtde ces crises. Alors que certaines lésions morphologiques peuvent être à l’origine ou liées à lamaladie, il est fondamental de prendre en compte l’aspect dynamique de la crise d’épilepsieet de bien identifier la ou les aires de déclenchement et de propagation des crises .

Les premiers enregistrements SEEG réalisés par Bancaud et Talairach en 1966 [Talairach 66]ont permis de mettre en évidence que la distribution topographique des anomalies fonc-tionnelles électriques en période critique ou ictale (i.e. pendant la crise) et en période

Fusion de données multimodales anatomo-fonctionnelles en épilepsie 25

inter-critique ou inter-ictale (i.e. après une période d’au moins 24h sans crises) ne se re-couvraient que rarement. Ils proposent ainsi de caractériser la maladie par la définition destrois zones suivantes :

– Zone Epileptogène (ZE): D’un point de vue pragmatique, la zone épileptogène estpar définition l’aire cérébrale dont l’ablation est nécessaire et suffisante pour guérir lepatient. Cette zone inclut essentiellement la “zone primaire”. Pour Bancaud, la ZE estla zone dont la décharge électrique est corrélée à l’apparition des signes cliniques descrises. Cette définition a été proposée à partir des enregistrements de crises en SEEG.Cette zone inclut la “zone primaire” d’origine des crises et les zones de propagation.

– Zone Irritative (ZI): Les enregistrements SEEG ont également permis de localiserprécisément des Episodes Paroxystiques Inter Critiques (EPIC) qui se manifestentsous la forme de pointes et de pointes-ondes. Les aires cérébrales étant le siège de cesEPIC définissent la zone irritative.

– Zone Lésionnelle (ZL): La zone lésionnelle caractérise une altération morphologiquedu tissu nerveux, et/ou une altération métabolique comme une diminution de lacapture du glucose, ou une diminution du débit sanguin loco-régional, en périodeinter-ictale. En SEEG, il s’agit la plupart du temps d’une zone étant le siège d’ondeslentes, témoignant la présence d’une lésion ou d’une souffrance fonctionnelle. La ZLest souvent en rapport avec des lésions maintenant vues sur l’imagerie.

Par extension est née la notion de réseau épileptogène. L’expérience démontre que lazone épileptogène n’est jamais ponctuelle, mais que l’activation simultanée de plusieursgroupes de neurones est nécessaire à la naissance d’une crise.

Ayant permis la définition de ces trois zones, la technique “invasive” qu’est la SEEGest considérée comme une des techniques de référence, ou gold standard, pour la com-préhension de l’organisation du réseau épileptogène. En enregistrant des états critiques etinter-critiques du patient simultanément avec un enregistrement vidéo, la SEEG autorisedes corrélations anatomo-électro-cliniques, permettant d’étudier l’articulation des zonesimpliquées et de poser des hypothèses localisatrices. La SEEG peut également être utiliséepour conforter ces hypothèses en provoquant des crises par stimulation électrique intra-cérébrale. En pratique, toutes les situations peuvent se rencontrer, depuis le recouvrementparfait entre ces trois zones, leur chevauchement partiel, jusqu’à leur distinction complète,voire la coexistence de plusieurs ZE, ZI ou ZL (cf. Figure 1.1). Cependant, cette orga-nisation en trois zones circonscrites peut s’avérer trop réductionniste. La complexité desphénomènes étudiés a conduit Chauvel et al. [Chauvel 96] à proposer la notion de réseauépileptogène faisant intervenir plusieurs régions anatomiques inter-connectées en périodecritique et inter-critique : “Les épilepsies à crises partielles ou focales sont caractérisées pardes événements paroxystiques inter-critiques (EPIC ou pointes inter-critiques) et par descrises. Les EPIC, accidents transitoires phasiques, expriment la synchronie anormale d’unensemble neuronal au sein d’une ou plusieurs régions anatomiques ; les crises, oscillationspériodiques (ou non) généralement de haute fréquence (décharges rapides) activent de fa-çon durable et inhibent fonctionnellement cet ensemble neuronal, et se propagent souventau delà de ses limites propres”. Les tenants et les aboutissants de l’identification d’un telréseau épileptogène doivent donc passer par la résolution d’un problème de “liaison” entred’éventuelles lésions morphologiques, des zones cérébrales qui sont le siège d’EPIC et deszones cérébrales impliquées au départ et au cours des crises.

26 1.2 Techniques d’exploration du réseau épileptogène

Fig. 1.1 – Représentation schématique des concepts de Zone Épileptogène (EZ), Zone Irri-tative (IZ et IZ II) et Zone Lésionnelle (LZ) : les différentes entités du réseau épileptogènesont représentées sur une IRM 3D du cerveau segmenté, sur laquelle a été recalée la vueperopératoire du patient. Les neurones et leurs interconnections représentés dans les zonesdécrivent les différentes relations possibles entre ces structures

1.2 Techniques d’exploration du réseau épileptogène

L’essor de nombreuses techniques d’exploration, que ce soit en électrophysiologie ouen neuroimagerie, permet d’assister la caractérisation de ce réseau épileptogène. Il n’existepas une technique d’exploration qui va supplanter toutes les autres, mais c’est l’analysecombinée de ces nombreuses méthodes qui permettra une meilleure compréhension de ceréseau épileptogène, tout en s’efforçant d’utiliser les techniques d’investigation les moinsinvasives possibles. Les paragraphes précédents ont montré l’importance de la SEEG, consi-dérée comme technique de référence, mais le nombre limité d’électrodes implantables (engénéral, une dizaine) souligne l’importance de définir au mieux le schéma d’implantationpar un bilan préalable poussé permettant d’avoir des hypothèses solides. La grande préci-sion anatomique est apportée par un repérage stéréotaxique. Ce schéma est décidé aprèsune première phase d’examens non invasifs (e.g. vidéo-EEG, Imagerie par Résonance Ma-gnétique - IRM, Tomographie d’Emission MonoPhotonique - TEMP) au cours de laquelleles principales hypothèses sur l’organisation du réseau sont posées et seront à confirmerpar la SEEG. L’enjeu principal de l’utilisation de ces nouvelles techniques d’explorationest, à terme, de limiter le recours à des méthodes invasives et difficiles à mettre en œuvre,comme la SEEG. Dans cette optique, la SEEG est également un élément fondamental pourvalider la pertinence des résultats issus des techniques d’exploration non invasives.

L’objectif de cette partie est de présenter les principales techniques d’exploration uti-lisée en routine clinique ou en recherche pour aider à la caractérisation du réseau épi-leptogène. Pour chaque technique présentée, nous décrivons succinctement les principesd’acquisition et de reconstruction des données, la nature physiologique de l’informationmesurée, les limites en matière de résolution spatiale et temporelle, ainsi que l’intérêt de

Fusion de données multimodales anatomo-fonctionnelles en épilepsie 27

la technique pour l’épilepsie. La Figure 1.2 décrit la place respective de ces techniques lorsde la prise en charge chirurgicale d’un patient épileptique, selon l’organisation en place auCHU de Rennes. D’après Chauvel [Chauvel 99], il est nécessaire de disposer d’une visionméthodique des articulations entre les différents outils et techniques d’exploration, pourfournir à terme une synthèse anatomo-fonctionnelle capable de définir pour chaque patientson épilepsie, mais aussi de rationaliser les classifications pour tous les patients.

Notre ambition est ici de présenter les grandes tendances actuelles liées à l’utilisationde ces techniques, afin de mettre en exergue les besoins qui s’expriment en matière deméthodes de traitement d’image ou du signal, et plus particulièrement de fusion de don-nées anatomiques et fonctionnelles. Pour une description plus exhaustive des principauxrésultats cliniques en épilepsie, nous renvoyons le lecteur vers différents articles de revuesur la neuroimagerie de l’épilepsie [Mauguière 96, Duncan 97a, Richardson 01], ainsi quevers le livre de P. Thomas et P. Genton [Thomas 94] sur l’électrophysiologie en épilepsie.Après quelques rappels sur la physiologie de l’activité cérébrale, nous proposons une clas-sification des différentes techniques utilisées en épileptologie, en distinguant les méthodesd’exploration dite statique, des méthodes d’exploration dynamique des états inter-critiqueset critiques du patient, et des méthodes permettant d’analyser l’environnement fonctionneldu réseau épileptogène.

28 1.2 Techniques d’exploration du réseau épileptogène

Etude de la Examens

"statiques" fonctionnalité desZL, ZE, ZI et de l’environnementRecherche d’une ZL

scanner X

IRM morpho

spectoscopie RMN

TEP

neuro psychologie

CRITIQUE

TEMPvidéo EEG

potentiels évoquésEEG, MEG

PHASE I

proche des zones fonctionnelles

CONTRE INDICATIONPROBLEMES

non concordance

plusieurs zones

CONCORDANCE

zone bien déterminée

zone non fonctionnelle

déficit prévu tolérable

PHASE II

Examens"dynamiques"

vidéo SEEG

fonctionnalité desZL, ZE, ZI et de l’environnement

Etude de la

test de Wada

stim. électriques perop.SEEG

CONTRE INDICATIONCONCORDANCE

CHIRURGIE

IRM de diffusion

Examens"dynamiques"

Recherche des ZI et ZE

INTERCRITIQUE

EEG, MEGTEP, TEMP

IRM de perfusionTEP, IRMf

RESULTATPOST−OPERATOIRE

Fig. 1.2 – Schéma décrivant les techniques d’exploration mises en jeu pendant le planningpréchirurgical d’un patient épileptique

Fusion de données multimodales anatomo-fonctionnelles en épilepsie 29

1.2.1 Notions de neurophysiologie : origine de l’activité cérébrale?

Fig. 1.3 – Vue externe du cerveau présentant les différents lobes (rouge:lobe frontal,jaune:lobe temporal, bleu:lobe pariétal, vert:lobe occipital)

L’unité de base à l’origine de l’activité cérébrale est le neurone. Le neurone est unecellule, dite excitable, capable de transférer de l’information de nature électro-chimique àd’autres neurones. Les techniques d’imagerie dites morphologiques permettent naturelle-ment d’étudier à une échelle macroscopique l’organisation des tissus cérébraux. L’activitécérébrale peut quant à elle être appréhendée, soit directement en mesurant l’activité élec-tromagnétique générée par le fonctionnement des neurones, soit indirectement en mesurantla consommation de glucose ou d’oxygène ou encore la perfusion sanguine destinées à ali-menter ces neurones en énergie.

– Les tissus cérébraux : Les tissus cérébraux sont principalement constitués de deuxtypes de cellules, les neurones et les cellules gliales. Ces dernières sont beaucoupplus nombreuses et ont un rôle de soutien et de protection. Le tout baigne dans unliquide nourricier, le Liquide Céphalo-Rachidien (LCR). Les échanges entre les neu-rones et le sang se font nécessairement par l’intermédiaire de ces cellules gliales, dece fait ces échanges sont assez restrictifs : on parle de barrière hémato-encéphalique.Alors que le gaz carbonique, l’oxygène et l’eau traversent librement cette barrière,d’autres substances, dont le glucose, nécessitent un recours à des mécanismes detransport particuliers. La substance grise est caractérisée par une disposition organi-sée des corps cellulaires des neurones, sous forme de noyaux au niveau des structuresinternes, et sous forme d’une couche couvrant toute la périphérie du cerveau, le cor-tex (cf. Figures 1.3 et 1.4). Pour gagner en superficie, le cortex est une structurehautement repliée dont la surface couvre environ 1600 cm2. Les crêtes de ces circon-volutions sont appelées des gyri, et les creux des sillons. Ils constituent des repèresanatomiques fondamentaux pour le clinicien, notamment les sillons qui coincidentparfois avec de véritables frontières entre différentes zones fonctionnelles. Ainsi, lesillon central ou sillon de Rolando sépare les aires primaires de la motricité des aires

30 1.2 Techniques d’exploration du réseau épileptogène

Fig. 1.4 – Coupe anatomique coronale du lobe temporal (1:hippocampe, 2:corne temporaleinférieure du ventricule latéral, 3:amygdale, 8:gyrus temporal inférieur, 9:gyrus temporalcentral, 10:sillon temporal supérieur, 11:gyrus temporal supérieur, 14:insula, 23:ventriculelatéral, 24:noyau caudé, 26:queue du noyau caudé, 27:putamen, 28: partie latérale du pal-lidum, 29: partie mésiale du pallidum)

de la somesthésie 1. La substance blanche représente les fibres neuronales assurantles connexions nerveuses à longue distance (entre deux gyri, entre le cortex et lesstructures internes, entre les deux hémisphères). Lors du développement fœtal ducerveau, les corps cellulaires des neurones migrent de la couche germinative périven-triculaire vers le cortex. Diverses malformations du développement cortical, commepar exemple une anomalie de migration des corps cellulaires, génèrent des tissus for-tement enclins à devenir épileptogène. Nous montrerons comment ces malformationssont détectables par l’imagerie.

– Électrophysiologie du neurone : L’unité fonctionnelle élémentaire de l’activité céré-brale est le neurone (cf. figure 1.5). Cette cellule est composée d’un corps cellulaire,ou soma, où se trouve le noyau de la cellule, de dendrites et d’un axone. Les dendritesconstituent les entrées du neurone, ou voies afférentes, par lesquelles lui parvient l’in-formation en provenance des autres neurones. L’axone constitue la sortie de neurone,ou voie efférente, et permet au neurone de transmettre de l’information à un ou plu-sieurs autres neurones, pouvant être situés à longue distance. Ce sont principalementles axones des neurones qui constituent la substance blanche. Les neurones sont descellules dites excitables, car au repos ils présentent une différence de potentiel né-gative entre les milieux intra- et extra- cellulaires de −70 mV . Cette polarisationest maintenue par le transport actif des ions Na+ et K+ de part et d’autre de lamembrane cellulaire via des canaux ioniques spécifiques. Lorsque cet équilibre estrompu et que cette différence de potentiel dépasse un seuil d’environ −50 mV , unemodification temporaire du comportement des canaux ioniques va permettre la gé-

1. La somesthésie désigne la sensibilité liée au toucher.

Fusion de données multimodales anatomo-fonctionnelles en épilepsie 31

Fig. 1.5 – Représentation schématique d’un neurone (dendrites, corps cellulaire, axone)

nération d’un potentiel d’action (PA) et ainsi la transmission de l’influx nerveux. Enfait, le PA est une onde électrique correspondant à une dépolarisation suivie d’unerepolarisation de la membrane cellulaire qui se propage de proche en proche le longde l’axone. La transmission d’information d’un neurone à un autre se fait au niveaudes synapses, zones particulières situées sur les dendrites ou au bout de l’axone etoù les membranes des deux neurones connectés sont particulièrement proches (∼ 30nm). La transmission électrochimique de l’information se décompose en trois étapes :

1. Arrivée d’un PA au niveau de la membrane présynaptique.

2. Libération de neurotransmetteurs dans la fente synaptique. Ces neurotrans-metteurs vont aller se fixer sur des récepteurs qui leur sont spécifiques sur lamembrane postsynaptique.

3. La stimulation de ces récepteurs entraîne des modifications du comportementdes canaux ioniques, permettant de modifier localement la polarisation de lamembrane postsynaptique. S’il s’ensuit une dépolarisation de la membrane, onparle de Potentiel PostSynaptique Excitateur (PPSE). Par contre, dans le casd’une hyperpolarisation de la membrane, on parle de Potentiel PostSynaptiqueInhibiteur (PPSI). La sommation spatiale et temporelle des PPSE et des PPSIau niveau de toutes les dendrites va permettre la génération d’un PA, si lapolarisation moyenne dépasse −50mV pendant une durée suffisante.

Ces phénomènes sont à l’origine des signaux électromagnétiques qu’il est possibled’explorer par les techniques d’électrophysiologie.

– Phénomènes physiologiques nécessaires au fonctionnement du neurone : Pour pou-voir être activés, les neurones ont besoin d’énergie. En effet, on estime que l’activitédes canaux ioniques membranaires et la génération des activités électriques sont res-ponsables de 80 % des dépenses énergétiques cérébrales au repos. Or, le cerveau est leseul organe ne possédant pratiquement aucun système de stockage d’énergie. Au ni-veau cellulaire, l’énergie est obtenue lors de la dégradation des molécules d’AdénosineTriPhosphate (ATP). Ces molécules, stockées en quantité insuffisante dans la cellule,nécessitent d’être synthétisées. Les mécanismes de synthèse de l’ATP impliquent uneconsommation de glucose et d’oxygène : c’est le cycle de Krebs. Le glucose et l’oxy-

32 1.2 Techniques d’exploration du réseau épileptogène

Tab. 1.1 – Besoins cérébraux moyens en perfusion et métabolisme d’après [Catafau 01]Paramètre Besoins

Pourcentage du poids du corps entier 2%Pourcentage de la perfusion cardiaque globale 20%

Volume sanguin cérébral 120 mlDébit artériel 750 ml/min

Oxygène 50 ml/minGlucose 100 mg/min

Débit sanguin cérébral global 55 ml/100g/minDébit sanguin dans la substance grise 80 ml/100g/min

Débit sanguin dans la substance blanche 20 ml/100g/min

gène sont amenés par le sang au niveau des neurones après avoir passé la barrièrehémato-encéphalique. Le réseau vasculaire se divise progressivement jusqu’à formerun réseau dense de capillaires qui irriguent tous les éléments corticaux et les struc-tures internes. Ainsi, la consommation de glucose au niveau des neurones, de mêmeque la consommation d’oxygène sur le versant artériel ou veineux, sont autant depistes permettant d’explorer indirectement le fonctionnement des neurones. De plus,divers processus physiologiques de régulation permettent d’adapter le débit sanguinen fonction des besoins énergétiques des neurones. En effet, ce sont, entre autresmédiateurs, des métabolites sécrétés lors de l’activation des neurones qui entraînentune vasodilatation des capillaires et par là même une augmentation du débit sanguincérébral régional (DSCr). Ainsi, l’étude de la perfusion sanguine par mesure de débit(DSCr) ou de volume (VSCr) sanguin cérébral régional permet d’appréhender l’ac-tivité cérébrale. Ces dépendances font du cerveau l’organe de loin le plus vulnérableaux variations de DSCr (cf. Table 1.1).

1.2.2 Examens statiques

L’objectif des examens dits statiques est principalement la détection d’anomalies mor-phologiques pouvant être associées à l’épilepsie. C’est principalement grâce à ces techniquesqu’il est possible d’identifier une éventuelle ZL. L’enjeu de ces techniques est l’identificationd’une base structurelle permettant de guider la diagnostic de l’épilepsie mais également dedonner des pronostics quant à l’issue d’un traitement chirurgical. En effet, il a été mon-tré que les résultats de la chirurgie étaient significativement meilleurs lorsqu’une ZL étaitidentifiée [Devaux 01]. Les progrès récents des examens statiques permettent d’ailleursd’identifier une anomalie morphologique dans de nombreux cas d’épilepsies considéréespréalablement comme cryptogéniques 2.

1.2.2.1 La Tomodensitométrie ou Scanner X

– Principe physique et technique d’acquisition : La tomodensitométrie est une tech-nique d’imagerie utilisant la transmission de rayons X. La rotation, autour de la tête

2. Les épilepsies cryptogéniques sont des épilepsies pour lesquelles la cause de la maladie est cachée ouocculte

Fusion de données multimodales anatomo-fonctionnelles en épilepsie 33

du patient, d’un couple générateur/détecteur de rayons X permet l’acquisition suc-cessive de projections correspondant aux photons X atténués par la traversée d’unmême plan de détection axial. L’utilisation de techniques de reconstruction tomo-graphique, comme par exemple la rétroprojection filtrée, permet de reconstruire, àpartir des projections, les valeurs d’atténuation de ce plan de détection. Une acqui-sition volumique complète est réalisable soit de manière incrémentale en avançantla table du patient après l’acquisition de chaque coupe (scanner séquentiel), soit encombinant simultanément la rotation du couple émetteur/détecteur et la translationde la table (scanner spiralé).

– Type d’information explorée : Lorsqu’il traverse des tissus biologiques, un faisceaude rayons X est atténué en fonction des coefficients d’atténuation caractéristiquesdes tissus traversés. Après reconstruction, la tomodensitométrie fournit une carto-graphie des coefficients d’atténuation du volume exploré. Ainsi, les tissus denses trèsatténuants tels que l’os présenteront un signal intense alors que les tissus mous net-tement moins denses, donc moins atténuants, présenteront un signal plus faible. Latomodensitométrie possède une excellente résolution spatiale, de l’ordre de 0.5mm.

– Apport pour l’épilepsie : De moins en moins utilisée en raison des progrès de l’IRM,la tomodensitométrie est capable de mettre en évidence des lésions associées à uneépilepsie avec une sensibilité plutôt faible (15 à 35 %). Outre ses indications habi-tuelles en neurologie (par exemple accidents vasculaires cérébraux ischémiques ouhémorragiques, fractures crâniennes, tumeurs), elle peut s’avérer utile pour la dé-tection d’éventuelles calcifications intracrâniennes difficilement détectables en IRM.Finalement, le scanner X reste la seule technique d’imagerie morphologique acces-sible lorsque l’IRM est contre-indiquée ou difficile à réaliser, notamment en conditiond’urgence.

1.2.2.2 L’Imagerie par Résonance Magnétique(IRM) morphologique

Principe physique et technique d’acquisition : Certains noyaux atomiques dits po-larisés ont la propriété d’absorber sélectivement l’énergie d’une onde radio-fréquence (RF)lorsqu’ils sont placés dans un champ magnétique intense : c’est le phénomène de RésonanceMagnétique Nucléaire (RMN). La RMN du proton de l’hydrogène est à l’origine du signalmesuré en IRM (pour une description complète de l’IRM et des protocoles d’acquisitionvoir Doyon et al. [Doyon 94]).

– Resonance Magnétique Nucléaire et excitation radio-fréquence : Les protons, parti-cules élémentaires du noyau chargées positivement, ont la propriété de tourner na-turellement autour d’eux mêmes (mouvement de spin), générant ainsi un momentmagnétique aligné sur leur axe de rotation. Les atomes dits polarisés présentent unnombre de protons impair et donc un moment magnétique résultant non nul (e.g.hydrogène, carbone 13, phosphore 31). Placés dans un champ magnétique intense~B0 (de 0.5 à 4 Tesla), ces moments magnétiques s’orientent dans la direction de ~B0,soit dans le sens de celui-ci (parallèle) soit dans le sens contraire (antiparallèle), ettournent autour de l’axe de ~B0 (mouvement de précession) à une vitesse angulaireω0 = γ.B0. ω0 est définie comme la fréquence de Larmor et γ représente le rapportgyromagnétique qui est caractéristique du noyau étudié (γ = 42.6MHz/Tesla pour

34 1.2 Techniques d’exploration du réseau épileptogène

le noyau d’hydrogène). A l’équilibre, il apparaît une aimantation résultante non nulle~M dans le même sens que ~B0. L’excitation par une onde radio-fréquence (RF) consisteen l’application d’un champ magnétique ~B1 perpendiculaire à ~B0 et tournant autourde l’axe de celui-ci exactement à la vitesse ω0. Grâce à cette excitation, le phéno-mène de résonance permet la mise en phase des différents moments magnétiques quiprécessent désormais à la fois autour de ~B0 et de ~B1. L’aimantation résultante ~Mdécrit alors une spirale sur une calotte sphérique (cf. Figure 1.6) et une composantetransversale Mxy non-nulle de ~M apparaît dans le plan perpendiculaire à ~B0. Uneimpulsion RF à 90 correspondra alors à une excitation permettant le basculementcomplet de ~M dans ce plan transversal.

z

y

x

Mz

Mxy

M

Fig. 1.6 – Mouvement de la magné-tisation résultante ~M pendant l’exci-tation par une impulsion RF

M

z

y

x

Fig. 1.7 – Mouvement de la ma-gnétisation résultante ~M pendant laphase de relaxation

– Relaxation et acquisition du signal : Après cette excitation instantanée, l’aimanta-tion ~M entre dans une phase de relaxation plus lente afin de retrouver sa positiond’équilibre (cf. Figure 1.7). La restitution de l’énergie apportée par l’onde RF pro-voque une repousse de la composante longitudinale Mz de ~M le long de ~B0 suivantune exponentielle croissante avec une constante de temps T1 (entre 300 et 30000 ms).Causée principalement par le déphasage progressif des différentes magnétisations, ladécroissance de la composante transversale Mxy de ~M se fait plus rapidement suivantune exponentielle décroissante avec une constante de temps T2 (entre 30 et 200 ms).L’acquisition du signal se fait de ce plan transversal à l’aide de la même antenneayant permis l’excitation RF.

– Sélection des contrastes, du plan de coupe et reconstruction : L’application de gra-dients de champs magnétiques s’additionnant à ~B0, ajustables dans les trois direc-tions de l’espace permet de sélectionner précisément le volume ou le plan de coupeà exciter, puis à acquérir. Le choix des séquences d’acquisition permet, en ajustantimpulsions RF et gradients, de remettre en phase les magnétisations afin d’acquérirun signal dans le plan transversal sous forme d’un écho. On montre que le signalmesuré correspond directement à la transformée de Fourier de la densité de protonsρ modulée par une porteuse à la fréquence ω0. La reconstruction des images se fait

Fusion de données multimodales anatomo-fonctionnelles en épilepsie 35

donc par démodulation puis transformée de Fourier 2D inverse.

Type d’information explorée : Le proton de l’atome d’hydrogène étant à l’originedu signal mesuré, l’IRM est une technique d’imagerie idéale pour l’étude des tissus mous,notamment cérébraux, qui contiennent beaucoup d’eau et donc d’hydrogène. L’IRM pré-sente une excellente résolution en contraste et une résolution spatiale millimétrique. Parcontre, l’os contenant très peu d’eau n’est pratiquement pas visible en IRM, contraire-ment au scanner X. Le réglage des différentes séquences d’acquisition permet d’obtenir desimages pondérées suivant la densité de protons ρ ou suivant les paramètres T1 et T2 ca-ractéristiques des tissus. Caractérisant la repousse longitudinale de la magnétisation ~M , leparamètre T1 est lié à la capacité du milieu à restituer l’énergie transmise par l’onde RF, ilsera plus court dans un milieu où les molécules sont organisées comme les lipides, que dansun milieu où les molécules sont totalement libres de leurs déplacements, comme l’eau ou leliquide céphalo-rachidien (LCR). Le paramètre T2 est lié à la présence d’inhomogénéitéslocales du champ ~B0 causées par des éléments magnétiques naturels de l’environnement mo-léculaire. Ainsi, dans les liquides, l’agitation moléculaire annule par moyennage ces champsmagnétiques locaux et il en résulte un T2 long, alors que dans d’autres tissus (solides, li-pides), l’organisation moléculaire permet un maintien de ces champs locaux et il en résultedonc un T2 plus court. De par ces propriétés, les acquisitions pondérées en T1 et en T2présentent une inversion des contrastes entre la substance grise et la substance blanche(cf. Figures 1.8 et 1.9). En ajustant les échos de telles séquences et les instants auxquelsles magnétisations de chaque tissu se remettent en phase, il est possible aussi “d’éteindre”sélectivement le signal d’un tissu au moment de l’acquisition. Ainsi, les séquences FLAIR(FLuid Attenuated Inversion Recovery) permettent de supprimer les liquides au momentde l’acquisition, permettant une analyse différentielle par rapport aux données pondéréesen T2.

Apport pour l’épilepsie : Surtout lorsqu’un traitement chirurgical est pressenti, l’ex-ploration IRM doit être la plus complète possible. Elle consiste en général en une explora-tion détaillée de tout le volume cérébral, à partir d’acquisition pondérées en T1 et en T2,et en utilisant la meilleure résolution possible. Jackson et al. [Jackson 94] ont montré quesur une série de 330 cas, dont 244 épilepsies temporales, l’IRM réalisée dans des conditionsoptimales a permis de détecter des anomalies morphologiques dans 92% des cas, dont 57%de scléroses hippocampiques, 13.5% de tumeurs et 10.5% de dysplasies corticales.

La sclérose de l’hippocampe, notamment l’atrophie, est la pathologie la plus couranteassociée à l’épilepsie partielle pharmaco-résistante du lobe temporal. L’étude de l’ampleuret de la latéralité de l’atrophie évaluée en IRM par rapport à l’hémisphère dominant età l’hémisphère siège des anomalies électriques permet de garantir de très bons résultatsau traitement chirurgical [Duncan 97a]. L’exploration rigoureuse de l’hippocampe nécessitel’acquisition de coupes axiales, orientées suivant le grand axe du lobe temporal, et ainsi quel’acquisition de coupes coronales perpendiculaires aux précédentes (cf. Figures 1.8 et 1.9).Le diagnostic est posé en analysant la forme de l’hippocampe sur les images pondérées enT1, et en mettant en évidence un hypersignal sur les images pondérées en T2. Une meilleuresensibilité peut être obtenue par des analyses volumétriques quantitatives de l’hippocampeà partir des images en T1 [Jack 94], ou par la mesure quantitative du temps de relaxométrieT2 de l’hippocampe [Jackson 94].

36 1.2 Techniques d’exploration du réseau épileptogène

Outre la détection de tumeurs ayant donné naissance à l’épilepsie, l’IRM permet la dé-tection des malformations du développement cortical, notamment les dysplasies corticalesfocales qui consistent en une désorganisation locale de l’architecture du cortex [Taylor 71].L’étude précise des contrastes entre substance grise et substance blanche, la détectiond’épaississement cortical en T1 ou de lésions parenchymateuses hyperintenses en FLAIR(cf. Figure 1.10) ont permis de donner une origine à de nombreuses épilepsies considéréesauparavant comme cryptogéniques. La détection de ces malformations à l’aide de séquencesd’acquisition toujours plus performantes est un enjeu considérable, même si d’après Dun-can [Duncan 97a], l’IRM ne nous révèle pour l’instant que la partie émergée de l’icebergdes anomalies du développement cortical.

Fig. 1.8 – Coupe coronale du lobetemporal pondérée en T1 : la sub-stance grise est moins intense que lasubstance blanche, et il n’y a prati-quement aucun signal dans le LCR- élargissement de la corne ventricu-laire dans l’hémisphère gauche

Fig. 1.9 – Coupe coronale du lobetemporal pondérée en T2 : la sub-stance grise est plus intense que lasubstance blanche, c’est dans le LCRque le signal est le plus intense -hypersignal des structures hippocam-piques

1.2.2.3 La spectroscopie RMN

– Principe physique et technique d’acquisition : Le signal à l’origine de la spectroscopieRMN est l’excitation RMN des principaux noyaux polarisés, à savoir l’hydrogène 1,le phosphore 31 ou le carbone 13. Placés dans un champ magnétique intense ~B0,les moments magnétiques de ces noyaux précessent à la fréquence de Larmor ω0 quileur est spécifique. En fait, cette fréquence est légèrement modifiée par les électronsvoisins de ces noyaux qui créent un très faible champ magnétique local. Ces décalagesde fréquence de résonance, appelés déplacements chimiques, sont caractéristiques desgroupements chimiques de ces atomes. L’analyse du signal mesuré après l’explora-tion de cette gamme de fréquences permet d’obtenir des spectres caractéristiques decertaines molécules. Technique classique d’analyse chimique in vitro, la spectroscopieRMN devient accessible in vivo comme une technique d’imagerie permettant unequantification absolue de certains métabolites. Les molécules recherchées étant net-tement moins présentes que l’eau, le faible rapport signal/bruit et la faible sensibilité

Fusion de données multimodales anatomo-fonctionnelles en épilepsie 37

Fig. 1.10 – Dysplasie corticale focale caractérisée par un hypersignal sur une acquisitionIRM FLAIR

de la technique imposent des temps d’acquisition plutôt longs de par la nécessitéd’acquérir plusieurs fois le même signal. L’acquisition en mode simple voxel se faiten analysant les spectres RMN des molécules contenues dans un volume d’intérêtd’environ 2cm3 délimité manuellement sur une séquence anatomique de repérage.Des séquences plus complexes d’imagerie du déplacement chimique dans un plande coupe ont également été proposées, mais n’autorisent qu’une résolution spatialelimitée (de l’ordre du cm).

– Type d’information explorée : La spectroscopie RMN est une technique prometteused’exploration in vivo du métabolisme cérébral. C’est principalement la spectroscopiede l’hydrogène qui trouve aujourd’hui des applications en pathologie cérébrale. Ci-tons entre autres le N-acétyl-aspartate (NAA), considéré comme un marqueur de laviabilité neuronale, la Choline (Ch), indicateur du métabolisme membranaire, ou laCréatine (Cr) et la phosphocréatine (PCr), indicateurs de bioénergétique cellulaire.

– Apport pour l’épilepsie : De nombreuses études de quantification de ces métabo-lites au niveau du foyer épileptogène ont été réalisées, soit par comparaison inter-hémisphérique, soit par comparaison population saine / population pathologique.Les résultats les plus probants concernent la diminution des rapports NAA/Ch ouNAA/(Ch+Cr) dans l’hippocampe pour les épilepsies du lobe temporal, latéralisantle foyer épileptogène dans plus de 75 % des cas [Cendes 94]. Ces méthodes s’avèrentprometteuses en pharmacologie pour étudier l’effet de certains anti-épileptiques, no-tamment GABAergiques 3.

3. Le GABA est le principal neurotransmetteur inhibiteur du cerveau, sa transmission serait altéréedans l’épilepsie mais son rôle précis est toujours discuté.

38 1.2 Techniques d’exploration du réseau épileptogène

1.2.2.4 La Tomographie d’Emission de Positons (TEP):

– Principe physique et technique d’acquisition : En tant que technique d’imagerie demédecine nucléaire, la Tomographie d’Emission de Positons (TEP) est basée sur ladétection de rayons γ émis par une molécule radioactive injectée au patient. Lesradio-isotopes utilisés en TEP sont des émetteurs de positons β+, dont l’annihilationquasi-immédiate consécutive à la rencontre avec un électron libre, provoque l’émis-sion simultanée de deux photons γ de haute énergie (511 keV) se déplaçant en sensinverses sur la même trajectoire. Les principaux radio-isotopes utilisés (fluor 18F ,oxygène 15O, carbone 11C) sont des éléments organiques très répandus, facilementincorporables dans des molécules biologiques ou pharmacologiques que l’on nom-mera traceurs. En raison de la courte demi-vie de ces éléments (18F : 110 min., 15O :2 min., 11C : 20 min.), il est nécessaire de disposer d’un cyclotron à côté de l’imageurafin de produire le traceur juste avant l’acquisition. Cette contrainte fait de la TEPune technique encore difficilement accessible en pratique clinique sauf dans quelquesgrands centres spécialisés. Les deux photons γ émis simultanément sont détectésen coïncidence par une couronne de détecteurs (cf. Figure 1.11) et définissent ainsiune “ligne de coïncidence”. Chaque détecteur comprend un cristal scintillateur et unphotomultiplicateur permettant de convertir l’énergie du photon détecté en signalélectrique (voir §I.1.2.3.2). La détection d’un nombre suffisant de photons détectésen coïncidence permet la reconstruction tomographique de la distribution volumiquedu traceur injecté. Le déplacement moyen des positons avant l’annihilation est del’ordre de 2 mm, ce qui constitue en soi une limite à la résolution spatiale. Les ca-méras TEP actuelles permettent d’atteindre des résolutions spatiales de l’ordre de 5mm.

– Type d’information explorée : De nombreux aspects du métabolisme cérébral peuventêtre explorés en TEP. Citons surtout le 2-Déoxy-D-Glucose marqué au Fluor 18,ou FDG, comme marqueur du métabolisme du glucose. L’utilisation d’un cathé-ter artériel, permettant le suivi de la radioactivité circulante et de la glycémie, cequi, moyennant un modèle compartimental, permet une quantification absolue de laconsommation du glucose à partir de la distribution du traceur. Ce modèle de quanti-fication est valide si l’activité métabolique est stable. En épilepsie, ceci suppose doncque le patient soit dans un état inter-critique. Le glucose étant une source d’énergienécessaire au fonctionnement des neurones, son métabolisme est un paramètre im-portant permettant de mesurer indirectement l’activité neuronale. L’acquisition estréalisée entre 40 et 60 min. après l’injection du traceur, ce qui garantit que la majo-rité de la radioactivité est piégée dans les cellules et que les hypothèses du modèlede quantification sont vérifiées.La TEP est également une technique de choix pour l’étude in vivo de très nom-breux récepteurs de neurotransmetteurs 4. Citons notamment les récepteurs centrauxaux benzodiazépines (RCBZ) qui jouent une rôle régulateur dans la transmission duGABA (neurotransmetteur inhibiteur). La distribution de ces récepteurs est appré-hendée en TEP à l’aide du flumazénil (FMZ) marqué au 11C, antagoniste spécifiquedes récepteurs aux benzodiazépines. On peut de plus considérer que cartographier la

4. Ces récepteurs jouent un rôle fondamental dans la conduction de l’influx nerveux, en autorisant lagénération de PPSE ou PPSI.

Fusion de données multimodales anatomo-fonctionnelles en épilepsie 39

distribution des RCBZ est un bon indicateur de la densité neuronale. Néanmoins, ilreste discuté qu’une diminution du nombre de RCBZ soit due à une baisse du nombrede neurones ou à des modifications fonctionnelles [Ryvlin 98]. Dans ce cas également,toute quantification absolue nécessite des mesures répétées de la radioactivité du sangartériel et d’un modèle mathématique.

– Apport pour l’épilepsie : L’étude du métabolisme du glucose à partir du FDG est latechnique la plus référencée en épilepsie [Theodore 92, Mauguière 96, VanBogaert 00,Kang 01]. Le principal dysfonctionnement cérébral focal observé en épilepsie est unhypométabolisme loco-régional (cf. Figure 1.12). La sensibilité est de l’ordre de 70à 80 % et avoisine les 100 % pour les épilepsies temporales surtout lorsqu’une sclé-rose de l’hippocampe a été détectée en IRM [Mauguière 96]. L’intérêt de la TEPFDG dans le bilan préchirurgical des épilepsies a été renforcé par la mise en évidenced’une corrélation positive entre la présence d’un hypométabolisme et de son degré etla qualité du résultat postopératoire [Theodore 92]. L’explication de cet hypométa-bolisme focal, détectable même lorsqu’aucune anomalie n’est décelable à l’IRM, resteencore discutée. Les hypothèses actuelles concernent une éventuelle perte neuronaleou une déafférentation 5. Néanmoins, les progrès récents de l’IRM pour la détectiond’une ZL amènent à reconsidérer le rôle du TEP FDG au cours de cette investigationpréchirurgicale. Notamment, les hypométabolismes observés en TEP sont générale-ment plus vastes que la lésion identifiée à l’IRM et que la zone épileptogène définieélectrophysiologiquement.La capacité de la TEP à étudier in vivo la fixation de traceurs sur des récepteursaux neurotransmetteurs présente un intérêt double, d’une part mettre en évidencedes anomalies plus focalisées que celles mises en lumière dans les études du méta-bolisme, et d’autre part, fournir des renseignements sur des phénomènes impliquésdans l’épileptogénèse. De nombreuses études au 11C-FMZ ont montré une diminu-tion de la densité des récepteurs centraux aux benzodiazépines au niveau du foyerépileptogène [Savic 88, Ryvlin 98], beaucoup plus limitée spatialement que l’hypo-métabolisme inter-critique. Une des principales explications de ce phénomène seraitune perte neuronale. La TEP au FMZ permettrait alors, au même titre que l’IRM, ladétection d’une ZL structurelle associée à l’épilepsie. Bien que la signification exactede cette diminution de densité des récepteurs centraux aux benzodiazépines resteencore discutée, des études comparatives avec l’IRM doivent être menées afin de biencaractériser la place de chaque technique dans l’identification d’une ZL.

1.2.3 Examens dynamiques de l’état inter-critique

L’étude d’anomalies fonctionnelles inter-critiques, permettant l’étude de la zone irri-tative (ZI), fait naturellement appel à des techniques autorisant une étude dynamique deces phénomènes. Nous allons donc présenter ici des méthodes d’exploration privilégiantde meilleures résolutions temporelles, dont les techniques d’électrophysiologie, capablesd’étudier le fonctionnement du cerveau en temps réel. Ce gain en résolution temporelle

5. Perte des connexions afférentes des neurones, i.e. au niveau des dendrites. Il est montré que lorsqueles connexions neuronales ne sont plus entretenues, elles ont tendance à disparaître.

40 1.2 Techniques d’exploration du réseau épileptogène

Fig. 1.11 – Principe de la détec-tion en coïncidence lors de l’acqui-sition de données de TEP (d’après[Bruyant 02b])

Fig. 1.12 – Hypométabolisme glu-cidique temporal observé en TEP-FDG

nécessaire pour appréhender la dynamique des phénomènes inter-critiques, mais aussi cri-tiques, se fait souvent au prix d’une résolution spatiale moindre. De ce fait, il en résulteune grande complémentarité entre ces techniques d’exploration fonctionnelle, et les exa-mens morphologiques, surtout l’IRM.

1.2.3.1 Approches électrophysiologiques

Enregistrements surfaciques non-invasifs : ElectroEncéphaloGraphie (EEG) etMagnétoEncéphalographie (MEG)

– Principe physique et technique d’acquisition : L’activité électrique ou magnétiquegénérée par l’activation d’une population suffisante de neurones permet de générerdes signaux qui se propagent et qu’il est possible de mesurer directement sur le scalp.L’ElectroEncéphaloGraphie (EEG) permet d’étudier les champs électriques ainsi gé-nérés, par la mesure de différences de potentiels grâce à des électrodes placées surle scalp. La MagnétoEncéphaloGraphie (MEG) quant à elle permet de mesurer desvariations infimes de champ magnétique à partir de capteurs supraconducteurs placésà proximité du scalp. L’EEG est de loin la technique d’exploration la moins contrai-gnante et la moins onéreuse. Pour rendre les mesures reproductibles et comparablesd’un centre à l’autre, le positionnement des électrodes sur le scalp a été standardisé auniveau international : le système “10-20”, qui comprend 19 électrodes. Les mesures depotentiel se font, soit par rapport à une électrode de référence (montage référentiel),soit en mesurant les différences de potentiels entre deux électrodes adjacentes dansune direction longitudinale ou transverse (montage bipolaire). La numérisation des si-gnaux permet de choisir a posteriori différents montages lors de l’analyse des signaux,et facilite l’interprétation. La fréquence d’échantillonnage temporel est de l’ordre de1kHz, ce qui correspond à une résolution temporelle de l’ordre de la milliseconde,et donc au temps de fonctionnement des activations neuronales. L’échantillonnage

Fusion de données multimodales anatomo-fonctionnelles en épilepsie 41

spatial peut être amélioré par l’utilisation de systèmes d’enregistrement comprenant32, 64, 128 voire même 256 électrodes. Pour plus de commodité, ces électrodes sontfixées sur un casque ajustable au crâne de chaque sujet. La MEG est beaucoup pluslourde à mettre en œuvre, principalement du fait des infimes variations du champmagnétique que l’on cherche à mesurer (de l’ordre du femtoTesla = 10−15Tesla 6). Leprincipe de base étant de mesurer un courant électrique induit dans une bobine lorsd’une variation du champ magnétique, c’est la mise au point de capteurs supracon-ducteurs, les SQUIDs (Superconducting QUantum Interference Device) qui a permisd’atteindre une telle précision. Les SQUIDs fonctionnent à très basse température(de l’ordre de -269C) et doivent pour cela être plongés dans de l’hélium liquide, cequi induit un coût de fonctionnement non négligeable de la MEG. De plus, pour nepas être perturbées par le bruit magnétique ambiant, terrestre et urbain, les mesuresdoivent être réalisées dans une chambre d’isolation magnétique (cage de Faraday enµ-métal). Les fréquences d’échantillonnage temporel des signaux sont du même ordrede grandeur qu’en EEG. Nous disposons à Rennes d’un système comprenant 37 cap-teurs répartis sur un disque de 10 cm de diamètre (cf. Figure 1.13). Les systèmes plusrécents sont constitués d’un casque couvrant toute la surface de la tête et comprenantde 100 à 300 capteurs, permettant éventuellement une acquisition EEG simultanée.La principale limitation des techniques EEG et MEG reste leur mauvaise résolu-tion spatiale, vu que les signaux sont enregistrés à distance de la source d’activité.L’utilisation de méthodes de localisation de sources permet d’améliorer celle-ci, maisnécessite la résolution d’un problème inverse mal posé [Schwartz 98, Mattout 02].

Fig. 1.13 – Système MEG à 37 capteurs (Magnes, 4D Neuroimaging) installé au CHU deRennes

6. Ces champs magnétiques sont 1011 fois plus petits que le champ magnétique terrestre, de l’ordre de10−4Tesla.

42 1.2 Techniques d’exploration du réseau épileptogène

– Type d’information explorée : Lors de l’arrivée d’un potentiel d’action (PA) au ni-veau d’une synapse, des courants transmembranaires d’ions Na+ sont à l’origine deschangements de polarisation de la membrane postsynaptique. Afin de rééquilibrerles charges à l’intérieur de la cellule, il apparaît alors un courant intra-cellulaire quiest principalement à l’origine des variations de champs magnétiques mesurables enMEG. Parallèlement à ces courants intra-cellulaires, les charges se redistribuent àl’extérieur de la membrane et génèrent des courants extracellulaires se propageantdans le milieu. Ces courants sont à l’origine des différences de potentiel mesurablessur le scalp en EEG (cf. Figure 1.14). Au niveau de la synapse, la membrane post-synaptique se comporte donc comme un puit de courant, et le reste de la membranecomme une source de courant, de sorte qu’à distance un neurone activé peut êtreassimilé à un dipôle de courant. Pour que ces signaux soient mesurables en sur-face, il est nécessaire qu’un grand nombre de neurones, généralement entre 107 et109 [Nunez 81], se synchronisent, s’activent simultanément et soient organisés spa-tialement de manière à générer un dipôle de courant équivalent. Ainsi, les signauxsurfaciques sont principalement causés par les PPSE et PPSI des cellules dites pyra-midales, dont les nombreuses dendrites sont disposées perpendiculairement au rubancortical et parallèles entre elles (cf Figure 1.15). La modélisation dipôlaire pose quel’intensité des champs électriques et magnétiques en tout point de l’espace diminueproportionnellement au carré de la distance au dipôle. Ainsi, ce sont principalementles activités corticales qui sont visibles en surface, alors que l’activité des structuresinternes est rarement accessible. Les signaux EEG et MEG ne reflètent donc qu’unepartie de l’activité cérébrale et sont de plus complémentaires. En effet, alors que lessources radiales ne sont pas visibles en MEG, les signaux MEG sont nettement moinsperturbés par l’inhomogénéité des tissus (et notamment la traversée de l’os) que lessignaux EEG 7.

Fig. 1.14 – Modélisation des cou-rants lors d’une activation synap-tique (d’après [Schwartz 98])

Fig. 1.15 – Organisation des cel-lules pyramidales du cortex par rap-port aux différents milieux (d’après[Schwartz 98])

7. La permitivité électrique de l’os est largement supérieure à celles des autres tissus cérébraux, alorsque tous ces tissus possèdent des perméabilités magnétiques du même ordre de grandeur.

Fusion de données multimodales anatomo-fonctionnelles en épilepsie 43

– Apport pour l’épilepsie : En clinique, il est possible de faciliter l’apparition de signauxcaractéristiques de l’épilepsie, voire de crises par une hyperpnée, des ouvertures-fermetures oculaires, des stimulations visuelles intermittentes ou encore par un se-vrage du traitement médicamenteux. La détection d’Événements Paroxystiques Inter-Critiques (EPIC) en EEG est un élément diagnostique fondamental permettant de ca-ractériser l’épilepsie. Combinée à un examen clinique, c’est d’abord l’étude des EPICet des crises en EEG qui permet de classifier les épilepsies [Thomas 94] et d’identi-fier celles susceptibles d’être traitées par la chirurgie. La Ligue Internationale contrel’Epilepsie a décrit ces EPIC par un certain nombre de figures épileptiques caractéris-tiques : la pointe, la pointe-onde, la pointe lente, la polypointe et la polypointe-onde.Leur description morphologique en terme de fréquence, de durée et d’amplitude a étéprécisément définie en EEG. Ces EPIC sont des indicateurs essentiels d’anomalies defonctionnement de la transmission neuronale en période inter-critique, et participentà la caractérisation de la ZI. Ainsi, la pointe est principalement liée à une activitésynaptique sous-jacente de type décharge de potentiel excitateur, alors que l’ondelente correspond à la traduction d’une somme de potentiels inhibiteurs. En raisonde la complémentarité des enregistrements MEG et EEG, des pointes peuvent êtrevisibles en MEG et pas en EEG, et inversement.

Enregistrements in situ invasifs : Electro-CorticoGraphie (ECoG) et Stéréo-ElectroEncéphaloGraphie (SEEG)

– Principe physique et technique d’acquisition : Afin de remédier à la faible résolutionspatiale des signaux surfaciques, il est possible de mesurer l’activité cérébrale insitu dans certains contextes pathologiques, dont l’investigation préchirurgicale desépilepsies. Ces méthodes consistent soit à mesurer directement l’activité corticale àl’aide de grilles d’électrodes posées sur la surface du cortex (ElectroCorticoGraphie,ECoG), soit à implanter en profondeur des électrodes semi-flexibles après un repéragestéréotaxique 8 (Stéréo-ElectroEncéphaloGraphie, SEEG). De ce fait, ces techniquesd’exploration sont relativement invasives ; elles nécessitent une anesthésie et un gestechirurgical d’implantation non totalement dénués de risques. Mise au point par Ban-caud et Talairach [Bancaud 65], seule la SEEG permet réellement l’exploration destructures internes (par exemple, amygdale, hippocampe), dont l’exploration à partird’enregistrements surfaciques ou corticaux est souvent délicate voire impossible. Lesélectrodes utilisées ont un diamètre de 0.8mm et comportent 5 à 18 plots d’enre-gistrement de 2mm de long séparés par des parties isolantes de 1.5 mm (cf. figure1.16). Généralement, une angiographie stéréoscopique aux rayons X est réalisée avantl’implantation des électrodes afin d’éviter de léser tout vaisseau sanguin pendant l’im-plantation.

– Type d’information explorée : Ces méthodes permettent ainsi un enregistrement insitu de l’activité cérébrale. De même qu’en MEG et EEG, l’ECoG et la SEEG béné-

8. Le repérage stéréotaxique consiste en l’utilisation d’un cadre vissé au crâne du patient, par exemplele cadre de Talairach, pour guider l’implantation des électrodes. Ce cadre permet en outre de définir unréférentiel moyen largement utilisé en neurochirurgie et donc de se repérer dans l’atlas de Talairach etTournoux [Talairach 88]. D’un point de vue anatomique, ce référentiel est défini par l’identification duplan inter-hémisphérique, des commissures antérieure (CA) et postérieure (CP) et de la boîte englobantedu cerveau.

44 1.2 Techniques d’exploration du réseau épileptogène

ficient également d’une excellente résolution temporelle, du même ordre de grandeurque la plupart des phénomènes électrophysiologiques (i.e. la milliseconde). En SEEG,une localisation spatiale très précise des générateurs d’activité cérébrale est possiblepar la détection d’une inversion de polarité franche du signal entre deux plots consé-cutifs d’une même électrode. Le générateur sera alors localisé entre ces deux plots.De la même manière, il est possible de localiser un générateur entre deux électrodesà condition qu’elles soient suffisamment proches l’une de l’autre. En effet, contraire-ment aux autres capteurs, un plot de SEEG n’est sensible qu’aux générateurs présentsdans son voisinage immédiat (i.e. quelques millimètres). La principale limitation de laSEEG est son mauvais échantillonnage spatial. En effet, il n’est pas concevable d’ex-plorer ainsi toute l’anatomie cérébrale. Les sites d’implantation à explorer doiventêtre choisis avec soin en fonction d’hypothèses localisatrices issues du bilan de phase1 (cf. Figure 1.2) réalisé à partir d’examens non invasifs statiques ou dynamiques.

– Apport pour l’épilepsie : Le rôle de la SEEG dans la caractérisation de la ZI estfondamentale, vu que c’est à partir de la SEEG qu’a été définie la notion même deZI. L’étude de l’état inter-critique d’un patient en SEEG consiste donc essentiellementen la détection et la localisation d’EPIC, notamment les pointes inter-critiques (cf.figure 1.17), ou encore l’éventuel décours spatio-temporel de ces EPIC. Pour cela,après l’implantation SEEG, le patient est hospitalisé pendant une dizaine de joursafin d’acquérir des enregistrements inter-critiques et critiques sous contrôle vidéo :c’est la phase 2 (cf. Figure 1.2).

Fig. 1.16 – Position de deux électrodes dans le lobe temporal permettant l’enregistrementin situ de l’activité électrique de l’amygdale (A’) et de l’hippocampe (B’)

1.2.3.2 Mesures de perfusion en médecine nucléaire : TEP et TEMP inter-critiques

Tomographie d’Emission de Positons inter-critique L’utilisation de l’oxygène 15Ocomme émetteur de positons en TEP permet de quantifier le débit sanguin cérébral régio-

Fusion de données multimodales anatomo-fonctionnelles en épilepsie 45

Fig. 1.17 – Pointes inter-critiques suivies d’une crise (décharges rapides) au niveau desplots p1-p2 et p2-p3 de l’électrode B (cf. position de ces électrodes sur la figure 1.16)

nal (DSCr), soit par injection intraveineuse d’eau marquée H2 − [15O] soit par inhalationcontinue d’15O. Les techniques d’acquisition et de reconstruction sont identiques à cellesdes examens statiques (voir §I.1.2.2.4). La résolution spatiale de ces acquisitions est del’ordre de 8 mm, alors qu’elle peut atteindre 5 mm en imagerie statique au TEP-FDG.Vue la courte demi-vie de 15O (2 minutes), l’acquisition de tout le volume cérébral prendenviron 90 secondes après l’injection du traceur. Il s’agit donc bien d’un examen dynamiquepermettant une quantification absolue du DSCr, par opposition au TEP-FDG qui nécessitel’établissement d’un état stable pendant 40 minutes après l’injection pour pouvoir explorerle métabolisme du glucose. Le choix des temps d’acquisition résulte classiquement d’uncompromis entre résolution temporelle et statistique de comptage. Pour améliorer la sta-tistique de comptage, il est également possible de réaliser plusieurs acquisitions successivestout en respectant une irradiation raisonnable du patient.

Principalement utilisée pour les études de neuroactivation (voir §I.1.2.5.2), la TEP àl’eau marquée a également été utilisée pour étudier la perfusion cérébrale de l’état inter-critique en épilepsie. Classiquement, un hypodébit est observé au même niveau que l’hypo-métabolisme détecté en TEP-FDG, mais souvent moins focal et moins fiable [Theodore 94].Les raisons de la sensibilité moyenne de ces examens sont certainement les mêmes que cellesévoquées à propos de la TEMP inter-critique dans le paragraphe suivant.

Tomographie d’Emission MonoPhotonique (TEMP) inter-critique L’étude de laperfusion cérébrale en Tomographie d’Emission MonoPhotonique (TEMP) dans le contexte

46 1.2 Techniques d’exploration du réseau épileptogène

Fig. 1.18 – Imageur TEMP à deuxtêtes utilisé au service de médecinenucléaire de Rennes (Caméra DST-XL de General Electric Medical Sys-tems)

Fig. 1.19 – Schéma des principaux élé-ments constituant une γ caméra (d’après[Bruyant 02b])

de l’épilepsie constitue un aspect central de ce travail de thèse. C’est pourquoi le principed’acquisition des données TEMP et son rôle dans le planning préchirurgical des épilepsiesseront détaillés ici. Les méthodes de reconstruction, les phénomènes responsables de ladégradation des signaux et les principales méthodes de correction, seront présentés au§II.4.1 avant l’exposé de nos travaux sur la création d’un modèle théorique de perfusion àpartir de mesures sur des données TEMP réelles.

– Principe physique et technique d’acquisition :De même qu’en TEP, le principe de la TEMP est de suivre l’évolution dans le corpshumain d’un radio-élément, qui est dans ce cas un émetteur naturel de simples pho-tons γ. Le radio-élément est en général fixé sur une molécule (appelée radio-traceur)intervenant dans un processus métabolique caractéristique de la fonction à explorer.Seule l’étude de la perfusion cérébrale en TEMP sera traitée ici. Les radio-élémentsutilisés en TEMP (cf. Table 1.2) ont une demi-vie longue, comparée à celle des radio-éléments utilisés en TEP, et ne nécessitent pas d’être produits sur site. Par contre, onne les compte pas parmi les éléments standards du vivant : ils doivent donc marquerdes molécules spécifiques dont on va suivre le métabolisme. Bien qu’elle possède unemoins bonne résolution spatiale que la TEP en raison de la détection de photonssimples (résolution spatiale de l’ordre du cm), la TEMP est une technique intéres-sante et nettement moins onéreuse que la TEP. De ce fait, elle est plus facilementdisponible sur un grand nombre de sites. La TEMP constitue ainsi une techniqued’exploration de la perfusion cérébrale largement utilisée dans la pratique cliniquequotidienne et particulièrement en épilepsie [Catafau 01].La détection de photons γ émis par le corps dans une direction privilégiée est réaliséegrâce à une gamma caméra, appareil inventé par Hal Anger en 1958. Un tel détecteurest capable de fournir une image dite de projection de la distribution tridimension-

Fusion de données multimodales anatomo-fonctionnelles en épilepsie 47

nelle du radio-traceur suivant cette direction. L’acquisition d’un nombre suffisant deprojections par rotations successives de la caméra autour du patient permet de ré-soudre les problèmes de superposition des structures dans les images de projectionet de reconstruire la distribution tridimensionnelle du radio-traceur : on parle de re-construction tomographique. Les systèmes actuels sont pour la plupart équipés de 2voire 3 γ cameras (cf. Figure 1.18). Chaque détecteur est principalement constituéde 3 composantes [Patterson 97, ElFakhri 98] : le collimateur, le cristal scintillant etles photomultiplicateurs (PM) (cf. Figure 1.19) :

1. Le collimateur : Alors que l’émission des photons γ du radiotraceur est isotro-pique, le collimateur va permettre de ne sélectionner que les photons incidentsperpendiculaires au plan de la caméra, i.e. au plan de projection. Le principeest d’empêcher les autres photons d’atteindre la caméra en les arrêtant grâceà un matériau possédant un numéro atomique élevé qu’ils ne traversent pas,généralement du Plomb. Un collimateur est donc constitué d’un assemblage decanaux séparés de septa en Plomb. Les collimateurs principalement utilisés enimagerie cérébrale possèdent, soit des canaux parallèles, soit des canaux en éven-tail divergents (Fan Beam). Les collimateurs Fan Beam permettent un gain ensensibilité de détection et sont particulièrement adaptés pour l’étude des grosorganes comme le cerveau [DeBreuille 98], mais nécessitent une correction de lagéométrie d’acquisition (“rebinnage”) avant la reconstruction tomographique. Enpratique clinique, on utilise généralement des collimateurs parallèles ultra-hauterésolution ou des collimateurs Fan Beam ultra-haute résolution.

2. Le cristal scintillant : Le cristal scintillant, constitué de iodure de sodium ac-tivé au thallium (NaI(Tl)), permet de convertir l’énergie des photons γ incidentsayant passé le collimateur en énergie lumineuse. Les principales interactions desphotons γ dans le cristal sont du type effet photoélectrique et diffusion Comp-ton (voir II.4.1.1.1). Ces transferts d’énergie permettent l’excitation des atomesde thallium avoisinant, qui, à leur tour excités, émettent des photons visiblesdans le proche UV : on parle de flashs lumineux. Seule une très faible partiede l’énergie des photons γ est convertie en énergie lumineuse (∼ 3%). L’arrivéed’un photon en un point du cristal va générer une tache lumineuse, définissantainsi la résolution intrinsèque du cristal.

3. Les photomultiplicateurs et l’électronique associée : Ces photons lu-mineux suivent ensuite un guide de lumière avant d’atteindre les photomulti-plicateurs qui permettront de transformer cette énergie lumineuse en courantélectrique. Ainsi lorsqu’un photon lumineux frappe la photocathode d’un tubephotomultiplicateur, il en arrache quelques électrons qui sont ensuite accéléréspar un champ électrique avant d’aller frapper une dynode. De plus en plus d’élec-trons sont ainsi arrachés et accélérés de dynode en dynode, si bien qu’on obtientun facteur d’amplification du courant de l’ordre de 106 en sortie du photomul-tiplicateur. L’électronique associée aux différents photomultiplicateurs réaliseensuite une sommation pondérée des différents courants lui permettant de loca-liser spatialement le photon incident et de quantifier son énergie. Le choix de lafenêtre spectrométrique d’acquisition 9 permet alors soit d’éliminer des photons

9. Intervalle d’énergie des photons acceptés pour constituer l’image.

48 1.2 Techniques d’exploration du réseau épileptogène

qui ont subi différentes interactions avec la matière avant d’atteindre le détec-teur (élimination des photons diffusés), soit d’autoriser l’acquisition simultanéedes données dans différentes fenêtres spectrométriques (par exemple, acquisitionsimultanée à partir de deux radio-éléments 99mTc et 123I).

La résolution spatiale des données TEMP dépend non seulement des caractéristiquesde tout ce système de détection (collimateur + cristal + photomultiplicateurs), maisaussi de la méthode de reconstruction tomographique utilisée et surtout du filtrage.Une mesure précise de la résolution spatiale des données TEMP utilisées pour créer lemodèle de perfusion présenté au chapitre II.4, a d’ailleurs été réalisée par l’acquisitionde sources linéiques (voir II.4.1.2.4). La qualité des images reconstruites en TEMPrésulte classiquement d’un compromis entre sensibilité de détection et donc niveaudu rapport signal / bruit et résolution spatiale. Différents paramètres d’acquisitionpermettent d’ajuster ce compromis : la dose de traceur injectée, le type de collima-teur, la taille du pixel (échantillonnage spatial), le temps d’acquisition, le nombre deprojections, l’algorithme de reconstruction et le filtrage. En moyenne, les systèmesactuels permettent d’obtenir des résolutions spatiales des données reconstruites entre10 et 15mm.

– Type d’information explorée :L’information physiologique que l’on cherche à mesurer en TEMP est la perfusioncérébrale et notamment le DSCr. Pour cela, différents radio-traceurs sont utilisables[Patterson 97, Steinling 99, Catafau 01], dont nous présentons ici les propriétés. Untraceur idéal de perfusion doit présenter les propriétés suivantes : une extraction maxi-male (i.e. passage de la BHE) lors du premier passage après injection, une captationcellulaire dépendante du flux sanguin, et l’absence de redistribution du traceur dansla circulation sanguine. Dans ces conditions, la concentration de traceur dans lestissus sera proportionnelle au DSCr moyen pendant cette période de captation cel-lulaire. Pour pouvoir traverser la BHE par diffusion passive, une telle molécule doitêtre de faible poids moléculaire, neutre et surtout lipophile 10. Lors de la captationcellulaire, le traceur à caractère lipophile devient hydrophile et se retrouve piégé dansles cellules. Une fois établi, cet état reste stable pendant quelques heures, autorisantalors l’acquisition des données. La TEMP réalise ainsi un cliché figé, ou “shoot”, desvariations de DSCr au cours de cette captation cellulaire. Cette caractéristique faitbien de la TEMP une imagerie dynamique, dont la résolution temporelle dépend dela cinétique du traceur. La TEMP est de ce fait une des seules techniques de neu-roimagerie fonctionnelle où l’injection du radio-traceur peut être réalisée de façonanticipée par rapport à l’exploration dans l’imageur, caractéristique fondamentalepour l’exploration de l’état critique en épilepsie. Les principaux traceurs utilisés enTEMP pour mesurer le DSCr sont les suivants (cf. Table 1.2):

– Le Xenon 133 (133Xe) : Après inhalation de ce gaz, le 133Xe est passivementdiffusable à travers la BHE, et le suivi de sa cinétique de captation et de son

10. Le caractère lipophile d’une molécule désigne son affinité pour les milieux contenant des lipides,comme notamment les membranes cellulaires. Par opposition, on désignera par hydrophile une substanceprésentant plus d’affinité pour les milieux riches en eau, comme notamment les espaces intra- et inter-cellulaires.

Fusi

onde

don

née

sm

ult

imodal

esan

atom

o-fo

nct

ionnel

les

enép

ilep

sie

49

Tab. 1.2 – Propriétés des principaux traceurs de perfusion utilisés en TEMP (pi : post-injection)Radio-élément Demi-vie Emission γ Traceur Mesure de DSCr Avantages Inconvénients

133Xe 5.3 jours 81 keV / absolue Clairance Rapide Équipement dédiéAcqu. dyn. (5 min) Mauvaise rés. spatiale

Emission β+

123I 13 h 159 keV IAMP relative Équilibre : 20 min pi Cher et peu disponibleStabilité : 1h pi Recirculation

Protection de la thyroïde99mTc 6.02 h 140 keV HMPAO relative Équilibre : 2 min pi Instable in vitro

Stabilité : 4h pi Rétrodiffusion initialeNe mesure que du flux

99mTc 6.02 h 140 keV ECD relative Équilibre : 2 min pi Instable in vitroStabilité : 2h pi Rétrodiffusion initiale

Meilleur contraste Comportement métabolique

50 1.2 Techniques d’exploration du réseau épileptogène

“washout” permet une quantification absolue du DSCr en ml/min/100 g detissu. C’est le seul traceur permettant une quantification absolue en TEMP, etcette technique est de ce fait considérée comme un gold standard de la mesuredu DSCr. Contrairement aux autres traceurs présentés ci-dessous, le 133Xe nereste pas piégé dans les cellules et sa clairance courte impose des acquisitionsdynamiques rapides, de l’ordre de 5 min pendant l’inhalation du gaz. Ainsi,de telles explorations ne sont réalisables que sur un imageur dédié, présentantun grande sensibilité de détection pour palier ces contraintes dynamiques. Dece fait, cette méthode ne peut fournir qu’une faible résolution spatiale. De telsimageurs ne sont accessibles que dans certains centres spécialisés. Finalement,le 133Xe est un émetteur γ à 81keV mais aussi un émetteur de rayonnementsβ+, conduisant à une irradiation plus importante.

– L’Iode 123 (123I) : Le 123I-N-Isopropyl-p-Iodoamphétamine (123I-IAMP) fran-chit la BHE avec une extraction au premier passage de 90 à 100 % et une réten-tion cérébrale de 6 à 9 %. Après captation cellulaire, un plateau d’équilibre del’activité est atteint entre 15 et 20 minutes après l’injection, puis l’activité resteconstante pendant une heure environ. Mais il existe une redistribution dans lacirculation au cours du temps. De plus, le produit est cher, difficilement dispo-nible et nécessite quelques précautions particulières liées à l’utilisation de l’123I(protection de la thyroïde notamment).

– Le Technetium 99m (99mTc) : Les traceurs utilisant le 99mTc sont de loinles plus utilisés en clinique, et se rapprochent le plus des propriétés du traceuridéal.Le 99mTc-L-Héxaméthyl-Propylène-Amine-Oxyme (99mTc-HMPAO) est extraità 80 % lors du premier passage et présente un taux de fixation cérébrale d’en-viron 5%. La stabilité in vivo intra-cellulaire est obtenue très rapidement entre1 et 2 minutes après injection. Ainsi la TEMP réalise une “photographie” de laperfusion cérébrale qui correspond à une intégration des variations de DSCr quiont eu lieu pendant une période de 15 sec à 1 min après l’injection du traceur[Patterson 97]. Par contre, le marquage de l’HMPAO au 99mTc conduit à unemolécule instable in vitro, qui ne peut être conservée plus de 30 min. Il est doncnécessaire de faire ce marquage juste avant l’injection.Le 99mTc-Ethyl-Cystéinate-Dimer (99mTc-ECD) présente une extraction plusmodérée (57 %) avec une rétention cérébrale de l’ordre de 6 % de l’activité in-jectée. Dans ce cas aussi, la rétention du marqueur se fait par transformation ducomplexe lipophile en complexe hydrophile mais cette fois via une action enzy-matique. Comme pour l’HMPAO, la stabilité intra-cellulaire est obtenue environ2 min après l’injection. L’avantage principal de l’ECD est qu’il est nettementplus stable que l’HMPAO après son marquage au 99mTc, et peut être préparéplusieurs heures avant l’injection. Le mode de rétention de l’ECD faisant appelà des procédés métaboliques (cf. action enzymatique permettant la conversionlipophile ->hydrophile), il peut ne pas détecter des modifications rapides deflux, par contre il fournit des données mieux contrastées que l’HMPAO. Mêmesi des patterns de perfusion différents en HMPAO et ECD ont été observés chezle sujet sain [Koyama 97], leurs propriétés similaires font qu’en pratique cliniquele choix de l’un ou l’autre dépend essentiellement de la disponibilité du produit

Fusion de données multimodales anatomo-fonctionnelles en épilepsie 51

au moment de l’injection. L’état du patient et de son environnement au mo-ment de l’injection sont aussi à prendre en compte au moment de l’analyse desdonnées [Catafau 01]. Par exemple, il sera utile de savoir si le patient avait ounon les yeux ouverts au moment de l’injection avant d’interpréter une prise decontraste au niveau occipital.

– Apport pour l’épilepsie : Les propriétés dynamiques de la TEMP en font une tech-nique de choix pour l’étude du DSCr en épilepsie [Duncan 97b, Devous 98, Biraben 99].Nous avons déjà insisté sur l’importance des examens dynamiques pour l’étude duréseau épileptogène. Ainsi, au sein du service d’épileptologie de Rennes, tous les pa-tients admis en phase 1 bénéficient d’un examen TEMP en période inter-critique,et si possible d’un examen TEMP en période critique. La définition de la périodeinter-critique, ou inter-ictale, n’est pas évidente en pratique, car il existe des crisesqui ne sont pas détectées par le patient (amnésie, par exemple) ou par son entourage.De plus, certaines anomalies postcritiques du fonctionnement cérébral peuvent per-sister jusqu’à 24 h après la crise. Généralement, on a recours à l’EEG pour vérifierqu’il s’agit bien d’un état inter-critique, même si la SEEG a montré que certainescrises impliquant les structures temporales internes pouvaient n’avoir aucune traduc-tion sur l’EEG de surface. Ainsi, en pratique, la plupart des auteurs définissent l’étatinter-ictal stable comme atteint après une période d’au moins 24h sans crise décelablecliniquement.De manière analogue à l’hypométabolisme généralement observé en FDG-TEP, l’as-pect le plus fréquemment observé en TEMP inter-ictale est une hypoperfusion (cf.Figure 1.20). Cependant, à elle seule, la TEMP inter-ictale souffre d’une faible sen-sibilité, elle est plus communément utilisée pour définir un niveau de base lors del’analyse des données critiques. La méta-analyse de Devous et al. [Devous 98] montreque pour l’épilepsie du lobe temporal, la TEMP inter-ictale localise le lobe tempo-ral pathologique dans 44 % des cas, l’hémisphère pathologique dans 58 % des cas(dans 67 % des cas dans les séries chirurgicales). Sa spécificité également est dis-cutée, vu que certains auteurs observent jusqu’à 40 % de discordance entre l’EEGet la TEMP. Ces résultats sont néanmoins à relativiser et peuvent être biaisés parla définition incertaine de l’état inter-ictal, la technique de détection de l’hypodébit(généralement visuelle et subjective), ou encore par la sélection des patients sur lesséries courtes. Alors que l’existence d’une hypoperfusion en présence d’une lésion(détectée en IRM) n’a d’autre signification que la présence de cette lésion, plusieurshypothèses ont été posées pour expliquer cette hypoperfusion dans les cas où aucunelésion n’a pu être observée [Biraben 99] : une raréfaction neuronale (e.g. sclérose del’hippocampe), un hypofonctionnement des structures impliquées dans l’épilepsie, oula notion de “surround inhibition” associée à une activité épileptiforme inter-critiquefocale (e.g. pointes). En épilepsie temporale, l’étude de Guillon et al. [Guillon 98]réalisée au service de neurologie de Rennes a d’ailleurs montré une corrélation posi-tive entre deux patterns de localisation de pointes inter-critiques en SEEG et deuxpatterns d’hypoperfusion en TEMP inter-critique. Ces patterns intéressaient soit uni-quement la partie mésiale du lobe temporal (5 cas sur 20), soit tout le lobe temporal(8 cas sur 20). Ce résultat est fondamental car il suggère l’étude des hypoperfusionsen TEMP inter-critique comme une technique non invasive d’investigation de la ZI.

52 1.2 Techniques d’exploration du réseau épileptogène

Par contre, cette corrélation n’était pas absolue, car si un hypodébit en TEMP préditcorrectement la présence de pointes en SEEG, l’inverse n’est pas vrai. En effet, despointes ont été enregistrées dans 5 cas où la TEMP inter-critique a été considéréecomme normale. L’étude plus approfondie du lien entre la ZI et la TEMP devraitpouvoir bénéficier de développements méthodologiques afin d’être abordée de ma-nière plus objective et quantitative ; la méthode d’analyse de données TEMP parstandardisation anatomique qui sera présentée au chapitre II.4 peut être considéréecomme une contribution de ce travail de thèse allant dans ce sens.

1.2.3.3 Imagerie par Résonance Magnétique (IRM) dynamique et fonction-nelle :

Origine des signaux - effets de susceptibilité magnétique et pondération T ∗2 :

En utilisant principalement les effets de susceptibilité magnétique créant des inhomogé-néités locales de champ magnétique, des nouvelles séquences d’IRM permettent d’explorersélectivement le compartiment vasculaire capillaire (IRM de perfusion), le compartimentintersticiel et extra-cellulaire séparé du précédent par la BHE (IRM de diffusion), et indi-rectement le compartiment cellulaire par la consommation en oxygène des neurones (effetBOLD - Blood Oxygenation Level Dependent - en IRM fonctionnelle).

Quelles que soient leurs origines (e.g. agent de contraste endogène ou exogène, interfaceair/os), ces inhomogénéités locales du champ magnétique ~B0 accentuent le déphasage desmagnétisations et entraînent une décroissance plus rapide de la composante transversalede la magnétisation : décroissance exponentielle en T ∗

2 avec T ∗2 < T2. Alors que certaines

séquences permettent d’annuler ces effets au moment de l’écho (e.g. séquences spin-echo)afin d’obtenir une vraie pondération en T2, d’autres séquences tendent au contraire àêtre sensibles au T ∗

2 : c’est notamment le cas des acquisitions rapides en écho de gradient,les séquences Echo-Planar Imaging (EPI). En plus d’être pondérées en T ∗

2 , ces séquencesd’acquisition sont rapides et peuvent donc être utilisées pour explorer des phénomènesdynamiques.

Mesure de l’effet BOLD en IRM fonctionnelle (IRMf) : Lorsqu’une population deneurones est activée, l’oxygène nécessaire à leur fonctionnement est apporté via la circula-tion sanguine, notamment grâce aux molécules d’hémoglobine présentes dans les globulesrouges. L’augmentation locale de la consommation en oxygène va entraîner localementune augmentation du taux de désoxy-hémoglobine par rapport à l’oxy-hémoglobine. Dansun second temps, la vasodilatation des vaisseaux liée à cette activité neuronale provoqueune augmentation du DSCr. L’apport en oxygène devient alors largement excédentairepar rapport aux besoins métaboliques. Il en résulte localement une diminution du taux dedésoxy-hémoglobine par rapport à l’oxy-hémoglobine : c’est l’effet BOLD. Cet effet appa-raît 1 à 2 secondes après le début de l’activité électrique neuronale, et persiste pendantenviron 6 secondes après la fin de l’activation. Or en IRM, la désoxy-hémoglobine étantparamagnétique, elle modifie le signal dû aux molécules d’eau avoisinantes, alors que l’oxy-hémoglobine, diamagnétique, est sans effet. L’utilisation des séquences EPI sensibles à ceteffet BOLD permet l’exploration d’états de fonctionnement du cerveau. Les modificationsdu signal engendrées par l’effet BOLD sont infimes et non repérables visuellement. Enpratique, il est nécessaire de comparer par des méthodes statistiques différents états du

Fusion de données multimodales anatomo-fonctionnelles en épilepsie 53

cerveau, en général un état actif et un état de repos. Largement utilisées pour réaliser descartographies fonctionnelles préchirurgicales, ces techniques peuvent également être utili-sées pour explorer l’état inter-critique d’un patient épileptique. Les méthodes consistentgénéralement à comparer des acquisitions réalisées en présence ou non de pointes inter-critiques, et nécessitent un enregistrement simultané de l’EEG dans l’imageur.

L’IRM de perfusion : L’IRM de perfusion est basée sur l’utilisation d’un agent decontraste endogène (arterial spin labelling) ou exogène (injection de chélate de Gadolinium)modifiant localement la susceptibilité magnétique. Le passage de l’agent de contraste estsuivi par l’acquisition de séquences pondérées en T ∗

2 . A partir d’un modèle compartimental,il est alors possible de reconstruire une cartographie du volume sanguin cérébral local.L’IRM de perfusion fournit en fait un indice de micro-vascularisation.

Il s’agit d’une technique prometteuse pour l’analyse de la perfusion en période inter-critique. Une étude menée au laboratoire a mis en évidence trois patterns spécifiques deperfusion, correspondant à deux type d’épilepsies temporales et à un pattern caractérisantles épilepsies associées à des dysplasies corticales focales [Scarabin 02].

L’IRM de diffusion : L’IRM de diffusion est basée sur l’utilisation de séquences d’ac-quisition spécifiques sensibles aux micro-déplacements des molécules d’eau. Le principephysique est de suivre les modifications de phase des molécules d’eau en mouvement. Apartir de séquences permettant d’explorer la diffusion dans les différentes directions del’espace, il est possible d’estimer en tout point du cerveau un tenseur de diffusion et d’endéduire un coefficient de diffusion apparent.

Le déplacement des molécules d’eau dépend de la structure du tissu et donc de l’orienta-tion des fibres de substance blanche. L’IRM de diffusion est donc particulièrement sensibleà l’anisotropie des tissus. En période inter-ictale, il existe une augmentation de l’anisotropieet du coefficient de diffusion apparent dans les épilepsies du lobe temporal.

1.2.4 Examens dynamiques de l’état critique

La délimitation de la ZE est de loin le principal enjeu du planning préchirurgical, carc’est par définition l’exérèse de la ZE qui permettra de traiter le patient, en arrêtant oudiminuant la fréquence de ses crises. La caractérisation précise de la ZE est une tâchedélicate vu qu’elle nécessite d’explorer l’état critique du patient, c’est à dire qu’il faut êtrecapable d’acquérir des données au cours de la crise d’épilepsie. Quelques rares cas d’analysede l’état critique en TEP, IRMf ou MEG ont été répertoriés, mais dans la plupart des casil s’agit de crises survenues par hasard pendant l’acquisition ou de protocoles de recherchetrès spécifiques. En effet, seules certaines crises ne présentant pas ou peu de signes cliniques(par exemple, des absences) sont compatibles avec ces techniques d’acquisition. Ainsi, nousprésentons ici les seules techniques d’exploration applicables à tout type de crise, à savoirl’EEG et la SEEG enregistrés simultanément avec la vidéo du patient et la TEMP critique.

1.2.4.1 Approches électrophysiologiques

Vidéo Electro-EncéphaloGraphie (EEG) La principale technique d’investigation del’état critique consiste à coupler l’EEG à un enregistrement vidéo. Ce mode opératoire

54 1.2 Techniques d’exploration du réseau épileptogène

permet d’enregistrer de façon synchrone les manifestations électriques et la sémiologieclinique des crises ; la vidéo-EEG autorise donc des corrélations électro-cliniques. Toutcomme l’EEG traditionnelle, cette technique fournit une excellente résolution temporellecompatible avec les temps de fonctionnement de l’activité neuronale et donc des crises, maisune résolution spatiale médiocre. Cependant, en raison des mouvements du patient pendantla crise, l’électromyogramme 11 peut fortement entacher l’EEG, même si généralement cen’est pas le cas en tout début de crise. De plus, des crises intéressant les structures internespeuvent ne pas générer de signal mesurable en surface, ou peuvent apparaître retardéesaprès propagation vers des structures externes. L’interaction directe du médecin ou d’untechnicien pendant ou juste après la crise permet de retirer de cet examen une grandequantité d’informations pertinentes sur le début de la crise et ses voies de propagation(e.g. tests du langage, de l’état de conscience). Techniquement, deux caméras enregistrentrespectivement le corps entier du patient et son visage. Pour synchroniser la vidéo et l’EEG,les premières techniques consistaient simplement à filmer l’enregistreur papier de l’EEG.Si l’EEG est stocké numériquement, on peut soit enregistrer un signal de synchronisationpendant l’enregistrement vidéo analogique, soit disposer également d’un enregistrementvidéo numérique.

D’un point de vue clinique, il est nécessaire d’enregistrer plusieurs crises (en pratique2 ou 3), afin de vérifier qu’elles sont stéréotypées et/ou en extraire la partie communeessentielle. Il est important que la sémiologie clinique et les manifestations électriques soientsuffisamment reproductibles d’une crise à l’autre afin de pouvoir poser des hypothèseslocalisatrices. Pour cela, cet examen nécessite plusieurs jours d’hospitalisation pendantlesquels le patient est enregistré en continu (soit la journée, soit 24h/24h) : c’est la phase1 (cf. Figure 1.2), étape indispensable de toute prise en charge chirurgicale d’une épilepsiepartielle pharmaco-résistante. La vidéo-EEG est donc la principale technique non-invasived’identification de la ZE.

Vidéo-SEEG Comme déjà précisé, la SEEG est une des techniques de référence qui apermis la définition des notions de ZE, ZI et ZL. Synchronisés à la vidéo, les enregistrementsSEEG fournissent les informations les plus précises sur le départ et la propagation descrises. L’enregistrement vidéo des manifestations cliniques, couplé à des enregistrements insitu, bénéficiant d’une excellente résolution spatiale et temporelle, autorise la réalisation decorrélations anatomo-électro-cliniques. De même que lors de la phase 1, le patient auquelon a implanté des électrodes intra-cérébrales, est hospitalisé pendant une dizaine de jourspour permettre l’enregistrement de plusieurs crises, spontanées ou déclenchées : c’est laphase 2. En effet, les plots des électrodes intra-cérébrales peuvent également être utiliséspour réaliser des stimulations électriques intra-cérébrales, afin de provoquer des crises oude cartographier l’environnement fonctionnel du réseau épileptogène.

Le recours à ces explorations invasives de phase 2 est de plus en plus rarement nécessairepour les épilepsies temporales, qui sont les plus courantes et les mieux connues. Par contre,cette étape est fondamentale avant la décision chirurgicale pour la plupart des épilepsiesextra-temporales, et notamment les épilepsies frontales. En effet, les crises frontales sontgénéralement très rapides et se propagent sur un territoire cérébral important, si bien quela localisation de l’origine des crises est loin d’être évidente. Cependant, toute exploration

11. Signal électrique généré lors de l’activité d’un muscle.

Fusion de données multimodales anatomo-fonctionnelles en épilepsie 55

SEEG est biaisée par son échantillonnage spatial limité ; en effet 5 à 15 électrodes sonten général implantées, ce qui exclut l’exploration de tout le volume cérébral. La définitiondu schéma d’implantation est réalisée lors de l’investigation non invasive très précise àpartir des différentes techniques d’exploration précédemment décrites. A ce stade, les deuxseules techniques d’exploration de l’état critique sont la vidéo-EEG des crises et la TEMPictale (cf. paragraphe suivant). D’après Biraben et al. [Biraben 97], le choix du schémad’implantation se fait en 4 étapes :

1. Placement des électrodes au niveau des sites suspectés comme étant à l’origine descrises, et suivant les principales voies de propagation, connues ou suspectées de jouerun rôle dans la propagation de la crise (exploration de la ZE).

2. Si une lésion a été détectée lors des examens morphologiques, placement d’électrodesdans la lésion et dans son environnement pour étudier l’épileptogénicité de ces tissus(exploration de la ZL).

3. Exploration d’autres zones dont on suspecte le caractère épileptogène, du fait d’évé-nements cliniques ou paracliniques, ainsi que de zones qui sont le siège d’anomaliesintercritiques (exploration de la ZI).

4. Ajustement définitif : cette étape consiste à prendre en compte les trois étapes précé-dentes afin de définir un schéma d’implantation optimal permettant d’explorer sansrisque et avec un nombre minimal d’électrodes les zones décrites précédemment etleur environnement fonctionnel proche (pour réaliser une cartographie fonctionnellepréchirurgicale afin d’éviter tout déficit fonctionnel postopératoire). La réalisationd’une angiographie stéréoscopique aux rayons X de haute résolution spatiale (envi-ron 0.5 mm) permet en outre de choisir le lieu précis de l’implantation de façon àéviter de léser les éléments vasculaires pendant l’implantation.

1.2.4.2 Tomographie d’Emission MonoPhotonique (TEMP) critique

Fig. 1.20 – TEMP inter-critiqued’une épilepsie à point de départtemporal mésial

Fig. 1.21 – TEMP critique d’uneépilepsie à point de départ temporalmésial

56 1.2 Techniques d’exploration du réseau épileptogène

– Principe physique et technique d’acquisition : Le principe est de réaliser l’injectiondu radio-traceur au moment du déclenchement de la crise ou immédiatement après.La survenue d’une crise étant toujours inopinée, le radio-traceur (99mTc-HMPAO ou99mTc-ECD) doit être stocké à proximité du patient. Un tel examen est réalisablependant que le patient est pris en charge en phase 1. Ainsi, l’enregistrement vidéo-EEG permet de repérer à quel moment de la crise le radio-traceur a été injecté, ce quia une grande importance pour l’interprétation des données. Si l’on utilise du HMPAO,le marquage au 99mTc est alors réalisé juste avant l’injection. Cependant, une formestabilisée du HMPAO marqué au 99mTc est désormais disponible. En général, il estrecommandé d’injecter une dose de 740 à 825 MBq. Après l’injection, le patientest transféré dans le service de médecine nucléaire, et l’acquisition est réalisée dansl’heure qui suit. D’un point de vue organisationnel, la réalisation de tels examensnécessite une parfaite collaboration entre les services de neurologie et de médecinenucléaire et la disponibilité d’une caméra “sans rendez-vous”.

– Type d’information explorée : Historiquement, aux débuts de la chirurgie de l’épilep-sie, Penfield et ses collaborateurs observèrent une hyperperfusion locale à l’endroitoù une crise ou une aura avaient été déclenchées par stimulation électrique corticale.Des études systématiques de ces augmentations du débit sanguin, mesurées à l’aided’un thermocouple sur la surface du cortex, les amenèrent à montrer que celles-ciapparaissent entre 4 à 10 secondes après le début de la décharge EEG ictale, restentbien localisées et persistent après la crise, avant de devenir une hypoperfusion locale[Penfield 39]. Les propriétés de captation cellulaire rapide des radio-traceurs que sontle 99mTc-HMPAO et le 99mTc-ECD (entre 1 et 2 min), en font des traceurs idéauxpour l’étude de tels phénomènes. Ainsi, on estime qu’en injection ictale cette capta-tion débute environ 15 s après l’injection et dure environ 40 s. Les données de TEMPictale représentent donc une intégration du DSCr pendant une courte période qu’ilest fondamental de repérer par rapport au début de la crise sur la vidéo-EEG.

– Apport pour l’épilepsie : La possibilité d’injecter le radio-traceur en salle de vidéo-EEG fait de la TEMP critique la seule technique d’imagerie capable d’explorer laZE. La TEMP critique fournit la meilleure résolution spatiale (de l’ordre du cm)parmi tous les examens non invasifs de l’état critique. Vu que la crise n’a pas lieudans l’imageur, la plupart des crises peuvent être explorées ainsi. Cet examen estréalisé dès que possible pendant la phase 1. La principale difficulté consiste à dé-tecter suffisamment tôt le début de la crise pour permettre l’injection. En épilepsietemporale, la méta-analyse de Devous et al. [Devous 98] annonce une sensibilité trèsélevée, de l’ordre de 97%, lorsque l’injection est bien réalisée en perictal. Sensibilitéet spécificité atteignent 100 % dans les séries chirurgicales. Néanmoins, dans 15 à 20% des cas, l’interprétation est rendue difficile par la présence d’une hyperperfusionbilatérale. En fonction du moment de l’injection, l’hyperperfusion est localisée auniveau de la ZE et éventuellement au niveau des principales voies de propagation(cf. Figure 1.21) [Duncan 97b, Devous 98, Biraben 99]. Cet hyperdébit peut inté-resser également certaines structures internes (e.g. thalamus, noyaux lenticulairesou noyaux caudés), dont le lien avec la sémiologie des crises reste une question ou-verte. Généralement, l’hyperperfusion est entourée d’une large zone d’hypoperfusionpouvant intéresser jusqu’à tout le reste de l’hémisphère, phénomène comparable àla “surround inhibition” décrite en inter-critique. Lorsque l’injection est tardive par

Fusion de données multimodales anatomo-fonctionnelles en épilepsie 57

rapport au début de la crise, TEMP post-critique, l’hyperperfusion est remplacéepar une hypoperfusion. Différents patterns spécifiques de perfusion ictale associés à4 types d’épilepsies temporales ont été décrits par Ho et al. [Ho 96, Ho 97]. J’insisteun peu sur les résultats cliniques concernant les épilepsies temporales, d’une partparce que ce sont de loin les épilepsies les plus connues, les plus étudiées et les plusfaciles à traiter, d’autre part parce que c’est précisément la perfusion de l’épilepsie àpoint de départ temporal mésial qui a été modélisée au chapitre II.4. Concernant lesépilepsies extra-temporales, les études systématiques sont plus rares et l’identifica-tion de patterns plus difficile, néanmoins la TEMP ictale apporte généralement desinformations pertinentes sur la ZE. La comparaison avec la TEMP inter-critique per-met d’assister l’interprétation. Alors que la dynamique des traceurs est compatibleavec la durée des crises temporales, ce n’est généralement pas le cas pour les crisesfrontales qui sont brèves, se propagent très vite et généralisent souvent. Dans cesconditions le recours à la SEEG reste nécessaire, et chaque épilepsie est différente. R.Duncan [Duncan 97b] précise que lorsqu’une hyperperfusion ictale est observée dansla partie mésiale du lobe temporal, alors il est possible d’avoir recours à la chirurgiesans recours à la SEEG. Par contre, la présence d’un hyperdébit ictal extra-temporaldoit être pris en compte pour guider l’implantation des électrodes intra-cérébrales.

1.2.5 Analyse de l’environnement fonctionnel

L’objectif de ces techniques est de caractériser l’environnement fonctionnel du réseauépileptogène afin de s’assurer que la cortectomie est envisageable sans générer de troublesfonctionnels significatifs. La fonction à explorer dépend de la région anatomique où a étélocalisé le réseau épileptogène : aires motrices, somesthésiques, auditives, visuelles, airesimpliquées dans le langage. Il existe de nombreux paradigmes d’exploration de ces fonctions,ce n’est pas l’objet de ce paragraphe.

1.2.5.1 Potentiels évoqués : EEG, MEG, ECoG, SEEG

– Principe physique et technique d’acquisition : Les potentiels évoqués sont obtenuspar application répétée d’un stimulus synchronisé avec l’acquisition des signaux. Lemoyennage de ces signaux permet de n’extraire que le signal correspondant à l’infor-mation électrophysiologique synchronisée et en phase avec le stimulus.

– Type d’information explorée : L’information électrique ou magnétique générée au ni-veau d’une population de neurones activés est à l’origine du signal mesuré par cestechniques. Elles bénéficient ainsi d’une excellente résolution temporelle et autorisentun suivi spatio-temporel des activations. Par contre, les enregistrements surfaciquessouffrent d’une faible résolution spatiale et nécessitent généralement d’avoir recoursà des méthodes de localisation de sources.

1.2.5.2 Imagerie d’activation : IRMf, TEP

– Principe physique, technique d’acquisition et pré-traitements :Le principe de la neuroimagerie d’activation est l’acquisition d’une série de don-nées pendant des phases successives de repos ou d’activité en exécutant une tâche

58 1.3 Méthodes d’analyse et de fusion de données : besoins pour l’épilepsie

spécifique de la fonction à étudier. Il peut s’agir de stimulation par bloc ou mono-événementielle. L’analyse statistique du signal voxel/voxel permet de détecter et delocaliser les aires cérébrales significativement corrélées au paradigme d’activation.Ces méthodes autorisent une très bonne résolution spatiale (2 mm), mais ne per-mettent qu’une faible résolution temporelle. Les limites en matière de résolutiontemporelle s’expliquent principalement par le fait que ces techniques explorent demanière indirecte l’activité du neurone, via la consommation O2 notamment. Depart sa non-invasivité et surtout sa facilité d’accès sur de nombreux sites cliniques,l’IRMf a tendance à remplacer la TEP pour les études en neuroimagerie fonctionnelle.

1.2.5.3 Explorations invasives

Le test de Wada permet de déterminer la latéralisation des fonctions du langage etd’évaluer les capacités mnésiques, lors de bilans préopératoires de neurochirurgies sus-ceptibles de toucher les aires du langage ou de la mémoire. Il consiste en une injectionintracarotidienne unilatérale d’un barbiturique de durée d’action intermédiaire, l’amobar-bital. Son injection provoque une hémiplégie après quelques secondes et pendant environ5 minutes. Il est réalisé avant certaines cortectomies temporales et permet d’analyser ledéficit envisagé par une ablation de l’hippocampe (notamment par la prédiction des effetssur la mémoire verbale). Ses résultats peuvent contre-indiquer la chirurgie, s’il existe undoute sur la latéralisation ou la fonctionnalité du côté sain.

Les stimulations électriques corticales peropératoire ou en profondeur (SEEG) sontdes méthodes considérées comme un gold standard pour la réalisation d’une cartographieanatomo-fonctionnelle.

1.3 Méthodes d’analyse et de fusion de données : besoins pour

l’épilepsie

Fig. 1.22 – Répartition des résolutions spatiales et temporelles accessibles par les princi-pales techniques d’exploration fonctionnelle

Après avoir présenté les principales techniques d’exploration du réseau épileptogène etde son environnement fonctionnel, l’objectif de cette partie est de définir la notion de fusion

Fusion de données multimodales anatomo-fonctionnelles en épilepsie 59

de données dans le contexte clinique qu’est la prise en charge chirurgicale de l’épilepsie.Tout en insistant sur le fait que la fusion ne se limite pas qu’au problème du recalage, i.e.,à une mise en correspondance géométrique des données, nous montrerons à quel point lerecalage est une étape incontournable avant toute méthode dite de fusion de données. Nousjustifierons ainsi la nécessité d’une évaluation précise et objective des méthodes de recalagedans le contexte clinique de l’épilepsie. Une telle évaluation, pour le recalage TEMP ictale/ IRM notamment, fait précisément l’objet de ce travail de thèse.

La Figure 1.22 rappelle la complémentarité des différentes techniques d’exploration enmontrant notamment la gamme des résolutions spatiales et temporelles accessibles. De plus,l’origine physiologique de ces informations est à la fois diverse et complémentaire, soit denature purement morphologique, soit explorant le métabolisme ou la perfusion cérébrale,ou encore mesurant de façon directe le fonctionnement électro-magnétique des neurones.D’autres paramètres liés à la clinique (e.g., histoire de la maladie, antécédents, facteursgénétiques) et à la sémiologie des crises constituent autant d’informations complémentairesqu’il est fondamental de prendre en compte lors du diagnostic, bien qu’elles soient plusdifficiles à formaliser que des images ou des signaux.

La compréhension et la caractérisation d’une épilepsie partielle pharmaco-résistanteest par nature un processus de fusion de données hautement multimodal, qui intègre lesinformations rassemblées au fur et à mesure de la prise en charge :

– Examen clinique : caractéristiques du patient (âge, sexe, latéralisation, etc), histo-rique de la maladie, antécédents (e.g. traumatismes, facteurs génétiques), types decrises, fréquence des crises, moment d’apparition des crise (e.g. nuit, lever), etc. Laplupart de ces données sont obtenues après l’interview du patient et de son entouragepar le neurologue.

– Etude de la sémiologie de crises : analyse de la ou des crises stéréotypées du patientenregistrées par vidéo EEG. Les crises sont revisionnées minutieusement afin de fairedes corrélations entre la sémiologie et les signaux EEG.

– Recherche d’une zone lésionnelle : analyse des examens morphologiques (IRM).

– Etude du début de la crise et de l’état inter-critique : analyse des signaux EEG.

– Exploration complémentaire du réseau épileptogène et étude de son environnementfonctionnel : analyse des autres données fonctionnelles disponibles (e.g., TEMP inter-ictale et/ou ictale, TEP, IRMf, MEG).

Ces différentes informations, combinées à l’expertise du neurologue (connaissances théo-riques et pratique quotidienne) vont permettre de poser des hypothèses sur l’organisationdu réseau épileptogène. Soit ces éléments plaident en faveur d’un cas stéréotypé et la dé-cision d’une exérèse chirurgicale est décidée ou contre-indiquée (cf. Figure 1.2), soit ceshypothèses nécessitent d’être vérifiées par des explorations plus poussées et une explo-ration SEEG est alors envisagée. Le schéma d’implantation des électrodes résulte d’unediscussion entre le neurologue et le neurochirurgien qui pratique l’implantation. Il s’agitde choisir judicieusement les zones à explorer, tout en limitant les risques liés à l’implanta-tion. Ainsi, dans tout le processus aboutissant à une éventuelle chirurgie, on assiste à uneintégration de données multimodales 12. Cette intégration des données s’opère pendant les

12. Dans ce contexte, la notion de modalité ne désigne pas seulement un type d’imagerie mais est bienplus générale. Ces données regroupent les résultats de diverses techniques d’exploration anatomique etfonctionnelle, mais également de nombreuses informations liées à la clinique du patient et à la sémiologie

60 1.3 Méthodes d’analyse et de fusion de données : besoins pour l’épilepsie

phases d’exploration non invasives et invasives du réseau épileptogène, pendant la prépara-tion de l’acte chirurgical (cartographie fonctionnelle préchirurgicale), voire même au coursde la réalisation de cet acte chirurgical (neuronavigation multimodalité).

Le raisonnement du neurologue peut donc être assimilé à un processus de fusion “ ‘men-tale” des ces informations. Depuis une dizaine d’années, l’essor de nouvelles techniques detraitement du signal et de l’image a suscité de nouveaux besoins et possibilités en matièrede fusion de données, permettant d’aboutir à une définition plus objective voire quanti-tative de la fusion de données multimodales en imagerie médicale. Après avoir défini leconcept de fusion de données dans le contexte clinique de l’épilepsie, nous présentons uncertain nombre de méthodes d’analyse couramment utilisées en neuroimagerie et considé-rées comme des méthodes dites de fusion de données.

1.3.1 Fusion de données guidée par le problème clinique

Ce paragraphe applique au contexte de l’épilepsie une définition plus générique d’uneapplication clinique de fusion de données que nous avons proposée dans [Jannin 01a,Jannin 01b].

Afin de mettre en œuvre une application de fusion de données, il convient de définirquels sont les objectifs cliniques et d’identifier quel est le contexte de fusion. Lors de laprise en charge chirurgicale des épilepsies pharmaco-résistante, l’objectif clinique principalconcerne la caractérisation du réseau épileptogène et de son environnement fonctionnelafin d’assister au mieux une éventuelle chirurgie. La caractérisation du réseau épileptogèneconsiste en l’identification des éventuelles ZE, ZI et ZL. Cette caractérisation permet à lafois de mieux comprendre l’épilepsie du patient et d’enrichir les connaissances théoriquessur ce type d’épilepsie. Lorsqu’un acte chirurgical est envisagé, les techniques de fusion vontpermettre d’assister au mieux la préparation et la réalisation de ce dernier. Ces aspectsincluent la réalisation d’une cartographie anatomo-fonctionnelle préchirurgicale et l’utili-sation de systèmes de chirurgie guidée par l’image (neuronavigation). Nous distingueronsdonc quatre types de problèmes cliniques pour lesquels les méthodes dites de fusion dedonnées permettent d’assister la démarche du clinicien :

– Repérage des résultats des différentes explorations anatomo-fonctionnelles sur l’ana-tomie du patient

– Détection et quantification d’aires pathologiques ou fonctionnelles spécifiques du pa-tient exploré

– Identification de patterns caractérisant des aires pathologiques ou fonctionnelles ausein d’une population de sujets, prise en compte de la variabilité inter-individuelle

– Aide à la réalisation d’un acte chirurgical.

Le “contexte de fusion” d’une application de fusion de données est ensuite défini commel’ensemble des données qu’il convient de mettre en correspondance et d’intégrer, leurs carac-téristiques intrinsèques (e.g. type de modalité, dimension, résolution spatiale et temporelle),et les hypothèses caractérisant quelles sont les informations homologues, les informationscomplémentaires et les perturbations entre ces données. [Brown 92] pose le problème durecalage comme étant le moyen de compenser des perturbations entre les données, tout

des crises.

Fusion de données multimodales anatomo-fonctionnelles en épilepsie 61

en conservant les informations complémentaires qui constituent précisément ce que l’oncherche à mettre en évidence (e.g. assister la localisation d’une fonction à partir de donnéesanatomiques). Cette définition est généralisable à toute application de fusion de données.[Brown 92] distingue trois types de perturbations : les distortions corrigées, les distortionsnon corrigées et les variations d’intérêt. Les distortions corrigées sont celles qui peuventêtre modélisées lors de la formalisation du problème de fusion de données. Dans le cas durecalage, ce sont notamment des changements de point de vue ou de perspective de la scèneimagée ou des changements de forme de l’objet étudié, que l’on peut modéliser par unetransformation géométrique qu’il faudra estimer. Les distortions non corrigées sont diffi-cilement modélisables, mais les méthodes de fusion devront y être les moins sensibles quepossible lors de l’estimation des distortions modélisées. Ces perturbations sont notammentliées au bruit, au changement d’éclairage de la scène (en vision par ordinateur), au chan-gement de capteur (imagerie multimodalité) ou encore à des phénomènes physiologiquesnon modélisés. Enfin, les variations d’intérêt constituent précisément l’information que lesméthodes de fusion de données cherchent à mettre en évidence (e.g. détection, localisation,quantification d’une aire pathologique ou fonctionnelle, étude de la variabilité fonctionnelleinter-individuelle).

Les sources d’information mises en jeu dans ces processus de fusion sont les nombreusestechniques d’exploration présentées précédemment. Dans la plupart des cas, les processusde fusion de données n’impliquent que des images ou des signaux, mais ils pourraientthéoriquement faire intervenir des informations ou connaissances d’un plus haut niveau sé-mantique, comme par exemple les connaissances du neurologue, la clinique ou la sémiologiedes crises. Nous désignerons donc par “méthode de fusion de données” toute méthodologiequi a pour finalité d’assister le clinicien vis à vis des différents objectifs cliniques pré-cédemment cités, en utilisant de manière combinée les différentes sources d’informationsdisponibles. De telles approches, dites de fusion de données, font généralement appel àdes méthodes issues du traitement de l’image et du signal, des statistiques ou de l’analysede données. Cette définition est très vaste et déborde très largement du domaine couvertpar nos travaux. La position de la tête du patient dans l’imageur étant rarement contrôléed’un examen médical à l’autre, le recalage apparaît néanmoins comme une étape incontour-nable avant d’envisager toute fusion de données. Une fois les données recalées, différentestechniques dites de fusion permettent d’assister le clinicien, citons par exemple :

– Outils de visualisation interactifs,

– Synthèse d’une nouvelle donnée dite fusionnée,

– Analyse statistique des mesures réalisées de manière supervisée ou non,

– Fusion coopérative : utilisation de données multimodales, pour assister un problèmede reconstruction, de localisation ou de détection, ...

Pour finir ce premier chapitre, nous allons présenter la fusion de données dans lecontexte de l’épilepsie, en l’abordant sous l’angle des quatre problématiques cliniques citéesprécédemment. Dans chacun des cas, sont présentées des méthodes couramment utiliséesen neuroimagerie et que nous considérons comme des méthodes de fusion de données.Certaines méthodes seront illustrées à partir de réalisations issues de l’environnement defusion développé au laboratoire IDM et à partir de cas cliniques provenant des services deneurologie et de neurochirurgie du CHU de Rennes.

62 1.3 Méthodes d’analyse et de fusion de données : besoins pour l’épilepsie

1.3.2 Aide au repérage sur l’anatomie du patient

Le contexte clinique abordé ici concerne la compréhension de l’épilepsie d’un patientbien particulier. L’objectif est de fournir un substrat anatomique commun permettant lamise en correspondance des résultats des différents examens morphologiques et fonctionnelsafin d’assister la caractérisation du réseau épileptogène (ZL, ZI et ZE) et de son environ-nement fonctionnel. Cet aspect se limite dans la plupart des cas à un problème de recalageet de visualisation. Le substrat anatomique commun est en général une IRM 3D hauterésolution pondérée en T1. Les différents examens anatomiques et/ou fonctionnels qu’il estnécessaire de fusionner sont donc tout d’abord recalés, puis présentés au clinicien à l’aided’outils de visualisation et d’interaction adaptés. Il s’agit donc principalement d’un pro-blème de recalage intra-patient, pouvant être monomodalité ou multimodalité. Le chapitreI.2 présente un état de l’art des différentes techniques de recalage utilisables.

En ce qui concerne les outils de visualisation et d’interaction sur les données recalées,on distingue les approches basées curseur et les approches basées superposition de données.L’approche basée curseur permet de mettre en correspondance plusieurs jeux de donnéesen partageant un curseur entre des modules de visualisation synchronisés. Un événementsouris dans une image correspond à la désignation d’un point dans les données affichées parle module. Les coordonnées de ce point sont envoyées aux autres modules de visualisation,transformées selon les transformations géométriques calculées par le recalage, provoquantl’affichage des images contenant le point correspondant. Néanmoins, il est souvent pluscommode pour le clinicien de ré-échantillonner les données dans le même référentiel, e.g.,celui de l’IRM 3D, avant de permettre ce mode de visualisation. En effet, il est plus faciled’intégrer visuellement un même plan de coupe appliqué à deux examens différents, quesimplement un point correspondant à l’intersection de deux plans de coupes différents.Soulignons cependant qu’un tel ré-échantillonnage fait intervenir des données présentantdes résolutions spatiales diverses. Dans la plupart des cas, les données fonctionnelles defaible résolution spatiale seront sur-échantillonnées avant d’être superposées aux donnéesanatomiques. Le clinicien devra donc garder à l’esprit ces différences de résolution spatialeavant d’interpréter ces données fusionnées.

L’approche basée superposition visuelle consiste à visualiser sur une même image l’in-formation de différents jeux de données recalés entre eux. Dans une première solution, lesdonnées multimodales sont superposées point à point au sein d’une seule image. Cette su-perposition peut être réalisée par une opération arithmétique sur les intensités des pixels oudes voxels (transparence par exemple), par codage de couleurs ou codage par spectres. En2D, des techniques comme le remplacement des valeurs peuvent aussi être utilisées. Ainsiil peut s’agir d’une fenêtre glissante déplacée par l’utilisateur dans laquelle les valeurs despixels d’un jeu de données sont remplacées par les valeurs de l’autre jeu de données, ouencore de la visualisation en échiquier 2D. Un inconvénient de ces méthodes est que l’imageou le volume résultant ne correspond plus à une modalité réelle, ce qui peut gêner le clini-cien. Quand plus de deux ensembles de données doivent être superposés, il est préférabled’utiliser les approches curseur. Une solution, pour réduire la complexité de la scène, estd’extraire les surfaces des structures d’intérêt (e.g., sillons corticaux, contours d’une lé-sion, zone activée en IRMf), et de les fusionner dans une nouvelle scène, en utilisant lestechniques de rendu de surface 3D.

Les méthodes utilisant des textures couleur afin de coder l’information fonctionnelle et

Fusion de données multimodales anatomo-fonctionnelles en épilepsie 63

de la superposer sur l’anatomie (IRM) sont classiquement utilisées en médecine nucléaire(TEP ou TEMP). En effet, la TEP et la TEMP sont des données que les cliniciens sont ha-bitués à visualiser à l’aide de tables de couleur. Il existe différents modes de création d’uneimage dite fusionnée à partir de textures couleur [Foehrenbach 99, Alpert 96]. Un premiermode consiste à choisir une échelle de couleur pour l’image fonctionnelle (e.g., TEMP ouTEP), et, de manière indépendante, une échelle de niveaux de gris pour l’image anato-mique (IRM). Un autre mode de superposition est de réaliser une combinaison linéaire ougéométrique des composantes Rouge/Vert/Bleu des données anatomiques et fonctionnellespour générer l’image fusionnée. Un troisième mode de superposition, consiste à utiliserun codage teinte/saturation/luminance. La teinte et la saturation sont dérivées de l’imagefonctionnelle et la luminance (en niveaux de gris) est déduite des intensités de l’image ana-tomique. L’utilisation de techniques de rendu volumique tridimensionnel de ces donnéesfusionnées est hautement informative, car elle permet une vision synthétique de l’organisa-tion sulco-gyrale et des données fonctionnelles. Habituellement, l’information fonctionnelle,codée en couleur sur la surface corticale, est intégrée sur une épaisseur de quelques voxelssuivant la direction d’observation. Stokking et al. [Stokking 97] ont proposé une techniqueoù cette intégration se fait dans la direction de la normale à la surface du cerveau. Parti-culièrement adaptées pour la médecine nucléaire, ces techniques de visualisation peuventégalement être utilisées pour fusionner sur l’anatomie des cartes statistiques d’activation(e.g. en TEP ou IRMf), ou encore les résultats de méthodes tomographiques de localisationde sources en MEG ou EEG.

Ces différentes approches de visualisation multimodalités, sont illustrées par l’explo-ration du réseau épileptogène de deux cas cliniques provenant des services de neurologieet de neurochirurgie du CHU de Rennes. La plupart des méthodes de recalage utiliséesici sont celles dont l’évaluation fait précisément l’objet de ce travail de thèse. Les figures1.23 et 1.24 illustrent l’intérêt du recalage et de la fusion TEMP/IRM dans le contextede l’épilepsie. Il s’agit d’un examen TEMP inter-ictal (Fig. 1.23) et d’un examen TEMPictal (Fig. 1.24) du même patient épileptique. Ces deux examens ont été préalablementrecalés sur l’IRM par maximisation de l’information mutuelle, puis ré-échantillonnés dansle référentiel spatial de l’IRM. Les données TEMP ont ensuite été fusionnées sur l’IRM àl’aide de textures couleur. Le mode de calcul de l’image fusionnée correspond à un modede rendu intégral (intégration des niveaux de gris et de la texture couleur sur quelquesvoxels depuis la surface). Ces images montrent distinctement une hyper-perfusion pendantla crise d’épilepsie se projetant exactement le long d’un sillon (cf. ellipse jaune sur la figure1.24). Cette même région montrait une légère hypo-perfusion en période inter-critique (cf.Fig. 1.23). Cette information a été fondamentale pour guider l’implantation d’électrodesprofondes SEEG et pour préparer l’intervention chirurgicale.

Nous présentons un deuxième cas clinique pour lequel une procédure complète a étéréalisée, à savoir : caractérisation du réseau épileptogène, cartographie fonctionnelle pré-chirurgicale, et chirurgie assistée par l’image (cf. §I.1.3.5). Les figures 1.25, 1.26 et 1.27illustrent l’apport de techniques de recalage et de fusion pour apprécier la concordance dedifférentes anomalies morphologiques ou fonctionnelles détectées lors de la prise en chargechirurgicale de ce patient épileptique présentant une dysplasie corticale focale. Les recalagesTEMP/IRM T1 et IRM FLAIR/IRM T1 ont été réalisés par maximisation de l’informationmutuelle. L’information MEG a été localisée par une méthode dipôlaire développée et vali-dée au laboratoire [Schwartz 99], basée sur une localisation des sources dans un sous-espace

64 1.3 Méthodes d’analyse et de fusion de données : besoins pour l’épilepsie

Fig. 1.23 – Fusion de donnéesTEMP inter-ictale/IRM

Fig. 1.24 – Fusion de donnéesTEMP ictale/IRM

signal sélectionné par analyse en composantes principales d’une fenêtre spatio-temporelledu signal. Cette méthode a été appliquée pour localiser les sources à l’origine de pointesinter-critiques enregistrées sur le scalp en MEG. Le dipôle le plus représentatif de chaquepointe a été sélectionné, et un “cluster” d’un cinquantaine de pointes ainsi traitées est re-présenté sur les figures 1.25 et 1.26. Le recalage MEG/IRM est réalisé à l’aide d’un recalagebasé surface entre la peau extraite des données IRM et la numérisation de la surface 3Dde la tête du patient, réalisée par un localisateur magnétique au moment de l’acquisitionMEG. L’algorithme de recalage utilise une transformée en distance de Chanfrein à partirde la surface de la peau en IRM et minimise la distance moyenne à cette surface des pointsnumérisés en MEG par l’algorithme de Powell [Schwartz 96, Schwartz 98]. La fusion de cesdiverses informations sur l’IRM du patient met en évidence des anomalies électrophysiolo-giques caractérisant la ZI (“cluster” de pointes sur les figures 1.25 et 1.26), des anomaliesde perfusion ictale caractérisant la ZE (hyperperfusion en TEMP ictale sur la figure 1.25)ainsi qu’une ZL par la détection d’une dysplasie corticale focale (hypersignal sur séquenceFLAIR, figure 1.26). Cette caractérisation du réseau épileptogène à partir de techniquesd’exploration non invasives a été validée par l’implantation d’une électrode intra-cérébraleSEEG au niveau de la zone considérée (Fig. 1.27).

Ces méthodes de fusion assistent ainsi la caractérisation précise des ZL, ZI et ZE. Maisde nombreuses questions restent ouvertes sur les choix de la limite d’exérèse notammentlorsque les anomalies morphologiques et fonctionnelles ne se superposent pas complète-ment. Ainsi, dans l’exemple présenté sur les figures 1.25, 1.26 et 1.27, l’exérèse doit-elleêtre limitée à la dysplasie détectée en FLAIR, ou inclure le tissu environnant, où un com-portement épileptogène a été détecté en TEMP et en MEG? Dans le cas des dysplasies,il est reconnu qu’il faut faire plus confiance aux données électrophysiologiques qu’à l’IRM.Il s’agit de questions délicates au sein de la communauté d’épileptologie, et l’utilisation detechniques de fusion de données permettra de les aborder de manière plus objective et plussystématique.

Fusion de données multimodales anatomo-fonctionnelles en épilepsie 65

Fig. 1.25 – Fusion de données TEMP ictale/IRM et cluster de pointes inter-ictales enMEG (carrés blancs)

1.3.3 Aide à la détection et quantification d’aires pathologiques ou fonc-tionnelles spécifiques au sujet exploré

L’objectif clinique des méthodes de fusion présentées dans ce paragraphe est d’aider àla détection, la localisation et la quantification des différentes aires cérébrales impliquéesdans le réseau épileptogène, ou caractérisant son environnement fonctionnel. Les méthodesdécrites dans le paragraphe précédent permettent d’aider le clinicien à se repérer au mieuxpar rapport à l’anatomie du patient. A présent, nous allons montrer comment des méthodesde fusion permettent de caractériser de manière plus quantitative le réseau épileptogèneet son environnement fonctionnel. L’étude d’un réseau épileptogène est une analyse avanttout intra-patient ayant pour but de comprendre au mieux l’épilepsie du sujet en question,et de préparer au mieux l’intervention chirurgicale.

1.3.3.1 Aider à une meilleure détection, localisation ou quantification desanomalies épileptogènes :

Ce domaine intéresse plus particulièrement les examens de médecine nucléaire (TEP etTEMP), qui sont difficiles à analyser en raison d’une faible résolution spatiale, en généralde l’ordre du centimètre.

Dans la plupart des cas, les méthodes de fusion de données permettent de réaliser desétudes de quantification relative et non absolue. En effet, les données TEMP au 99mTc-

66 1.3 Méthodes d’analyse et de fusion de données : besoins pour l’épilepsie

Fig. 1.26 – Fusion de données IRMFLAIR et cluster de pointes inter-ictales en MEG (carrés rouges)

Fig. 1.27 – Positionnement d’uneélectrode SEEG (L) sur l’IRM

HMPAO ou au 99mTc-ECD ne donnent accès qu’à une mesure relative de la perfusioncérébrale, alors qu’une quantification absolue est envisageable en TEP. Les méthodes defusion permettent d’assister l’analyse de données de médecine nucléaire en permettant unmeilleur repérage sur l’anatomie. Ces méthodes s’appliquent de la même manière qu’ils’agisse de mesures absolues ou relatives. Les principales techniques d’analyse de donnéesTEMP ou TEP concernent la comparaison inter-hémisphérique, la comparaison entre diffé-rentes conditions d’acquisition du même sujet, ou encore la comparaison inter-individuelleentre différents groupes de sujets. Pour l’étude de l’épilepsie d’un patient précis, nous nouslimiterons aux deux premiers points qui ne nécessitent généralement pas de déformationnon linéaire de l’anatomie de celui-ci.

Un premier moyen d’assister l’analyse des données TEMP ou TEP est d’utiliser l’IRMrecalée pour guider de manière automatique ou semi-automatique le positionnement derégions d’intérêt (ROIs) ou de volumes d’intérêt (VOIs) sur les données fonctionnelles[Harris 93, Iida 98]. La plupart des autres méthodes guidant le positionnement de VOIs oupermettant une analyse voxel/voxel sont dites méthodes d’analyse par standardisation ana-tomique. Elles nécessitent de localiser les données dans un référentiel géométrique moyenet seront présentées dans le paragraphe I.1.3.4.1.

Parmi les techniques qui analysent les données à partir de l’IRM originale du patient,citons la méthode proposée par Aubert-Broche et al. [AubertBroche 02] développée au la-boratoire, qui permet de réaliser une comparaison inter-hémisphérique non supervisée enTEMP. Le principe est d’identifier dans l’IRM des couples de points symétriquement homo-logues (après correction linéaire ou non-linéaire des asymétries morphologiques), et d’uti-liser un voisinage autour de chacun de ces points pour créer une carte d’indice d’asymétrieen TEMP. Cette méthode a été développée pour mettre en évidence des fines hypoperfu-sions en TEMP inter-ictale, difficilement détectables visuellement. Elle est actuellement encours d’évaluation sur données simulées et cliniques.

Fusion de données multimodales anatomo-fonctionnelles en épilepsie 67

La principale méthode d’analyse TEMP basée sur l’IRM originale d’un patient est lasoustraction TEMP ictale / TEMP inter-ictale fusionnée sur l’IRM : SISCOM - SubtractedIctal Spect CO-registered to MRI [Zubal 95, O’Brien 98, Pérault 02]. Après recalage destrois examens, la méthode consiste à considérer la TEMP inter-ictale comme un niveaude base ou de référence pour l’analyse des données de TEMP ictale. L’aspect délicat deces méthodes est le choix d’une méthode adéquate de normalisation des intensités avantla soustraction. Ce problème est abordé par Pérault et al. [Pérault 02], qui évaluent troisméthodes de normalisation. Le deuxième enjeu est d’être capable de seuiller la carte dedifférence, et pour cela d’estimer la significativité de celle-ci. Ce point est également délicat,dans la mesure où il est difficile d’obtenir un test statistique suffisamment puissant à partirde seulement deux échantillons. O’Brien et al. [O’Brien 98] proposent d’utiliser la variabilitédes données TEMP mesurée au sein d’une population de sujets sains afin d’identifier quellesdifférences de signal sont réellement dues à une différence de perfusion ictale / inter-ictale.

1.3.3.2 Construction de nouvelles images dites de fusion :

Alors qu’au §I.1.3.2, nous avons présenté comment superposer visuellement des infor-mations TEMP ou TEP sur l’IRM, certains auteurs ont proposé la construction à partirdes images recalées de nouvelles données dites fusionnées. Il ne s’agit plus de visualiser lasuperposition de deux volumes, mais réellement de synthétiser un nouveau volume. Ainsi,Migneco et al. [Migneco 00] proposent de combiner les propriétés de quantification absoluede la TEMP au 133Xe avec la meilleure résolution spatiale des données TEMP au 99mTc-HMPAO, afin de générer une image TEMP calibrée. Le principe est de recaler les deuxjeux de données TEMP à partir de critères statistiques de similarité (voir §I.2.2), et d’uti-liser l’histogramme joint obtenu lorsque les données sont recalées pour estimer la relationentre les intensités en 133Xe, représentant une quantification absolue, et celles en 99mTc-HMPAO, représentant une quantification relative. Il est alors possible d’estimer l’allure dela saturation de la mesure de flux en 99mTc-HMPAO pour les débits élevés [Patterson 97],et ainsi de calibrer à partir de cette relation les intensités observées en 99mTc-HMPAO : ilen résulte une image présentant des mesures de débit absolu avec une résolution spatialecentimétrique.

Barra et al. [Barra 01, Colin 99] proposent une formalisation intéressante du concept defusion de données basée sur la logique des possibilités. Ils appliquent cette approche pourcréer des images fonctionnelles à haute résolution à partir d’acquisitions IRM, TEMP et/ouTEP. L’utilisation de la notion de possibilité et non de probabilité est particulièrementadaptée dans ce contexte où l’on ne dispose généralement que de très peu d’échantillonsvoire d’un seul, sachant que l’on s’intéresse à un seul patient particulier. Contrairement auxprobabilités, un événement A et son contraire A peuvent être totalement possibles. Dansce cas, leurs distributions de possibilité π valent π(A) = π(A) = 1. Les auteurs proposentd’utiliser ces concepts pour tenir compte des incertitudes (bruit) et imprécisions (effet devolume partiel en raison d’une résolution spatiale limitée) particulièrement importantes enimagerie fonctionnelle. Les données étant préalablement recalées, ils appliquent un algo-rithme de classification floue aux données issues de chaque modalité en 4 classes (substancegrise, substance blanche, LCR et fond), puis définissent un opérateur de fusion issu de lathéorie de l’information entre classes de tissus, l’opérateur MIM (Mutual InformationMaps) :

68 1.3 Méthodes d’analyse et de fusion de données : besoins pour l’épilepsie

∀ le voxel v , ∀ la classe de tisssu k

MIM(πAk (v),πF

k (v)) = [min(πAk (v),πF

k (v))]MI(av ,fv)

×[max(πAk (v),πF

k (v))]1−MI(av ,fv)

(1.1)

où πAk (v) (respectivement πF

k (v)) représente la densité de possibilité qu’à le voxel v del’image anatomique A (respectivement fonctionnelle F ) d’appartenir à la classe de tissu k.Ces mesures de possibilité s’apparentent à des coefficients flous d’appartenance à une classede tissu. Les opérateurs min et max sont des opérateurs de fusion standard en logique despossibilités (resp. fusion conjonctive et fusion disjonctive). Cependant, ils sont pondéréspar MI, qui est à rapprocher de la mesure d’information mutuelle qui sera introduite plusloin comme critère de similarité pour le recalage, elle est définie par :

MI(av,fv) = ln

(pA,F (av,fv)

pA(av)pF (fv)

)(1.2)

où av (resp. fv) désigne l’intensité de l’image A (resp. F ) au voxel v, et pA,F , pA et pF

les probabilités jointe et marginales, estimées à partir de l’histogramme joint des intensitésdes deux images 13.

Grâce à cet opérateur de fusion, Barra et al. construisent de nouvelles classes de tissunormales ou pathologiques (e.g. matière grise hypoperfusée). Ils génèrent alors soit uneclassification des données suivant ces différentes classes (on associe chaque voxel à sa classela plus possible), soit une image de synthèse ou de fusion (l’intensité de chaque voxel estune moyenne des valeurs d’activité caractéristiques de chaque classe, pondérée par le degréd’appartenance à chaque classe). Ils appliquent cette méthode pour générer une imagecombinant des informations IRM, TEP et TEMP ictale et inter-ictale.

Cependant, l’évaluation clinique de la plus value de toute nouvelle image ainsi synthé-tisée (auxquelles les cliniciens ne sont pas habitués) est loin d’être évidente, notamment dufait de l’absence de gold standard. Il est finalement intéressant de noter que les deux mé-thodes de fusion présentées dans ce paragraphe utilisent l’histogramme joint pour quantifierl’information dite fusionnée. Or, de nombreuses mesures de similarité estimées à partir del’histogramme joint ont été proposées pour recaler les données. L’influence des données deTEMP ictale sur ces critères de recalage fait justement l’objet du chapitre II.6. L’utilisa-tion de ces mesures de similarité pour caractériser le contenu des images, une fois recalées,s’avère un domaine d’étude tout à fait novateur. Sarrut [Sarrut 00] aborde également cetaspect en proposant d’utiliser divers critères de similarité statistique pour indexer par leurcontenu de grandes bases de données d’images, médicales notamment.

1.3.3.3 Comparaison d’informations fonctionnelles :

La notion de fusion au sens de comparaison objective de différents résultats d’exa-mens fonctionnels est envisageable pendant la phase de cartographie fonctionnelle pré-chirurgicale. L’utilisation de techniques d’exploration non invasives comme les études deneuroactivation en TEP ou IRMf ou de potentiels évoqués en MEG/EEG permettent decartographier les aires fonctionnelles. La réalisation de telles cartographies permet d’iden-tifier précisément les aires qu’il sera indispensable de préserver lors de l’acte chirurgical

13. Notons que le critère d’information mutuelle utilisé en recalage n’est autre que l’espérance mathéma-tique de cette statistique, estimée sur tout l’histogramme joint.

Fusion de données multimodales anatomo-fonctionnelles en épilepsie 69

(e.g., somesthésie, motricité, langage). Ces techniques présentent des limitations en termede résolution spatiale et temporelle et posent des problèmes de localisation ou de détectiondélicats (e.g. analyse statistique voxel par voxel en IRMf ou TEP, localisation de sources enMEG/EEG). Le choix du paradigme d’activation est également délicat, notamment lors-qu’on cherche à cartographier les aires cérébrales impliquées dans des fonctions complexescomme le langage ou la mémoire. Dans ces conditions, le fait d’observer des concordancesentre des techniques d’explorations fonctionnelles différentes, utilisant des protocoles d’ac-tivation équivalents, est plutôt rassurant pour le chirurgien. Il faut cependant tenir comptede l’origine physiologique différente des signaux observés, qui peut dans certains cas ex-pliquer que la superposition des activations ne soit pas parfaite. Ainsi, en comparant deslocalisations MEG/IRMf liées à une activation motrice chez 13 volontaires sains, Sanderset al. [Sanders 96] estiment une distance moyenne entre localisations MEG et IRMf del’ordre du centimètre. Nous avons obtenu des résultats du même ordre de grandeur parcomparaison qualitative par un neurochirurgien de localisations MEG / IRMf fusionnéessur l’IRM 3D chez 12 patients candidats à une procédure neurochirurgicale ; il s’agissaitd’activations motrices, somesthésiques (voir figure 1.28) et du langage [Grova 00]. Cetteapproche est à présent utilisée en clinique lors du planning préchirurgical, et permet laréalisation du geste chirurgical sans recours à des stimulations électriques peropératoires.Réaliser une comparaison quantitative de ces informations fonctionnelles demeure néan-moins un problème délicat. Notamment, les différentes résolutions spatiale et temporelledes modalités considérées (cf. figure 1.22) devraient être estimées à partir des données etprises en compte par toute métrique de comparaison. Ce problème n’est pas trivial, vu queces résolutions ne sont pas forcément constantes au sein d’un même examen (e.g., aniso-tropie du voxel en IRMf, méthodes de localisation utilisées en MEG/EEG plus précises ensurface qu’en profondeur).

1.3.3.4 Fusion coopérative et méthodes de reconstruction de sources en MEG/EEG :

Le problème de la localisation de sources électromagnétiques d’activité cérébrale à par-tir de signaux surfaciques acquis en MEG ou EEG est un problème mal posé au sensd’Hadamard. En effet, si dans le plupart des cas il existe une solution à un tel problèmeinverse, elle n’est jamais unique et peut ne pas être stable. Ainsi, afin d’obtenir un locali-sation pertinente en MEG/EEG il convient d’introduire des a priori dans la résolution duproblème inverse. On dénotera alors par le terme de fusion coopérative l’utilisation d’uneautre source d’information, en général une autre modalité, pour assister ou contraindre unproblème de localisation [Schwartz 98, Mattout 02].

La localisation de sources électromagnétiques nécessite tout d’abord la formalisationet la résolution du problème direct, i.e., être capable de calculer les champs électriques etmagnétiques générés sur le scalp à partir d’une source connue. Le problème direct nécessiteune modélisation de la source et du milieu conducteur. La source d’activité est généralementmodélisée par un dipôle de courant (voir §I.1.2.3.1). La modélisation réaliste du milieuconducteur, de son inhomogénéité et de son anisotropie, nécessitent d’avoir recours à unesegmentation et à une classification des différents tissus de la tête à partir de l’IRM (voirpar exemple [Mangin 95, Schattuck 01]). Alors qu’en MEG, une modélisation de la tête pardes sphères concentriques s’avère suffisamment précise et permet une résolution analytiquedu problème direct, l’utilisation de modèles réalistes du milieu est souhaitable en EEG,

70 1.3 Méthodes d’analyse et de fusion de données : besoins pour l’épilepsie

Fig. 1.28 – Résultats de localisations fonctionnelles en MEG (vert) et IRMf (rouge),fusionnées sur l’IRM 3D d’un sujet : exploration somesthésique par stimulation du poucedroit

du fait des grandes différences de conduction électrique des différents tissus et notammentde l’os. L’IRM, pondérée en T1 notamment, ne permettant pas une segmentation précisedes tissus osseux, on peut avoir recours au scanner X ou à des méthodes de classificationdes tissus dédiées. Ces modélisations dites réalistes fournissent un maillage (surfaciqueou volumique) de l’anatomie du sujet étudié à partir duquel des méthodes de résolutionnumérique du problème direct ont été proposées (e.g. méthode des intégrales de frontièresou des éléments finis).

De nombreuses méthodes récentes posent le problème inverse comme un problèmed’identification de l’intensité d’un système de sources distribuées. L’identification précise del’interface matière grise / matière blanche [Mangin 95], permet de contraindre la positiondes sources dipôlaires au ruban cortical, voire leur orientation de façon perpendiculaire à cedernier. La résolution du problème inverse revient alors à estimer à chaque instant l’activitéde chacune de ces sources (de 10000 à 100000 sources). Même s’il se linéarise [Dale 93], ceproblème d’estimation de l’intensité de chaque source devient fortement sous-déterminé.Ces modèles de sources distribuées font appel à des techniques de reconstruction tomogra-phique. La résolution nécessite également l’introduction d’a priori pour restreindre l’espace

Fusion de données multimodales anatomo-fonctionnelles en épilepsie 71

des solutions et mieux conditionner le problème inverse. La figure 1.29 illustre l’introduc-tion de contraintes anatomiques (points de la matière grise) lors de la localisation d’unepointe inter-critique dans le cadre d’une méthode spatio-temporelle développée au labora-toire IDM [Schwartz 99]. La figure 1.29 montre la concordance entre les deux approches, àsavoir la méthode estimant à chaque latence du signal un ou plusieurs dipôles de courantéquivalents, et l’approche avec contraintes de localisation dans la matière grise. Il s’agitdu même cas clinique déjà présenté dans les figures 1.25, 1.26 et 1.27. La localisation despointes inter-critiques enregistrées en MEG a pu être validée par SEEG. Ces méthodespermettent ainsi de fournir de véritables cartographies spatio-temporelles d’activation quel’on peut superposer sur l’IRM anatomique, s’avérant très informatives à la fois pour la car-tographie fonctionnelle mais également pour l’étude de pointes inter-critiques en épilepsie.Des développements récents ont montré qu’il était important d’incorporer des a priori fonc-tionnels dans la résolution du problème inverse, comme par exemple des régions activées enIRMf [Dale 00, Mattout 02]. L’application à l’épilepsie de ces approches, et l’utilisation dedifférentes sources d’imagerie anatomique ou fonctionnelle (e.g. TEMP, TEP, IRM FLAIR)nous paraît une approche prometteuse pour l’étude du réseau épileptogène et notammentde sa dynamique spatio-temporelle.

Fig. 1.29 – Fusion sur l’IRM de la localisation d’une pointe inter-ictale, à une latenceprécise, par la méthode spatio-temporelle avec contraintes anatomiques (texture couleur)et d’un cluster de pointes inter-ictales localisées avec la méthode non contrainte (carrésblancs)

72 1.3 Méthodes d’analyse et de fusion de données : besoins pour l’épilepsie

1.3.4 Identification de “patterns” caractérisant des aires pathologiquesou fonctionnelles au sein d’une population de sujets

Ce paragraphe introduit des méthodes de fusion utilisées afin d’extraire des connais-sances d’ordre plus général concernant un type d’épilepsie. Un tel objectif clinique néces-site d’avoir recours à des analyses inter-individuelles. De nombreuses méthodes d’analysestatistique inter-individuelles sont utilisées de manière quasi-standard en neuroimagerie,notamment pour des études d’activation en TEP ou en IRMf. Ces approches s’avèrent éga-lement intéressantes en épilepsie pour aider à la rationalisation des connaissances. Il s’agitplutôt dans ce cas de comprendre tel ou tel aspect générique et reproductible de la maladie.De telles études sont pour l’instant limitées aux domaines où les connaissances sur la ma-ladie peuvent être traitées ainsi. Jusqu’à présent seule l’épilepsie du lobe temporal, la plusconnue et reproductible, a été analysée à l’aide d’outils de comparaisons inter-individuelles[VanBogaert 00, Lee 00a, Kang 01].

Afin de comparer entre eux différents individus, les méthodes d’analyse de données fonc-tionnelles présentées ici nécessitent un recalage et rééchantillonnage préalable des donnéesvers un référentiel géométrique moyen. Ces approchent utilisent donc en amont des procé-dures de recalage, linéaires ou non linéaires. Un tel référentiel peut provenir soit d’un atlaséventuellement numérique [Talairach 88, Seitz 90, Roland 94, Mazziotta 95, Evans 93], soitd’un examen type, appelé “template”, résultat du moyennage d’un grand nombre d’exa-mens de la même modalité et préalablement recalés (généralement de manière non linéaire).Notons que le logiciel “Statistical Parametric Mapping 99” (SPM99) 14, largement utiliséen neuroimagerie, met à disposition de tels “templates” réalisés à partir de sujets sains,correspondants aux modalités d’imagerie les plus courantes (e.g. IRM T1, T2, densité deproton, TEP , TEMP). Ces approches, dites d’analyse par standardisation anatomique,permettent des comparaisons inter-groupes d’individus, mais également l’analyse d’un su-jet particulier par rapport à une population de référence. Elles permettent en outre defaciliter et d’uniformiser les résultats d’expériences de neuroactivation (en IRMf ou enTEP). Dans la mesure où les transformations, mêmes non linéaires, utilisées lors de cettestandardisation anatomique sont inversibles, les résultats des diverses analyses statistiquespeuvent à nouveau être fusionnés sur l’IRM anatomique d’origine du patient étudié, afinde préparer au mieux l’intervention chirurgicale.

1.3.4.1 Analyse par standardisation anatomique :

Nous reviendrons au §II.4.2 sur une description plus détaillée des différentes techniquesd’analyse par standardisation anatomique principalement utilisées en TEP ou en TEMP.Suivant les études référencées, l’étape de recalage vers le référentiel anatomique moyenest soit manuelle et interactive, soit semi-automatique, soit entièrement automatique. Letype de transformation géométrique utilisé est au minimum affine, plus généralement nonlinéaire, résultant d’une décomposition sur des fonctions de déformation définies globa-lement ou localement (e.g. fonctions polynomiales, fonctions de base radiale), ou encorereprésentée par un champ dense de déformation.

Les principales méthodes employées pour assister l’analyse quantitative en TEP ou en

14. Logiciel SPM99 développé au Functional Imaging Laboratory à Londres(http://www.fil.ion.ucl.ac.uk/spm/).

Fusion de données multimodales anatomo-fonctionnelles en épilepsie 73

TEMP utilisent des ROIs positionnées de manière semi-automatique, grâce au recalage versun atlas [Migneco 94, Tanaka 00]. L’analyse par standardisation anatomique peut égale-ment être réalisée au moyen de VOIs représentant diverses structures anatomiques, posi-tionnés automatiquement sur les données standardisées spatialement [Lobaugh 00, Liow 00,Lee 00b, VanLaere 01b, VanLaere 01a, VanLaere 02, Kang 01]. De par la définition de cesVOIs, ces méthodes imposent un a priori sur la distribution anatomique du phénomèneque l’on cherche à étudier. La troisième technique, largement utilisée, consiste en une ana-lyse voxel/voxel des données normalisées spatialement [Minoshima 94b, Houston 94, Ito 96,Koyama 97, Liow 00, VanLaere 01b, VanLaere 01a, VanLaere 02].

1.3.4.2 Cartographies statistiques d’activation :

L’analyse voxel/voxel après standardisation anatomique est particulièrement adaptéeà des analyses statistiques traitant de manière indépendante chaque voxel. Il est alors pos-sible de générer une carte statistique d’activation représentant en chaque voxel la valeur designificativité du test d’hypothèse utilisé (ou “p-value”), c’est à dire une “Statistical Parame-tric Map” (SPM). De nombreux tests statistiques sont réalisables allant d’un simple test deStudent de comparaison de moyennes de deux populations, à des analyses de la variancepermettant l’analyse de différents facteurs (e.g. sexe, âge). La plupart de ces méthodesd’analyse peuvent être formalisées à l’aide du modèle linéaire généralisé (MLG) proposépar Friston et al. [Friston 95b]. Un seuillage de cette carte d’activation “permettrait” alorsd’apporter une décision au test d’hypothèse correspondant : e.g. il y a une activation IRMf,i.e. le signal est fortement corrélé avec le paradigme d’activation, il y a une différence signi-ficative des moyennes du signal entre deux populations, etc... Cependant, le même test estappliqué de manière indépendante en chaque voxel appartenant à un masque du cerveau.On est donc confronté à un problème de comparaisons multiples, vu qu’il s’agit de réaliserdes milliers de tests dont les statistiques sont spatialement corrélées. La principale méthodede correction utilisée pour tenir compte des corrélations spatiales est issue de la théoriedes champs aléatoires gaussiens [Poline 97]. Après seuillage de la carte de “p-values” préa-lablement gaussiennisées, la méthode de correction utilise l’espérance mathématique dela caractéristique d’Euler, correspondant à la différence entre le nombre de composantesconnexes et le nombre de trous après seuillage, ainsi qu’une estimation de la résolutionspatiale des données. Il est alors possible de tester à la fois les statistiques issues du modèlelinéaire généralisé et l’extension spatiale des régions activées.

Cette approche a été appliquée avec succès dans de nombreuses études de neuroacti-vation en TEP et en IRMf. L’analyse étant généralement de type intra-sujet (notammenten IRMf), la standardisation anatomique vers un référentiel moyen ou un atlas a surtoutpour fonction de permettre la comparaison de résultats au sein de la communauté des neu-rosciences 15. Néanmoins, une étape préalable de correction du bougé entre les différentsexamens est fondamentale. En effet, une erreur minime liée au bougé entre les acquisitionspeut avoir des conséquences désastreuses sur l’analyse statistique du signal [Worsley 95].Le modèle linéaire généralisé est largement utilisé en neurosciences et de plus en plus en cli-nique. Il constitue une méthode de référence vu sa grande souplesse d’utilisation et d’accèsvia la distribution gratuite du logiciel SPM99. En neuroactivation, le paradigme d’acti-

15. Dans de nombreuses études utilisant SPM, les zones activées sont repérées par leurs coordonnées dansle quadrillage proportionnel de Talairach.

74 1.3 Méthodes d’analyse et de fusion de données : besoins pour l’épilepsie

vation (e.g. stimulation par blocs ou monoévènementielle) est le principal régresseur duMLG. En IRMf, il est possible de le convoluer par un modèle de la réponse impulsionnellehémodynamique. En TEP, le modèle prend en compte la question de la normalisation enintensité globale (DSC global), nécessaire à la comparaison de différents examens : cet effetmoyen peut être modélisé de manière additive (classiquement en analyse de la variance),ou de manière multiplicative (normalisation dite “proportional scaling”). Dans les modèlesd’analyse de la variance ou de la covariance au sein de populations de sujets ou de pa-tients, il est possible de modéliser l’effet de facteurs comme le sexe, l’âge, les résultats d’untest neuropsychologique, etc... Néanmoins, le choix du modèle est loin d’être évident. Sion n’utilise pas assez de régresseurs, on aura du mal à expliquer le signal. A l’inverse, sion contraint trop le modèle en utilisant de nombreux régresseurs, on perdra en puissancestatistique des tests. Notons qu’il existe d’autres approches non paramétriques qui tententd’expliquer le signal essentiellement à partir des données (voir par exemple [Benali 01] enIRMf, ou [Houston 94] en TEMP).

Le MLG a été aussi utilisé dans le contexte de l’épilepsie. Vu qu’il s’agit d’identi-fier les caractéristiques reproductibles de la maladie au sein d’une population, ces étudessont restreintes à l’étude de l’épilepsie temporale. Ces études, utilisant des données TEPou TEMP, consistent généralement en des comparaisons de groupes (e.g. sujets sainsvs sujets épileptiques, données ictales vs données inter-ictales) [VanBogaert 00, Ring 99,Muzik 00, Lee 00a], en la comparaison d’un seul sujet par rapport à une population deréférence [Signorini 99, VanBogaert 00, Lee 00a], ou encore en l’analyse des asymétriesinter-hémisphériques d’un sujet épileptique par rapport aux asymétries d’une populationde sujets sains [VanBogaert 00]. Acton et al. [Acton 98] montrent que les approches misesen œuvre dans le logiciel SPM99, initialement développées pour l’analyse des données TEPou IRMf, sont applicables en TEMP. Néanmoins, ils précisent que les tests statistiques sontsouvent trop conservateurs, du fait de la résolution spatiale moindre des données TEMP,et surtout du fait du nombre souvent limité des examens disponibles. Ces approches ont ré-cemment été utilisées pour étudier la distribution du DSCr en TEMP au sein d’une popula-tion de sujets sains [VanLaere 01b, VanLaere 02]. Après classification des tissus (substancegrise, substance blanche et LCR) à partir de données IRM standardisées anatomiquement,il est aussi possible d’utiliser le MLG pour analyser voxel/voxel la concentration de matièregrise au sein de deux populations de sujets : “voxel based morphometry” [Ashburner 00].Cette approche a été appliquée avec succès pour détecter de manière objective des anoma-lies morphologiques de l’hippocampe associées à l’épilepsie temporale [Keller 02].

1.3.5 Aide à la réalisation d’un acte chirurgical

Une fois les différents jeux de données analysés, le clinicien dispose d’un certain nombred’informations caractérisant le réseau épileptogène et son environnement fonctionnel, spé-cifiques du patient étudié. Ces informations peuvent être segmentées et localisées sur l’IRMmorphologique du patient. La figure 1.30 présente un exemple de scène 3D générée à partirde l’analyse des données anatomo-fonctionnelles du patient présenté au §I.1.3.2. On y re-trouve des zones identifiées comme cible, caractéristiques du réseau épileptogène, des zonesconstituant des repères anatomiques, comme les principaux sillons corticaux segmentés àpartir de l’IRM [LeGoualher 99], et des zones fonctionnelles à éviter. Différents systèmes delocalisation 3D permettent de mettre en correspondance le patient au bloc opératoire et ses

Fusion de données multimodales anatomo-fonctionnelles en épilepsie 75

données préopératoires. Cette mise en correspondance permet au chirurgien de bénéficier,pendant la réalisation de son geste, des différentes entités identifiées pendant le planningpréchirurgical. En effet, il peut par exemple utiliser un pointeur 3D pour identifier un pointsur le patient et voir son correspondant apparaître sur la scene 3D du planning, visuali-sée sur une station de travail dans le bloc opératoire. Un autre mode de visualisation durésultat du planning est de superposer dans les oculaires du microscope présentant la vueréelle peropératoire, les contours des entités identifiées comme nécessaires sur les donnéespréopératoires (voir figure 1.31). Nous désignons cette approche sous le terme de neurona-vigation multimodalité [Jannin 00]. Elle est particulièrement intéressante pour la chirurgiede l’épilepsie où, dans de nombreux cas, il n’y a pas de lésion anatomique détectablevisuellement. Elle permet de bénéficier pendant la réalisation du geste des principaux ré-sultats d’examens multimodalité caractérisant le réseau épileptogène et son environnementfonctionnel [Murphy 01]. En amont de la chirurgie, la mise en correspondance d’une IRManatomique 3D et d’angiographies RX permet d’assister l’implantation d’électrodes SEEGen conditions stéréotaxiques, la rendant plus précise et limitant les risques de lésions desvaisseaux [Scarabin 99]. Il nous paraît évident que d’autres informations multimodales déjàutilisées lors du geste chirurgical pourraient également être utilisées lors de l’implantationd’électrodes SEEG.

(a) (b)

Fig. 1.30 – Scènes 3D volumique (a) et surfacique (b) représentant le foyer épileptogène(en rouge, VOI représentant une hypoperfusion en IRM de perfusion) et son environnementanatomique (principaux sillons segmentés automatiquement) obtenue lors du planning pré-chirurgical d’un patient épileptique

76 1.3 Méthodes d’analyse et de fusion de données : besoins pour l’épilepsie

Fig. 1.31 – Neuronavigation multimodalité en chirurgie de l’épilepsie : superposition dansles oculaires du microscope des informations selectionnées lors du planning pré-chirurgical(cf. figure 1.30)

Méthodes de recalage par mesures statistiques de similarité 77

Chapitre 2

Méthodes de recalage par mesuresstatistiques de similarité

Notre objectif étant la validation de méthodes de recalage TEMP/IRM dans le contextede l’épilepsie, ce chapitre est dédié à l’exposé d’une revue générale des méthodes de re-calage utilisées en imagerie médicale. Après avoir introduit les principaux contextes defusion dans lesquels se posent des problèmes de mise en correspondance, la première partiede ce chapitre présente un état de l’art des méthodes de recalage, principalement inspiréde celui que nous avons proposé dans [Jannin 01a, Jannin 01b]. Nous définissons ainsi unproblème de recalage par la spécification des quatre points suivants: l’espace de recherchedes transformations géométriques entre les données, la nature de l’information considéréecomme homologue entre les données, le critère ou la fonction de coût évaluant la qualité dela mise en correspondance de ces structures homologues et finalement la stratégie d’opti-misation de ce critère. La seconde partie est dédiée à une revue beaucoup plus détaillée desméthodes de recalage fondées sur l’optimisation d’un critère statistique de similarité quifont l’objet de ce travail d’évaluation de méthodes de recalage. Les aspects théoriques deces mesures statistiques de similarité, introduits ici, seront réutilisés lors de l’interprétationdes résultats de l’évaluation de telles méthodes appliquées au recalage TEMP/IRM (voirchapitre II.6).

2.1 Revue générale des méthodes de recalage

Cette revue issue de [Jannin 01a, Jannin 01b] ne se veut pas exhaustive vis à vis desaspects purement méthodologiques. Nous cherchons plutôt à insister sur la manière dont semet en place une méthode de mise en correspondance de données vis à vis du problème cli-nique posé. Ainsi nous rappelons tout d’abord les différents contextes de fusion de donnéesdans lesquels se posent des problèmes de recalage. Nous avons vu au chapitre précédentque les quatre contextes présentés ici sont rencontrés lors de la prise en charge chirurgicaled’un patient épileptique.

Pour une revue plus complète des différentes méthodes de recalage utilisées en ima-gerie médicale, nous renvoyons le lecteur vers quelques articles de revue fondamentaux[Brown 92, Maurer 93, VanDenElsen 93, Maintz 98, Hawkes 98, Duncan 00, Hill 01]. No-tons néanmoins que l’état de l’art proposé par Hill et al. [Hill 01], étant le plus récent,

78 2.1 Revue générale des méthodes de recalage

est le plus complet en ce qui concerne les méthodes basées mesures statistiques de simi-larité. En effet, nous assistons à une utilisation accrue de telles méthodes au sein de lacommunauté depuis environ 5 ans, date à laquelle ont été publiés les premiers articles pro-posant pour le recalage un critère issu de la théorie de l’information : l’information mutuelle[WellsIII 96, Maes 97]. L’article de Duncan et al. [Duncan 00] n’est pas dédié au seul pro-blème du recalage, mais propose une présentation chronologique et parallèle de plusieursthématiques de l’imagerie médicale (e.g. segmentation, recalage, analyse du mouvement)permettant de mettre l’accent sur les principales tendances du domaine.

2.1.1 Contextes de mise en œuvre de procédures de recalage

Nous présentons quatre contextes de fusion qu’il est fondamental d’identifier lors dela mise en place d’une procédure de recalage. En effet, ils permettent de choisir au mieuxle type de transformation géométrique ou en intensité recherchée, ou encore d’identifier lanature de l’information homologue entre les données à recaler.

2.1.1.1 Contexte de fusion 1 : recalage intra-sujet et intra-modalité

Ce contexte concerne la fusion entre différents jeux de données provenant d’une mêmemodalité pour un sujet. Trois principaux objectifs cliniques sont associés à ce contexte defusion : (1) suivi dans le temps de modifications dans l’anatomie du patient, (2) compa-raison de différents états et (3) imagerie par soustraction. (1) Le suivi dans le temps demodifications dans l’anatomie du patient permet, par exemple, de suivre la croissance oud’étudier l’évolution d’une zone lésionnelle ou les effets d’un traitement thérapeutique. Enchirurgie ou en radiothérapie, ce contexte de fusion permet de comparer des images pré-et post-opératoires ou pré- et post-traitement. (2) Ce contexte de fusion peut aussi êtreutilisé pour permettre la comparaison de différents états du sujet. La comparaison d’unexamen de TEMP ictale en utilisant l’examen inter-ictal comme niveau de référence aideà la localisation de la zone épileptogène [Duncan 97b]. En IRM fonctionnelle, les mesuresd’activations fonctionnelles peuvent être réalisées par la comparaison statistique d’imagesacquises respectivement dans des états successifs d’activité et de repos [Friston 95b]. Lerecalage intra-sujet et intra-modalité peut aussi être utilisé pour corriger les éventuelsmouvements du sujet pendant une acquisition, notamment dans le cas de séries tempo-relles en IRM fonctionnelle où un léger déplacement pendant l’acquisition peut influer demanière importante sur l’analyse statistique [Worsley 95]. (3) L’imagerie par soustractionest généralement basée sur le calcul d’une différence entre deux jeux de données imagecorrespondant à deux acquisitions différentes réalisées par exemple avec et sans traceurou agent de contraste. En imagerie vasculaire, ce processus de soustraction permet unemeilleure visualisation de l’arbre vasculaire. Un autre exemple d’imagerie par soustractionest la différence TEMP ictale / TEMP inter-ictale recalées et fusionnées sur l’IRM : SIS-COM - Subtracted Ictal Spect CO-registered to MRI [Zubal 95, O’Brien 98, Pérault 02].Pour ces différentes applications la transformation géométrique reliant les données à reca-ler peut, la plupart du temps, être considérée comme rigide, i.e., uniquement composée derotations et de translations.

Méthodes de recalage par mesures statistiques de similarité 79

2.1.1.2 Contexte de fusion 2 : recalage intra-sujet et inter-modalité

Cette deuxième catégorie de contextes de fusion permet de profiter de la nature com-plémentaire des différentes modalités d’imagerie. La mise en correspondance entre donnéesCT et IRM facilite la localisation anatomique conjointe des structures osseuses et des tissusmous. La mise en correspondance de données d’IRM fonctionnelle, de MEG, de TEP ou deTEMP avec une IRM anatomique permet une corrélation anatomo-fonctionnelle, particu-lièrement utile lors d’études préchirurgicales. Dans le contexte de la chirurgie de l’épilepsie,nous avons montré au chapitre I.1 comment l’analyse d’informations multimodales anato-miques et fonctionnelles permettait une meilleure caractérisation du réseau épileptogène(voir par exemple [Stefan 92]). Pendant la réalisation d’une procédure neurochirurgicale,les tissus mous, et notamment les structures corticales, sont sujets à des déformations (ef-fondrement ou dilatation du cortex, cortectomie, etc.). Ainsi, les images pré-opératoires quipeuvent avoir servi à la préparation du geste chirurgical ne correspondent plus à la réalitéanatomique courante du patient. Une façon de corriger ces modifications est d’acquérir desimages en salle d’opération (appelées images per-opératoires, comme l’échographie, l’IRMou le scanner X interventionnels, par exemple) qui fournissent une information permettant,une fois recalées avec les images pré-opératoires, de calculer les déformations à appliquerà ces dernières [Maurer 98, Comeau 98]. Le choix du type de transformation géométrique(rigide ou élastique) est ainsi complètement dépendant de l’application clinique. La na-ture de l’information homologue entre les données peut, quant à elle, ne pas être évidentesurtout lorsqu’une modalité représente l’anatomie et l’autre une fonction cérébrale (e.g.perfusion en TEMP).

2.1.1.3 Contexte de fusion 3 : recalage sujet réel et modalités

Ce contexte de fusion concerne la mise en correspondance entre le sujet réel, les outilsthérapeutiques (outils chirurgicaux, systèmes robotiques, systèmes d’imagerie intervention-nelle, etc.) et des images ou mesures pré- ou per-opératoires. Grâce à des localisateurs 3D(mécaniques [Olivier 94], magnétiques [Doyle 95], optiques [Tebo 96] ou à ultrasons), il estpossible de connaître la position tridimensionnelle du sujet dans un repère défini dans lemonde réel. Connaissant cette position (en salle d’opération, dans la salle de radiothérapieou par rapport à un imageur), il est possible de calculer la transformation géométriqueentre le repère lié au sujet et un repère lié aux images. Les localisateurs 3D permettentaussi de suivre des outils chirurgicaux, repérables, par exemple, à l’aide de diodes élec-troluminescentes pour les localisateurs à infra-rouge, et donc de localiser l’extrémité desoutils, ainsi que leur orientation par rapport aux images. De tels systèmes, appelés sys-tèmes de neuronavigation, font partie des systèmes les plus utilisés en chirurgie guidée parl’image. Ils remplacent progressivement les approches utilisant des cadres de stéréotaxiecomme porte-instrument et auxquels sont attachés des marqueurs permettant le recalagecadre/image. Ces cadres sont fixés sur la tête du patient et optimisent la définition et laréalisation de trajectoires chirurgicales rectilignes pour des biopsies [Jannin 94] ou pourl’implantation d’électrodes profondes en SEEG [Scarabin 99]. En ce qui concerne les sys-tèmes robotisés, ce contexte de fusion correspond à l’interaction entre robots, images etpatient. Les applications, utilisant des systèmes robotiques ou de neuronavigation, sontfréquemment utilisées en neurochirurgie ou en radiologie interventionnelle. Les systèmesde thérapie guidée par l’image, notamment les systèmes de neuronavigation, sont aujour-

80 2.1 Revue générale des méthodes de recalage

d’hui parmi les applications de fusion de données les plus utilisées en routine clinique. Leurutilisation clinique croissante a notamment permis de souligner la plus value apportée parla fusion de données.

2.1.1.4 Contexte 4 : recalage inter-sujet et intra- ou inter-modalité

Ce contexte intéresse la fusion entre des données mono- ou multimodalité concernantdes sujets différents. Les applications principales de cette catégorie de contextes de fusionsont liées à l’étude de la variabilité anatomique ou fonctionnelle au sein d’une populationde sujets (sujets sains ou patients). Ce type de recalage permet de construire des modèlesmoyens correspondant à chaque modalité d’imagerie ou “template” [Evans 93], de comparerles données d’un sujet à un atlas ou à un “template”, de comparer des données concernantdes sujets différents appartenant à une même population ou, enfin, de comparer deuxpopulations de sujets. Ce type de fusion nécessite préalablement une étape de normalisationspatiale vers un atlas ou “template” [Friston 95a]. Ces approches sont appelées analyses parstandardisation anatomique. Le recalage, vers un référentiel commun, de données provenantde sujets différents, mais d’une même modalité et utilisant un même protocole d’acquisition,autorise une analyse statistique inter-individuelle des données. Une telle démarche peut êtreutilisée pour des études statistiques sur la fonction ou la morphologie de données normalesou pathologiques. Un des principaux domaines d’application de ces méthodes est l’étudede la cartographie fonctionnelle cérébrale (Human Brain Mapping project [Mazziotta 95],“Statistical Parametric Mapping”, etc.).

2.1.2 Classification des méthodes de recalage

Le recalage consiste à calculer une transformation entre deux jeux de données pour com-penser des variations spatiales ou d’intensité dues, par exemple, à l’utilisation de systèmesd’acquisition différents ou à des différences de conditions ou de géométrie d’acquisition.Par la suite, et dans cet article, nous nous focaliserons sur les méthodes de recalage quicherchent à compenser les variations spatiales.

L’objectif d’une méthode de recalage est précisément de compenser ce qui peut être va-riable entre les données à recaler, du fait par exemple de conditions d’acquisition différentes,tout en préservant l’information qui est complémentaire, que l’on cherche généralement àmettre en évidence par une approche de type fusion de données.

En reprenant le formalisme introduit par L. Brown [Brown 92], nous définissons uneméthode de recalage par la définition d’un espace de recherche, d’un espace des paramètres,d’une métrique de similarité et d’une stratégie de recherche. L’espace de recherche est dé-fini par la classe de transformations qui modélise les variations entre les données. L’espacedes paramètres est défini par les informations homologues entre les données à recaler. Lamétrique de similarité, ou fonction de coût, fournit une mesure sur la “qualité” de la mise encorrespondance d’un ensemble de structures homologues, pour une transformation donnée.La stratégie de recherche correspond notamment au choix d’une méthode d’optimisation,utilisée pour calculer la meilleure mise en correspondance au sens de la métrique de simila-rité. En d’autres termes, le recalage entre deux jeux de données consiste en l’optimisationd’un critère de similarité mesuré sur les informations homologues extraites des données. Latransformation ainsi estimée peut alors être appliquée aux jeux de données dans leur tota-

Méthodes de recalage par mesures statistiques de similarité 81

lité. Ainsi, à chaque point du premier jeu de données est associé un point correspondantdans l’autre jeu de données.

Dans la plupart des classifications des méthodes de recalage [Maurer 93, Maintz 98,Hawkes 98], la distinction n’est pas toujours faite entre information homologue et fonctionsde coût. Dans notre formalisme, l’information homologue est une caractéristique intrinsèqueaux données, contrairement à la fonction de coût, qui est plutôt homogène à une mesurede “distance” entre structures homologues.

2.1.2.1 Définition des repères géométriques utilisés

Dans le processus de recalage, la définition précise des différents repères géométriquesservant de support aux transformations est une première étape indispensable. Tradition-nellement, trois repères géométriques sont définis : un repère lié aux données, un repère liéau sujet et un repère appelé “mondial”. Le repère lié aux données est basé sur la grille depixels ou de voxels. Le repère lié au sujet est généralement centré par rapport aux don-nées et utilise une métrique millimétrique standard, calculée à partir de la taille du pixelou du voxel fournie par le système d’acquisition d’images. Enfin, le repère “mondial” estla combinaison du repère sujet et d’informations liées à la position et à l’orientation dusujet pendant l’acquisition. Ces informations sont généralement fournies par les systèmesd’acquisition, elles sont stockées avec les images et permettent d’initialiser la procédure derecalage. D’autres repères peuvent être définis en fonction des contextes applicatifs (repèrelié à un cadre de stéréotaxie, repère anatomique de Talairach [Talairach 88] etc.).

Ainsi, nous définissons ici le repère “mondial”, comme le repère des acquisitions sagit-tales. Ainsi, pour les différents résultats présentés dans le chapitre II.6 portant sur l’éva-luation de méthodes de recalage, l’axe x désignera l’axe avant vers arrière, l’axe y l’axehaut vers bas et l’axe z l’axe gauche vers droite.

2.1.2.2 Espace de recherche : type de transformation géométrique

Les types de transformations géométriques permettent de modéliser les variations géo-métriques qu’on cherche à compenser entre les données à recaler. Ces transformationspeuvent être caractérisées par leur nature (rigide, affine ou non linéaire) et par leur do-maine d’application (local ou global).

Transformations géométriques linéaires : Une transformation T est dite linéaire siet seulement si pour tous points de l’espace x1 et x2 elle vérifie :

∀(λ1,λ2) ∈ R2 T (λ1x1 + λ2x2) = λ1T (x1) + λ2T (x2) (2.1)

Les transformations linéaires sont utilisées quand des connaissances a priori sur les don-nées sont disponibles, justifiant les hypothèses de linéarité des variations spatiales (condi-tions d’acquisition, propriétés de rigidité des objets, etc.). L’utilisation de ce type de trans-formations permet de simplifier le problème du recalage, en limitant considérablement ladimension de l’espace de recherche des transformations géométriques.

Une transformation T est dite affine si et seulement si T (x)−T (0) est linéaire (0 étantpar exemple l’origine du repère géométrique). L’expression d’une transformation affineentre deux espaces de dimension N est : T (x) = Ax + b où x et b sont deux vecteurs

82 2.1 Revue générale des méthodes de recalage

colonnes de dimension N et A une matrice N ×N . Les transformations affines permettentde modéliser une grande partie des distorsions spatiales usuelles, car elles représentent lacombinaison de N translations (vecteur b), N rotations, N facteurs d’échelle et N facteursde torsion (ou de cisaillements). Dans le cas du recalage de données tridimensionnelles ouvolumes, les transformations affines s’expriment à l’aide de 12 degrés de liberté.

Dans certains contextes applicatifs particuliers, il est possible de poser des hypothèsesfortes sur les données à recaler. Par exemple, les entités anatomiques contenues dans lesimages peuvent être considérées comme rigides ; la valeur de l’échantillonnage spatial desdonnées peut être connue (ou facilement calculée), des distorsions lors de l’acquisition desimages peuvent avoir été corrigées lors d’un processus de calibrage. Sous de telles hypo-thèses, une nouvelle catégorie de transformations est communément utilisée : les transfor-mations rigides. Une transformation rigide est un sous-ensemble des transformations af-fines, elle est composée de translations, de rotations et d’un facteur d’échelle le plus souventisotropique. Dans le cas du recalage de volumes, les transformations rigides s’exprimentà l’aide de 7 paramètres. Souvent, le facteur d’échelle peut être déduit de l’échantillon-nage spatial des données (taille du pixel ou du voxel), réduisant ainsi à 6 le nombre deparamètres à estimer. Une transformation linéaire globale est uniformément appliquée àl’ensemble du volume, alors qu’une transformation linéaire locale est définie sur un sous-ensemble du volume. Par exemple, la transformation associée au quadrillage proportionnelde Talairach correspond à une transformation affine par morceaux constituée de 12 trans-formations affines locales différentes, chacune associée à l’un des 12 sous-volumes délimitésanatomiquement. Cette transformation est utilisée pour recaler des images de sujets versl’atlas anatomique de Talairach et Tournoux [Talairach 88] .

Transformations géométriques non linéaires : Les transformations non linéairesmodélisent des variations spatiales complexes. Parmi celles-ci, les transformations projec-tives sont un cas particulier utilisé quand les données sont projetées via un système idéald’acquisition d’images et où une dimension, ou plus, est perdue lors de cette transfor-mation. Ce type de transformation est principalement rencontré dans des problèmes derecalage 3D/2D.

Les transformations non linéaires sont généralement appelées transformations élastiquesou déformations. Ces transformations peuvent être modélisées soit par une simple fonctionnon linéaire (fonction paramétrique) définie sur l’ensemble du volume (dans le cas de trans-formations 3D), soit par des déformations locales non linéaires. Ces dernières sont mieuxadaptées à des variations complexes et peuvent être estimées à l’aide de champs densesde déformation où un vecteur de déplacement local est associé à chaque nœud d’une grilledéfinie sur les données. Ces transformations sont généralement définies à l’aide d’un termelié aux données (correspondant à la mesure d’une fonctionnelle de coût entre les nœuds) etd’un second terme énergétique qui permet de s’assurer du degré de régularité spatiale de latransformation. Des méthodes d’interpolation sont ensuite utilisées pour calculer le champde déformation sur la totalité du volume et/ou localement en chaque nœud de la grille, per-mettant d’assurer la régularisation du champ. Nous renvoyons le lecteur vers [Cachier 03],pour une classification des différents modèles de déformations et des termes d’attache auxdonnées correspondant. Dans le cas d’informations homologues de type point, la régularisa-tion est effectuée par des techniques d’interpolation basées sur des fonctions de base radiale[Bookstein 89]. Dans le cas d’informations homologues de type surfaces, la régularisation

Méthodes de recalage par mesures statistiques de similarité 83

est obtenue par l’utilisation de modèles élastiques mécaniques [Sandor 97], de déformationsde type super-quadriques [Thompson 96] ou splines [Szeliski 96]. Dans le cas d’informationshomologues basées sur des mesures statistiques de similarité locale, les schémas de régu-larisation peuvent être fondés sur des propriétés mécaniques [Bajcsy 89, Gee 93] (commel’élasticité, la plasticité ou la viscosité) ou de type fluide [Miller 93, Christensen 95]. Ci-tons également les déformations multi-échelle [Collins 94] ou celles utilisant le concept dediffusion [Thirion 98] par opposition au concept d’attraction. Les transformations non-linéaires peuvent aussi modéliser les variations d’intensité entre les données à recaler, e.g.,[Guimond 01] proposent de résoudre un problème de recalage non linéaire multimodal encombinant l’estimation d’une transformation en intensité entre les deux modalités et uneméthode de recalage non linéaire monomodal sur les données ainsi transformées en in-tensité. Les transformations non linéaires sont principalement utilisées dans deux types desituations : (1) quand les jeux de données à recaler ne correspondent pas à la même instancedu substrat anatomique (dans le cas, par exemple, de recalage inter-sujet, ou de recalagevers un atlas ou vers un modèle) et (2) quand un substrat anatomique commun existe entreles données mais qu’il est distordu par une déformation non-rigide : correction de déforma-tions liées à l’acquisition ou à des structures ayant des états différents (dû, par exemple, àla croissance de la structure anatomique ou pathologique, à la comparaison d’une structuresaine avec une structure pathologique, ou la comparaison de données pré-opératoires avecdes données post-opératoires ou per-opératoires).

2.1.2.3 Espace des paramètres : type d’information homologue

L’information homologue correspond à une information extraite des données à recaleret sur laquelle est basée la recherche de la transformation géométrique optimale au sensde l’optimisation d’une fonctionnelle de coût. L’information homologue peut être classi-fiée par sa dimension : 0 D (point), 1 D (contour), 2 D (surface), 3 D (volume) ou n D(hypersurface) et par la dimension de son espace d’évolution : 2 D (image, surface ou pro-jection), 3 D (volume, hypersurface) ou n D (hypersurface) avec ou sans une dimensiontemporelle supplémentaire [Barillot 99a]. L’information homologue est aussi fréquemmentclassifiée par son type, notamment extrinsèque versus intrinsèque. Les méthodes de reca-lage basées sur une information homologue extrinsèque utilisent des objets artificiels liésau sujet et conçus pour être facilement identifiables dans les images. Par conséquent, cesméthodes nécessitent un protocole particulier d’acquisition d’images. Parmi ces méthodes,les techniques invasives utilisent, notamment, des marqueurs osseux vissés directementdans les structures osseuses du patient ou des cadres de stéréotaxie. Les techniques non-invasives utilisent, par exemple, des marqueurs adhésifs collés sur la peau du patient.Les méthodes utilisant de l’information de nature intrinsèque utilisent différentes carac-téristiques anatomiques, géométriques ou des caractéristiques liées à l’intensité des voxelsde l’image entière. Les caractéristiques anatomiques peuvent être des points anatomiquesconnus (par exemple, commissure antérieure et commissure postérieure dans le cas d’imagescérébrales [Talairach 88]), des lignes ou des surfaces anatomiques remarquables (surface dela peau, surface des ventricules, sillons corticaux [Collins 98a], etc.) ou enfin des volumesanatomiques (cerveau, structures osseuses, vaisseaux, etc.). Les points anatomiques sontgénéralement choisis manuellement alors que les lignes, surfaces ou volumes nécessitentune procédure de segmentation initiale. Les caractéristiques géométriques ou primitives

84 2.1 Revue générale des méthodes de recalage

géométriques consistent en des points, lignes, surfaces ou volumes qui ne correspondentpas directement à des structures anatomiques mais à des caractéristiques calculées à par-tir des images (gradients, extremum local de courbures [VanDenElsen 95], lignes de crêtes[Subsol 94], etc.). Parce qu’elles sont directement liées à une connaissance anatomique apriori, les informations homologues basées sur des repères anatomiques sont généralementpréférées aux informations basées sur des caractéristiques géométriques. Le calcul d’uneinformation homologue intrinsèque à partir des intensités (appelée aussi approche iconique)utilise soit directement les intensités de l’image en les considérant comme des réalisationsd’une variable aléatoire quantitative ou qualitative, soit les intensités pondérées par la lo-calisation du pixel ou du voxel (axes principaux, moments d’inertie, etc.). L’informationhomologue intrinsèque est notamment préférée quand il est difficile d’extraire des struc-tures communes des jeux de données. Elle permet aussi de faciliter l’automatisation desméthodes de recalage.

2.1.2.4 Métrique de qualité de la mise en correspondance : fonction de coût

La fonction de coût correspond à un critère objectif, utilisé pour estimer la qualitédu recalage pour une transformation donnée. Elle est définie en fonction de l’informationhomologue et du type de la transformation à estimer. En utilisant le formalisme défini parL. Brown [Brown 92], la fonction de coût définit une métrique de similarité des structureshomologues grâce à laquelle est mesurée la qualité de l’estimation de la transformation,étant donnés un espace de paramètres et un espace de recherche. On peut distinguer deuxprincipales familles de fonctions de coût : celles utilisant des distances euclidiennes dansl’espace et celles utilisant des mesures de similarité statistique dans l’espace des intensitésdes images.

Lorsque l’information homologue est de nature extrinsèque aux données, la fonction decoût correspond souvent à une estimation de distance euclidienne moyenne. Le problèmede la mise en correspondance de points de type marqueurs externes ou références ana-tomiques est généralement formulé par une approche de type minimisation des moindrescarrés. Quand les structures homologues sont plus complexes, d’autres critères de distancesont utilisés comme la méthode “head-hat” [Pelizzari 89] ou des transformées en distancecomme la distance de chanfrein [Borgefors 88, VanHerk 94, deMunck 98, Foehrenbach 99].La distance euclidienne entre points est calculée dans un espace continu alors que la distancede chanfrein est calculée sur une grille discrète et dans un espace discret. Ces méthodesont prouvé leur efficacité et leur robustesse dans le recalage multimodalité intra-sujet enutilisant, par exemple, la surface de la peau comme information homologue, celle-ci étantfacilement identifiable dans les images IRM, Scanner X et à moindre degré TEP et suffi-sante pour contraindre le calcul d’une transformation rigide. Quand le recalage est basésur une information homologue qui utilise la distribution des intensités de l’image, des cri-tères s’appuyant sur des mesures statistiques de similarité sont utilisés. Ces critères posentgénéralement des hypothèses sur la nature de la dépendance statistique entre les donnéesà recaler. Une description détaillées de tels critères fait l’objet de la deuxième partie de cechapitre.

Méthodes de recalage par mesures statistiques de similarité 85

2.1.2.5 Stratégie de recherche : méthodes d’optimisation

La stratégie de recherche consiste en la définition d’une méthode qui permet de calculerla mise en correspondance optimale entre des jeux de données, i.e., une méthode qui permetde calculer la meilleure transformation au sens de la fonctionnelle de coût mesurée entre lesinformations homologues. En fonction des hypothèses ou des contraintes, le problème del’optimisation peut avoir une solution analytique (e.g. solution analytique d’un problème derégression linéaire au sens des moindres carrés) ou peut nécessiter l’utilisation de méthodesitératives. De nombreuses méthodes existent dans la littérature (citons [Press 92]). Le choixd’une méthode d’optimisation est un choix algorithmique qui dépend de la fonction decoût et de ses propriétés mathématiques, plus que du contexte clinique. Dans le contextedes problèmes de recalage d’images médicales, les méthodes d’optimisation peuvent êtreclassifiées comme suit [Barillot 99a] :

– Approches quadratiques ou semi-quadratiques : Ces méthodes sont basées sur l’hy-pothèse de convexité ou de quasi-convexité de la fonction de coût au voisinage de lasolution optimale. Parmi celles-ci, on trouve les méthodes de descente de gradient, dePowell, de Newton-Raphson, du Simplex, pour la convexité ou la méthode dite ICP(Iterative Closest Point) pour la quasi-convexité. Ces méthodes sont bien adaptéesaux problèmes bien contraints. Généralement, ce sont les propriétés de la fonctionde coût (comme, par exemple, sa différentiabilité ou sa régularité) qui conduisent auchoix de la méthode d’optimisation.

– Les approches stochastiques ou basées statistiques : Les méthodes comme le recuitsimulé ou les algorithmes génétiques se comportent de manière efficace en présencede points aberrants. Elles sont donc plus fiables pour la résolution de problèmesfaiblement contraints (dits sous déterminés) et évitent les minima locaux. Néanmoins,les avantages en terme de robustesse sont font au prix des temps de calcul importants.

– Les approches structurelles : Ces méthodes s’appuient sur des techniques d’optimisa-tion basées sur l’utilisation d’arbres ou de graphes. Elles nécessitent l’étude exhaus-tive de l’espace de recherche pour trouver la solution optimale. Un optimum globalest toujours atteint nécessitant un temps de calcul important. Les méthodes structu-relles sont bien adaptées aux cas où les mesures de similarité peuvent être formaliséespar une structure hiérarchique.

– Les approches heuristiques : Ces méthodes consistent généralement en une rechercheinteractive d’un optimum, en cherchant, par exemple, à optimiser visuellement lesmesures de similarité.

De plus, il peut être intéressant d’associer à la méthode d’optimisation une stratégied’optimisation pour résoudre les problèmes classiques liés à toute optimisation : éviter lesextrema locaux et/ou réduire le temps de calcul. Pour cela, des stratégies de type multi-résolution ou multi-échelle peuvent être utilisées (voir par exemple [Hellier 01b]), permet-tant de travailler à des résolutions croissantes pour une meilleure mise en correspondanceà chaque résolution. En ce qui concerne la définition d’une stratégie d’optimisation, onpeut aussi trouver l’initialisation de la recherche avec une solution adaptée, l’adaptationdes contraintes (i.e. informations homologues) durant le processus d’optimisation ou l’uti-lisation combinée de plusieurs méthodes d’optimisation.

86 2.2 Recalage basé sur des mesures statistiques de similarité

2.2 Recalage basé sur des mesures statistiques de similarité

2.2.1 Pourquoi s’intéresser aux mesures statistiques de similarité?

Les méthodes de recalage basées sur des mesures statistiques de similarité ou encoreiconiques occupent une place privilégiée parmi les méthodes de recalage de données médi-cales. C’est surtout le cas des approches entropiques, comme l’information mutuelle, quiont montré leur efficacité et leur robustesse dans un grand nombre de situations, notam-ment les problèmes de recalage mono- ou multi-modalité rigide ou non linéaire. J. Duncanet N. Ayache [Duncan 00] suggèrent que les excellents résultats obtenus avec ces approchesiconiques, publiés dans la principale étude multicentrique d’évaluation de méthodes de re-calage rigide [West 96, West 97], ont suscité de nombreux efforts au sein de la communautéet conduit à la mise au point de nouvelles mesures. De manière générale, les approches dé-duites de la théorie de l’information sont de plus en plus envisagées par d’autres domainesdu traitement d’images médicales que le recalage comme par exemple l’analyse du signalIRMf [Tsai 99], la reconstruction tomographique [Amblard 01], la fusion TEMP/TEP/IRM[Barra 01], ou encore l’application de l’analyse en composantes indépendantes [Cardoso 98]à la localisation de sources en MEG/EEG [Vigario 00].

Sans prétendre fournir une bibliographie exhaustive des travaux traitant du recalagebasé sur des mesures statistiques de similarité, nous avons plutôt tenté de recenser lesarticles caractéristiques de chaque méthode. Nous nous restreignons également au cas durecalage rigide ou affine. Nous proposons ainsi une classification des mesures statistiquesde similarité, en faisant la synthèse notamment de trois travaux de thèse considérant lesintensités des images soit comme des variables quantitatives [Roche 01a], soit comme desvariables qualitatives [Pluim 00b, Sarrut 00].

Un autre intérêt du recalage utilisant des mesures statistiques de similarité est queces méthodes ne requièrent en général aucun pré-traitement. Les hypothèses quant auxcaractéristiques homologues des images qui vont permettre le recalage sont nettementmoins formalisées que dans les méthodes utilisant des caractéristiques géométriques desimages (e.g. recalage basé surface). En effet, dans les approches géométriques, ces caracté-ristiques homologues doivent être clairement identifiées dans les données avant la mise encorrespondance, et nécessitent sinon d’être segmentées, au moins d’être réhaussées. Ainsi,l’évaluation de ces méthodes requiert à la fois l’évaluation des performances de la méthoded’extraction ou de segmentation de ces caractéristiques et l’évaluation de la méthode demise en correspondance elle-même. Les diverses méthodes de recalage utilisant des mesuresstatistiques de similarité, s’appliquant directement à tous les niveaux de gris des images,peuvent être mise en œuvre de la même manière, et sont donc aisément comparables entreelles. Néanmoins, ces méthodes utilisent également des caractéristiques homologues, mêmesi elles sont plus difficiles à relier au contenu de l’image (en terme de contenu anatomiqueet physiologique) : ce sont les hypothèses caractérisant le “lien” entre les images à recaler.Ainsi, lorsque l’on décide d’utiliser une mesure statistique de similarité, il est fondamentalde prendre en compte les hypothèses sous-jacentes, déduites de la nature de la simila-rité reliant les intensités des données. Nous préciserons ces hypothèses pour les différentesmesures que nous allons présenter.

Néanmoins, il est relativement difficile de caractériser ce “lien” sur des données cliniques,surtout en condition pathologique. Or, nous montrerons que la plupart de ces méthodes

Méthodes de recalage par mesures statistiques de similarité 87

s’avèrent efficaces et robustes lors du recalage IRM / TEMP ictale ou inter-ictale. L’undes objectifs de cette thèse est ainsi d’aider à comprendre ce côté un peu “magique” dufonctionnement de ces méthodes notamment dans des conditions pathologiques, lorsqueles hypothèses ne sont certainement pas valides ou difficiles à vérifier. A plus long terme,notre étude vise à faire le lien entre la connaissance de la nature théorique de ce “lien” et lechoix de la mesure idéale pour obtenir la meilleure mise en correspondance possible, voiremodéliser au mieux celui-ci à partir du type de données que l’on cherche à traiter, afin deproposer une méthode de recalage adaptée au contexte clinique.

Nous allons tout d’abord présenter quel est le principe générique d’une méthode derecalage basée sur l’optimisation d’un critère de similarité. En rappelant les contraintesspécifiques liées aux volumes 3D discrets qui constituent la majeure partie des donnéesmédicales que l’on cherche à mettre en correspondance, nous présenterons quelles doiventêtre les propriétés d’une mesure statistique de similarité idéale. Quelques éléments théo-riques, venant notamment de la théorie de l’information, présenteront les principaux élé-ments permettant de construire un mesure de similarité. Comment mesurer l’informationdans les données? Quelle métrique utiliser pour caractériser un lien entre deux quantitésd’information? Nous présenterons ensuite une classification des différentes mesures statis-tiques de similarité couramment utilisées pour le recalage mono- ou multi-modalité. Nousavons fait le choix de distinguer les méthodes considérant les intensités des images commedes variables quantitatives, de celles considérant les intensités des images comme des va-riables qualitatives. Nous finirons par la présentation de quelques méthodes proposant unemesure statistique de similarité à partir d’une modélisation du processus ayant permis degénérer les données à recaler : ces approches posent le problème du recalage basé sur desmesures statistiques de similarité comme un problème d’inférence statistique des différentsparamètres du modèle à partir des données.

2.2.2 Principe de la mise en correspondance par mesures statistiques desimilarité

2.2.2.1 Position du problème

Le principe des méthodes de recalage utilisant des mesures statistiques de similaritéest précisément de trouver la transformation géométrique T qui permet de garantir queles intensités des données sont les plus “similaires” possibles lorsqu’elles sont en parfaitemise en correspondance géométrique. La particularité de ces méthodes est de se baser uni-quement sur les intensités des voxels pour quantifier cette “similarité” ou “lien” statistiqueentre les données. Alors qu’en recalage monomodalité, ce lien peut se quantifier de manièretrès simple par une formulation de type moindres carrés, en recalage multimodalité il estfondamental de tenir compte du fait que les intensités des images à recaler reflètent desinformations homologues mais également complémentaires. C’est le cas lorsqu’une des don-nées caractérise l’anatomie (e.g. l’IRM) et l’autre une fonction (e.g. perfusion en TEMPictale). Ainsi, de manière générique, une mesure statistique de similarité devra formali-ser cet aspect par une transformation en intensité f permettant de rendre les donnéescomparables.

Ainsi, de manière générique, pour recaler deux volumes de données (la plupart du temps3D) A et B, il faut construire une mesure statistique de similarité S définie par :

88 2.2 Recalage basé sur des mesures statistiques de similarité

ST,f (A,B) = ‖A,f B T‖ (2.2)

où A désigne l’image de référence et B l’image flottante. Pour pouvoir être comparé àl’intensité de A en un voxel xk, on transforme les coordonnées de ce voxel par T afin dese situer dans le référentiel de l’image B, on est alors capable de calculer l’intensité dece point dans l’image B puis de la transformer par f . En résumé, s’il s’agit d’une mesurelocale au voxel xk, on compare A(xk) et f(B(T (xk))). ‖,‖ désigne une mesure quantifiantla “similarité” entre A et f B T . Elle peut s’exprimer comme la négation d’une normesur un espace Hilbertien Lp mesurant une distance entre les valeurs des intensités desimages (e.g. norme de L2 : norme quadratique, norme de L1 : distance de Manhattan). ‖,‖peut également représenter une métrique quantifiant la similarité des images à partir desdistributions de probabilité de leurs intensités, considérées dès lors comme des variablesqualitatives.

La transformation géométrique T appartient à l’espace des transformations géomé-triques possibles T (e.g. transformations rigides, affines, non linéaires). De même, f ap-partient à un espace F des transformations en intensité. De manière générale, f peutêtre considérée comme instationnaire et dépendra alors à la fois des intensités de B maisaussi de la position dans l’espace des voxels en lesquels elle est évaluée. La résolution d’unproblème de recalage basé sur des mesures statistiques de similarité consiste à estimer latransformation géométrique T qui maximise la similarité entre deux données :

T = argmax T∈T ,f∈F (ST,f (A,B)) (2.3)

2.2.2.2 L’image médicale : une variable aléatoire discrète

Les images A et B sont les entités à partir desquelles vont être estimés les différentscritères statistiques de similarité. Faire le lien entre l’expression théorique de ces mesuresde similarité et leur estimation à partir des images A et B n’est pas immédiat et nécessiteau préalable une description de la structure d’une image médicale. Revenons préalablementà la définition d’une variable aléatoire.

Une variable aléatoire (v.a.) réelle X est par définition une application mesurable d’unespace probabilisé (Ω,A,Pr) dans l’espace probabilisable (R,B). Ω désigne l’ensemble desévénements aléatoires élémentaires, A désigne la tribu maximale associée à Ω, à savoirl’ensemble “maximal” des sous-ensembles de Ω qui sont aussi des événements, et auxquelson peut donc associer une probabilité Pr ∈ [0,1]. R désigne la droite réelle et B la tribudes boréliens 1. La condition de mesurabilité implique que :

∀ borélien B ∈ B, ω ∈ Ω tq X(ω) ∈ B est un élément de A (2.4)

Il est alors possible d’associer à la variable aléatoire X une loi de probabilité PX définiepar :

PX : (R,B) → [0,1]B ∈ B 7→ PX(B) = Pr(ω ∈ Ω tq X(ω) ∈ B) (2.5)

1. La tribu des boréliens est la tribu maximale associée à la droite réelle R. On montre qu’elle estconstituée de la réunion d’un nombre dénombrable d’intervalles ouverts.

Méthodes de recalage par mesures statistiques de similarité 89

Par abus de notation, on notera généralement PX(B) = P (X ∈ B).Ces définitions peuvent s’appliquer aux images A et B. Ainsi, l’image A peut être

considérée comme une variable aléatoire définie sur une grille de voxels ΩA et à valeurdans un alphabet d’intensités I. Pour des données où chaque voxel est codé par un octet,on aura typiquement I = 0,1,2, . . . ,255. Ainsi, la grille voxel ΩA définit l’ensemble desévénements élémentaires, et la probabilité Pr est choisie comme étant uniforme sur ΩA.Ainsi, on considère tous les voxels de l’image de la même manière. A est donc une variablealéatoire discrète, définie sur l’ensemble des événements élémentaires ΩA également discretet fini. Il est possible de considérer A comme une variable aléatoire continue à valeurdans R, notamment lorsque l’on utilise la méthode de Parzen [WellsIII 96] pour estimer ladensité de probabilité de A. Dans le cas où A est considérée comme une variable aléatoirediscrète, on lui attribue une loi de probabilité PA, définie comme suit :

PA : I → [0,1]i 7→ PA(i) = P (A = i) = Pr(ω ∈ ΩA tq A(ω) = i) (2.6)

Ainsi, une des caractéristiques principales des images A et B que l’on va chercher àrecaler, est qu’elles sont respectivement définies sur des espaces dénombrables finis, i.e., lesgrilles de voxels ΩA et ΩB . Pour les données que l’on va considérer ici, les données et doncles grilles de voxels sont tridimensionnelles. Elles sont caractérisées par un échantillonnagespatial dans les trois directions de l’espace rA

x , rAy et rA

z (respectivement rBx , rB

y et rBz ). Cet

échantillonnage est complètement dépendant de la modalité d’imagerie utilisée, et souventune estimation, plus ou moins précise, est fournie par le constructeur. De manière générale,si l’échantillonnage n’est pas identique dans les 3 directions de l’espace, on parle de voxelanisotrope. L’échantillonnage spatial est en général différent entre deux données surtoutlorsqu’elles sont multimodales. Ainsi, en pratique il y a très peu de chances que la grillede voxels ΩA coïncide avec la grille ΩB, et encore moins lorsque B est transformée spatia-lement par la transformation géométrique T . En effet, pour gagner en précision, l’espacede recherche T de la transformation géométrique T est généralement considéré commecontinu. De ce fait, l’estimation de ST,f (A,B) nécessite d’avoir recours à des méthodesd’interpolation des données. En plus de l’échantillonnage, les images médicales sont carac-térisées par l’exploration d’un champ de vue fini, très variable également d’une modalité àl’autre. Ce champ de vue peut, suivant les cas, couvrir largement toute la tête du sujet oudans d’autres cas n’être limité qu’à une partie du cerveau (quelques coupes généralement).L’estimation d’un critère statistique de similarité ne sera ainsi possible que dans la zone derecouvrement partiel de A et de B T . Nous noterons ΩT

A,B cette zone de recouvrementpartiel, caractérisée par l’ensemble de voxels de A pour lesquels il est possible de calculerpar interpolation l’intensité du point correspondant de B T .

De même que pour A, on peut considérer B T comme une variable aléatoire définiesur la zone de recouvrement partiel de A et de B T , ΩT

A,B, comme ensemble des événe-ments élémentaires. Dans le cas de variables aléatoires discrètes, on lui attribue une loi deprobabilité PBT , définie comme suit :

PBT : I → [0,1]i 7→ PBT (i) = Pr(ω ∈ ΩT

A,B tq B(T (ω)) = i) (2.7)

Notons cependant que vu que T (ω) ne coïncide que rarement avec un nœud de la grilleΩB, le calcul de B(T (ω)) qui nécessite d’avoir recours à une interpolation, a été omis ici

90 2.2 Recalage basé sur des mesures statistiques de similarité

(voir §I.2.2.2.4). Par souci d’alléger les notations, nous utiliserons P ↓B pour PBT . La flèche

orientée vers le bas sera utilisée pour indiquer une dépendance en T et la nécessité d’avoirrecours à une interpolation lors de l’estimation.

Nous verrons que la plupart des mesures de similarité consistent de manière plus oumoins directe à comparer les intensités A(xk) et f(B(T (xk))). Cette comparaison peutnécessiter d’avoir recours à la loi de probabilité jointe du couple de variable aléatoire(A,B T ) que l’on définit alors par :

PA,BT : I × I → [0,1](i,j) 7→ PA,BT (i,j) = Pr(ω ∈ ΩT

A,B tq A(ω) = i et B(T (ω)) = j)(2.8)

On définit de manière analogue la loi jointe du couple de variables aléatoires (A,f B T ), vu que l’on pose f comme une fonction déterministe. Pour les mêmes raisons queprécédemment, nous utiliserons la notation P ↓

A,B pour PA,BT .

Méthodes de recalage par mesures statistiques de similarité 91

2.2.2.3 Principales notations utilisées

A image de référenceB image flottante à recaler avec AΩA grille voxel de l’image de référence ANA = Card(ΩA) nombre de voxels de l’image de référence AΩB grille voxel de l’image flottante BNB = Card(ΩB) nombre de voxels de l’image flottante BT transformation géométrique de A vers BT espace des transformations géométriquesf transformation en intensité de BF espace des transformations en intensitéω un voxel d’une des différentes grillesxk = (xk

1,xk2,x

k3)

′ coordonnées du kieme voxel de la grille ΩA dans référentiel mondial(sagittal, centré, millimétrique)

yk = (yk1 ,yk

2 ,yk3 )′ coordonnées du kieme voxel de la grille ΩB dans référentiel mondial

axe 1 ou x antérieur vers postérieuraxe 2 ou y tête vers piedsaxe 3 ou z gauche vers droiteI espace des intensités des images (continu ou discret)ak = A(xk) intensité dans A du kieme voxel de ΩA

b↓k intensité dans B au point T (xk) après interpolationB↓ image B rééchantillonnée dans le référentiel de A (ensemble des b↓k)ΩT

A,B zone de recouvrement partiel de A et de B T

i.e., ensemble des xk de ΩA tels que l’on peut calculer b↓kN = Card(ΩT

A,B) nombre de voxels de la zone de recouvrement partiel

w↓kl coefficient de pondération lié à la distance entre T (xk)

et son lieme voisin sur la grille ΩB

ST,f (A,B) mesure statistique de similarité entre A et f B T

T estimation de la transformation géométrique au maximum de S

f estimation de la transformation en intensité au maximum de SPA loi de probabilité de l’image A considérée comme une v.a. sur ΩA

P ↓B = PBT loi de probabilité de l’image B T considérée comme une v.a. sur ΩT

A,B

P ↓A,B = PA,BT loi de probabilité jointe des images A et B T

pA estimation de PA à partir des réalisations de A sur ΩTA,B

p↓B estimation de PB à partir des réalisations de B T sur ΩTA,B

p↓A,B estimation de P ↓A,B à partir des réalisations de A et de B T sur ΩT

A,B

92 2.2 Recalage basé sur des mesures statistiques de similarité

X une variable aléatoire réellex réalisation de la variable aléatoire XPX loi de probabilité de XpX densité de probabilité de XY une variable aléatoire réelley réalisation de la variable aléatoire YPY loi de probabilité de YpY densité de probabilité de YPX,Y loi de probabilité jointe du couple de (X,Y )pX,Y densité de probabilité jointe du couple de (X,Y )

2.2.2.4 Interpolation et estimation des lois de probabilité

Interpolation : Pour gagner en précision, la transformation géométrique T utilisée pourle recalage est choisie dans un espace continu (e.g. pour une transformation rigide les trans-lations sont exprimées en mm et les rotations en ). Ainsi, pour tout voxel xk de la grilleΩA, le correspondant de ce point dans l’image B, T (xk), ne coïncide qu’exceptionnellementavec un point de la grille ΩB. L’estimation de l’intensité de B au point T (xk) nécessitedonc d’avoir recours à une méthode d’interpolation à partir des intensités des points de lagrille ΩB voisins de T (xk). On notera b↓k cette estimation.

La théorie de l’échantillonnage de Shannon annonce qu’il est possible d’interpoler par-faitement un signal à bande fréquentielle limitée échantillonné périodiquement à partir defonctions sinus cardinal (sinc). Néanmoins, Hill et al. [Hill 01] précisent que les imagesmédicales ne sont pas à bande limitées, vu qu’elles résultent généralement d’un fenêtragepar une fonction rectangulaire sur le champ de vue exploré. De plus, la fonction sinc étantde support infini, elle n’est pas utilisable en pratique sans troncature.

A. Roche [Roche 01a] rappelle que l’interpolation par décomposition sur une base defonctions B-splines de degré d est intéressante d’un point de vue calculatoire, et convergevers la fonction sinc lorsque d tend vers l’infini. La plupart des méthodes de recalage baséessur des mesures statistiques de similarité utilisent des méthodes itératives d’optimisationet requièrent ainsi plusieurs évaluations successives de la mesure de similarité S. Chaqueestimation de S nécessite, directement ou indirectement, un rééchantillonnage de B dans leréférentiel de A via la transformation T , et donc le recours à une interpolation des intensitésde B. De ce fait, pour limiter la complexité calculatoire, les techniques d’interpolationcouramment utilisées se basent sur des fonctions B-splines de degré 0, l’interpolation plusproche voisin, ou de degré 1, l’interpolation trilinéaire. Pour les mêmes raisons, l’estimationde l’intensité de B en T (xk) ne considérera que ses 8 plus proches voisins yl dans la grilleΩB , et sera de la forme :

b↓k ≈l=8∑

l=1

w↓klB(yl) (2.9)

Interpolation plus proche voisin :

w↓kl =

1 si yl est le plus proche voisin de T (xk)0 sinon

(2.10)

Méthodes de recalage par mesures statistiques de similarité 93

Interpolation trilinéaire :w↓

kl = β13(T (xk) − yl) (2.11)

avec

β13(z) =

(1 − |z1|)(1 − |z2|)(1 − |z3|) si z ∈ [−1; 1]3

0 sinon

où β13 désigne justement une B-spline de degré 1 en dimension 3. z désigne un vecteur

tridimensionnel. Pour simplifier les notations, on suppose ici que les dimensions du voxel deΩB sont toutes égales à 1, ce qui revient à considérer les coordonnées du vecteur T (xk)−yl

dans le référentiel data de la grille ΩB (voir §I.2.1.2.1).

Estimation des lois jointes et marginales : Quantifier la similarité entre deuximages, considérées comme des variables aléatoires, peut nécessiter une estimation deslois de probabilité de ces variables aléatoires. De nombreuses mesures de similarité issuede la théorie de l’information, dont l’information mutuelle, requièrent l’estimation de la loijointe PA,BT .

Rappelons que l’image A est une variable aléatoire définie sur l’espace probabiliséconstitué de ΩA, de sa tribu maximale et de la probabilité Pr uniforme. La proportion em-pirique étant l’estimateur habituel permettant de caractériser une distribution uniforme,on en déduit une estimation de PA(i) pour tout i ∈ I :

pA(i) =#ω ∈ ΩA tq A(w) = i

#ω ∈ ΩA(2.12)

où la notation # représente le cardinal de l’ensemble. On reconnaît alors la notion d’his-togramme des intensités d’une image. Pour que l’histogramme soit un bon estimateur dePA, il est nécessaire que le nombre d’échantillons observés, i.e. le nombre de voxels, soitgrand devant le nombre possible de valeurs d’intensité. C’est généralement le cas pour laplupart des images 3D lorsque les données sont codées sur 1 octet (I = 1,2, . . . ,255).Cette condition n’est par contre plus vérifiée dès lors que les intensités de l’image sontcodées sur 2 voire 4 octets. Il est dans ce cas nécessaire de regrouper les intensités. Ondéfinit alors de manière générale un histogramme, ou une loi de probabilité, sur la grilleαZ par :

pA(i) =1

NA

xk∈ΩA

Kα(i − ak) ∀ i ∈ αp, p ∈ Z (2.13)

où ak désigne l’intensité de A en xk, NA le nombre de voxels de l’image A et Kα la fonctionindicatrice de [−α

2 ; α2 [, à savoir :

Kα(i) =

1 si i ∈ [−α

2 ; α2 [

0 sinon(2.14)

De manière analogue, on définit un estimateur de la loi de probabilité jointe PA,BT commesuit :

p↓A,B(i,j) =1

N

xk∈Ω↓A,B

Kα,β(i − ak,j − b↓k) ∀ (i,j) ∈ (αp,βq), (p,q) ∈ Z2 (2.15)

94 2.2 Recalage basé sur des mesures statistiques de similarité

où b↓k désigne l’intensité interpolée de B en T (xk) évaluée d’après l’équation (2.9), N

désigne le nombre de voxels de la zone de recouvrement partiel Ω↓A,B et Kα,β la fonction

indicatrice du pavé [−α2 ; α

2 [×[−β2 ; β

2 [. On reconnaît bien la formule habituelle du calcul d’unhistogramme joint, ou table de co-occurrence des intensités de deux variables aléatoiresdiscrètes.

Le fait de créer une intensité interpolée b↓k qui n’a pas été observée parmi les échantillonsdisponibles n’est pas un principe habituel vis à vis de l’estimation. Pour gérer cela, Maeset al. [Maes 97] proposent une manière astucieuse d’utiliser les coefficients de pondérationw↓

kl de l’interpolation trilinéaire pour incrémenter les cases de l’histogramme joint, plutôtque de créer de nouvelles intensités artificielles. Il vient :

p↓A,B(i,j) =1

N

xk∈Ω↓A,B

l=8∑

l=1

w↓klKα,β(i − ak,j − bl) ∀ (i,j) ∈ (αp,βq), (p,q) ∈ Z2 (2.16)

On parle alors de technique d’interpolation intrinsèque, ou “partial volume” en anglais.bl désigne l’intensité de B au lieme voisin yl de T (xk) sur la grille ΩB et les poids w↓

kl

sont évalués d’après l’équation (2.11). Cette formulation confère à l’estimation de la loijointe plus de régularité en fonction des variations T , vu que les incréments minimaux del’histogramme sont inférieurs à 1/N . Maes et al. montrent qu’il est alors possible de diffé-rencier l’histogramme joint, et par suite l’information mutuelle, suivant la transformationgéométrique T [Maes 99].

Une autre approche revient à considérer les images comme des variables aléatoiresréelles, et donc continues, et de supposer qu’elles acceptent une densité de probabilité.Pour l’image A, on définit sa densité de probabilité pA par :

PA : (R,B) → [0,1]B ∈ B 7→ PA(B) = P (A ∈ B) =

∫λ∈B

pA(λ)dλ(2.17)

Notons qu’ici B désigne un élément de la tribu des Boréliens B, donc un intervalle deR. Pour que la fonction pA soit bien une densité de probabilité, il faut qu’elle vérifie :∫λ∈R

pA(λ)dλ = 1. On peut alors utiliser la méthode de noyaux pour estimer pA. Le principeest d’utiliser une formule analogue à l’équation (2.13), en remplaçant Kα par un noyauquelconque K défini sur R et d’intégrale sur R égale à 1, afin de s’assurer que pA est bienune densité de probabilité. C’est la technique du fenêtrage de Parzen qui a été utilisée parWells, Viola et al. [WellsIII 96] pour estimer l’histogramme joint comme suit :

p↓A,B(i,j) =1

N

xk∈Ω↓A,B

Kσ(i − ak,j − b↓k) ∀ (i,j) ∈ R2 (2.18)

où le noyau Kσ peut, par exemple, être choisi comme une gaussienne de moyenne nulle etd’écart-type σ. Le choix de σ dépend des données, et permet de gérer différents niveauxde lissage de l’histogramme joint. Le choix de tels noyaux confère à l’histogramme joint debonnes propriétés de régularité et notamment sa différentiabilité [WellsIII 96, Leventon 98].

Méthodes de recalage par mesures statistiques de similarité 95

2.2.2.5 Normalisation : gestion du recouvrement partiel

Un critère idéal de similarité ne devrait pas être sensible à la taille de la zone de recou-vrement partiel. Cependant, vu que de manière générale, on cherche une transformationgéométrique T et une transformation en intensité f telles que A et f B T soient les plus“similaires” possibles, il est possible de rencontrer des cas de dépendance dégénérée entreles données. Une dépendance dégénérée peut par exemple correspondre au cas où B T seretrouve complètement à l’extérieur du champ de vue de A, et si f est alors choisie commeune fonction constante, on peut aboutir à une mesure de similarité optimale.

Parmi les critères de similarité principalement utilisés dans la littérature et présentésau §I.2.2.4, tous ne prennent pas en compte cet aspect et y sont plus ou moins sensibles.Ces problèmes se posent en pratique lorsque les champs de vue des images à recaler sonttrès différents et ne couvrent pas toute la partie anatomique étudiée.

Dans le cas où la mesure de similarité S est définie comme l’opposée d’une distanceentre les intensités de A et de f B T , caractérisant ainsi une dissimilarité D, A. Roche[Roche 01a] propose une normalisation permettant d’éviter ces cas de dépendance dégéné-rée. Un tel critère de dissimilarité s’écrit dans ce cas :

DT,f (A,B) = −ST,f (A,B) = ‖A − f B T‖ (2.19)

où ‖ ‖ désigne une norme sur l’espace des intensités. On a donc toujours DT,f (A,B) ≥ 0et ce critère est à minimiser. Les cas de dépendance dégénérée peuvent être rencontréslorsque f est considérée comme constante. A. Roche propose alors d’imposer la contraintesuivante au critère de dissimilarité que l’on cherche à construire :

0 ≤ DT (A,B) ≤ D0T (A,B) (2.20)

avec par définition :

DT (A,B) = argmin f∈F DT,f (A,B)D0

T (A,B) = argmin f constante DT,f (A,B)(2.21)

On peut par exemple chercher un critère de dissimilarité optimal DT comme une fonctiong de DT et de D0

T à laquelle on impose les propriétés suivantes :

1. g(DT ,D0T ) ∈ [0; 1]

2. A D0T fixé, g(DT ,D0

T ) est une fonction croissante de DT

3. Si DT = 0 et D0T 6= 0, g(DT ,D0

T ) = 0

4. Si DT = D0T , g(DT ,D0

T ) = 1

En cherchant g comme une fonction affine de DT et de D0T , on montre à partir des propriétés

précédentes et de la contrainte 2.20, qu’un critère de dissimilarité idéal, i.e. insensible à lazone de recouvrement partiel, s’écrit :

DT (A,B) =DT (A,B)

D0T (A,B)

=argminf∈F DT,f (A,B)

argminf constante DT,f (A,B)(2.22)

avec DT (A,B) = 1 si D0T (A,B) = 0. Ainsi, on évite les cas de dépendance dégénérée car

un tel critère sera nul s’il y a une correspondance parfaite entre les intensités des images àcondition que f ne soit pas constante. De même, les cas de dépendance dégénérée serontcaractérisés par un maximum absolu du critère DT (A,B) qui sera égal à 1.

96 2.2 Recalage basé sur des mesures statistiques de similarité

2.2.3 Éléments de théorie de l’information

L’objectif de ce paragraphe est d’introduire quelques outils théoriques permettant demesurer une quantité d’information à partir des données considérées comme des variablesaléatoires. Nous rappellerons tout d’abord les méthodes les plus conventionnelles pourcaractériser la loi d’une variable aléatoire, notamment par ses moments. Ensuite nous pré-senterons comment mesurer une quantité d’information à partir de la loi de probabilitéd’une variable aléatoire, en s’appuyant sur des notions issues de la théorie de l’informa-tion, notamment l’entropie. Nous terminerons par la présentation des quelques métriquespermettant de comparer l’information contenue dans deux variables aléatoires. Nous dis-tinguerons les métriques portant sur la comparaison de lois de probabilité, ou divergences,des métriques portant sur les valeurs prises par les variables aléatoire, i.e. les intensités desimages (norme L2, norme L1 et normes robustes).

Dans ce paragraphe, nous considérerons que nous cherchons à caractériser la loi deprobabilité ou une “quantité d’information” d’une variable aléatoire réelle X, ou à com-parer deux variables aléatoires réelles X et Y . Nous désignerons par x (respectivementy) les réalisations de X (respectivement de Y ). On considérera donc X et Y comme desvariables aléatoires continues, et on supposera qu’elles acceptent une densité de probabilitépX (respectivement pY ). Au §I.2.2.4, nous montrerons comment les principales mesures desimilarité utilisées en recalage d’images utilisent ces éléments théoriques. Dès lors que nousappliquerons ces notions aux images A et B, toutes les formules seront alors présentéesdans le cas discret.

2.2.3.1 Géométrie des variables aléatoires de carré intégrable

Une variable aléatoire X est complètement définie par la donnée de sa loi de probabilitéPX , ce qui revient à connaître sa fonction de répartition FX(x) = PX(X ≤ x). Si X etdonc PX est continue, on peut en général définir la mesure élémentaire dPX par rapport àune mesure de référence λ à l’aide de la densité de probabilité pX par :

dPX(λ) = pX(λ)dλ (2.23)

Moments d’une loi : Plutôt que de spécifier la fonction de répartition ou la densitéde probabilité qui ne sont pas très simples à manipuler, il est intéressant de décrire uneloi en la résumant par ses caractéristiques principales. Pour cela, on utilise les moments.Le premier moment non-centré d’une variable aléatoire X est son espérance mathématiquequi, si elle existe, s’écrit :

E(X) =

λ∈R

λdPX(λ) =

λ∈R

λpX(λ)dλ (2.24)

On utilise cette définition pour définir l’espérance mathématique d’une fonction g(X)qui est aussi une variable aléatoire :

E(g(X)) =

λ∈R

g(λ)pX(λ)dλ (2.25)

Méthodes de recalage par mesures statistiques de similarité 97

Outre la spécification d’une fonction de répartition ou d’une densité de probabilité,une loi de probabilité peut être entièrement décrite par sa fonction caractéristique ϕX , quin’est autre que le transformée de Fourier de sa densité de probabilité pX :

ϕX(t) =

∫eitλpX(λ)dλ = E(eitX) (2.26)

Si ϕX(t) est infiniment dérivable, on a d’après la formule de Mac-Laurin [Saporta 90] :

ϕX(t) =+∞∑

n=0

tn

n!inE(Xn) (2.27)

E(Xn) est par définition le moment non-centré d’ordre n de X. Cette formule est trèsintéressante vu qu’elle montre que la loi de probabilité d’une variable aléatoire X peut êtrecomplètement décrite par la connaissance de tous ses moments non-centrés. En pratique,on s’intéresse principalement aux moments d’ordres 1 et 2. On définit d’ailleurs la varianced’une variable aléatoire X comme son moment centré d’ordre 2 :

V ar(X) = E[(X − E(X))2] (2.28)

Géométrie de L2 : Le cas où on n’étudie que des variables aléatoires réelles de momentd’ordre 2 fini est l’un des plus importants en pratique, et est susceptible d’interprétationsgéométriques très éclairantes.

De telles variables appartiennent à l’espace Hilbertien L2 défini comme l’ensemble desvariables réelles de carré intégrable, c’est à dire qui vérifient :

E(X2) =

λ∈R

λ2dPX(λ) < +∞ (2.29)

L’espace L2 est muni du produit scalaire suivant :

〈X,Y 〉 = E(XY ) =

R2

xy pX,Y (x,y)dxdy (2.30)

où pX,Y désigne la densité de probabilité jointe du couple de variable aléatoire (X,Y). Ondéfinit alors la norme de L2, ou norme quadratique, par : ‖X‖ =

√E(X2).

Ce formalisme nous permet de définir E(X) comme la meilleure approximation de X parune constante a ∈ R au sens de la norme L2, en effet on montre que :

E(X) = argmin a∈R‖X − a‖ (2.31)

E(X) s’interprète ainsi comme la projection orthogonale, au sens du produit scalaire deL2, de X sur la droite C des variables aléatoires constantes.

De la même manière, on peut chercher à expliquer une variable aléatoire Y comme unefonction φ de la variable aléatoire X. L’existence d’un tel “lien” entre les variables X et Ydéfinit ce que l’on appelle une dépendance fonctionnelle entre X et Y . Ainsi, si on chercheφ parmi l’ensemble FX de toutes les fonctions réelles qui assurent que E(φ(X)2) < +∞(i.e. telle que φ(X) ∈ L2), alors on montre que [Saporta 90, Roche 98a] :

E(Y |X) = argmin φ∈FX‖Y − φ(X)‖ (2.32)

98 2.2 Recalage basé sur des mesures statistiques de similarité

où E(Y |X) est l’espérance conditionnelle de Y sachant X, elle est définie par :

E(Y |X) =

∫y pY |X(y)dy =

∫y

pX,Y (x,y)

pX(x)dy (2.33)

où pY |X désigne la densité de probabilité de Y sachant X, elle se déduit des lois de Bayessur les probabilités, et vaut par définition pX,Y (x,y)/pX(x). De même que pour E(X) surla droite des variables aléatoires constantes C, E(Y |X) est la projection orthogonale de Ysur le sous-espace de L2 engendré par les fonctions de X.

Les résultats (2.31) et (2.32) nous montrent ainsi que la meilleure manière d’approcherune variable X par une constante est de prendre son espérance mathématique, et que lameilleure façon d’approcher une variable Y par une fonction de la variable X est de prendrel’espérance conditionnelle de Y sachant X. Ainsi, l’espérance mathématique de X décritle comportement moyen et constant de la variable aléatoire X. On la désignera d’ailleurscomme sa moyenne. Les variations de X autour de sa moyenne E(X) seront décrites par savariance V ar(X) qui n’est autre que le carré de la distance de X à son projeté orthogonalsur la droite des constantes C.

Lien entre deux variables aléatoires - indépendance, corrélation et dépendancefonctionnelle : Les différents éléments théoriques sur la géométrie des variables aléa-toires qui viennent d’être présentés nous permettent d’introduire différentes méthodes pourétudier le lien statistique reliant deux variables aléatoires.

Deux variables aléatoires X et Y sont indépendantes si et seulement si, par définition,quelles que soient les fonctions réelles g1 et g2 on a :

E[g1(X)g2(Y )] = E(g1(X))E(g2(Y )) (2.34)

On en déduit un résultat fondamental qui est que la loi jointe d’un couple de variablesaléatoires indépendantes (X,Y ) est la loi produit des lois marginales, ce qui s’écrit :

Mesure élémentaire : dPX,Y (x,y) = dPX(x).dPY (y)Fonction de répartition : FX,Y (x,y) = FX(x).FY (y)Densité de probabilité : pX,Y (x,y) = pX(x).pY (y)

(2.35)

Ainsi une manière d’apprécier l’indépendance de deux variables aléatoires est de mesurerl’écart entre la loi de probabilité jointe et la loi produit des lois marginales. Nous verronsau §I.2.2.3.3 quelques métriques permettant de quantifier cet “écart”.

Une méthode standard pour analyser un “lien” entre deux variables aléatoires X et Yest d’estimer leur covariance, qui est défini par :

Cov(X,Y ) = E[(X − E(X))(Y − E(Y ))]= 〈(X − E(X)),(Y − E(Y ))〉= ‖X − E(X)‖.‖Y − E(Y )‖.cos(θ)

(2.36)

La covariance n’est autre que le produit scalaire des variables centrées X − E(X) et Y −E(Y ). θ indique l’angle entre ces deux variables dans l’interprétation géométrique de L2.En pratique, on préférera utiliser le coefficient de corrélation linéaire ρX,Y qui est uneversion normalisée de la covariance :

Méthodes de recalage par mesures statistiques de similarité 99

ρX,Y =Cov(X,Y )√

V ar(X)√

V ar(Y )= cos(θ) (2.37)

Le coefficient de corrélation linéaire n’est autre que le cosinus de l’angle θ entre les variablescentrées X − E(X) et Y − E(Y ). Il prend donc des valeurs entre -1 et 1. Deux variablesaléatoires sont dites non-corrélées lorsque leur coefficient de corrélation linéaire est nul, cequi correspond à deux variables centrées orthogonales d’après le produit scalaire de L2. Le“lien” entre X et Y est optimal au sens du coefficient de corrélation, lorsque celui-ci vaut 1,variables positivement corrélées, ou -1, variables négativement corrélées. Ces deux limitessont atteintes lorsque l’angle θ vaut 0 ou π, c’est à dire lorsque les variables centrées sontcolinéaires. Ainsi le coefficient de corrélation linéaire ρX,Y mesure une dépendance linéaireentre X et Y . Il est optimal (égal à 1 ou -1) lorsque Y est une fonction linéaire de X, dela forme Y = αX + β avec (α,β) ∈ R2.

Les définitions (2.34) et (2.36) permettent de montrer que l’indépendance de deuxvariables aléatoires entraîne leur non-corrélation, c’est à dire l’orthogonalité dans L2. Al’exception du cas gaussien, la réciproque est en générale fausse.

Plutôt que de se restreindre à une relation linéaire, une autre manière d’étudier le “lien”entre X et Y est de rechercher si Y peut s’exprimer comme une fonction quelconque φ deX (avec φ ∈ FX). Il s’agit d’étudier s’il existe une dépendance fonctionnelle entre X et Y ,et donc si la connaissance de X permet de prédire le comportement de Y . Or, nous avonsdéjà précisé que la projection orthogonale de Y sur le sous-espace de L2 engendré par lesvariables φ(X),φ ∈ FX n’était autre que l’espérance conditionnelle E(Y |X). De plus, vuqu’une constante est également une fonction de X, E(Y ) appartient également à ce sous-espace de L2. En utilisant le théorème de Pythagore sur le triangle (Y,E(Y |X),E(Y )), onmontre le théorème de la variance totale [Saporta 90] :

V ar(Y ) = V ar[E(Y |X)] + E[V ar(Y |X)] (2.38)

où V ar(Y |X) désigne la variance conditionnelle de Y sachant X, elle est définie par :

V ar(Y |X) =

∫(y − E(Y |X = x))2 pY |X(y)dy (2.39)

L’équation (2.38) peut être vue comme une équation de conservation de l’énergie de Yet permet de proposer une mesure de la dépendance fonctionnelle : le rapport de corrélationηY |X de Y sachant X [Saporta 90, Roche 98a] :

ηY |X =V ar[E(Y |X)]

V ar(Y )(2.40)

– Si ηY |X = 0, alors V ar[E(Y |X)] = 0 et donc E(Y |X) est presque sûrement uneconstante, donc E(Y |X) = E(Y ). Il n’y a pas de dépendance fonctionnelle entre Xet Y .

– Si ηY |X = 1, alors E[V ar(Y |X)] = 0 et donc V ar(Y |X) = 0 (une variable positivede moyenne nulle est nécessairement nulle partout). Ainsi à X fixé, la variance deY est nulle, Y ne peut donc prendre qu’une seule valeur, ainsi ∃φ ∈ FX telle queY = φ(X). On dit qu’il y a dépendance fonctionnelle parfaite.

100 2.2 Recalage basé sur des mesures statistiques de similarité

2.2.3.2 Mesures de quantité d’information

Mesure d’information d’un signal d’après Hartley : La nécessité de devoir mesurerune quantité d’information contenue par un signal est apparue avec le début des communi-cations télégraphiques ou radio où l’on cherchait à quantifier l’information contenue dansun message émis par un émetteur et reçu par un récepteur. En 1928, Hartley propose unemesure de l’information d’un message encore largement utilisée dans toute la théorie del’information [Hartley 28]. Pour caractériser un message en Morse ou un mot, il définit unmessage comme étant une suite de n caractères choisis parmi s symboles possibles. Ainsi,un message de longueur n correspond à sn messages possibles. Utiliser sn pour mesurerl’information contenue dans un message entraînerait une augmentation exponentielle dela quantité d’information avec la longueur des messages, et n’est donc pas envisageable.Cherchant à définir une mesure d’information H qui croît de manière linéaire avec la lon-gueur du message n, et qui soit telle que deux messages de longueur n1 et n2 utilisantrespectivement s1 et s2 symboles présentent la même mesure d’information si sn1

1 = sn22 ,

Hartley proposa la mesure d’information H suivante :

H = ln(sn) = n ln s (2.41)

Entropie de Shannon : La principale limitation de la mesure proposée par Hartleyprovient du fait que tous les symboles parmi les s utilisés pour construire un message sontconsidérés comme équiprobables. C’est rarement le cas en pratique, si l’on considère parexemple les mots de langue française, il est évident que la lettre ’e’ sera beaucoup plussouvent rencontrée que la lettre ’w’. Certains messages seront donc plus probables qued’autres. En attribuant à chacun des messages choisis parmi les sn messages possibles uneprobabilité Pi, Shannon propose de mesurer la quantité d’information moyenne obtenuelors de la réception d’un message de longueur n de la façon suivante :

H =

i=sn∑

i=1

Pi ln

(1

Pi

)= −

i=sn∑

i=1

Pi ln(Pi) (2.42)

Cette mesure d’information définit l’entropie de Shannon [Shannon 48]. Cela revient àassocier à chaque message une quantité d’information élémentaire représentée par ln( 1

Pi),

définie également comme la quantité d’information de Fisher. Ainsi, un message rare oupeu probable apporte plus d’information qu’un message fréquent ou très probable. Si unseul type de message est transmis, il contiendra très peu d’information, car le récepteur seratoujours sûr du message qu’il reçoit. A l’inverse si tous les messages sont équiprobables, ilexiste une grande diversité de messages susceptibles d’être reçus, ils sont très difficiles àprévoir, et la réception de chacun apporte en soi beaucoup plus d’information. La formulede l’entropie de Shannon, dont l’équation (2.42) est la définition dans le cas discret, n’estautre que l’espérance mathématique de la quantité d’information de Fisher : il s’agit doncd’une mesure moyenne de l’information contenue dans tous les messages de longueur n.Elle sera maximale lorsque tous les messages sont équiprobables (i.e. ∀i Pi = 1/sn), onretrouve alors la mesure d’information proposée par Hartley (2.41).

L’entropie de Shannon, comme mesure moyenne de la quantité d’information de Fisher,peut également être vue comme une mesure d’incertitude. On retrouve, par analogie, sa

Méthodes de recalage par mesures statistiques de similarité 101

signification en thermodynamique comme un indicateur de désordre. Pour revenir aux no-tations du paragraphe précédent, on définit l’entropie de Shannon d’une variable aléatoireX à partir de sa densité de probabilité pX :

H(PX) =

λ∈R

pX(λ) ln

(1

pX(λ)

)dλ = −

λ∈R

pX(λ) ln(pX(λ))dλ = −E(ln(pX)) (2.43)

Définir l’entropie de Shannon non pas comme une fonction de X mais comme une fonctionde la loi de probabilité de PX , permet d’insister sur le fait que, contrairement aux moments,l’entropie est une mesure portant uniquement sur la loi de X : “l’espérance mathématique”de ln(1/pX).

Définition générique de la notion d’entropie : L’entropie de Shannon n’est en faitqu’un cas particulier d’une famille plus générique d’entropies qui sont toutes des mesuresde la quantité d’information d’une loi de probabilité. On définit ainsi l’entropie d’une loi deprobabilité PX de manière relative à une mesure de référence λ, par la forme fonctionnelleintégrale suivante [Basseville 96] :

Hλ(PX) = −∫

λ

h

(dPX(λ)

)dλ (2.44)

La fonction h est le plus souvent choisie convexe 2. M. Basseville [Basseville 96] proposeégalement une définition de l’entropie à partir d’une forme fonctionnelle non intégrale, ainsique plusieurs exemples de fonctions h. Si on choisit h comme la fonction h(u) = u ln(u), onretrouve l’entropie de Shannon définie en (2.43). D. Sarrut a utilisé différentes définitionsde l’entropie afin de proposer différents critères statistiques de similarité pour le recalagemultimodalité [Sarrut 00].

2.2.3.3 Métriques de comparaison des quantités d’information

Nous venons de présenter différents outils permettant de caractériser l’informationd’une variable aléatoire soit par ses moments soit par des mesures portant sur sa loi deprobabilité, comme l’entropie. Vu que l’objectif de ce chapitre est de présenter des mesuresde similarité, nous présentons ici quelques métriques permettant de comparer ces informa-tions pour caractériser un lien entre deux variables aléatoires X et Y . Nous distinguonsles métriques portant directement sur les valeurs des variables aléatoires, de celles portantsur les lois de probabilités. Les premières permettront de définir différentes mesures statis-tiques de similarité considérant les intensités des images comme des variables quantitativesalors que les secondes donneront lieu à des mesures de similarité considérant les intensitésdes images comme des variables qualitatives.

Métriques portant sur les variables aléatoires : Ces métriques sont utilisées lorsquela mesure de similarité est en fait une mesure de dissimilarité estimant une distance entreles intensités des images à recaler qu’il faut alors minimiser. Une telle dissimilarité Ds’exprime de manière générale par :

2. Une fonction h est convexe si elle vérifie : h(x) ≤ αh(x1) + (1 − α)h(x2) pour tout couple (x1,x2) dudomaine de h, et pour tout x tel que 0 < α < 1 et x = αx1 + (1 − α)x2

102 2.2 Recalage basé sur des mesures statistiques de similarité

DT,f (A,B) = −ST,f (A,B) = ‖A − f B T‖ (2.45)

L’objectif de ce paragraphe est de présenter quelques métriques ou normes ‖ ‖ couram-ment utilisées pour définir des critères statistiques de similarité.

Nous avons déjà montré que les propriétés géométriques de L2 étaient très intéressantespour étudier les relations entre deux variables aléatoires à partir des moments. Ainsi lecoefficient de corrélation (2.37) permet de caractériser une dépendance linéaire entre deuxvariables aléatoires X et Y , alors que le rapport de corrélation (2.40) caractérise unedépendance fonctionnelle. Or ces critères ne sont autres que des mesures de distance, ausens de la norme de L2, entre Y et sa meilleure approximation dans L2 par une fonctionlinéaire de X (respectivement par une fonction quelconque de X). Nous avons vu quecette “notion” de meilleure approximation était en fait une projection orthogonale sur lesous-espace en question (voit §I.2.2.3.1).

Une approche analogue est applicable à d’autres espaces Hilbertiens de variables aléa-toires. C’est notamment le cas de l’espace L1 défini comme l’ensemble des variables réellesintégrables en valeur absolue, c’est à dire qui vérifient :

E(|X|) =

λ∈R

|λ|dPX(λ) < +∞ (2.46)

On définit alors la norme de L1 par :

‖X‖L1 = E(|X|) (2.47)

De manière analogue au cas de L2, on montre ainsi que la meilleure approximation de Xpar une constante au sens de cette norme L1 est en fait la médiane de X définie par :

PX(X ≤ Med(X)) = FX(Med(X)) = 0.5 (2.48)

De même que pour la variance dans L2, la mesure de dispersion d’une variable aléatoiredans L1 sera estimée par sa “distance” à la meilleure approximation constante. Cette mesurede dispersion dans L1, DispL1, correspond donc à la moyenne des écarts en valeur absoluede X à sa médiane :

DispL1(X) = E(|X − Med(X)|) (2.49)

La norme L1 peut être utilisée directement pour quantifier un écart entre les intensitésdes images ou pour définir par analogie à la géométrie de L2, un rapport de corrélationdans L1 [Roche 01a].

L’utilisation de la norme L1 est souvent préférée en statistique à la norme L2, car bienqu’elle possède de moins bonnes propriétés mathématiques (e.g. régularité), elle est moinssensible aux valeurs aberrantes que la norme quadratique. La norme L1 est dite faiblementrobuste alors que la norme quadratique est non-robuste.

Or il s’avère difficile en pratique de modéliser correctement la similarité entre les in-tensités des images à recaler. Malgré la transformation de l’image B en f B T , il peutsubsister des voxels où l’écart entre les intensités de A et f B T est anormalementimportant. Ces points sont considérés comme des points aberrants, non pris en comptepar le modèle de transformation géométrique et en intensité de B. De telles situations

Méthodes de recalage par mesures statistiques de similarité 103

peuvent être rencontrées en pratique lorsque par exemple une seule des deux images àrecaler contient une information pathologique, comme c’est souvent le cas lors du recalagede données anatomo-fonctionnelles. Or le recalage ne doit justement pas compenser cetteinformation pathologique, que l’on cherche à mettre en évidence par cette mise en corres-pondance. Il peut donc s’avérer utile de disposer de métriques permettant de ne pas prendreen compte ces points aberrants lors du recalage : c’est précisément le but des métriquesdites robustes.

De manière générale, le critère de dissimilarité (2.19) peut s’écrire :

DT,f (A,B) = E[ρ(A − f B T )] (2.50)

où lorsque ρ(x) = x2, on retrouve la norme quadratique de L2, et lorsque ρ(x) = |x|, onretrouve la norme de L1. On définit alors un M-estimateur robuste [Black 96], ou normerobuste, par une fonction ρ vérifiant les propriétés suivantes :

1. ρ est croissante sur R+

2. φ(x) = ρ(√

x) est strictement concave sur R+

3. limx→+∞ ρ′(x) < +∞

Un M-estimateur robuste est caractérisé par son point de rupture, représentant le pour-centage de points aberrants que peut tolérer l’estimateur sans être perturbé. Par exemple,la médiane est un estimateur de la tendance centrale d’une variable aléatoire avec un pointde rupture de 50%, i.e. on peut avoir dans un échantillon jusqu’à 50% de valeurs aberrantessans modifier la valeur de la médiane. On caractérise un estimateur robuste par sa fonc-tion d’influence, qui n’est autre que sa dérivée ρ′. Ainsi, le fait d’imposer que la fonctiond’influence soit de limite finie en +∞, permet de garantir que, lorsque l’écart entre deuxintensités dépasse un certain seuil, son influence sur la mesure de dissimilarité stagne voiredécroît. De telles approches ont été utilisées en recalage d’images à partir de M-estimateursrobustes [Nikou 98, Hellier 01b], ou de S-estimateurs instantanés [Roche 01a]. Un exemplede métrique robuste couramment utilisée est la fonction de Geman-McClure définie par :

ρ(x) =x2

1 + x2

c2

(2.51)

où le réel c permet de régler le point de rupture de la métrique.

Métriques portant sur les lois de probabilité : Une seconde approche pour étu-dier le “lien” statistique entre deux variables aléatoires est de ne s’intéresser qu’à leurslois de probabilité. Nous avons déjà vu qu’il était possible de caractériser la quantitéd’information d’une variable aléatoire à partir de mesure ne portant que sur la loi de pro-babilité, notamment grâce à l’entropie de Shannon (2.43). On définit alors la f -divergenceentre deux mesures ν et λ, comme l’opposé de l’entropie de la mesure ν relativement à λ[Basseville 96] :

I(ν,λ) = −Hλ(ν) =

λ

h

(dν

)dλ (2.52)

104 2.2 Recalage basé sur des mesures statistiques de similarité

La notion de divergence peut être interprétée comme un gain d’information de ν par rapportà λ. On définit alors la f -divergence de deux lois de probabilité PX et PY , possédantrespectivement pour densités de probabilité pX et pY , par :

I(PX ,PY ) =

∫h

(dPX

dPY

)dPY =

µ

h

(pX(µ)

pY (µ)

)pY (µ)dµ = EY

[h

(pX

pY

)](2.53)

où la fonction h est en général choisie convexe, et vérifie h(1) = 0. Cette dernière condi-tion sur h garantit que I(PX ,PX) = 0, ce qui signifie que la divergence entre une loi deprobabilité et elle même est nulle, ou encore il n’y a pas de gain d’information d’une loi deprobabilité par elle-même. De même que pour la formule générique de l’entropie (2.44), ils’agit d’une définition à partir d’une forme fonctionnelle intégrale. D’autres définitions dela divergence à partir de formes fonctionnelles non intégrales ainsi que quelques exemplessont présentés dans [Basseville 96].

Un cas particulier très connu est la divergence obtenue à partir de l’entropie de Shannon,ce qui correspond à choisir la fonction h(u) = u ln(u), on aboutit alors à la divergence deKullback-Leibler ou entropie relative, mesure largement utilisée comme “distance” entredeux lois de probabilité :

K(PX ,PY ) =

∫dPX

dPYln

(dPX

dPY

)dPY =

µ

ln

(pX(µ)

pY (µ)

)pX(µ)dµ = EX

[ln

(pX

pY

)]

(2.54)Par analogie à la géométrie de variables aléatoires dans L2, il est d’ailleurs possible dedéfinir une géométrie des lois de probabilité dans laquelle les points correspondent à deslois de probabilité, les espaces affines ou plans à des familles exponentielles, le carré dela norme de L2 à la divergence de Kullback-Leibler [Cardoso 01]. Nous verrons plus loinque c’est à partir de cette divergence qu’est déduite l’information mutuelle [WellsIII 96,Maes 97, Zhu 02a], qui est certainement un des critères de similarité les plus courammentutilisés en recalage d’images.

D’autres f -divergences connues ont été utilisées pour construire des critères de similaritéutilisables en recalage d’images [Pluim 00b, Pluim 01a, Sarrut 99, Sarrut 00]. Citons entreautres la distance de Kolmogorov V obtenue en choisissant h(u) = 1

2 |u−1|, la Iα-divergencede Csiszàr obtenue en choisissant la fonction h comme :

h(u) =1

α(α − 1)(uα − αu + α − 1) α 6= 0 ou 1 (2.55)

Notons que lorsque α tend vers 1, la Iα-divergence tend vers la divergence de Kullback-Leibler.

Citons finalement la famille des χα-divergences obtenues en choisissant la fonction hcomme suit :

h(u) =

|1 − uα| 1

α si 0 < α ≤ 1|1 − uα|α si α > 1

(2.56)

Les mesures statistiques de similarité déduites de ces différentes mesures de “distance”entre lois de probabilité seront détaillées au §I.2.2.4.2.

Méthodes de recalage par mesures statistiques de similarité 105

2.2.4 Classification des mesures statistiques de similarité

Nous présentons ici une classification des principales mesures statistiques de similaritéutilisées pour recaler les images A et B. Nous présentons tout d’abord les mesures qui uti-lisent A et B comme des variables aléatoires quantitatives, on se ramène alors à une mesurede distance dans l’espace des intensités des images. La deuxième catégorie de méthodesconsidère les images A et B comme des variables aléatoires qualitatives, on se ramène alorsà étudier les propriétés des lois de probabilité PA et PB et de la loi jointe PA,B. Sauf pourquelques approches heuristiques, nous caractérisons chaque méthode par le type de “lien”statistique exploré entre les variables et par la métrique utilisée pour le quantifier.

Dans ce paragraphe, les notations introduites au paragraphe I.2.2.2.3 seront utilisées.Toutes les mesures présentées dans ce paragraphe seront estimées à partir de la zone derecouvrement partiel des données Ω↓

A,B, ayant pour cardinal N voxels. Pour tout voxel kde cette zone de recouvrement partiel, on désignera par ak l’intensité de ce voxel dans A,et b↓k l’intensité de son correspondant dans B T après interpolation (voir §I.2.2.2.4). Laplupart des critères de similarité présentés peuvent être évalués à partir des densités deprobabilité jointes et marginales. Nous désignons par p↓A,B, pA et p↓B, respectivement, les

estimateurs sur Ω↓A,B des densités de probabilité jointe pA,BT et marginales pA et pBT .

Comme montré précédemment, ces estimateurs peuvent soit utiliser un rééchantillonnagede l’image B et donc la création d’intensités artificielles (i.e. non observées), soit utiliserune interpolation intrinsèque (voir équation 2.16).

Tous les critères présentés dépendront de la transformation géométrique T et de latransformation en intensité f (si elle apparaît de manière explicite). Pour alléger les nota-tions, nous omettrons de préciser explicitement cette dépendance.

2.2.4.1 Mesures considérant les images comme des variables quantitatives

De manière générale, les mesures quantitatives de similarité reviennent à minimiser unedissimilarité, ou “distance”, entre les intensités des images, à savoir :

T = argmin T∈T ,f∈F (DT,f (A,B)) = argmin T∈T ,f∈F ‖A − f B T‖ (2.57)

avec la transformation géométrique T recherchée dans l’espace des transformations géomé-triques T et la transformation en intensité f choisie parmi l’espace de fonctions F . Pourl’essentiel des applications citées dans cette classification, nous nous limitons à la recherchede transformations géométriques rigides ou affines. La plupart des mesures de similaritéprésentées ici peuvent s’appliquer directement dans le cas de transformations géométriquesnon linéaires, mais il est souvent nécessaire de rajouter un terme énergétique permettantde régulariser le champ de déformation (voir par exemple [Hellier 01b]).

Mesures de distance sur les intensités :

– Distance entre intensités au sens de L2 :Lorsque l’on utilise la norme quadratique ou norme de L2 pour quantifier la distanceentre les intensités, on se ramène au critère dit de somme des carrés (SDC) :

106 2.2 Recalage basé sur des mesures statistiques de similarité

SDC(A,B) =1

N

xk∈Ω↓A,B

(ak − f(b↓k))2 (2.58)

Lorsque la fonction f est choisie comme l’identité, on se ramène à une méthodestandard de minimisation de l’erreur des moindres carrés couramment utilisée enrecalage monomodalité, comme par exemple pour le recalage TEP/TEP [Woods 98]ou IRM/IRM [Holden 00]. Ce critère est optimal lorsque les données ne diffèrent quepar un bruit blanc additif gaussien : A = B + ǫ où le résidu ǫ est un échantillonindépendant identiquement distribué (iid) issu d’une distribution gaussienne centrée.Ainsi, ce critère est bien adapté au recalage intra-sujet et monomodalité, même si enréalité le bruit des images médicales est rarement gaussien.Lorsque f est l’identité, la relation supposée entre A et B T est également connuecomme l’hypothèse du flot optique ou de conservation de la luminance. Si de plus,on suppose que les déplacements de l’image B via T par rapport à l’image A sontpetits, le critère (2.58) se linéarise en fonction de T via un développement de Tay-lor [Barber 95]. On se ramène alors à un problème de régression linéaire au sensdes moindres carrés. De nombreux travaux sur la régression linéaire ont été menésen statistiques. Ce problème admet une solution analytique et on dispose de nom-breux résultats sur les propriétés des estimateurs des régresseurs (e.g. biais, variance)[Lebart 79, Saporta 90], donc dans notre cas des paramètres de T .Cette approche a été généralisée par Friston et al. [Friston 95a], qui utilisent égale-ment un développement de Taylor pour linéariser le problème. Par contre, les espacesde recherche des transformations géométriques T et des transformations en intensitéF peuvent être choisis de manière très générique. Par exemple, ils proposent d’estimerune transformation géométrique non linéaire en linéarisant le critère par décomposi-tion de la transformation géométrique sur une base de fonctions correspondant auxmodes de Fourier. La transformation en intensité peut également être très génériqueet notamment non-stationnaire 3. Le recalage est alors vu comme la résolution d’unproblème de régression linéaire généralisée, et permet d’estimer les paramètres destransformations géométrique et en intensité, qui peuvent être nombreux. Cette ap-proche est notamment utilisée pour du recalage monomodalité inter-sujets entre unexamen et un examen moyen de la même modalité, que l’on appellera “template” :c’est la normalisation spatiale proposée par le logiciel SPM. Elle est applicable àtoute modalité à condition de disposer d’un template adéquat. Dans le cas du re-calage rigide monomodalité intra-sujet, cette approche générique peut par exempleêtre appliquée à la correction de bougé pour des séquences d’IRMf.L’hypothèse de petits déplacements justifiant le développement de Taylor et doncla linéarisation du problème n’est pas toujours vérifiée en pratique. Cet aspect estgénéralement pris en compte lors de l’optimisation du critère de similarité par desapproches itératives et multi-échelles.Dans le contexte du recalage affine TEMP/TEMP inter-sujets, Alpert et al. [Alpert 96]proposent d’utiliser pour fonction f une mise a l’échelle des intensités moyennes desimages :

3. La non-stationnarité signifie que f dépend de l’intensité mais aussi de la position dans l’espace duvoxel en lequel elle est évaluée.

Méthodes de recalage par mesures statistiques de similarité 107

SDCAlpert(A,B) =1

N

xk∈Ω↓A,B

(ak − a

bb↓k)

2 (2.59)

où a et b désignent respectivement les moyennes empiriques des intensités des imagesA et B.

– Distance entre intensités au sens de L1 :Lorsque l’on utilise la norme de L1 pour quantifier la distance entre les intensitéset que l’on choisit f comme l’identité, on se ramène au critère dit de somme desdifférences absolues (SDA) :

SDA(A,B) =1

N

xk∈Ω↓A,B

|ak − b↓k| (2.60)

Nous avons déjà vu que la norme L1 était faiblement robuste. Elle est donc moinssensible que le critère SDC aux écarts importants entre les intensités des images.Vu qu’ici aussi le modèle sous-jacent est que les images A et B sont identiques àune transformation géométrique près, ce critère est principalement utilisable dans lecas du recalage monomodalité. Il a été utilisé en recalage TEMP/TEMP [Eberl 96,Radau 01] ou TEP/TEP [Eberl 96]. Eberl et al. ont néanmoins utilisé ce critère pourdu recalage multimodalité TEP/TEMP.

– Utilisation d’une métrique robuste :La prise en compte des écarts aberrants entre intensités peut être mieux assurée parl’utilisation d’une métrique robuste ρ. On aboutit ainsi à une mesure de similaritécommunément appelée erreur des moindres carrés robuste :

SDCrobuste(A,B) =1

N

xk∈Ω↓A,B

ρ(ak − b↓k) (2.61)

Nikou et al. [Nikou 98, Nikou 99b] proposent d’utiliser la métrique de Geman-MacClure(voir équation 2.51) et l’appliquent au recalage rigide monomodalité de données IRM.Radau et al. [Radau 01] appliquent ce même critère dans le cadre du recalage affinedes données TEMP vers un “template” TEMP. Hellier et al. [Hellier 01b] proposentune formulation robuste de l’hypothèse du flot optique dans un contexte de recalagenon linéaire monomodalité.

– Quelques approches heuristiques en recalage mononomodalité :Il existe quantité d’autres critères statistiques de similarité qui ont été proposés à desfins de recalage monomodalité. Ils résultent principalement d’approches heuristiqueset s’expriment difficilement comme une distance entre intensités. Citons par exemplele nombre de changements de signes de l’image de différence D ou la somme desintensités du produit voxel par voxel des deux images. Ces deux derniers critères ontété étudiés par Eberl et al. dans le cadre du recalage mono- ou multi-modalité desdonnées TEMP et TEP [Eberl 96].

108 2.2 Recalage basé sur des mesures statistiques de similarité

Mesures de dépendance linéaire :

– Coefficient de corrélation :Si on peut supposer que la transformation en intensité entre les deux images est denature linéaire (f(i) = α i + β), nous avons montré que le coefficient de corrélationétait la mesure optimale au sens de L2. Lorsqu’il est proche de 1 en valeur absolue, ilgarantit ainsi que A est approchée au mieux, au sens de L2, par une fonction linéaireB. L’estimateur du coefficient de corrélation est défini par :

ρ2A,B =

(∑xk∈Ω↓

A,B

(ak − a)(b↓k − b↓k)

)2

∑xk∈Ω↓

A,B

(ak − a)2∑

xk∈Ω↓A,B

(b↓k − b↓k)2

(2.62)

où a et b↓k désignent respectivement les moyennes empiriques des intensités de A et

de B↓ sur la zone de recouvrement partiel Ω↓A,B . Elles sont définies par :

a =1

N

xk∈Ω↓A,B

ak et b↓k =1

N

xk∈Ω↓A,B

b↓k (2.63)

En pratique, cette hypothèse de dépendance linéaire entre les intensités des imagesest plutôt adaptée au contexte du recalage monomodalité, IRM/IRM par exemple[Holden 00]. Il a malgré tout été étudié en recalage multimodal, comme par exemplele recalage IRM/TEP [Studholme 95].

– Uniformité du rapport des intensités :Une manière indirecte d’étudier une dépendance linéaire entre les images à recaler estd’étudier l’uniformité de leur rapport. Minimiser la variance normalisée du rapportdes intensités (ou coefficient de variation) revient à supposer qu’à l’optimum lesintensités des images ne diffèrent que par un facteur multiplicatif uniforme sur toutle volume (f(i) = α i). Ce critère qui a été proposé par Woods et al. [Woods 92,Woods 98] est défini par :

URI(A,B) =1

µ(

AB

) 1

N

xk∈Ω↓A,B

(ak

b↓k− µ

(A

B

))2

(2.64)

Avec par définition :

µ

(A

B

)=

1

N

xk∈Ω↓A,B

(ak

b↓k

)(2.65)

En général, l’estimation de ce critère ne se fait pas sur toute la zone de recouvrementpartiel Ω↓

A,B, mais uniquement à l’intérieur d’un masque se limitant par exemple auvolume cérébral. En effet, l’évaluation du rapport des intensités peut être instablenumériquement surtout au niveau du bruit de fond des images. En TEP ou en TEMP,on sélectionne ce masque en ne tenant compte que des intensités supérieures à un seuilfixé [Woods 92, Woods 98, Eberl 96]. Pour d’autres modalités, comme par exemple

Méthodes de recalage par mesures statistiques de similarité 109

l’IRM, il peut être nécessaire d’avoir recours à une méthode de segmentation du cer-veau manuelle ou automatique [Woods 98, Holden 00]. Afin d’éviter une pondérationinégale des paires d’intensités, notamment lorsque le dénominateur du rapport estproche de zéro, Holden et al. [Holden 00] proposent une variante de l’URI plus stablenumériquement :

URIHolden(A,B) =1

µ(

AB

) 1

N

xk∈Ω↓A,B

(ak + c

b↓k + c− µ

(A + c

B + c

))2

(2.66)

où c est une constante choisie par exemple comme le maximum d’intensité de l’imageB.

Mesures de dépendance fonctionnelle :

– Rapport de corrélation généralisé :L’hypothèse statistique de dépendance fonctionnelle entre deux variables A et B re-vient à supposer que l’on peut prédire le comportement de A comme une fonctionφ(B). Nous rappelons qu’au sens de la norme L2, la meilleure approximation de Apar une fonction φ(B) n’est autre que l’espérance conditionnelle de A sachant B :E(A|B). Le théorème de la variance totale permet d’introduire le rapport de corré-lation ηA|B comme un indice de “qualité” de cette approximation 4 (voir §I.2.2.3.1).Critère classique en statistique, Roche et al. [Roche 98b, Roche 98a] sont les premiersà proposer son utilisation dans le contexte du recalage mono- ou multimodalité. A.Roche [Roche 01a] propose en fait un cadre plus général de l’étude de la dépendancefonctionnelle entre deux variables aléatoires, le rapport de corrélation généralisé définipar :

D(A,B) =DT (A,B)

D0T (A,B)

=argminf∈F

∑xk∈Ω↓

A,B

ρ(ak − f(b↓k))

argminf constante

∑xk∈Ω↓

A,B

ρ(ak − f(b↓k))(2.67)

Ce critère n’est autre que la mesure de dissimilarité (2.22) présentée au §I.2.2.2.5. Ilest donc à minimiser suivant T . Contrairement à tous les autres critères présentésjusqu’à présent, le rapport de corrélation généralisé est par construction insensible àla zone de recouvrement partiel, et permet d’éviter des cas de dépendance dégénéréelorsqu’une image est par exemple recalée dans le fond de l’autre. F est l’espace danslequel est cherchée la transformation en intensité f , et ρ est une métrique de l’espacedes intensités.

– Rapport de corrélation L2 :Considérons tout d’abord le cas où F est l’ensemble des fonctions constantes parmorceaux et où ρ est la métrique quadratique de L2 (ρ(x) = x2). Notons qu’en plusles images sont considérées ici comme des variables aléatoires discrètes à valeur dansI = 0,1,2, . . . ,255. L’ensemble des fonctions constantes par morceaux définies surdes intervalles du type [j − 1/2; j + 1/2[ ∀j ∈ I, n’est autre que l’ensemble de toutes

4. En rappelant que E(A|B) est la projection orthogonale de A sur l’espace des variables aléatoiresgénéré par les variables fonction de B, le rapport de corrélation n’est autre que le cosinus de l’angle decette projection au point E(A).

110 2.2 Recalage basé sur des mesures statistiques de similarité

les fonctions qu’il est possible de définir sur les intensités d’une image discrète. Dansces conditions, la résolution explicite en fonction de f de l’équation (2.67) permetd’aboutir au critère suivant (voir [Roche 01a]):

DL2(A|B) =

∑j∈I

∑xk∈Ω↓

j

(ak − aj)2

∑xk∈Ω↓

A,B

(ak − a)2(2.68)

où Ω↓j est la partition des voxels de Ω↓

A,B d’intensité j dans l’image rééchantillonnée

B↓, à savoir :

Ω↓j = xk ∈ Ω↓

A,B tq b↓k ∈ [j − 1/2; j + 1/2[ (2.69)

On désignera par Nj le nombre de voxels appartenant à cette partition Ω↓j . a et aj

désignent respectivement les moyennes empiriques de A et de A sachant B↓ = j, àsavoir :

a =1

N

xk∈Ω↓A,B

ak et aj =1

Nj

xk∈Ω↓j

ak (2.70)

Ces expressions correspondent au cas où une interpolation extrinsèque est utilisée(e.g. calcul de b↓k par interpolation trilinéaire). L’utilisation d’une interpolation in-

trinsèque donnerait lieu à des expressions analogues faisant intervenir les poids w↓kl.

Ce même critère peut également s’exprimer à partir des estimateurs des densités deprobabilité jointes et marginales p↓A,B, pA et p↓B évaluées sur la zone de recouvrement

partiel Ω↓A,B (voir §I.2.2.2.4 pour les expressions de ces estimateurs) :

DL2(A|B) =1

σ2

j∈I

pjσ2j = 1 − ηA|B↓ (2.71)

avec :

a =∑

i

pii et aj =∑

i

pi|ji (2.72)

σ2 =∑

i

pii2 − a2 et σ2

j =∑

i

pi|ji2 − a2

j (2.73)

pj = p↓B(j) =∑

i

p↓A,B(i,j) et pi|j = pA|B(i) =p↓A,B(i,j)

p↓B(j)(2.74)

L’interprétation statistique de cette dernière expression (2.71) fait apparaître le cri-

tère DL2(A|B) comme un estimateur deE

B↓ [V ar(A|B↓)]

V ar(A) , d’où le lien avec l’estimateurdu rapport de corrélation L2 : ηA|B↓ (voir équation 2.40). De plus, le fait d’utiliser uneinterpolation extrinsèque ou intrinsèque donne lieu à la même expression en fonctiondes densités de probabilité.Notons également que la résolution de l’équation (2.67) en considérant toujours unemétrique quadratique, mais en choisissant f comme une fonction affine des intensitéspermet d’aboutir au coefficient de corrélation (2.62).

Méthodes de recalage par mesures statistiques de similarité 111

– Rapport de corrélation L1 :Considérons désormais le cas où F est l’ensemble des fonctions constantes par mor-ceaux sur des intervalles du type [j − 1/2; j + 1/2[ ∀j ∈ I et où ρ est la métriquede L1 (ρ(x) = |x|). Dans ces conditions, la résolution explicite en fonction de f del’équation (2.67) permet d’aboutir au critère (voir [Roche 01a]):

DL1(A|B) =1

DispL1

j∈I

pjDispL1j (2.75)

avec :

Med = Medianeak tq xk ∈ Ω↓A,B et Medj = Medianeak tq xk ∈ Ω↓

j (2.76)

DispL1 =∑

i

pi|i − Med| et DispL1j =∑

i

pi|j |i − Medj | (2.77)

On retrouve donc bien une formule analogue au rapport de corrélation en norme L2,en remplaçant les moyennes empiriques par des médianes, et les variances par desmesures de dispersion en valeur absolue (dispersion L1 : DispL1). L’estimation desmédianes se fait également à partir des densités de probabilité, vu que la médianed’un autre échantillon n’est autre que la valeur en laquelle sa fonction de répartitionvaut 0.5.

– Critère de Woods et ses variantes :Dans le contexte du recalage multimodalité, Woods et al. [Woods 93] posent l’hypo-thèse que, si une même structure est observée au travers de deux systèmes d’imagerie,elle devrait correspondre à des régions dont l’intensité est uniforme dans chacune desimages. Par contre, la fonction caractérisant la valeur de l’intensité moyenne de cettestructure dans chacune des images peut quant à elle être relativement complexe, etn’a pas besoin d’être connue. Cette approche heuristique, qui revient également àfaire l’hypothèse qu’il existe une relation de type dépendance fonctionnelle entre lesimages, a conduit Woods et al. à poser le critère suivant :

CW (A|B) =∑

j∈I

pjσj

aj(2.78)

On utilise les mêmes définitions des moyennes et variances conditionnelles introduitespour le rapport de corrélation L2. On remarque que cette approche heuristique aconduit Woods à proposer un critère exprimant relativement la même idée que lecritère DL2(A|B). L’interprétation statistique de ce critère montre qu’il s’agit en faitde l’estimateur de la moyenne du coefficient de variation (ou écart-type standardisé)de A sachant B↓, à savoir :

CW (A|B) = EB↓

(√V ar(A|B↓)

E(A|B↓)

)(2.79)

Ce critère a été développé dans le contexte du recalage IRM/TEP. En général, onchoisit l’IRM pour l’image B. Minimiser ce critère revient à classifier l’IRM en 256

112 2.2 Recalage basé sur des mesures statistiques de similarité

régions d’intensité homogène (correspondant aux 256 valeurs possibles d’intensité), etde minimiser l’écart-type standardisé des intensités des 256 régions correspondantesdans l’image TEP : on s’assure ainsi que ces régions soient les plus homogènes pos-sibles lorsque les données sont recalées. Néanmoins, de telles hypothèses d’uniformiténe sont relativement bien vérifiées qu’au niveau du cerveau, et Woods suggère desegmenter le cerveau à partir de l’IRM avant d’utiliser ce critère.Cette idée générale a conduit à la définition de critères similaires estimés à partir declassifications plus “réalistes” des tissus de l’IRM [Ardekani 95, Ashburner 97]. Ainsi,Ardekani et al. [Ardekani 95] utilisent un algorithme des K-moyennes pour classifierla substance blanche, la substance grise et le LCR à partir de l’IRM, avant d’estimerun critère d’uniformité sur ces partitions reportées dans l’image TEP. Ashburner etal. [Ashburner 97] proposent de commencer par une normalisation spatiale monomo-dalité des données TEP et IRM vers leurs templates respectifs [Friston 95a], puis ilsreportent la classification a priori des tissus de ces templates sur les données à reca-ler pour estimer un critère d’uniformité : c’est l’algorithme de recalage multimodalitéimplémenté dans le logiciel SPM.En recalage monomodalité intra-sujet, Holden et al. [Holden 00] proposent une me-sure qui revient à s’assurer que la somme des carrés de l’image de différences soitlocalement uniforme autour d’une sphère de rayon r : le Profil d’Intensité (PI ouPattern Intensity). Cette approche revient à choisir f non-stationnaire et caracté-rise également une dépendance fonctionnelle entre les données. Cette mesure est àmaximiser et s’écrit à partir de l’image de différence D = A − B T :

PI(D) =1

N

xk∈Ω↓A,B

xl tq ‖xk−xl‖2≤r2

c2

c2 + (dk − dl)2(2.80)

où c est une constante arbitraire et par définition dk = ak − b↓k est l’intensité en xk

de l’image de différence D.

– Approches robustes :Nikou et al. [Nikou 98, Nikou 99b] proposent une variante robuste du critère deWoods, en remplaçant la métrique quadratique pour le calcul des variances par unemétrique robuste, en l’occurrence celle de Geman-McClure. Le rapport de corréla-tion L1 déjà présenté est une formulation faiblement robuste du concept de rap-port de corrélation. L’équation générique du rapport de corrélation généralisé (2.67)peut être envisagée à partir d’autres normes robustes, comme par exemple celle deGeman-McClure. A. Roche propose une solution utilisant des S-estimateurs instan-tanés [Roche 01a].

2.2.4.2 Mesures considérant les images comme des variables qualitatives

Nous abordons à présent une deuxième classe de critères statistiques de similarité issusprincipalement des éléments de théorie de l’information présentés au paragraphe I.2.2.3.2.Les images A et B sont désormais considérées comme des variables qualitatives, ce quisignifie que les intensités des images peuvent prendre 256 valeurs différentes sans forcémentprésumer de relation d’ordre sur ces intensités. Concrètement, de telles mesures ne sontdéduites que de propriétés de la loi jointe P ↓

A,B et des lois de probabilité marginales PA et

Méthodes de recalage par mesures statistiques de similarité 113

P ↓B. Ainsi, si l’estimation de ces densités de probabilité ne nécessitait pas d’interpolation,

le fait de redistribuer aléatoirement dans l’espace les intensités des deux images tout enconservant les mêmes lois jointes et marginales n’aurait aucune influence sur les critèresde similarité présentés ici.

Propriétés statistiques de la loi jointe : La loi de probabilité jointe entre les va-riables A et B T est un indicateur important de la quantité d’information partagée parles données, d’où l’intérêt de l’utiliser à des fins de recalage. En effet, les images que l’oncherche à recaler représentent des structures (anatomiques) identiques, que la mise en cor-respondance cherche à faire se superposer, comme par exemple le nez, le scalp, les oreillesou les yeux. Or, lorsque les données sont mal recalées, la loi jointe reflète une complexitéaccrue vu qu’elle considérera que la personne possède 2 nez, 2 scalps, 4 oreilles, ou encore 4yeux. Ce petit exemple permet d’illustrer que le recalage des données revient à “simplifier”la scène jointe, ce qui peut s’interpréter comme une diminution de la quantité d’informationcontenue dans la loi jointe. Hill et al. [Hill 92] proposent de visualiser sous forme d’imagel’histogramme joint des images pour étudier ces phénomènes (voir [Studholme 99] pourune explication très intuitive de ces comportements à partir d’exemples simples). Ainsi,Hill et al. remarquent que lorsque l’on s’éloigne du recalage optimal, les pics de l’histo-gramme joint ont tendance à diminuer et la dispersion augmente. Apparaissent notammentde nombreuses faibles valeurs dans certains cas où la probabilité était nulle à l’optimumdu recalage. Ils suggèrent ainsi d’utiliser pour le recalage une minimisation des momentsd’ordre n de la distribution des estimations de la loi jointe p↓A,B(i,j) ∀(i,j) ∈ I2, ce quirevient à minimiser la dispersion de la loi jointe :

Mn(A,B) =∑

i,j ∀(i,j)∈I2

(p↓A,B(i,j) − 1

256 × 256

)n

(2.81)

Une telle mesure revient à considérer les valeurs p↓A,B(i,j) ∀(i,j) ∈ I2 comme les 256× 256réalisations d’une variable aléatoire et d’en étudier sa distribution via l’estimation desmoments. Le moment d’ordre 3 ou plutôt le coefficient d’asymétrie (ou “skewness”) a étéutilisé comme mesure de dispersion à minimiser lors du recalage de données IRM et TEP[Hill 92, Studholme 95].

Afin d’étudier quantitativement les effets de l’interpolation extrinsèque ou intrinsèquesur les méthodes de recalage construites à partir de l’histogramme joint (notamment l’in-formation mutuelle, voir plus loin), Pluim et al. [Pluim 00a] utilisent les propriétés del’histogramme 1D de la distribution des valeurs p↓A,B(i,j). Pour caractériser la dispersionde la loi jointe entre un alignement parfait des données sur la grille des voxels ou horsgrille, ces données utilisent notamment la fréquence des probabilités p↓A,B(i,j) faibles, lenombre de cases non nulles de l’histogramme joint et l’entropie de cette distribution 1D.

Recaler deux images revenant donc à diminuer la dispersion, ou encore à réduire laquantité d’information de la loi jointe, l’entropie de Shannon apparaît comme une mesureidéale d’une telle quantité d’information. Ainsi, il est possible de recaler deux images A etB en minimisant leur entropie jointe définie par :

H(A,B) = −∑

i,j ∀(i,j)∈I2

p↓A,B(i,j) ln(p↓A,B(i,j)) (2.82)

114 2.2 Recalage basé sur des mesures statistiques de similarité

Ce critère a été utilisé à des fins de recalage mono- ou multimodalité, comme par exemplele recalage IRM/TEP [Studholme 95, Studholme 99]. Néanmoins, l’objectif de ce critèreétant de réduire la complexité de la “scène jointe”, il a tendance à favoriser des situations dedépendance dégénérée entre les deux images, en recalant une image dans le fond de l’autre,par exemple. Ainsi, ce critère est reconnu pour être très sensible à la zone de recouvrementpartiel des données [Studholme 99].

Mesures d’un écart à l’indépendance : Alors que les mesures dites quantitatives desimilarité présentées au paragraphe I.2.2.4.1 utilisaient à des fins de recalage des proprié-tés telles que la dépendance linéaire ou la dépendance fonctionnelle, nous allons utiliserici une autre propriété : l’indépendance statistique. Rappelons que par définition deux va-riables aléatoires sont indépendantes si et seulement si leur loi jointe est le produit des loismarginales. Ainsi, A et B T sont indépendantes si et seulement si on a :

p↓A,B(i,j) = pA(i) × p↓B(j) ∀(i,j) ∈ I2 (2.83)

La notion d’indépendance statistique est très intéressante vis à vis du recalage car elleest très générique et ne fait aucune hypothèse quant à la nature du “lien” statistique entre lesimages à recaler, sauf justement cette notion de dépendance. Les hypothèses de dépendancefonctionnelle et surtout de dépendance linéaire peuvent en effet s’avérer trop restrictives enrecalage multimodalité, et surtout difficiles à vérifier objectivement. Pour le recalage, nousallons donc supposer que la dépendance statistique entre les données sera maximale lorsquecelles-ci seront en correspondance parfaite. Les critères présentés ici consisteront donc àrecaler les données en maximisant leur écart à la situation d’indépendance statistique.

– De la f-divergence à la f-information :Nous avons précédemment introduit la notion très générique de f -divergence commeune métrique permettant de comparer des densités de probabilité. Ces métriquespermettent notamment de quantifier l’écart à l’indépendance de deux variables aléa-toires. Nous définissons ainsi la f -information [Pluim 00b] comme la f -divergenceentre la loi jointe et la loi produit des marginales qui serait observée en cas de par-faite indépendance. Le recalage consistera à estimer la transformation géométriquequi assure une f -information maximale, à savoir :

T = argmax T∈T I(P ↓A,B,PA × P ↓

B) (2.84)

où I désigne la f -divergence définie en (2.52).J. Pluim [Pluim 00b, Pluim 01a] et D. Sarrut [Sarrut 99, Sarrut 00] ont étudié quan-tité de critères statistiques de similarité déduits de ce principe (20 pour J. Pluimet 14 pour D. Sarrut), dont certains déduits d’autres définitions de la divergence(forme fonctionnelle non intégrale notamment [Basseville 96]). Nous présentons iciles critères les plus couramment utilisés à des fins de recalage, comme l’informa-tion mutuelle, mais aussi certains critères très connus en statistiques qu’il nous aparu intéressant de situer dans cette même famille : la distance de Kolmogorov et lastatistique du χ2.

Méthodes de recalage par mesures statistiques de similarité 115

– Divergence de Kullback-Leibler et information mutuelle :L’information mutuelle est le critère statistique de similarité issu de ce formalismede loin le plus connu pour le recalage d’image. Elle se déduit en choisissant la diver-gence de Kullback-Leibler comme mesure de divergence, on en déduit l’estimateur del’information mutuelle :

I(A,B) = K(P ↓A,B,PA × P ↓

B) =∑

(i,j)∈I2

p↓A,B(i,j) ln

(p↓A,B(i,j)

pA(i) × p↓B(j)

)(2.85)

L’utilisation de l’information mutuelle pour le recalage d’images médicales a été pro-posé de manière simultanée par deux équipes, celle de Maes et al.[Maes 97] à Louvain,et celle de Wells et al. [WellsIII 96] au MIT(Boston). Depuis, établir une liste exhaus-tive de toutes les études basées sur ce critère qui ont été publiées s’avérerait une tâchedifficile vu la quantité impressionnante de telles références.Notons de plus que déjà dans ces deux articles, considérés comme les références en lamatière, Maes et al. proposent la méthode d’interpolation intrinsèque , dite “partialvolume”, et Wells et al. proposent d’utiliser le fenêtrage de Parzen pour l’estimationdes lois de probabilité et en déduisent la dérivée de l’information mutuelle en fonctionde T .Pour aider à la compréhension du mode de fonctionnement de l’information mu-tuelle, il est utile de l’interpréter à partir des entropies de Shannon des lois jointe etmarginales, que l’on peut envisager comme des mesures de quantité d’information.On montre aisément à partir de l’équation (2.85), que l’information mutuelle peutégalement s’écrire :

I(A,B) = H(A) + H(B↓) − H(A,B↓)= H(A) − H(A|B↓)= H(B↓) − H(B↓|A)

(2.86)

où H(A,B↓), H(A), H(B↓), H(A|B↓) et H(B↓|A) désignent respectivement les en-tropies de Shannon des densités de probabilité p↓A,B, pA, p↓B, p↓

A|B et p↓B|A. La première

expression montre que maximiser l’information mutuelle revient à minimiser l’entro-pie jointe, c’est à dire à diminuer la quantité d’information et donc la complexitéde la scène jointe. Néanmoins, la présence des entropies marginales H(A) et H(B↓)qu’il faut maximiser, garantit que dans la zone de recouvrement partiel les imagescontiennent suffisamment d’information. Ce dernier point permet d’éviter des casde dépendance dégénérée, lorsqu’une image “se recale sur le fond de l’autre”. Ainsi,l’information mutuelle permet de stabiliser le comportement de la minimisation del’entropie jointe, en rendant le critère moins sensible à la zone de recouvrement par-tiel.La seconde interprétation utilise la notion d’entropie conditionnelle. Nous avons vuque l’entropie pouvait être considérée comme une mesure de quantité d’informationou comme une mesure de degré d’incertitude 5. Ainsi, on peut interpréter l’infor-mation mutuelle comme la diminution du degré d’incertitude de l’image A (H(A))

5. Les deux points de vue sont équivalents, puisque l’on peut considérer qu’une image qui contientbeaucoup d’événement peu probables, i.e. un important degré d’incertitude, contient en fait beaucoup plusd’information qu’une image présentant une intensité uniforme.

116 2.2 Recalage basé sur des mesures statistiques de similarité

lorsque l’on dispose de l’image B↓ comme information a priori (H(A|B↓), et inver-sement. Ainsi, lorsque les données sont en parfaite correspondance, cette perte d’in-certitude sera maximale. L’information mutuelle caractérise ainsi l’information quiest partagée entre A et B↓. En théorie de l’information, elle est considérée commela quantité d’information partagée entre un récepteur et un émetteur dans un canalde communication. Une interprétation graphique très intuitive de l’entropie jointeet de l’information mutuelle à partir des diagrammes de Venn est présentée dans[Studholme 99].

– Information mutuelle normalisée :Bien que nettement moins sensible que l’entropie jointe à la zone de recouvrementpartiel, Studholme et al. [Studholme 99] montrent que l’information mutuelle y estégalement sensible. Ils justifient cela à partir de quelques petits exemples analytiqueset de vraies données IRM. Cette étude les a conduit à proposer un critère de similaritémesurant l’écart à l’indépendance, complètement insensible à la zone de recouvrementpartiel. Il s’agit de l’information mutuelle normalisée, qui s’écrit :

IMN(A,B) =H(A) + H(B↓)

H(A,B↓)(2.87)

F. Maes [Maes 98] a proposé un critère sensiblement identique, le coefficient de cor-rélation entropique, défini par :

CCE(A,B) =2I(A,B)

H(A) + H(B↓)= 2 − 2/IMN(A,B) (2.88)

Notons que le coefficient de corrélation entropique peut également se déduire enutilisant une autre définition plus générale de la divergence que celle de Kullback-Leibler [Sarrut 00].

– V -information ou statistique de Kolmogorov :La distance de Kolmogorov est obtenue en choisissant la fonction h(u) = 1/2|1 − u|dans la formule générique de la f -divergence (2.53). Lorsqu’on utilise cette divergencepour quantifier l’écart à l’indépendance, on aboutit à la V -information ou statistiquede Kolmogorov :

V (A,B) =1

2

(i,j)∈I2

|p↓A,B(i,j) − pA(i) × p↓B(j)| (2.89)

Ce critère est à rapprocher de la mesure classique utilisée dans le test d’adéquationde Kolmogorov-Smirnov qui utilise également la valeur absolue de la différence entreune loi empirique observée et une loi a priori que l’on cherche à comparer.

– Iα-information :La Iα-divergence est obtenue en choisissant la fonction h comme dans l’équation(2.55) dans la formule générique de la f -divergence (2.53). On aboutit ainsi au critèrede Iα-information pour caractériser l’indépendance de deux variables aléatoires :

Iα(A,B) =1

α(α − 1)

(i,j)∈I2

p↓A,B(i,j)α

(pA(i) × p↓B(j))α−1− 1

α 6= 0,1 (2.90)

Méthodes de recalage par mesures statistiques de similarité 117

On retrouve l’information mutuelle lorsque α tend vers 1. J. Pluim a étudié le com-portement de ce critère en utilisant plusieurs valeurs de α dans le contexte du recalageIRM/TEP et IRM/Scanner X [Pluim 00b, Pluim 01a]. Elle montre notamment qu’àpartir de α = 3 et au-delà, l’allure de la fonction de coût autour de l’optimum esttrès perturbée, plus du tout quadratique, et que ce critère n’est plus utilisable dansces conditions.

– χα-information :La χα-divergence est obtenue en choisissant la fonction h comme dans l’équation(2.56) dans la formule générique de la f -divergence (2.53). On aboutit ainsi au critèrede χα-information pour caractériser l’indépendance de deux variables aléatoires. Dansle cas où α = 2, on obtient :

χ2(A,B) =∑

(i,j)∈I2

(p↓A,B(i,j) − pA(i) × p↓B(j))2

pA(i) × p↓B(j)(2.91)

On aboutit donc à la mesure du χ2 très connue en statistiques pour caractériser l’in-dépendance de deux variables aléatoires qualitatives [Saporta 90]. Notons égalementque lorsque α vaut 1, la χ1-information n’est autre que la statistique de Kolmogorov.Lorsque α ≤ 1, la χα-information est encore appelée Mα-information de Matusita.

Les études menées par J. Pluim et D. Sarrut sur l’évaluation des performances de cesderniers critères parmi d’autres pour le recalage de données TEP, Scanner X ou IRM ontmontré que certains se comportent beaucoup mieux que d’autres. En général ces résultatssont très dépendants de la modalité utilisée, et dans tous les cas, l’information mutuelle etl’information mutuelle normalisée font partie des critères les plus performants en terme deprécision, mais aussi de robustesse.

2.2.4.3 Approches hybrides

Toutes les mesures de similarité que nous venons de présenter, qu’elles soient quanti-tatives ou qualitatives, n’utilisent que les intensités des images. Plus encore, nous avonsvu que les mesures issues de la théorie de l’information comme l’information mutuelle, neprenaient en compte l’organisation spatiale des intensités que de manière indirecte, viales besoins d’interpolation. Or, dans certains contextes, il peut s’avérer utile de mettre enavant cette organisation spatiale lors de la procédure de recalage. Ainsi certains critères,dits hybrides ont été développés pour répondre à ces besoins. Par exemple, en recalagemonomodalité IRM/IRM, Holden et al. [Holden 00] utilisent, entre autres, un critère quimélange les approches quantitatives et qualitatives : ils minimisent l’entropie de l’image dedifférence. Partant du principe que l’os du crâne est une caractéristique spatiale impor-tante pour le recalage, Van den Elsen et al. [VanDenElsen 95] proposent d’appliquer unopérateur de courbure issu de la géométrie différentielle sur des données IRM et ScannerX, avant de maximiser le coefficient de corrélation entre ces deux volumes de courbures. Eneffet, rappelons que l’os du crâne apparaît hyper-intense en scanner X et ne présente pra-tiquement aucun signal en IRM. Dans les deux cas, il se situe à un optimum de courbure,positive ou négative.

Plus récemment, des études ont proposé l’utilisation combinée de critères statistiquesde similarité et d’information sur les contours de l’image provenant du gradient. Ainsi,

118 2.2 Recalage basé sur des mesures statistiques de similarité

Pluim et al. [Pluim 00c] proposent un critère obtenu en combinant l’information mutuelleet le gradient des images, et l’appliquent pour le recalage multimodalité de données ScannerX, IRM et TEP. De manière analogue, Roche et al. [Roche 01b] suggèrent que l’utilisationcombinée du gradient des images et du rapport de corrélation généralisé est particulière-ment bien adaptée pour le recalage rigide IRM/échographie. En effet, l’échographie étantpar nature une imagerie d’interface, utiliser une information provenant des contours del’IRM ne peut que favoriser le recalage.

2.2.5 Mesures basées sur une modélisation de la similarité entre les don-nées à recaler

2.2.5.1 Modélisation de la similarité à partir des données

Alors que la plupart des mesures qualitatives présentées cherchent à recaler les imagesen les éloignant le plus possible de la situation d’indépendance statistique, quelques ap-proches récemment proposées consistent au contraire à minimiser la divergence entre laloi jointe observée et une loi jointe a priori, caractéristique du type de données que l’oncherche à recaler. On montre que formuler ce problème comme une maximisation de lalog-vraisemblance entre la loi jointe estimée et la loi jointe a priori revient à minimiser ladivergence de Kullback-Leibler entre ces deux densités de probabilité. Cette approche a étéutilisée par Leventon et al. [Leventon 98] pour le recalage de différentes séquences IRM, etpar Zhu pour le recalage IRM/TEMP [Zhu 02a]. La loi jointe a priori peut être estiméeà partir d’une base de données préalablement recalées de même nature que les donnéesque l’on cherche précisément à recaler. Zhu estime cette loi jointe a priori à partir de 5recalages manuels réalisés par un expert sur les données TEMP/IRM de 4 patients. Surune base de données de 37 sujets, Leventon et al. utilisent les données d’un seul sujet pourestimer la loi jointe a priori par une méthode de mélange de Gaussiennes ou fenêtrage deParzen, et utilisent les données des 36 autres sujets pour tester l’algorithme. Dans les deuxétudes, ce nouveau type d’approche semble très prometteur, Zhu le compare notamment àla maximisation de l’information mutuelle.

2.2.5.2 Modélisation du processus de génération des données

La méthode proposée par A. Roche [Roche 01a] revient à estimer cette loi jointe apriori directement à partir des données à recaler, en modélisant le processus de générationde celles-ci. Ainsi, il part d’un modèle spatial de l’anatomie cérébrale, à partir duquel sontgénérées les données à recaler grâce à une transformation en intensité et l’ajout de bruit.La transformation géométrique que la méthode de recalage est censée estimer est appliquéeà l’un des deux jeux de données. Après quelques hypothèses simplificatrices, comme no-tamment l’indépendance du bruit en chaque voxel, un critère de recalage idéal est proposéen estimant les différentes composantes du modèle (modèle de l’anatomie, transformationsen intensité et transformation spatiale) par maximisation de la log-vraisemblance. Unetelle approche revient à poser le problème du recalage basé sur l’optimisation d’un cri-tère de similarité comme un problème d’inférence statistique de ce modèle de générationdes données. Dans le contexte du recalage multimodal non linéaire, cette modélisation aété utilisée par [Guimond 01] afin d’estimer une transformation en intensité entre données

Méthodes de recalage par mesures statistiques de similarité 119

multimodales, dans le but d’appliquer des techniques de recalage monomodal non linéairesur les données ainsi transformées en intensité.

2.2.6 Mise en œuvre du recalage : pré-traitements et méthodes d’opti-misation

De nombreux auteurs suggèrent certains pré-traitements comme l’utilisation d’un masquepour n’utiliser que les intensités du cerveau lors du recalage, ou encore le lissage des don-nées. Alors que ces pré-traitements sont fondamentaux pour certaines approches heuris-tiques comme notamment le critère de Woods [Woods 98], la plupart des critères récentstels que l’information mutuelle normalisée ou non, les rapports de corrélation ou les ap-proches robustes, s’avèrent particulièrement fiables sans recourir à aucun pré-traitement.

Pour une description détaillée des différentes méthodes d’optimisation auxquelles nousfaisons allusion ici, nous renvoyons le lecteur vers [Press 92]. En ce qui concerne la stratégied’optimisation du critère, les méthodes itératives ne nécessitant pas de dériver le critères’avèrent de loin les plus utilisées. Citons notamment l’algorithme de Powell [Pluim 00c,Pluim 00b, Pluim 01a, Sarrut 99, Sarrut 00, Roche 01a, Maes 97, Leventon 98, Zhu 02a]ou l’algorithme du Simplex [Eberl 96, Brinkmann 99, Pfluger 00, Radau 01]. Ces deuxapproches sont des méthodes d’optimisation locale. La méthode de Powell recherche l’opti-mum d’une fonction multi-dimensionnelle par optimisations 1D successives selon des direc-tions mutuellement conjuguées dans l’espace des paramètres. Chaque optimisation mono-dimensionnelle est généralement réalisée à l’aide de la méthode de Brent. Si la fonctionnellede coût à optimiser est quadratique, ces algorithmes convergent en un nombre fini d’itéra-tions. Pour certains critères, il est possible de disposer d’une formulation analytique de lasolution, c’est notamment le cas lorsque l’on se ramène à un problème de régression linéaireau sens des moindres carrés pour des petits déplacements [Barber 95, Friston 95a]. En pra-tique, la résolution peut nécessiter quelques itérations. Une approche similaire a été pro-posée par A. Roche [Roche 01a] pour rechercher la fonction de transformation en intensitéf optimale (parmi les fonctions constantes par morceaux ou polynomiales, par exemple).Il combine séquentiellement l’optimisation du rapport de corrélation généralisé suivant fpar une méthode des moindres carrés itérés et suivant T par l’algorithme de Powell : ils’agit d’une optimisation alternée. Des approches heuristiques de recherche exhaustive parun échantillonnage adaptatif de l’espace des paramètres de T ont également été propo-sées : “hill climbing optimization” [Studholme 99, Studholme 95, Pluim 00b, Holden 00].Ces approches sont couplées à une approche multirésolution, évoluant vers un échantillon-nage de plus en plus fin de l’espace des paramètres de T . D’autres méthodes ont égale-ment été utilisées telles l’algorithme de Levenberg-Marquardt [Alpert 96, Woods 98], oudes approches nécessitant de dériver le critère, comme l’algorithme de Newton-Raphson[Woods 92, Woods 93, Woods 98].

Toutes ces méthodes d’optimisation ne garantissent que le fait que la solution soit unoptimum local. Quelques approches stochastiques permettant une optimisation globale ontégalement été proposées. Ainsi, Nikou et al. [Nikou 98, Nikou 99b] proposent une approchestochastique de type recuit simulé pour initialiser rapidement et grossièrement la solutiondans le bon bassin d’attraction, puis ils utilisent une approche locale pour affiner la solution.Wells et al. [WellsIII 96] proposent une descente de gradient stochastique pour maximiserl’information mutuelle, dont la dérivée est évaluée grâce à l’utilisation de la méthode de

120 2.2 Recalage basé sur des mesures statistiques de similarité

Parzen pour le calcul de l’histogramme joint.En pratique, pour éviter de tomber dans un optimum local et accélérer la recherche,

de nombreuses stratégies multirésolution ont également été proposées. Elles consistent àinitialiser le recalage en utilisant des données sous-échantillonnées, puis à se servir de cerésultat pour initialiser la recherche à une résolution plus fine et ainsi de suite. Différentesstratégies sont envisagées pour rééchantillonner les données, utilisant soit un simple sous-échantillonnage, soit le calcul de la valeur moyenne des intensités du cube correspondantà la résolution plus fine, soit un lissage gaussien avant le sous-échantillonnage.

Quelques études se sont intéressées à l’influence de l’algorithme d’optimisation et de lastratégie multirésolution employés sur la qualité du recalage. Ainsi, Maes et al. [Maes 99]comparent 6 méthodes de maximisation de l’information mutuelle, à savoir les méthodesde Powell, du simplex, de la descente de gradient, du gradient conjugué, de quasi-Newtonet de Levenberg-Marquardt. Ils proposent d’ailleurs une méthode de calcul des dérivéesde l’information mutuelle lorsque l’histogramme joint est estimé à l’aide d’une interpola-tion intrinsèque. Pluim et al. [Pluim 01b] étudient l’impact sur la précision du recalagede différentes stratégie multirésolution, et mettent en garde sur le fait qu’il ne faut pastrop sous-échantillonner des données de faible résolution spatiale comme la TEP. Concer-nant le recalage TEMP/IRM par maximisation de l’information mutuelle, Thurjfell etal. [Thurjfell 00] étudient l’influence sur la précision du recalage, de l’échantillonnage enintensité des données lors de l’estimation de l’histogramme joint (nombre de bins de l’his-togramme). Il proposent d’ailleurs une réduction adaptative du nombre de bins de l’histo-gramme au cours d’un processus de recherche multirésolution. Enfin, Zhu et al. [Zhu 02b]étudient l’influence de la méthode d’optimisation (Powell ou simplex) et de différentesapproches multirésolution sur le recalage IRM/TEMP par maximisation de l’informationmutuelle.

2.2.7 Synthèse

Nous venons de proposer une classification des divers critères statistiques de similaritéutilisables à des fins de recalage. Notre classification distingue les critères considérant lesimages comme des variables aléatoires quantitatives et qualitatives. Au regard de cettedistinction, nous proposons ici un travail de synthèse principalement réalisé à partir destravaux d’A. Roche [Roche 01a] sur les approches quantitatives, et à partir de ceux de J.Pluim [Pluim 00b] et de D. Sarrut [Sarrut 00] sur les approches qualitatives. Pour chacundes critères statistiques présentés, l’accent a été mis sur la manière dont l’information estmesurée au sein d’une image et sur la métrique utilisée pour comparer deux quantitésd’information, i.e., pour mesurer un lien statistique entre deux images. Ainsi, chacun descritères présentés pose des hypothèses sur la nature d’un tel lien statistique (dépendancelinéaire, dépendance fonctionnelle, écart à l’indépendance). Quelques approches récentestentent d’estimer un tel lien à partir des données en posant le problème du recalage commeun problème d’inférence statistique. La nature de ce lien statistique est en général diffici-lement identifiable en pratique, surtout lorsque l’on cherche à recaler des données réelles,pathologiques notamment. Les performances des différentes méthodes de recalage, au re-gard de la validité des hypothèses concernant la nature du lien statistique sous-jacent, nepeuvent être appréhendées qu’à partir de procédures d’évaluation dédiées. L’objet du pro-chain chapitre est de présenter de telles procédures de validation de méthodes de recalage.

Validation de méthodes de recalage : application aux recalages TEMP/IRMou TEMP/TEMP 121

Chapitre 3

Validation de méthodes de recalage :application aux recalagesTEMP/IRM ou TEMP/TEMP

L’utilisation en clinique de plus en plus répandue de techniques de traitement d’imageet principalement de méthodes de fusion et de recalage font de la validation une étapeclé et incontournable lors de la mise au point de toute nouvelle méthode. La validationd’une méthode de traitement d’images médicales a pour objet la mise en évidence descaractéristiques intrinsèques de cette méthode, ainsi que l’évaluation de ses performanceset limites d’utilisation. La validation permet alors de mettre clairement en évidence dansquel contexte clinique telle ou telle méthode est utilisable. La validation peut égalementdémontrer la valeur ajoutée de l’utilisation de telle méthode vis à vis d’un impact sur l’aideau diagnostic, la thérapie, la société ou encore l’économie.

La validation de méthodes de recalage utilisant des mesures statistiques de similarité,dans le contexte clinique qu’est la mise en correspondance TEMP ictale/IRM, est un aspectcentral de ce travail de thèse. Après avoir présenté au chapitre précédent une classificationdes mesures statistiques de similarité utilisables à des fins de recalage, nous allons présenterune classification des procédures de validation de ces méthodes de recalage. Pour cela, nousnous restreignons aux études portant sur la validation de méthodes de recalage basées me-sures statistiques de similarité ou sur la validation de méthodes s’adressant spécifiquementau problème du recalage de données TEMP ou TEP.

Pour réaliser cette classification, nous nous sommes principalement inspiré d’un modèledes procédures de validation de méthodes de traitement d’images médicales qui est en coursde réalisation au laboratoire [Jannin 02] et qui n’a pas encore fait l’objet d’une publication.Nous avons ainsi sélectionné les publications qui nous ont semblé les plus représentativesdes études portant sur le recalage basé mesures statistiques de similarité ou du recalageintéressant des données TEMP ou TEP. Nous présentons ces études en distinguant lestrois étapes clé d’une procédure de validation : l’énoncé d’une hypothèse de validation, lamise en œuvre de la procédure de validation et notamment le choix de la transformationgéométrique de référence, et le choix d’une métrique de validation.

122 3.1 Classification des procédures de validation

3.1 Classification des procédures de validation

La classification des références bibliographiques portant sur l’évaluation de méthodesde recalage sélectionnées est présentée sur les tableaux 3.1, 3.3, 3.4 et 3.5. Nous avonsopté pour classer les études en question en fonction du type de transformation géomé-trique de référence qui a été utilisé. En effet, l’évaluation quantitative des performancesd’une méthode de recalage nécessite en général de comparer à une transformation géomé-trique de référence, la transformation géométrique fournie par la méthode de recalage enquestion. Ainsi, nous distinguons quatre familles de procédures de validation. La premièreconsiste en l’utilisation d’une transformation géométrique de référence connue de manièreabsolue (voir table 3.1), on parle de gold standard (GS) absolu. Elle est principalementliée à l’utilisation de fantômes physiques ou de simulations numériques. La seconde fa-mille de procédures de validation concerne l’utilisation de données prospectives acquisesafin d’obtenir une transformation géométrique de référence approchée. Parmi ces procé-dures de validation, on compte principalement les études utilisant des données prospectivesacquises de manière invasive (voir table 3.3), comme par exemple l’utilisation de cadresde stéréotaxie ou de marqueurs directement vissés sur le crâne du patient. La troisièmecatégorie de procédures de validation (voir table 3.4) ne donne accès également qu’à unetransformation géométrique de référence approchée, mais moins précise que la précédente,vu qu’elle est obtenue par l’acquisition de données prospectives via des techniques non-invasives (e.g. marqueurs collés sur la peau, systèmes de contention pendant l’acquisition).Enfin, dans la dernière catégorie de procédures de validation présentée dans la table 3.5,nous présentons les études d’évaluation dites sans gold standard, pour lesquelles aucunetechnique n’a été spécifiquement mise en œuvre à des fins des validation avant l’acquisitiondes données. La transformation géométrique de référence peut dans ce cas être une trans-formation géométrique moyenne issue de divers essais de recalage ou une transformationgéométrique issue d’une autre méthode de recalage.

Lorsque plusieurs de ces approches sont mises en jeu dans une même publication, nousles avons indiqué sur la même ligne du tableau (entre deux traits continus). Par contre,une telle publication ne figurera que dans un seul des quatre tableaux. L’approche quinous a paru la plus significative nous a permis de choisir dans quel tableau placer une telleréférence.

La première colonne “Référence” indique le pointeur bibliographique dont il est ques-tion. Nous présentons maintenant une description des différentes colonnes du tableau, quicorrespondent aux étapes clé du modèle des procédures de validation, précédemment men-tionné.

3.2 Méthodes de recalage évaluées

La colonne “Méthodes” décrit la ou les méthodes de recalage faisant l’objet d’un travailde validation ou de comparaison dans la publication en question. Nous ne précisons que lafonctionnelle de coût utilisée par la méthode de recalage. Même si les résultats ne figurentpas dans les tableaux, ce travail de classification nous a permis de proposer une revue desméthodes d’optimisation et pré-traitements classiquement utilisés par les méthodes baséessur l’optimisation d’une mesure statistique de similarité (cf.§I.2.2.6).

Val

idat

ion

de

mét

hodes

de

reca

lage

:ap

plica

tion

aux

reca

lage

sT

EM

P/I

RM

ouT

EM

P/T

EM

P123 Tab. 3.1 – Etat de l’art de méthodes de recalage basées mesures statistiques de similarité et de méthodes de recalage intéressant des

données TEMP : Approches utilisant un GS absolu

Hyp. de validation Mise en oeuvre Métrique de validationRéférence Méthodes Niveau

d’éval.Modalitéset contexteclin.

GStype

Données devalidation

Transfo. deréf.

Paramètres Type Mesuréesur

Stat Desc. Test stat.

[Strother 94] cadre Z,CA-CP, HH,PIE, CW ouURI

T IRM/TEPsujets sains

absolu simulations connue(aléat) 2 opérateurs E pts (cer-veau)

I(moy,max),G(moy,std)

approx prospectives(contention)

contrôle posi-tion

2 opérateurs E intensités I(CC),G(moy,std)

[Barber 95] SDC (flotoptique)

T TEMPintra- etinter-sujets

absolu simulations connue bruit Poisso-nien

E paramètres G(moy,std)

approx prospectives contrôle posi-tion (Id)

rec. vers tem-plate ou unedonnée

E intensités I(SDC),G(moy,std)

t-tests ap-pariés

[Nikou 98] SDC, CW,IM, SDCr,CWr

T IRM/IRM (1sujet)

absolu simulations connue(aléat) bruit E paramètres G(moy,std)

objet test absolu fantôme contrôle posi-tion (par seq.IRM)

E paramètres G(moy,std)

TEMP inter-ictale /IRM(1 sujet)

aucun rétrospectives rec. manuelpar l’expert

bruit I paramètres G(moy,std)

[Brinkmann 99] Surf(Chamf.),IM, URI

T/C TEMPictale etinter-ictale

absolu fantôme connue E 1 seul pt G(moy) aov

approx fantôme contrôle posi-tion

E 1 seul pt G(moy) aov

absolu simulations connue E 1 seul pt G(moy) aovaucun rétrospectives I Intensités I(std(diff)),

G(moy)aov

[Holden 00] SDC, CC,IM, IMN,H(diff),PI,URI,URIHolden

T/C IRM/IRM(sains oudéf. en hor-mone decroissance)

absolu simulations connue seg. cerveau,bruit, inhom.RF

E pts (cer-veau)

I(moy,eqm,max),G(moy,std)

aucun rétrospectives Id : consis-tence à 2 ou3 niveaux

seg. cerveau I pts (cer-veau)

I(moy,eqm,max),G(moy,std)

test dusigne ouWilcoxon

[Stamatakis 01] SDC (norm.spatialeSPM), diff.fonct. nonlin.

T TEMP (lé-sions hypo-perfusées)

absolu simulations Id amplitude etextension deszones patho.simulées

E intensité I(% vol.patho,SDC)

124

3.2

Méth

odes

de

recala

ge

évalu

ées

Tab. 3.3 – Etat de l’art de méthodes de recalage basées mesures statistiques de similarité et de méthodes de recalage intéressant desdonnées TEMP : Approches utilisant un GS approché par méthodes invasives (base de données Vanderbilt essentiellement)

Hyp. de validation Mise en oeuvre Métrique de validationRéférence Méthodes Niveau

d’éval.Modalitéset contexteclin.

GStype

Données devalidation

Transfo. deréf.

Paramètres Type Mesuréesur

Stat Desc. Test stat.

[Woods 93] CW C IRM / TEPsujets sainset épilep-tiques

approx prospectives marqueursosseux

multirés. E pts (cer-veau)

I(moy,max),G(moy)

[West 96][West 97]

Surf(Chamf),IM, CC, HH,PIE, CW,. . . 16 mé-thodes

T IRM / CT /TEP

approx prospectives(vdb)

marqueursosseux

dist. géom. a E pts (10VOIs)

G(med,max)

t-tests ap-pariés

[WellsIII 96] IM T IRM / CT approx prospectives(vdb)

marqueursosseux +connue(aléat)

E paramètres G(std)

[Maes 97] IM T IRM / CT /TEP

approx prospectives(vdb)

marqueursosseux

interpolation,ordre b

E pts (8) etparam.

I(moy,max)

IRM / CT aucun rétrospectives rec. avec CCsur courbures[VanDenElsen 95]

interpolation,ordre, sous-éch., recouv.partiel

E pts (8) etparam.

I(moy,max)

[Maes 99] IM T IRM / CT approx prospectives(vdb)

marqueursosseux

optimisation,multirés.

E paramètres G(moy,min,max,std)

t-tests

[Studholme 99] H, IM, IMN T IRM / CT/TEP

approx prospectives(vdb)

marqueursosseux +connue(aléat)

recouv. par-tiel

E pts (8) I(moy)

[Nikou 99a]Chap. 5

CWr T IRM / CT/TEP

approx prospectives(vdb)

marqueursosseux

échantillonnage E pts (6-10) G(med,max) class.med parrapport à[West 97]

[Sarrut 00]Chap. 2

19 mes. desimilarité : f-info, RC, . . .

T IRM / CT/TEP

approx prospectives(vdb)

marqueursosseux

dist. géom.,sous-éch.

E pts (10) I(eqm),G(moy)

[Pluim 00c] IM, IMN,Gr., IM+Gr

T IRM / CT/TEP

approx prospectives(vdb)

marqueursosseux

dist. géom. E pts (8) I(eqm),G(med,max)

t-testsappariés,Wilcoxon

[Pluim 01a] 20 mes. desimilarité : f-info, . . .

T IRM / CT/TEP

approx prospectives(vdb)

marqueursosseux

dist. géom. E pts (8) I(eqm),G(moy,std,med,Q90)

t-tests ap-pariés

[Roche 01a]Chap. 4

IM, 6 ver-sions du RCg

T IRM / CT/TEP

approx prospectives(vdb)

marqueursosseux

initialisation E 1 pt + pa-ram. (rot.)

I(eqm),G(eqm,med)

a correction ou non des distorsions géométriquesb choix de l’ordre volume de référence / volume flottant

Val

idat

ion

de

mét

hodes

de

reca

lage

:ap

plica

tion

aux

reca

lage

sT

EM

P/I

RM

ouT

EM

P/T

EM

P125

Tab. 3.4 – Etat de l’art de méthodes de recalage basées mesures statistiques de similarité et de méthodes de recalage intéressant desdonnées TEMP : Approches utilisant un GS approché par méthodes non invasives (marqueurs peau, fantômes, contrôle de la positionlors de l’acquisition)

Hyp. de validation Mise en oeuvre Métrique de validationRéférence Méthodes Niveau

d’éval.Modalitéset contexteclin.

GStype

Données devalidation

Transfo. deréf.

Paramètres Type Mesuréesur

Stat Desc. Test stat.

[Barnden 00] IM,SDCSPM ,RCL2, CW,CWArdekani

C IRM /TEMP

approx prospectives marqueurspeau

E points(mar-queurs,cerveau,surface)

I(moy)G(moy,max,std)

[Eberl 96] SDA, CSS,SDP, URI

T/C TEP /TEMP Em+ Trans. a

approx fantôme marqueurspeau

E points(mar-queurs)

G(moy,max,std)

approx fantôme contrôle posi-tion

E paramètres G(moy,max,std)

TEMPictale, inter-ictale

aucun rétrospectives points anato-miques dési-gnés visuelle-ment

I pts G(moy,max,std)

[Ardekani 95] CW à par-tir de classif.IRM

C IRM / TEP(sujets sains)

approx prospectives(contention)

contrôle posi-tion (Id)

E paramètres G(moy,std)

approx prospectives 3 marqueurspeau

E pts (3) G(moy)

[Woods 92] URI T TEP approx fantôme contrôle posi-tion

lissage,foyers hyper-perfusés

E pts (cer-veau)

I(moy,max)

approx prospectives contrôle posi-tion

E pts (cer-veau)

I(moy,max)

[Leventon 98] Log. vrai-semblance

T IRM / IRM approx prospectives contrôle posi-tion (Id) +connue

E pts (8) I(moy)

[Zhu 02a] IM, H, Hcond.

T/C TEMP Em.+ Trans.

approx prospectives contrôle posi-tion (Id)

E paramètres G(moy,std)

IRM /TEMP Em.+ Trans.

approx prospectives contrôle po-sition TEMP(Id) + consis-tence viaIRM

E paramètres G(moy,std)

Log. vrai-semblance

IRM /TEMP Em.

aucun rétrospectives transfo. moy(5 rec. ma-nuels) +connue(aléat)

I paramètres G(moy,std)

a acquisitions en émission et transmission

126

3.2

Méth

odes

de

recala

ge

évalu

ées

Tab. 3.5 – Etat de l’art de méthodes de recalage basées mesures statistiques de similarité et de méthodes de recalage intéressant desdonnées TEMP : Approches sans GS

Hyp. de validation Mise en oeuvre Métrique de validationRéférence Méthodes Niveau

d’éval.Modalitéset contexteclin.

GStype

Données devalidation

Transfo. deréf.

Paramètres Type Mesuréesur

Stat Desc. Test stat.

[VanHerk 94] Surf(Chamf.)

C IRM / CT /TEMP

aucun rétrospectives rec. haute rés.(ts les pts) +connue(aléat)

nb pts sur-face, Coût= dist. moy,eqm ou max

I pts (sur-face)

I(dist.moy),G(moy,std,étendue)

[Studholme 95] CC, CW,M3(H), H

C IRM / TEP aucun rétrospectives rec. ma-nuel basépts anat. +connue(aléat)

recouv. par-tiel

I paramètre I(eqm),G(moy,std)

[Alpert 96] SDC, URI,SDCAlpert

T/C TEP / TEP aucun rétrospectives URI (implém.AIR)

I paramètres G(moy,eqm,max)

CWAlpert,CW

IRM / TEP aucun rétrospectives CW (implém.AIR)

I paramètres G(moy,eqm,max)

[deMunck 98] Surf(Chamf.) T/C IRM /TEMP

aucun rétrospectives rec. haute rés.optimal +connue(aléat)

seg. cerveau(seuils)

I pts (sur-face)

I(dist.moy),G(moy,std,étendue)

[Woods 98] SDC,SDCAlpert,URI

T/C IRM / IRM aucun rétrospectives transfo. moy.accordante(reconciled) :consistence

lissage I pts (cer-veau)

I(moy,max),G(moy,max)

tests deK. a

TEP / TEP approx fantôme contrôle pos. lissage, sous-éch, . . .

E pts (cer-veau)

G(moy,eqm,max)

tests de K.

TEP / TEP aucun fantôme contrôle pos.+ consistence

lissage, sous-éch, . . .

I pts (cer-veau)

G(moy,eqm,max)

tests de K.

[Pfluger 00] Interactif,HH, CW

C IRM /TEMP

aucun rétrospectives transfomoy suressais semi-automatiques+connue(aléat)

opérateurs I pts (cer-veau)

I(moy),G(moy,std,max)

[Radau 01] SDA, SDCr,IMN

T/C TEMP su-jets sains etAlzheimer(inter-sujet)

aucun rétrospectives 3 rec de réf(avec seg., in-terp. et moysur essais) +connue(aléat)

I pts (6) I(max),G(moy,med,std,Q70,Q90)

t-tests ap-pariés

TEMP su-jets sains(inter-sujet)

aucun simulations(patho)

rec. sans pa-tho simulée

I pts (6) I(max),G(moy,std)

t-tests ap-pariés, aov

[Zhu 02b] IM C IRM /TEMP Em+ Trans

aucun rétrospectives rec. IM[Maes 97]

interpolation,optimisation,multirés. . . .

I paramètres G(moy,std)

a test de Kolmogorov de comparaison des distributions des erreurs

Validation de méthodes de recalage : application aux recalages TEMP/IRMou TEMP/TEMP 127

Les notations suivantes ont été utilisées dans les tableaux. Lorsqu’il s’agit d’une mesurestatistique de similarité présentée au chapitre I.2, le numéro de l’équation correspondanteest indiqué :

– Cadre Z : ajustement des formes en Z du cadre de stéréotaxie de Fisher

– CA-CP : Recalage vers le quadrillage proportionnel de Talairach et Tournoux [Talairach 88]

– HH - Head-Hat : recalage basé mise en correspondance de surfaces proposé par Pe-lizzari et al. [Pelizzari 89]

– PIE : points internes équivalents : désignation interactive de points anatomiques ho-mologues dans les deux images

– diff : image de différence

– CSS : changements de signe stochastiques

– H : entropie jointe (équation 2.82)

– H cond. : entropie conditionnelle

– H(diff) : entropie de l’image de différence

– M3(H) : moment d’ordre 3 de l’entropie jointe (équation 2.81)

– PI : Profil d’intensité (équation 2.80)

– IM : information mutuelle (équation 2.85)

– IMN : information mutuelle normalisée (équation 2.87)

– CW : critère de Woods (équation 2.78)

– CWAlpert: critère de Woods formalisé comme une erreur des moindres carrés avecune mise à l’échelle des intensités

– CWr : critère de Woods avec norme robuste

– URI : uniformité du rapport des intensités (équation 2.64)

– CC : coefficient de corrélation (équation 2.62)

– SDC : somme des différences au carré ou erreur des moindres carrés (équation 2.58)

– SDCAlpert: erreur des moindres carrés avec mise à l’échelle des intensités (équation2.59)

– SDA : somme des différences absolues en norme L1 (équation 2.60)

– SDP : somme des produits

– SDCr : erreur des moindres carrés avec norme robuste

– RCg : rapport de corrélation généralisé (équation 2.67)

– RCL2 : rapport de corrélation en norme quadratique L2 (équation 2.71)

– RCL1 : rapport de corrélation en norme L1 (équation 2.75)

– Gr : information provenant du gradient des images

– IM+Gr : combinaison de IM et du Gr.

3.3 Hypothèse de validation

Définir un objectif de validation revient à formaliser la ou les questions auxquelles devrarépondre la procédure de validation. Nous introduisons pour cela la notion d’hypothèse devalidation. L’objectif d’une procédure de validation est de confirmer ou non une hypothèsede validation, qui consiste en un postulat sur les performances de la méthode dans un

128 3.4 Mise en œuvre d’une procédure de validation :

contexte d’utilisation précis. Une hypothèse de validation se formalise par la spécificationd’un niveau d’évaluation, des caractéristiques des données mises en jeu (modalité, dimen-sions, résolutions) et d’un contexte clinique. Confirmer ou non une hypothèse de validationpeut se formaliser par la décision d’un test d’hypothèse, nécessitant alors le recours à unemétrique de validation.

En général, les références que nous avons étudiées ne répondent que rarement à uneseule question bien précise vis à vis de leurs objectifs de validation, mais étudient plutôtplusieurs aspects de la méthode de recalage. Qui plus est, lorsqu’un objectif de validation estclairement affiché, ils n’y répondent que rarement à l’aide de tests d’hypothèse. Ainsi, nousomettrons de formuler précisément toutes les hypothèses de validation de chaque référence.Par contre, dans chaque cas, nous précisons les éléments fondamentaux pour l’énoncéd’une hypothèse de validation : le niveau d’évaluation, les caractéristiques intrinsèques desdonnées mises en jeu et le contexte clinique.

– Niveau d’évaluation : Pour chaque référence, nous précisons si le niveau d’évalua-tion de la procédure de validation est technique (T), clinique(C) ou les deux (T/C).Un niveau d’évaluation technique correspond à une phase de réglage des paramètresde la méthode, afin d’obtenir des performances optimales. Cela peut consister parexemple en l’étude de différentes stratégies d’optimisation [Maes 99]. Un niveaud’évaluation clinique consiste en l’étude des performances de telle méthode dansun contexte clinique d’utilisation précis. Citons par exemple, l’étude de l’influence dezones pathologiques hyper- ou hypo-perfusées en TEMP sur la précision du recalage[Brinkmann 99, Stamatakis 01, Radau 01].

– Caractéristiques intrinsèques des données : Il s’agit de préciser le type de modalitésd’imagerie utilisées par l’étude ainsi que diverses caractéristiques intrinsèques à cesdonnées telles que les dimensions du champ de vue et de l’échantillonnage, ou en-core la résolution spatiale. Des propriétés informant sur le type de données à recalerpermettent également de poser des a priori sur le type de transformation géomé-trique recherchée (rigide, affine ou non linéaire). Dans les tableaux, seuls les types demodalités d’imagerie utilisées sont indiqués.

– Contexte clinique : Le contexte clinique permet de préciser en vue de quelle utilisationclinique est mise en œuvre la procédure d’évaluation. Lorsque ce contexte clinique estindiqué par les auteurs, nous précisons si l’étude porte sur des données provenant desujets sains ou pathologiques. Dans ce dernier cas, nous indiquons de quelle pathologieil est question.

3.4 Mise en œuvre d’une procédure de validation :

La mise en œuvre d’une procédure de validation de méthodes de recalage nécessite dese doter de données dites de validation et de paramètres en entrée de la procédure. Cesdonnées et paramètres sont alors utilisés à la fois par la méthode de recalage à valider etpar la méthode de calcul d’une transformation géométrique de référence. Il est alors pos-sible de valider la méthode dans différentes configurations en faisant varier les paramètres.Si la transformation géométrique de référence correspond à une vérité terrain, on parled’évaluation avec gold standard (GS). Une évaluation sera dite sans gold standard lorsquerien n’aura été mis en œuvre pour contrôler la position de la tête du sujet au moment de

Validation de méthodes de recalage : application aux recalages TEMP/IRMou TEMP/TEMP 129

l’acquisition. Dans les tableaux, nous indiquons successivement le type de GS, les donnéesde validation, la méthode de calcul de la transformation de référence et les paramètres.

3.4.1 Type de gold standard

Dans la colonne “GS type”, on précise si la procédure de validation en question faitappel à un gold standard absolu (“absolu”), approché (“approx”) ou si elle ne fait appel àaucun gold standard (“aucun”).

3.4.2 Données de validation

Les données de validation sont par définition les données images utilisées par la procé-dure de validation. Le type de GS utilisé dépend du choix des données de validation. Nousdistinguons quatre types de données de validation : les fantômes physiques, les simulationsnumériques, les données prospectives et les données rétrospectives.

– Fantômes physiques : Le fantôme de tête proposé par Hoffman et al. [Hoffman 90]est certainement le plus couramment utilisé en médecine nucléaire. Il permet detenir compte d’acquisitions réelles. Son modèle à trois compartiments (moules deplexyglass) le rend néanmoins difficilement utilisable pour simuler des contextes pa-thologiques complexes. Il a été largement utilisé à des fins d’évaluation de méthodesde recalage en TEP [Woods 92, Woods 98] ou en TEMP [Eberl 96, Brinkmann 99].Suivant les précautions prises à l’acquisition, le GS associé peut être absolu ou ap-proché.

– Simulations numériques : Les simulations numériques donnent en principe accès à unGS absolu, vu qu’en général les données simulées sont déduites d’une même donnéed’origine (souvent une IRM). Les méthodes les plus utilisées simulent les proces-sus physiques liés à la génération et à l’acquisition des données TEMP [Barber 95],TEP [Strother 94] ou IRM [Holden 00]. D’autres auteurs ont proposé de simulerdes zones pathologiques par modification locale des contrastes de données réelles etétudient leurs influences sur la précision des méthodes de recalage [Brinkmann 99,Stamatakis 01, Radau 01].

– Données prospectives : Les données prospectives sont des données cliniques qui ontété spécialement acquises à des fins de recalage ou de validation de méthodes de reca-lage. Différents systèmes, invasifs ou non invasifs, sont envisageables pour contrôlerla position du sujet dans l’imageur au moment de l’acquisition.Parmi les techniques invasives, citons l’utilisation de marqueurs extrinsèques tels quela pose de cadres de stéréotaxie ou de marqueurs vissés sur le crâne, réalisée surdes patients candidats à une neurochirurgie. Ces approches donnent accès à un GSapproché, vu qu’il doit être estimé à partir des données, mais ce GS est néanmoinstrès précis. Acquises sur ce principe, les données Scanner X (CT), IRM et TEP misesà disposition de la communauté par l’université de Vanderbilt constituent la basede données la plus connue pour l’évaluation de méthodes de recalage (cf. toutes lesréférences de la table 3.3). Ce sont les données qui ont été utilisées par le projet d’éva-luation rétrospective de méthodes de recalage mené par J. Fitzpatrick de l’universitéde Vanderbilt [West 96, West 97]. Ce projet consistait en une évaluation multicen-trique et en aveugle de différentes méthodes de recalage. La position des marqueurs

130 3.4 Mise en œuvre d’une procédure de validation :

sur les données avait été artificiellement effacée et n’était connue que par les respon-sables du projet. Dans les tableaux, nous indiquons par “vdb” toutes les études quiutilisent cette base de données.Des données de validation prospectives peuvent également être obtenues à partir deméthodes nettement moins invasives (cf. table 3.4) comme par exemple l’utilisationde marqueurs collés sur la peau [Barnden 00] ou encore l’utilisation de systèmes decontention ou simplement de consignes pour éviter au maximum les mouvements dela tête du sujet entre deux acquisitions successives sur le même imageur [Ardekani 95,Zhu 02a].

– Données rétrospectives : Les données dites rétrospectives sont des données cliniquespour lesquelles aucun système de contrôle de la position de la tête n’a été utilisé lorsde l’acquisition. De telles données sont utilisées par les procédures d’évaluation sansGS (cf. table 3.5).

3.4.3 Calcul de la transformation de référence

La colonne “Transfo. de réf.” indique la méthode utilisée pour calculer la transforma-tion géométrique de référence. Lorsqu’il s’agit d’une procédure d’évaluation de méthodesde recalage avec GS, la transformation géométrique de référence est par définition ce GS.Suivant les cas, elle peut être parfaitement connue ou nécessiter d’être estimée à partirdes données. Lorsque des marqueurs extrinsèques sont utilisés (e.g. marqueurs vissés sur lecrâne ou collés sur la peau), le calcul de la transformation géométrique de référence est engénéral obtenu par minimisation d’une distance quadratique entre points homologues. Cespoints homologues représentent les marqueurs dans les différentes images. La transforma-tion géométrique de référence peut également être déduite de l’utilisation de systèmes decontrôle de la position du sujet au moment de l’acquisition. Citons par exemple l’utilisationde systèmes de contention, la transformation géométrique de référence sera alors l’identité(“Id”), ou encore le déplacement contrôlé du lit dans l’imageur [Woods 92].

Dans le cas d’une procédure d’évaluation sans GS, la transformation géométrique deréférence peut être simplement le résultat d’une autre méthode de recalage [VanHerk 94,Alpert 96, deMunck 98, Zhu 02b] éventuellement manuelle [Studholme 95, Nikou 98]. Ellepeut également consister en une transformation géométrique moyenne déduite de plusieursessais de recalages, souvent manuels, sur le même couple de données [Pfluger 00, Radau 01].Pour les études de consistence, Woods et al. [Woods 98] introduisent la notion de trans-formation accordante moyenne (“reconciled mean transformation”) qu’ils utilisent commetransformation de référence. Lorsque l’on dispose d’au minimum deux acquisitions du mêmesujet, une telle transformation est définie comme la transformation géométrique qui mi-nimise les écarts entre points d’une même donnée auxquels on applique toutes les com-binaisons non redondantes de recalages permettant de réaliser un circuit fermé, et de seretrouver sur cette même donnée. Lorsqu’on réalise un tel circuit fermé, la transformationgéométrique de référence peut également être définie comme l’identité [Holden 00].

Finalement, nombreux auteurs étudient également le comportement des méthodes derecalage lorsqu’ils appliquent une transformation géométrique connue à l’une des données.Cette technique permet d’étudier les performances de la méthode d’optimisation en évitantde partir d’une position trop proche de la solution (fournie par le GS). Les paramètresd’une telle transformation sont en général échantillonnés de manière aléatoire (cf. cases

Validation de méthodes de recalage : application aux recalages TEMP/IRMou TEMP/TEMP 131

“connue(aléat)” dans les tableaux).

3.4.4 Paramètres

Les paramètres en entrée d’une procédure de validation peuvent concerner la qualitédes données à recaler comme par exemple l’ajout d’inhomogénéités RF en IRM ou debruit, la correction ou non des distortions géométriques (“dist. géom.”), la segmentationpréalable ou non du cerveau (“seg. cerveau”), la simulation de zones pathologiques ouencore le recouvrement partiel des données (“recouv. partiel”). Pour une même fonctionnellede coût, ces paramètres concernent également l’ajustement des différentes composantesde la méthode de recalage comme par exemple l’algorithme d’optimisation, la stratégiemultirésolution (“multirés.”), la méthode de sous-échantillonnage (“sous-ech.”) ou de lissagedes données, la méthode d’interpolation, ou encore le nombre d’opérateurs lorsqu’il s’agitd’une méthode de recalage semi-automatique.

3.5 Métrique de validation :

L’évaluation quantitative d’une méthode de recalage est obtenue par l’estimation del’écart ou divergence (“discrepancy” d’après [Woods 98]) entre la transformation géomé-trique T obtenue par la méthode de recalage à valider et la transformation géométrique deréférence Tref .

3.5.1 Type de divergence (discrepancy) : erreur (E) ou inconsistence (I)

Lorsque la transformation géométrique de référence Tref correspond à une vérité terrain(validation avec GS) alors cette mesure de divergence revient à une mesure d’erreur (E)de recalage. Par contre, lorsque Tref ne correspond pas à une vérité terrain mais plutôt aurésultat d’une autre méthode de recalage ou à une transformation moyenne, Woods et al.[Woods 98] introduisent la notion de mesure d’inconsistence (I).

3.5.2 Objet de la mesure

Dans la colonne “Mesurée sur ...”, nous indiquons à partir de quelles informations estestimée cette mesure de divergence entre T et Tref . Elle peut être réalisée directement àpartir des paramètres des transformations (e.g. translations et rotations). Il est plus com-mode de fournir au clinicien une distribution spatiale de cette divergence, ainsi nombreuxauteurs estiment cette divergence à partir d’une liste de points comme par exemple les huitsommets de la boîte englobante de la tête du sujet (cf. “pts(8)”), des points correspondantà des structures anatomiques d’intérêt ou encore des points uniformément répartis sur lasurface de la peau ou dans le cerveau. Pour quantifier cette divergence, certains auteursutilisent également une mesure de similarité sur les intensités des images rééchantillonnéesaprès recalage comme par exemple le coefficient de corrélation [Strother 94] ou la sommedes différences au carré (SDC) [Barber 95].

132 3.6 Test d’hypothèse

3.5.3 Etude de la distribution des divergences

La distribution des divergences (erreurs ou inconsistences) peut être appréhendée àdifférents niveaux. Nous reprenons et complétons ici les définitions proposées par Woodset al. [Woods 98] qui distinguent un niveau local, moyen, plural et global. Le niveau local(L) fait référence à une mesure de divergence réalisée en un seul point. Nous définissons leniveau intrinsèque (I) pour caractériser, à l’aide de statistiques descriptives, la distributionspatiale des divergences pour un essai de recalage (i.e. un réglage des paramètres) sur uncouple de données de validation d’un même sujet. Lorsque pour un même sujet, plusieursdonnées de validation sont disponibles et plusieurs essais de recalage sont réalisés, le niveauplural (P) est défini pour caractériser la distribution de ces divergences. On utilisera lanotion de divergence globale (G) pour caractériser les mesures de divergence obtenueslorsque la même procédure de validation est appliquée à des données de différents sujets.

Pour plus de lisibilité dans les tableaux, nous n’avons pas distingué les niveaux P et G,ils sont tous deux indiqués par la lettre G. Dans la colonne statistiques descriptives (“stat.desc.”), nous indiquons entre parenthèses, pour les niveaux intrinsèques “I” et globaux“G”, les statistiques descriptives utilisées pour caractériser la distribution des divergencesà savoir : la moyenne empirique (“moy”), l’erreur quadratique moyenne (“eqm”), la médiane(“med”), l’écart-type (“std”), la dispersion en norme L1 (“dispL1”), le 90ieme quantile de ladistribution (“Q90”) ou encore la valeur maximale (“max”).

– Précision (“accuracy” en anglais) : Quel que soit le niveau où on l’estime, la précisionindique à quel degré une mesure est vraie ou correcte. On estime généralement laprécision à partir de la tendance centrale de la distribution des divergences (e.g.moyenne empirique, erreur quadratique moyenne, médiane).

– Résolution (“precision” en anglais) : Par définition, si la divergence entre deux misesen correspondance théoriques est inférieure à la résolution, alors la méthode de re-calage fournira la même solution dans les deux cas. La notion de résolution est doncliée à la notion de reproductibilité lorsqu’on simule de faibles fluctuations autourde la solution. Elle est généralement estimée par une mesure de dispersion sur ladistribution des divergences (e.g. écart-type, dispersion en norme L1).

– Robustesse : La robustesse fait référence à l’étude des performances de la méthodeen présence d’éléments perturbateurs. Une telle étude est donc liée à la façon donton fait varier les paramètres de validation.

3.6 Test d’hypothèse

L’analyse statistique des résultats fournis par les métriques de validation peut être envi-sagée sous forme de tests d’hypothèse (cf. colonne “Test stat.”). La décision du test permetalors de rejeter ou non l’hypothèse de validation que l’on s’était fixée au début de la procé-dure de validation. Dans la plupart des cas, il s’agit de comparer la précision des méthodesentre elles à l’aide de tests de comparaison de moyennes (tests de Student 2 à 2 : “t-testsappariés”) [Barber 95, West 96, West 97, Maes 99, Pluim 00c, Pluim 01a, Radau 01], oualors d’évaluer de manière plus globale l’effet du choix de la méthode ou de son implémen-tation sur la précision des résultats par une analyse de la variance (“aov”)[Brinkmann 99,

Validation de méthodes de recalage : application aux recalages TEMP/IRMou TEMP/TEMP 133

Radau 01]. Quelques approches non paramétriques ont également été utilisées (test dusigne, test de Wilcoxon ou test de Kolmogorov)[Holden 00, Pluim 00c, Woods 98].

3.7 Evaluation clinique qualitative

L’objectif de ces travaux est l’évaluation quantitative du recalage TEMP/IRM à l’aidede méthodes utilisant de critères statistiques de similarité, dans le contexte clinique durecalage TEMP ictale / IRM. La partie II de ce manuscrit expose la démarche mise enœuvre pour réaliser cette validation quantitative, elle constitue la principale contributionde ces travaux de thèse. Les différents concepts nécessaires à une procédure de validation,que nous venons de présenter, y sont alors exposés : hypothèse de validation, mise enœuvre (choix du Gold Standard, génération des données de validation, paramètres étudiés),métrique de validation et analyse statistique.

En préambule, nous présentons ici les résultats d’une pré-évaluation visuelle et quali-tative du recalage de données cliniques TEMP / IRM dans le contexte de l’épilepsie. Lesdonnées ictales et inter-ictales analysées sont celles qui ont permis la création des modèlesthéoriques de perfusion présentés au chapitre II.4 (cf §II.4.3.2.1 : choix d’une populationhomogène). Trois mesures statistiques de similarité ont été étudiées, à savoir l’informationmutuelle (IM), le rapport de corrélation en norme L1 (RCL1) et le rapport de corrélationen norme L2 (RCL2). Les données TEMP ont été recalées soit directement à l’IRM, soitaux données IRM après segmentation du cerveau. L’optimisation des différents critèresde similarité a été réalisée à l’aide de la méthode d’optimisation multi-dimensionnelle dePowell, associée à l’algorithme de recherche mono-dimensionnelle de Brent [Press 92].

Une fois les différents recalages réalisés, l’évaluation a été réalisée de manière visuellevu qu’aucun gold standard n’était disponible. Les données TEMP ont été rééchantillon-nées dans le référentiel de l’IRM à l’aide de la transformation géométrique estimée par laméthode de recalage évaluée. Deux types deux représentations ont alors été utilisées : (1)fusion des données TEMP sur l’IRM à l aide d’une texture couleur (2) fusion du masque dela matière grise segmenté à partir de l’IRM sur les données TEMP à l’ aide d’une texturecouleur. La qualité du recalage a alors été jugée visuellement et un indice de qualité allantde 0 à 3 a été attribué à chaque recalage (0: recalage complètement aberrant, 1: erreur dequelques centimètres aisément détectable visuellement, 2: légère erreur de recalage à peinedétectable visuellement, 3: recalage considéré comme de bonne qualité).

La table 3.6 présente les résultats de cette pré-évaluation qualitative. Ces résultatsmontrent qu’il est possible d’atteindre 75% de recalages de bonne qualité. Ils semblentsuggérer que la segmentation préalable du cerveau sur les données IRM a plus d’impact surle recalage utilisant le rapport de corrélation que sur celui utilisant l’information mutuelle.Il existe néanmoins un certain nombre de cas où des erreurs importantes de recalage ont étéobservées, mais aucune tendance permet réellement de favoriser telle ou telle méthode parrapport aux autres. C’est dans le but de mieux comprendre de telles observations qu’uneévaluation quantitative a été mise en œuvre.

134 3.7 Evaluation clinique qualitative

sans segmentation avec segmentationdu cerveau en IRM du cerveau en IRM

Nom Données IM RCL1 RCL2 IM RCL1 RCL2ARN. Ictal 3 3 0 0 0 2

Interictal 3 2 3 3 3 3BLI. Ictal 3 3 3 3 3 3BLI. Interictal 3 2 3 3 3 3

GRAV. Ictal 2 2 2 2 0 2LEB. Ictal 3 3 3 3 3 3

InterIctal 3 1 3 3 3 3LECa. Ictal 3 0 0 3 3 3

InterIctal 2 2 3 3 0 3LECb. Ictal 3 3 3 3 3 3LEVa. Ictal 1 1 2 3 3 2

InterIctal 3 2 2 3 3 3LEVb. Ictal 3 2 3 3 3 3

InterIctal 2 3 3 2 3 3AUG. Ictal 3 3 3 3 3 3GUE. Ictal 3 2 2 0 0 0

Pourcentage ≥ 2 93.75% 81.25% 87.50% 87.50% 75% 93.75%Pourcentage ≥ 3 75% 37.50% 62.50% 75% 75% 75%

Tab. 3.6 – Résultat de l’évaluation qualitative du recalage TEMP/IRM à partir de donnéescliniques ictales et inter-ictales. Méthodes de recalage évaluées : information mutuelle (IM),rapport de corrélation en norme L1 (RCL1), rapport de corrélation en norme L2 (RCL2).Indices de qualité utilisés : 0: recalage complètement aberrant, 1: erreur de quelques cen-timètres aisément détectable visuellement, 2: légère erreur de recalage à peine détectablevisuellement, 3: recalage considéré comme de bonne qualité

135

Deuxième partie

SIMULATIONS REALISTESD’IMAGERIE TEMP POUR

L’EVALUATION DU RECALAGETEMP/IRM

Position du problème 137

Position du problème : évaluation desméthodes de recalage utilisant desmesures statistiques de similaritéentre des données de TEMP ictale etd’IRM

Dans le chapitre I.1, nous avons souligné l’importance de la TEMP, acquise en condi-tion ictale notamment, pour l’exploration de la zone épileptogène. Or, l’analyse objectivedes données TEMP est principalement limitée par le manque de repères anatomiques pré-cis du fait de sa faible résolution spatiale. Un certain nombre de techniques de fusion dedonnées permettent d’assister son interprétation (e.g. superposition sur l’IRM, soustrac-tion TEMP ictale / TEMP inter-ictale, analyses inter-individuelles après normalisationspatiale). L’étape de mise en correspondance géométrique des données apparaît comme in-contournable lors de la mise en œuvre de ces méthodes de fusion. L’objectif de ce travail dethèse est d’évaluer les performances et la précision de méthodes de recalage TEMP/IRM,principalement lorsqu’il s’agit de traiter des données ictales.

Nous avons montré au chapitre I.3 que les travaux d’évaluation de méthodes de recalagemettant en jeu des données TEMP sont nettement moins nombreux que ceux impliquantdes données IRM, Scanner X ou TEP. Ce constat peut notamment s’expliquer par la diffi-culté de disposer d’un gold standard précis en TEMP et par le fait qu’il n’existe pas de basesde données TEMP pour l’évaluation, accessibles librement par la communauté scientifique.Concernant les données IRM, Scanner X ou TEP, le projet multicentrique d’évaluation ré-trospective de méthodes de recalage mené par l’université de Vanderbilt [West 96, West 97]a mis à disposition de la communauté de telles données, pour lesquelles le gold standardétait connu par l’utilisation de cadres de stéréotaxie. Ces données ont été largement utiliséesdans la section “évaluation” de nombreux articles portant sur le recalage (cf. tableau 3.3 duchapitre I.3). Les principales études portant spécifiquement sur l’évaluation de méthodesde recalage TEMP/IRM ou TEMP/Scanner X n’utilisent généralement pas de gold stan-dard aussi précis que celui obtenu par l’utilisation de cadres de stéréotaxie. A part Barndenet al. qui utilisent des marqueurs placés sur la peau [Barnden 00], la plupart de ces éva-luations consistent en fait en une comparaison avec une technique de recalage particulièreconsidérée comme référence ou en une comparaison avec une transformation géométriquemoyenne [deMunck 98, Nikou 98, Foehrenbach 99, Pfluger 00, Zhu 02a, Zhu 02b]. Parmi

138 Position du problème

ces travaux, seuls Nikou et al. [Nikou 98] s’intéressent au recalage TEMP ictale/IRM etutilisent comme référence un recalage manuel réalisé par un expert. Les autres travauxétudient des données TEMP de sujets sains ou de sujets pathologiques présentant desmaladies diffuses (e.g. Parkinson, Alzheimer). Or, il nous semble important de prendreen compte les perturbations souvent extrêmes de perfusion en condition ictale, lors del’évaluation du recalage. Quelques auteurs se sont intéressés à l’influence des données ic-tales dans le cadre du recalage TEMP/TEMP [Eberl 96, Brinkmann 99] ou TEMP/TEP[Eberl 96], ou à l’influence de foyers hypofixants sur la normalisation spatiale de donnéesTEMP [Stamatakis 01, Radau 01]. En ce qui concerne l’influence de foyers hypo- ou hyper-fixants pathologiques sur le recalage, l’utilisation de fantômes physiques [Woods 92] oude simulations numériques [Brinkmann 99, Thurjfell 00, Stamatakis 01, Radau 01] permetalors d’avoir accès à une référence absolue lors de l’évaluation. L’évaluation quantitativede l’influence de foyers d’hyperfixation en TEMP ictale sur les performances du recalageTEMP/IRM n’a par contre pas été étudiée à notre connaissance.

Une évaluation qualitative du recalage TEMP ictale/IRM réalisée à partir des donnéescliniques analysées dans ce chapitre (cf. §I.3.7), nous a montré la robustesse des méthodesde recalage basées mesures statistiques de similarité dans ce contexte. Les méthodes uti-lisant comme critère de similarité l’information mutuelle, qu’elle soit normalisée ou non,ou le rapport de corrélation, en norme L1 ou L2, se sont avérées particulièrement perfor-mantes. Malgré tout, il subsiste des cas de convergence du critère vers un optimum localqui a donné lieu à des erreurs de recalage détectables visuellement, voire à des mises en cor-respondance aberrantes. Pour comprendre de telles situations, notre objectif est de menerune évaluation quantitative et objective de ces méthodes de recalage utilisant des mesuresstatistiques de similarité, dans le contexte clinique mettant en jeu des données TEMPictale et IRM. Nous nous proposons d’étudier dans quelles mesures ce que l’on pourraitappeler des dissimilarités intrinsèques entre les données TEMP ictales et IRM, influencentles performances des méthodes de recalage. Par dissimilarités intrinsèques, nous compre-nons les situations complexes où de vastes régions hyperperfusées caractérisent la zoneépileptogène en TEMP ictale, alors que l’IRM morphologique est généralement considéréecomme normale. Un des enjeux de ce travail est également de se doter d’un environnementd’expérimentation permettant d’étudier quelles sont les limites de validité, en présence detelles dissimilarités intrinsèques, des hypothèses de similarité habituellement posées par lesdifférents critères statistiques (e.g. dépendance linéaire, dépendance fonctionnelle, écart àl’indépendance), et quelles en sont les conséquences sur les performances du recalage.

Pour répondre à ces questions, nous avons mis en place un environnement d’étudecontrôlé permettant l’accès à une référence absolue pour l’évaluation de méthodes de re-calage, mais aussi au contrôle du degré de dissimilarités intrinsèques entre données TEMPet IRM. Ainsi, nous proposons de générer des données de validation pour l’évaluation deméthodes de recalage en simulant de façon réaliste des données TEMP à partir d’une IRM.Notre méthode fournit une référence absolue pour la géométrie d’acquisition, les simulationsTEMP étant par construction en parfaite correspondance avec l’IRM. La méthode proposéeconsiste en fait à coupler une méthode d’analyse inter-individuelle de données TEMP parstandardisation anatomique avec l’utilisation d’un simulateur de données TEMP réalistes.

L’aspect réaliste des simulations TEMP a tout d’abord été géré par la modélisation dela géométrie et des différents processus physiques liés à la génération et à l’acquisition dedonnées TEMP. Pour cela, nous avons utilisé une modélisation haute-résolution de l’ana-

Position du problème 139

tomie cérébrale, le modèle anthropomorphique proposé par Zubal et al. [Zubal 94], quiconsiste en une IRM pondérée en T1 segmentée et étiquetée manuellement. La méthode desimulation consiste alors à définir, à partir de ce modèle de l’anatomie, une carte théoriqued’atténuation des photons ainsi qu’une carte théorique d’activité représentant la distri-bution du radiotraceur de perfusion (99mTc-HMPAO ou 99mTc-ECD). La géométrie et laphysique d’une acquisition TEMP sont alors modélisées à partir de ces cartes d’atténuationou d’activité, en utilisant des simulations analytiques ou de Monte Carlo.

Notre méthode permet également de gérer le réalisme des simulations vis à vis de l’in-formation physiologique ou physiopathologique modélisée lors de la création de cette carted’activité. Ainsi, afin de contrôler, dans nos simulations, la fonction “perfusion cérébrale”et donc le degré de dissimilarités intrinsèques entre les données TEMP et IRM, nous pro-posons une méthode d’analyse par standardisation anatomique de données TEMP d’unepopulation de sujets donnée, qui permet de créer, à la résolution de l’IRM, un modèle théo-rique de perfusion normale ou pathologique. Cette méthode est appliquée à l’étude d’unepopulation de sujets sains et à l’étude de la perfusion ictale et inter-ictale d’une popula-tion de sujets présentant une épilepsie temporo-mésiale. Au delà de la génération de cartesd’activité “réalistes” et contrôlées pour l’évaluation de méthodes de recalage, la méthoded’analyse proposée nous semble prometteuse et informative vis à vis de la compréhensionplus fondamentale d’un profil de perfusion caractéristique d’une population normale oupathologique. Nous en présentons quelques résultats.

Ces différents aspects vont être exposés dans les prochains chapitres selon l’organisationsuivante :

– Dans le chapitre II.4 : “Construction d’un modèle théorique de perfusion” ; nousprésentons la méthode d’analyse de données TEMP par standardisation anatomique.Nous l’appliquons à l’étude de la perfusion chez une population de sujets sains et àl’étude de la perfusion inter-ictale et ictale chez une population de sujets présentantune épilepsie temporo-mésiale. L’analyse statistique des résultats fournit quelqueséléments de compréhension sur l’organisation de ces “patterns” de perfusion.

– Dans le chapitre II.5 : “Génération des données de validation” ; après un exposé desméthodes de simulations analytiques et de Monte Carlo utilisées, nous définissons,à partir des résultats du chapitre précédent, différentes cartes d’activité modélisantdifférents contextes de dissimilarités intrinsèques entre données TEMP et IRM, avantde présenter les résultats des simulations.

– Dans le chapitre II.6 : “Evaluation de méthodes de recalage utilisant des mesuresstatistiques de similarité” ; ce chapitre expose l’utilisation de ces simulations pourévaluer des méthodes de recalage TEMP/IRM ou TEMP/TEMP dans les différentscontextes de perfusion normale ou ictale présentés dans le chapitre précédent. L’éva-luation porte sur les cinq critères suivants : l’information mutuelle, l’information mu-tuelle normalisée, les rapports de corrélation en norme L1 et L2 et le critère deWoods.

140 Position du problème

Construction d’un modèle théorique de perfusion par une analyse parstandardisation anatomique 141

Chapitre 4

Construction d’un modèle théoriquede perfusion par une analyse parstandardisation anatomique

Notre objectif étant de simuler de manière réaliste des examens de TEMP caractéris-tiques d’un profil de perfusion précis, l’objectif de ce chapitre est précisément de proposerune méthode d’analyse de données TEMP par standardisation anatomique pour permettrel’identification d’un tel profil de perfusion. Cette analyse de données TEMP réelles a ainsipour objectif la création d’un modèle théorique de perfusion. Le chapitre II.5 montrera alorscomment simuler de manière réaliste des données TEMP, à partir de ce modèle théoriquede perfusion, en modélisant également les processus liés à la géométrie et à la physique del’acquisition.

Caractériser un profil de perfusion en TEMP, ou “pattern”, est une tâche délicate carelle nécessite à la fois une analyse quantitative des données TEMP (quantification relative)et une analyse inter-individuelle d’une série d’examens réalisés sur une population de su-jets considérée comme homogène. La sélection de cette population dépend complètementdu profil de perfusion que l’on cherche à modéliser. Ainsi, nous appliquerons la méthoded’analyse proposée ici à l’étude de la perfusion chez une population de sujets sains, ainsiqu’à l’étude de la perfusion ictale et inter-ictale chez une population de patients présentantune épilepsie temporo-mésiale. Nous convenons néanmoins que l’emploi de la terminologie“modèle de perfusion” peut paraître abusive, dans la mesure où aucun aspect dynamiquen’a été modélisé (notre objectif n’est pas de proposer un modèle physiologique de la perfu-sion cérébrale). Idéalement, un tel modèle physiologique de perfusion cérébrale se devraitd’être dynamique et de prendre en compte une modélisation hémodynamique du réseauvasculaire et surtout capillaire, ainsi qu’une modélisation des échanges membranaires auniveau des capillaires et des cellules cérébrales (modèles compartimentaux notamment).Or, la TEMP ne donne accès qu’à une “photographie” des variations moyennes de DébitSanguin Cérébral régional (DSCr) qui ont eu lieu pendant une période de 15 secondes à 1minute après l’injection du traceur [Patterson 97], comme nous l’avons vu au paragrapheI.1.2.3.2. Qui plus est, si on utilise des traceurs tels que le 99mTc-HMPAO ou le 99mTc-ECD, il ne s’agit que d’une mesure relative et non absolue de DSCr. Ainsi, dans la suitede ce document, nous désignerons par “modèle théorique de perfusion” la modélisation des

1424.1 Méthodes de reconstruction tomographique et de correction pour la

quantification en TEMP

mesures relatives de DSCr de cette “photographie”, caractéristique d’un contexte cliniquebien défini (par exemple, perfusion normale, perfusion ictale en épilepsie temporo-mésiale).

La création d’un modèle théorique de perfusion nécessite l’analyse d’une série d’examensTEMP issus d’une population homogène. Nous présentons donc tout d’abord les principaleslimitations rencontrées lors d’une analyse quantitative (même relative) en TEMP. Nousprésentons les principaux phénomènes à l’origine d’une dégradation du signal en TEMP,et nous décrivons les méthodes de correction les plus couramment utilisées. Comme ils’agit ensuite de réaliser une analyse inter-individuelle, une revue bibliographique des prin-cipales méthodes d’analyse des données TEMP ou TEP par standardisation anatomiqueest présentée. Pour cette analyse, notre méthode consiste en la réalisation de mesures del’activité à l’aide de volumes d’intérêt (VOIs) positionnés automatiquement sur les don-nées TEMP, préalablement normalisées spatialement. Ces VOIs sont déduits d’un modèlespatial de l’anatomie cérébrale, à savoir le fantôme anthropomorphique proposé par Zubalet al. [Zubal 94], que nous avons “resegmenté” pour l’adapter à l’étude des épilepsies. Lesrésultats des mesures réalisées sur les données de 27 sujets sains et de 10 sujets épileptiquessont ensuite présentés et analysés. Les données TEMP des 27 sujets sains nous ont été ai-mablement fournies par Dr. Leighton Barnden Ph.D. du service de Médecine Nucléaire duQueen Elizabeth Hospital (Woodville, Australie). Les 10 patients épileptiques étudiés ontété pris en charge et guéris par les services d’épileptologie et de neurochirurgie de l’hôpitalde Rennes. L’inférence statistique d’un modèle théorique de perfusion à partir de ces me-sures est une tâche délicate, surtout si l’on veut gérer une certaine variabilité fonctionnellephysiologique ou physiopathologique au sein de chaque population. Afin d’extraire de cesmesures de perfusion les informations pertinentes caractérisant les patterns étudiés, nousproposons quelques analyses statistiques : analyse statistique descriptive, étude de l’effet dela localisation anatomique sur la perfusion et comparaisons inter-hémisphérique (comparai-son de moyennes et analyse de la variance), utilisation de techniques de rééchantillonnagebootstrap pour palier le faible nombre d’échantillons disponibles, et analyse factorielle descorrespondances pour explorer la variabilité fonctionnelle au sein de chaque population.

4.1 Méthodes de reconstruction tomographique et de correc-

tion pour la quantification en TEMP

4.1.1 Quels phénomènes dégradent le signal en TEMP?

4.1.1.1 Interactions rayonnement - matière

Lorsqu’un photon électro-magnétique est émis, il interagit avec la matière selon quatremécanismes indépendants [ElFakhri 98]: l’absorption photoélectrique, la diffusion Compton(ou non cohérente), la diffusion Rayleigh (ou cohérente) et la création de paires. De cesphénomènes physiques à l’échelle atomique, il résulte trois effets au niveau macroscopique,qui sont l’atténuation, la diffusion et l’émission de photons de fluorescence.

Atténuation des photons : Lorsqu’un faisceau de photons traverse une matière ou untissu homogène d’épaisseur d, il est progressivement atténué. Ceci signifie que les photonsqui émergent dans la même direction que le faisceau incident ont la même énergie que les

Construction d’un modèle théorique de perfusion par une analyse parstandardisation anatomique 143

photons incidents, mais qu’ils sont moins nombreux. L’atténuation des photons traversantla matière suit une loi exponentielle décrite par :

N = N0exp(−µd) (4.1)

où N et N0 sont les nombres de photons après et avant le passage du faisceau à traversun milieu atténuant homogène d’épaisseur d. µ (en cm−1) désigne le coefficient d’atténua-tion linéaire, qui est spécifique du milieu traversé par le faisceau. Ce coefficient d’atté-nuation linéaire résume au niveau macroscopique les différents phénomènes d’interactionrayonnement-matière ayant lieu au niveau atomique. Il est relié au coefficient d’atténuationatomique total µa par :

µ = µaN0

Aρ (4.2)

où N0 est le nombre d’Avogadro, A le nombre de masse atomique de l’élément rencontrépar le faisceau et ρ sa densité. Le coefficient d’atténuation atomique est alors défini commela somme des sections efficaces de l’effet photoélectrique, de la diffusion Compton, de ladiffusion cohérente et de la création de paires :

µa = τphoto + σComp + σcoh + πpair (4.3)

Comme nous nous limitons à l’étude de la TEMP au 99mTc (pic d’émission à 140keV ),la création de paires sera négligée. En effet, elle n’apparaît que pour des photons ayantune énergie supérieure à 1MeV . La répartition de ces sections efficaces est dépendante del’élément rencontré mais également de l’énergie du photon incident.

Effet photoélectrique : Cet effet est le phénomène essentiel permettant la détection dephotons γ en TEMP. Lors d’un effet photoélectrique, le photon γ percute un électron d’uneorbitale interne d’un atome. Le photon est alors complètement absorbé et l’électron est alorsexpulsé de son orbitale : on l’appelle alors photo-électron. Ainsi, toute l’énergie du photonγ se répartit entre l’énergie nécessaire pour arracher l’électron de son orbitale (énergiede liaison) et en énergie cinétique communiquée à cet électron. Lorsqu’un électron d’uneorbitale supérieure (donc plus énergétique) vient prendre la place de l’électron expulsé, ilperd donc de l’énergie, ce qui provoque l’émission d’un photon dit photon de fluorescence(voir figure 4.1). C’est précisément ce phénomène qui, dans le cristal scintillant, permet laconversion de l’énergie des photons γ incidents en énergie lumineuse qui atteindra lesphotomultiplicateurs. Par contre, lorsqu’une interaction de type photoélectrique a lieuavant le cristal (dans la tête du sujet ou dans le collimateur), le photon est alors perdupour la détection.

Diffusion Compton : Lors de la diffusion Compton, les photons γ interagissent avecles électrons faiblement liés à l’atome. Ils transfèrent alors une partie de leur énergie Esous forme d’énergie cinétique Ec et sont légèrement déviés d’un angle θ par rapport à latrajectoire incidente (voir figure 4.2). L’énergie du photon diffusé Ed est donnée par :

Ed =E

1 + Emc2

(1 − cosθ)(4.4)

1444.1 Méthodes de reconstruction tomographique et de correction pour la

quantification en TEMP

Fig. 4.1 – L’effet photo-électrique (d’après[Bruyant 02b])

Fig. 4.2 – Principe de la diffusion Compton(d’après [Bruyant 02b])

où m désigne la masse de l’électron et c la vitesse de la lumière (mc2 = 511keV ). Auxénergies habituellement utilisées en TEMP, c’est la diffusion Compton qui est le phénomèned’interaction prédominant dans les tissus mous de l’organisme.

Diffusion Cohérente ou diffusion Rayleigh : Lors d’une diffusion cohérente, le pho-ton est également dévié mais ne subit pas une perte d’énergie appréciable car la variationde sa quantité de mouvement est transmise à l’atome tout entier et non à un seul électron.

4.1.1.2 Bruit stochastique d’acquisition

C’est précisément l’émission radioactive qui est à l’origine de la composante stochas-tique du signal étudié en médecine nucléaire. La probabilité qu’un radiotraceur émette unphoton γ pendant un intervalle de temps τ infiniment petit par rapport à sa période dedécroissance est proportionnelle à la durée de cet intervalle τ [MarianoGoulart 98]. Ainsi,on peut considérer qu’un seul photon est émis à la fois, que le nombre de photons émispendant un intervalle de temps τ ne dépend que de cet intervalle, et que les émissions sontindépendantes les unes des autres : ces propriétés décrivent donc un processus de Poisson.Ainsi, le nombre de photons N émis par unité de temps peut être considéré comme unevariable aléatoire qui suit une loi de Poisson P(λ) :

Prob(N = n) =exp(−λ)λn

λ!(4.5)

où λ désigne le nombre moyen d’émissions par unité de temps. Une loi de Poisson P(λ)admet pour espérance mathématique E(N) = λ et pour variance V ar(N) = λ. Ainsi, sion caractérise le rapport signal sur bruit par le rapport moyenne sur écart-type, il vaudra√

(λ). Vu que la somme de variables aléatoires indépendantes suivant une loi de Poissonest également une variable aléatoire suivant une loi de Poisson, on considérera le nombrede coups obtenu dans chaque pixel des projections comme la réalisation d’une variablealéatoire suivant une loi de Poisson.

Vu les faibles doses injectées en imagerie diagnostique, le paramètre λ est en généralfaible. De ce fait, la loi de Poisson ne peut pas être approchée de façon satisfaisante parune loi gaussienne.

Construction d’un modèle théorique de perfusion par une analyse parstandardisation anatomique 145

4.1.1.3 Limitations technologiques du détecteur

Nous avons que vu les interactions rayonnement-matière à l’origine de l’atténuationdes faisceaux de photons contribuaient à la dégradation du signal recueilli en TEMP. Ilest cependant nécessaire de considérer à présent les limitations technologiques intrinsèquesau détecteur. Notons que les différentes interactions décrites précédemment ont égalementlieu dans le détecteur (c’est d’ailleurs l’effet photoélectrique au niveau du cristal scintillantqui permet l’acquisition du signal).

Résolution spatiale du détecteur : La fonction du collimateur est de sélectionner lesphotons qui arrivent jusqu’au détecteur suivant une direction perpendiculaire au plan deprojection (pour les collimateurs parallèles). Les photons qui arrivent suivant une directionfaisant un angle α avec la normale au plan de projection sont arrêtés par les septa deplomb du collimateur, si α > alphaacc. alphaacc est l’angle d’acceptance du collimateur,et dépend des caractéristiques géométriques de celui-ci. Les caractéristiques géométriquesdu collimateur (diamètre et longueur des trous, épaisseur des septa, géométrie parallèle ouFan Beam) permettent de définir la composante géométrique de la résolution spatiale ducollimateur Rc, pour laquelle un formulation analytique est disponible [ElFakhri 98]. Ainsi,deux photons qui atteignent le collimateur suivant une direction acceptée, ne pourront êtredétectés séparément que s’ils sont distants de plus de Rc.

Lorsqu’il arrive au niveau du cristal, le photon interagit principalement par effet pho-toélectrique permettant l’émission d’un photo-électron et d’un photon de fluorescence. Cephoto-électron a une énergie suffisante pour provoquer à son tour l’expulsion de nombreuxautres électrons dans le cristal par effet photoélectrique. Il s’en suit donc l’émission deplusieurs photons de fluorescence dans le proche UV : c’est la scintillation. Ainsi, l’arrivéed’un photon sur le cristal va provoquer la création d’une tâche lumineuse. Combinée àla précision du système de localisation d’un événement par les photomultiplicateurs, lesdimensions de cette tâche permettent de définir la résolution spatiale intrinsèque Ri dusystème de détection (cristal+photomultiplicateur).

La résolution spatiale résultante du détecteur R sera alors définie par :

R2 = R2i + R2

c (4.6)

Rappelons que par définition, la résolution spatiale est la distance minimale à partir delaquelle deux sources distinctes peuvent être considérées comme distinctes dans l’image.

Résolution énergétique finie : Le système (cristal+photomultiplicateur) est caracté-risé par une résolution spatiale intrinsèque Ri mais aussi par une résolution énergétiquefinie. Les photomultiplicateurs permettent d’estimer l’énergie de l’événement détecté (parintégration spatio-temporelle du signal sur les photomultiplicateurs voisins). Ainsi, en théo-rie, la détection d’un photon primaire arrivant sur le cristal devrait correspondre à un picd’énergie au niveau du signal (dirac). Or, on observe plutôt un spectre continu d’énergieautour du principal pic d’émission. Ainsi, le système ne pourra différencier des photonsprimaires et diffusés ayant des énergies très proches. On caractérise généralement cetterésolution en énergie par une gaussienne de largeur à mi-hauteur (LMH) de l’ordre de 10%du pic primaire d’émission (e.g. 140 keV pour le 99mTc).

1464.1 Méthodes de reconstruction tomographique et de correction pour la

quantification en TEMP

4.1.1.4 Perte de résolution en profondeur :

La perte de résolution est liée à la fonction de réponse du collimateur. Celle ci peutêtre modélisée par une gaussienne dont la LMH augmente avec la distance de la source aucollimateur. Pour être modélisé ou corrigé, cet effet doit être calibré en réalisant l’acquisi-tion d’une source ponctuelle à différentes distances du détecteur, et en mesurant la LMHsur l’image de projection obtenue.

4.1.1.5 L’effet de volume partiel :

La résolution spatiale limitée du détecteur introduit un effet dit de volume partiellorsque la taille des structures considérées est inférieure à trois fois la LMH de la réponseimpulsionnelle du système. L’effet de volume partiel résulte donc d’une inadéquation entrele taille de la structure imagée, la résolution spatiale du système d’imagerie et l’échantillon-nage spatial du système d’imagerie (taille du pixel). L’effet de volume partiel résulte de laconvolution d’un tel profil par la réponse impulsionnelle du système d’imagerie (de LMHsupérieure), on observe alors une diminution du maximum du signal et une dispersion plusimportante. Ainsi, l’effet de volume partiel se manifeste par une sous-estimation du signalau niveau des structures de petites tailles, ainsi que par une contamination du signal decette structure sur les pixels voisins.

4.1.2 Techniques de reconstruction tomographique

Nous présentons à présent les principales techniques de reconstruction tomographiquequi permettent de reconstruire la distribution tridimensionnelle du traceur à partir d’unesérie de projections. Nous détaillons un peu plus la méthode de rétroprojection filtrée vuqu’il s’agit de la seule méthode qui a été utilisée pour ce travail. Pour une revue plusdétaillée des méthodes de reconstruction tomographique par rétroprojection filtrée ou pardes méthodes itératives, nous renvoyons le lecteur vers [Barrett 92, Dubois 98, Darcourt 98,Bruyant 02a].

La plupart des méthodes de reconstruction peuvent être considérées comme la recons-truction séquentielle par la même méthode de chaque coupe axiale de l’objet imagé (coupesperpendiculaires à l’axe de rotation du tomographe) afin d’en reconstruire le volume. Ainsi,pour plus de clarté, nous limitons l’exposé de ces méthodes dans le cas de la reconstructiond’une image bidimensionnelle. On désigne par f(x,y) la fonction décrivant la répartitionthéorique du radiotraceur dans l’image. L’objectif de la reconstruction tomographique estd’estimer f à partir d’une série de projections Pθ(u). Soit (Ox,Oy) le repère de l’image f ,on désigne par (Ou,Ov) le repère tournant faisant un angle θ avec Ox. Pθ(u) n’est autreque la projection orthogonale de f(x,y) suivant la direction 0v (voir figure 4.3).

Dans le cas discret, on désignera par dimx et dimy les dimensions de l’image f , par tdle nombre d’échantillons mesurés sur Pθ (nombre de “dexels” ou bins de la projection) etpar P le nombre de projections. En pratique, on aura typiquement dimx = dimy = 128,td = 128 et p = 64.

Construction d’un modèle théorique de perfusion par une analyse parstandardisation anatomique 147

P(u)θ

Ox

Oy

Ou

f(x,y)

θ

Ou

Ov

Fig. 4.3 – Géométrie de l’acquisition en projection

4.1.2.1 Rétroprojection filtrée :

Si l’on considère l’image f et la projection Pθ comme des fonctions continues, alors ilvient :

Pθ(u) =

v

f(x,y)dv = R(f) avec :

x = ucosθ − vsinθy = usinθ + vcosθ

(4.7)

Cette transformation désigne par définition la transformée de Radon R d’une image f . Enprenant la transformée de Fourier de la projection Pθ(u) et en utilisant un changementde repère pour passer en coordonnées polaires, on montre alors le théorème de la coupecentrale qui énonce :

Pθ(ν) = f(νx,νy) avec :

νx = νcosθνy = νsinθ

(4.8)

où Pθ désigne la transformée de Fourier monodimensionnelle de Pθ comme fonction de u (νétant la fréquence spatiale correspondante). De même, f désigne la transformée de Fourierbidimensionnelle de l’image f (νx et νy sont les fréquences spatiales correspondantes). Cethéorème est fondamental vu qu’il montre qu’à l’aide des transformées de Fourier 1D deprojections successives, il est possible de remplir le plan de Fourier 2D de l’image. Onutilisera alors une transformée de Fourier 2D inverse pour retrouver l’image. On montreainsi qu’il est possible de reconstruire l’image f à partir des projections, à savoir :

f(x,y) =

∫ π

0Pθ(u)dθ avec : Pθ(u) =

∫ ∞

−∞Pθ(ν) |ν| exp(2iπνu) dν (4.9)

où Pθ(u) résulte de la transformée de Fourier inverse de Pθ(ν) préalablement multipliéepar |ν|. Ainsi, Pθ(u) est en fait une version filtrée des projections d’origine Pθ(u), et la

1484.1 Méthodes de reconstruction tomographique et de correction pour la

quantification en TEMP

transformée de Fourier de la réponse impulsionnelle du filtre utilisé n’est autre que |ν|.Il s’agit donc d’un filtre passe haut qui annule la composante continue et amplifie consi-dérablement les hautes fréquences : le filtre rampe. L’équation 4.9 montre alors qu’il estpossible de reconstruire l’image f par épandages successifs sur l’image des différentes pro-jections préalablement filtrées. Le filtrage rampe permet notamment de limiter les artéfactsen étoile causés par l’épandage.

La formulation dans le cas discret de cette reconstruction impose de tenir comptedes contraintes habituelles liées à l’échantillonnage, notamment du fait de la théorie deShannon 1. Du fait du théorème de la coupe centrale, l’échantillonnage doit être réaliséde manière radiale. L’échantillonnage sur chaque projection et le nombre de projectionsdoivent être choisis pour satisfaire aux contraintes d’échantillonnage (voir [Barrett 92]).

Le filtre rampe présente néanmoins un problème, vu qu’il amplifie considérablement leshautes fréquences du signal, et, par là même, le bruit. Il est donc nécessaire de l’associer àun filtre lissant (on parle d’apodisation). Plusieurs stratégies sont envisageables :

– on filtre les projections avec un filtre lissant en même temps que le filtre rampependant la reconstruction (multiplication dans le domaine fréquentiel par exemple),

– on filtre préalablement les projections avec un filtre lissant 1D, puis on reconstruitles données avec un filtre rampe,

– on reconstruit les données avec un filtre rampe, puis on filtre chaque coupe recons-truite avec un filtre lissant 2D,

– on reconstruit toutes les coupes avec un filtre rampe, puis on filtre tout le volumeainsi reconstruit avec un filtre lissant 3D.

Il n’existe pas de technique optimale pour choisir et régler le filtre lissant. Le choix d’unfiltre et notamment de sa fréquence de coupure résulte classiquement d’un compromis entresensibilité de l’image et résolution spatiale. La détermination de la fréquence de coupuredépend du niveau de bruit statistique.

Pour toutes les données reconstruites que nous présenterons par la suite, qu’il s’agissed’acquisitions réelles ou simulées, nous avons toujours utilisé la même technique de re-construction. Ainsi, toutes les données sont reconstruites par rétroprojection filtrée avecun filtre rampe de fréquence de coupure égale à la fréquence de Nyquist (moitié de la fré-quence d’échantillonnage). Le volume reconstruit est ensuite postfiltré à l’aide d’un filtregaussien 3D (voir figure 4.4). Le réglage de la LMH du filtre est fonction de la résolutionspatiale attendue dans les données reconstruites (voir §II.4.1.2.4).

4.1.2.2 Méthodes itératives

La deuxième grande famille de méthodes de reconstruction tomographique concerne lesméthodes itératives qui posent directement le problème sous sa forme discrète. La méthoderevient à modéliser le signal mesuré en chaque dexel de Pθ (i.e. chaque échantillon ou“bin” de la ligne de projection) comme étant une combinaison linéaire de tous les pixelsde l’image théorique f , et ce pour toutes les projections. Ainsi, si on note p le vecteur

1. Pour pouvoir être reconstruit intégralement à partir de sa version discrétisée, la fréquence d’échan-tillonnage d’un signal doit être supérieure ou égale au double de la fréquence maximale contenue dans lesignal d’origine.

Construction d’un modèle théorique de perfusion par une analyse parstandardisation anatomique 149

(a) (b) (c)

Fig. 4.4 – Reconstruction d’un examen TEMP de la base des 27 sujets sains étudiés :(a) sinogramme des projections, (b) reconstruction avec un filtre rampe, (c) post-filtragegaussien 3D (LMH = 8mm)

colonne comprenant, les unes après les autres, les intensités de tous les dexels de chacunedes projections (typiquement de dimension td = 128 dexels ×p = 64 projections), et f

le vecteur colonne comprenant tous les pixels de l’image f (typiquement de dimensiondimx × dimy = 128 × 128 pixels), le modèle s’écrit :

p = R f (4.10)

La matrice R représente les coefficients de la contribution de chaque pixel de l’image àchaque dexel de chaque projection, c’est le projecteur. Sa transposée tR est la matricedes coefficients de la contribution de chaque dexel de chaque projection à chaque pixelde l’image : c’est le rétroprojecteur. R est calculée par une modélisation de la géométried’acquisition.

Résoudre le problème de la reconstruction tomographique revient donc à inverser lesystème 4.10. Or, les grandes dimensions de la matrice R ( (td × p) × (dimx × dimy)) etson mauvais conditionnement 2 en font un problème inverse mal posé. Il est donc nécessairede le résoudre de manière itérative, et des informations a priori ou contraintes peuvents’avérer nécessaire pour régulariser le problème (e.g., contrainte de positivité de l’imagereconstruite).

De manière générale, la reconstruction par méthode itérative consiste en la recherched’un estimateur f de f , qui minimise l’erreur quadratique entre les projections calculées etles projections observées ‖p−Rf‖2. On estime f en réduisant cette erreur à chaque itération.Différentes approches ont été proposées dans la littérature, comme par exemple l’algorithmeEM (Expectation Maximisation) ou la méthode du Gradient Conjugué. Le problème peutêtre formulé de manière Bayésienne, il est alors possible d’injecter des contraintes a prioripour régulariser la solution (méthode du Maximum A Posteriori ou MAP).

Le choix du critère d’arrêt est délicat, étant donné qu’au départ l’erreur diminue, etl’algorithme converge, mais au fur et à mesure des itérations, une forte amplification dubruit peut entraîner une divergence de l’algorithme. Ainsi, plus on s’arrête tôt, plus lareconstruction sera lissée, et plus on s’arrête tard, plus elle sera bruitée. Le choix du critère

2. Seuls les pixels appartenant au voisinage du faisceau issu du dexel et orienté suivant la direction deprojection contribuent principalement à l’intensité de celui-ci.

1504.1 Méthodes de reconstruction tomographique et de correction pour la

quantification en TEMP

d’arrêt résulte donc d’un compromis entre résolution spatiale et niveau de bruit, il en estde même pour le réglage de la fréquence de coupure du filtre pour les méthodes analytiquespar rétroprojection filtrée.

4.1.2.3 Modélisation du projecteur :

Le principal avantage des méthodes de reconstruction itératives est qu’une modélisationprécise du projecteur R permet de tenir compte de l’atténuation, de la perte de résolutionen profondeur, voire même de la diffusion (via des simulations de Monte Carlo). Il estalors possible de combiner reconstruction des données et correction des principaux effetsperturbateurs du signal TEMP. La littérature sur les méthodes combinant correction etreconstruction itérative est très riche, mais sort du cadre de notre étude.

4.1.2.4 Mesure de la résolution spatiale :

Les données de sujets sains et épileptiques que nous nous proposons d’analyser dansce chapitre proviennent de systèmes d’imagerie différents (voir §II.4.3.2.2). Nous avonstout d’abord procédé à la mesure de la résolution spatiale des deux systèmes d’imageriepar l’acquisition de sources linéiques, afin de régler les méthodes de reconstruction, etnotamment la largeur à mi-hauteur du filtre 3D gaussien, pour s’assurer que les donnéesanalysées aient la même résolution spatiale. L’ajustement des résolutions spatiales est uneprécaution nécessaire afin de rendre les mesures issues de systèmes d’acquisitions différentsrelativement comparables [Lobaugh 00, VanLaere 01a].

Une source linéique de 1mm de diamètre et remplie d’une solution contenant unesolution de 99mTc a été acquise sur chacun des imageurs, en utilisant la même configuration(e.g. collimateur, distance de la caméra, nombre de projections) que pour les acquisitionscorrespondant aux données de sujets sains ou épileptiques. L. Barnden a réalisé la mêmeexpérience sur leur imageur en Australie. Les données ont ensuite été reconstruites parrétroprojection avec un filtre rampe à la fréquence de coupure de Nyquist. Différents post-filtrages gaussiens ont été réalisés en utilisant respectivement une LMH de 6, 7, 8, 9 et 10mm, et une mesure de la résolution spatiale a été réalisée dans chaque cas.

La mesure de la résolution spatiale a été réalisée en estimant sur les données recons-truites la largeur à mi-hauteur d’un profil d’activité mesuré sur une ligne passant par lecentre de la source linéique. L’estimation a été réalisée en ajustant une fonction gaussiennesur ce profil mesuré, par minimisation de l’erreur au sens des moindres carrés, à l’aide del’algorithme de Levenberg-Marquardt. L’écart-type estimé σ de la gaussienne permettantle meilleur ajustement au profil mesuré permet alors de déduire la mesure de la résolu-tion spatiale en calculant la largeur à mi-hauteur correspondante, à l’aide de la relationLMH = σ × 2

√2 ln(2)

Les résultats des mesures de résolution spatiale sont présentés par la table 4.1. Onobserve qu’en post-filtrant les données avec un filtre gaussien 3D de largeur à mi-hauteur8mm, les deux imageurs fournissent quasiment la même résolution spatiale, à savoir unelargeur à mi-hauteur de 12.2mm. Ainsi, toutes les données analysées ont été reconstruitespar rétroprojection filtrée avec un filtre rampe, suivi d’un post-filtrage gaussien 3D avecune largeur à mi-hauteur de 8mm (voir figure 4.4).

Construction d’un modèle théorique de perfusion par une analyse parstandardisation anatomique 151

Tab. 4.1 – Mesures de résolution spatiale (LMH) en mm pour différents post-filtragesgaussiens des données reconstruites, sur l’imageur du service de médecine nucléaire deRennes utilisé pour l’acquisition des sujets épileptiques (imageur à deux têtes DST-XL deGeneral Electric Medical Systems) et sur l’imageur utilisé par L. Barnden pour l’acquisitiondes sujets sains (trois têtes IRIX de Philips Medical Systems)

Type de filtre Résolution en mm de l’imageur Résolution en mm de l’imageurà 2 têtes DST-XL de GEMS à 3 têtes IRIX de Philips MS

(Rennes) (Woodville, Australie)

Rampe 11.128 9.214Rampe + gaussienne 3D (LMH = 6 mm) 11.712 10.782Rampe + gaussienne 3D (LMH = 7 mm) 11.950 11.495Rampe + gaussienne 3D (LMH = 8 mm) 12.193 12.156Rampe + gaussienne 3D (LMH = 9 mm) 12.454 12.887Rampe + gaussienne 3D (LMH = 10 mm) 12.735 13.525

4.1.3 Méthodes usuelles de correction

Après avoir présenté les principaux phénomènes à l’origine du biais de quantificationen TEMP, tels l’atténuation, la diffusion, la perte de résolution en profondeur ou encorel’effet de volume partiel, nous présentons les méthodes de correction les plus courammentutilisées en clinique. D’autres phénomènes peuvent occasionner une dégradation du signalTEMP. C’est notamment le cas du bougé lors des acquisitions, qu’il faut également corrigerou du moins contrôler en cours d’acquisition. Nous n’aborderons pas ces aspects. De mêmeque pour les méthodes de reconstruction, il existe une littérature abondante concernant lestechniques de correction, cependant l’étude de ces différentes méthodes sort du cadre de cetravail. Pour un exposé plus détaillé de ces différentes méthodes ainsi que pour l’évaluationde leurs performances, nous reportons le lecteur aux références suivantes [ElFakhri 98,Buvat 99].

Dans ce paragraphe, nous présentons notamment les méthodes de correction d’atténua-tion et de la diffusion mises en œuvre sur les données de notre étude, à savoir la méthodede Chang pour la correction d’atténuation, et la méthode de soustraction de Jaszczak pourla correction de la diffusion.

4.1.3.1 Correction de l’atténuation : méthode de Chang

La méthode de Chang [Chang 78] permet de corriger l’effet de l’atténuation à partir desdonnées déjà reconstruites : il s’agit d’une post-correction. Il s’agit de la méthode la pluscouramment utilisée et disponible sur de nombreux équipements cliniques. Le principe estd’estimer, à partir d’une cartographie des coefficients d’atténuation, l’atténuation moyennesubie en chaque point de l’image. On calcule ainsi en chaque pixel de l’image un coefficientd’atténuation moyen A(x,y) de la manière suivante :

A(x,y) =1

p

p∑

j=1

exp

(−∑

i

1ijµi

)(4.11)

où 1ij est l’indicatrice de tous les pixels de l’image situés sur la ligne passant par le point(x,y) et orientée dans la direction de l’axe de la jieme projection. L’indice i indique tous les

1524.1 Méthodes de reconstruction tomographique et de correction pour la

quantification en TEMP

pixels de l’image traversés par cette ligne entre le point (x,y) et le détecteur, et µi indiquele coefficient d’atténuation en chacun de ces points.

A partir de ces coefficients A(x,y), on corrige en atténuation l’image f obtenue aprèsreconstruction tomographique, on en déduit ainsi l’image corrigée fcorr :

fcorr(x,y) =f(x,y)

A(x,y)(4.12)

L’équation (4.11) montre qu’il est nécessaire de connaître les coefficients d’atténuationen tout point de l’image. En pratique, cette carte d’atténuation non-uniforme peut êtreestimée en réalisant une acquisition en transmission à l’aide d’une source externe, justeaprès ou avant l’acquisition habituelle en émission. Souvent, il ne s’agit pas du mêmeradio-élément utilisé en émission et en transmission, il est alors nécessaire de convertir lescoefficients d’atténuation d’un élément à l’autre en les multipliant par un facteur d’échelle[Rajeevan 98, Iida 98]. Ce facteur d’échelle peut être mesuré lors d’une phase de calibration[Rajeevan 98]. Dans ce cas, on montre que la formule de correction 4.12 est exacte pourune source ponctuelle et approximative dans le cas général.

Lorsque l’on ne dispose pas d’acquisition en transmission, en raison de problèmes deréglementation en France notamment, il est possible de considérer toute la tête du patientcomme un milieu atténuant uniforme. Pour le 99mTc, on choisit habituellement commecoefficient d’atténuation moyen celui de l’eau à 140keV à savoir µ = 0.15cm−1. Les étudesde Rajeevan et al. et de Iida et al., utilisant un marqueur de la dopamine marqué à l’123I[Rajeevan 98] ou le marqueur de perfusion cérébrale 123I-IAMP [Iida 98], ont évalué l’effetd’une correction d’atténuation uniforme ou non-uniforme sur les capacités de quantificationen TEMP. De manière générale, les méthodes de correction uniforme sous-corrigent lesrégions proches du crâne et sur-corrigent les régions internes où il y a peu d’activité commeles sinus. Ainsi, ces différences se font sentir surtout sur le haut du crâne (interface avecl’os importante) et sur le bas de la tête (os et nombreuses cavités comprenant de l’air). Cesauteurs ont montré qu’au niveau cérébral, le gain en précision des méthodes de correctionnon-uniforme était relativement limité. Les erreurs de quantification liées à une correctiond’atténuation uniforme ne dépassent pas 5% par rapport à l’utilisation de méthodes decorrection non-uniforme. Par contre, Rajeevan et al. ont montré qu’une mauvaise détectionde la surface de la tête pouvait entraîner des erreurs de quantification de l’ordre de 15%.Pour notre étude concernant notamment l’épilepsie temporale, il conviendrait d’étudierplus particulièrement la précision obtenue par une correction d’atténuation uniforme ounon-uniforme au niveau du lobe temporal.

Nous avons donc appliqué une correction de Chang en supposant un milieu atténuantuniforme sur les données de sujets sains et épileptiques faisant l’objet de cette étude. Lafigure 4.5 illustre le résultat de cette correction sur une des données ictales pour laquelle lemasque de la tête a été précisément déduit de l’IRM du même sujet préalablement recalée.

Cette méthode de correction est dite méthode de Chang d’ordre 1. Le procédé peutêtre itéré. Ainsi, les données corrigées fcorr peuvent être projetées (voir équation 4.10)et les projections calculées soustraites aux projections mesurées. On rétroprojette l’erreurobtenue, on corrige le résultat de la même manière (équation 4.12), et on ajoute cette carted’erreur corrigée en atténuation à fcorr. Ce procédé peut être itéré plusieurs fois de la mêmemanière, mais en pratique on se limite à une ou deux itérations pour éviter une amplificationdu bruit. D’autres méthodes de correction d’atténuation sont également disponibles. Citons

Construction d’un modèle théorique de perfusion par une analyse parstandardisation anatomique 153

(a) (b)

Fig. 4.5 – Illustration de la correction d’atténuation uniforme par la méthode de Changd’ordre 1 sur un examen de TEMP de sujet sain : (a) Données d’origine reconstruite (b)Données corrigées

par exemple, l’approche heuristique qui consiste à considérer la moyenne géométrique desprojections diamétralement opposées, ou les techniques modélisant l’atténuation uniformeou non-uniforme dans le projecteur utilisé par les méthodes de reconstruction itératives.

4.1.3.2 Correction de la diffusion : méthode de la fenêtre de Jaszczak

La méthode de la fenêtre de Jaszczak [Jaszczak 85] est certainement la méthode decorrection de la diffusion la plus connue. Elle peut être utilisée sur n’importe quelle caméraà condition d’être capable d’acquérir les données simultanément dans deux fenêtres d’éner-gie : la fenêtre à 20% du pic principal d’émission du radioélément, et une fenêtre adjacente,dite de Compton, ne contenant que des photons diffusés. Le principe est de considérer quela quantité de photons diffusés compris dans la fenêtre à 20% du pic principal d’émissionest liée à la quantité de photons diffusés mesurés dans la fenêtre Compton, par un coeffi-cient multiplicatif k. Si on note Pθ les projections mesurées dans la fenêtre à 20% du picprincipal d’émission et PC

θ les projections mesurées dans la fenêtre Compton, on obtientdes projections corrigées de la diffusion P corr

θ en réalisant la soustraction :

P corrθ = Pθ − k PC

θ (4.13)

Cette correction peut s’appliquer soit sur les projections, soit sur les données recons-truites. Généralement, la soustraction génère des valeurs négatives qui n’ont aucune signi-fication physique et qu’il convient de remplacer par zéro. Typiquement, pour une fenêtreà 20% du pic d’émission du 99mTc (126− 154keV ), Jaszczak propose d’utiliser l’intervalle(92 − 125keV ) pour la fenêtre Compton. Le coefficient k peut alors être mesuré soit demanière expérimentale, soit à partir de simulations de Monte Carlo [Gustafsson 00], il estreconnu d’utiliser k = 0.5 pour de telles fenêtres d’énergie [Jaszczak 85].

Alors qu’au paragraphe précédent nous avons justifié qu’il était raisonnable de se limiterà une correction d’atténuation uniforme, la correction de la diffusion semble quant à ellefondamentale pour assurer un bon contraste dans les images 3. Ainsi, Iida et al. [Iida 98]

3. Le contraste peut être défini comme l’écart relatif entre une région hyper-intense H et une régionhypo-intense L par : (H − L)/(H + L) × 100.

1544.1 Méthodes de reconstruction tomographique et de correction pour la

quantification en TEMP

annoncent que, sans correction de la diffusion, l’intensité de la matière grise est sous-estiméede 20 à 30% et celle de la matière blanche est sur-estimée de 10 à 20%.

Nous ne disposions pas d’acquisition en double fenêtre d’énergie pour les données dessujets épileptiques provenant du service de médecine nucléaire de Rennes, donc aucunecorrection de la diffusion n’a pu être réalisée. Par contre, pour les données de sujets sainsacquises dans le service de L. Barnden, nous disposions d’une acquisition simultanée dans lafenêtre d’énergie à 20% du pic d’émission du 99mTc (126−154keV ) ainsi qu’une acquisitiondans une fenêtre Compton mais de (111− 125keV ). Pour cette fenêtre Compton, Barndenet al. ont proposé d’utiliser un coefficient k = 1.3 après avoir optimisé la précision enquantification de leur imageur [Barnden 02] à partir d’acquisitions utilisant le fantômephysique d’Hoffmann [Hoffman 90, Hoffman 91]. La figure 4.6 illustre, pour une de cesacquisitions, l’effet de cette correction de la diffusion.

(a) (b) (c)

Fig. 4.6 – Illustration de la correction de la diffusion par la méthode de la fenêtre deJaszczak sur un examen TEMP de sujet sain (k = 1.3): (a) Données d’origine reconstruites(b) Données de la fenêtre Compton reconstruites (c) Données corrigées de la diffusion

Jaszczak précise de plus qu’il est possible de tenir compte de la diffusion lors dela correction d’atténuation en diminuant le coefficient d’atténuation uniforme moyen ൠ= 0.12cm−1 au lieu de µ = 0.15cm−1. Cette valeur a été mesurée expérimentalement[Jaszczak 85, Rajeevan 98]. Nous avons appliqué ce choix lors de la correction en atténua-tion des données des sujets épileptiques pour lesquelles nous ne disposions pas d’acquisitionen double fenêtre d’énergie.

De nombreuses autres méthodes de correction de la diffusion ont été proposées. Ci-tons, par exemple, l’utilisation d’une triple fenêtre d’énergie [Buvat 99], l’analyse factorielled’une série de fenêtres spectrales adjacentes, l’utilisation d’un facteur k dépendant de l’at-ténuation en chaque point de l’image [Iida 98], l’utilisation de méthodes de déconvolutionsupposant les projections des photons diffusés comme issues du lissage des projectionsdes photons primaires [Jaszczak 85], ou encore la modélisation du phénomène lors de lareconstruction (par des techniques de Monte Carlo notamment).

4.1.3.3 Correction de la perte de résolution en profondeur

Les principales méthodes de correction de la perte de résolution en profondeur sontle principe fréquence-distance et la modélisation du phénomène pendant la reconstructionpar des méthodes itératives [Koulibaly 98]. Dans les deux cas, il est nécessaire de connaîtrela fonction de dispersion ponctuelle du détecteur. Cette fonction est mesurée expérimenta-

Construction d’un modèle théorique de perfusion par une analyse parstandardisation anatomique 155

lement par l’acquisition d’une source ponctuelle à différentes distances du détecteur, et enmesurant la LMH correspondante sur chacune des projections. La relation entre la LMHcaractérisant la réponse du détecteur et la distance entre la source et le détecteur est gé-néralement modélisée par une régression linéaire. Le principe fréquence-distance consisteen un filtrage non-stationnaire. Ainsi, la distance d’un point source au centre de rotationdu tomographe peut se retrouver dans la transformée de Fourier du sinogramme. On uti-lise cette relation pour déconvoluer sélectivement les points situés à une certaine distancedu détecteur, en s’aidant de la relation LMH du détecteur - distance de la source préala-blement calibrée. Dans les méthodes de reconstruction itératives, on modélise la perte derésolution en profondeur dans la matrice R de projection. Ainsi, ce sont les pixels les pluséloignés du détecteur qui contribueront au plus grand nombre de dexels sur la projection.

Vu que nous ne disposions pas de la calibration mesurant la résolution spatiale (LMH)du détecteur en fonction de la distance, aucune correction de la perte de résolution enprofondeur n’a été appliquée sur les données analysées ici.

4.1.3.4 Correction de volume partiel

La correction de l’effet de volume partiel intéresse principalement la quantification del’activité au niveau des structures de petite taille. La méthode nécessite de se doter d’unmodèle à haute-résolution de l’anatomie sous-jacente pour déconvoluer le lissage causéjustement par l’effet de volume partiel. Ce modèle de l’anatomie est généralement fourni parl’IRM préalablement recalée et segmentée. Par exemple, Buvat et al. [Buvat 00] corrigentl’effet de volume partiel de l’activité des noyaux caudés sur des données TEMP utilisantun marqueur de la dopamine, en identifiant préalablement les noyaux caudés et le putamensur l’anatomie.

Nous n’avons pas réalisé de correction de volume partiel en tant que pré-traitementdes données étudiées. Par contre, cet effet a été pris en compte au moment des mesuresde perfusion lors de la mise en œuvre de notre méthode d’analyse par standardisationanatomique (voir §II.4.3.2.5).

4.2 Etat de l’art des méthodes d’analyse de données TEMP

ou TEP par standardisation anatomique

4.2.1 Définition d’une méthode d’analyse par standardisation anato-mique

L’objectif des méthodes d’analyse par standardisation anatomique est principalementd’aider à une analyse plus objective et systématique d’un grand nombre de données et depermettre des analyses inter-individuelles. Nous présentons ici les méthodes qui ont étéproposées pour assister l’analyse de données TEP ou TEMP.

En pratique clinique, l’analyse des données TEP et surtout TEMP est encore essentiel-lement réalisée de manière subjective et visuelle. Les principales approches quantitatives selimitent en la mesure du signal au sein de régions d’intérêt (ROIs) positionnées manuelle-ment sur les données (voir par exemple [Ho 96]). En plus de leur résolution spatiale limitée(de l’ordre de 5 mm en TEP et de 10 mm en TEMP), l’information contenue dans de

1564.2 Etat de l’art des méthodes d’analyse de données TEMP ou TEP par

standardisation anatomique

telles données étant de nature essentiellement fonctionnelle, le repérage précis des struc-tures anatomiques lors de l’analyse est une tâche délicate. Lobaugh et al. [Lobaugh 00]précisent qu’une analyse idéale de données TEMP serait d’identifier, pour chaque sujet,les principales structures anatomiques sur l’IRM préalablement recalée et de les reportersur les données TEMP. Une telle analyse est cependant difficile à automatiser, la segmen-tation fine de l’IRM se faisant le plus souvent manuellement, et devient vite lourde à gérerpour analyser un grand nombre d’individus, d’où le recours à des méthodes d’analyse parstandardisation anatomique.

Le principe des méthodes d’analyse par standardisation anatomique est de reposition-ner les données d’origine dans le référentiel d’un modèle moyen de l’anatomie : c’est l’étapedite de normalisation spatiale. Ce modèle moyen de l’anatomie peut être soit un atlas ana-tomique numérisé (atlas papier, coupes anatomiques numérisées) ou numérique (construità partir de données images : IRM) ou un examen moyen issu du moyennage après miseen correspondance non linéaire d’un grand nombre de données de la même modalité. Onappelle “template” un tel examen moyen 4. L’étape de normalisation spatiale est une étapede recalage, affine ou non linéaire, des données d’origine vers l’atlas ou le template.

Une fois les données normalisées spatialement, il est possible de les comparer. On dis-tingue alors deux approches. La première consiste à utiliser un découpage anatomique dumodèle spatial (atlas ou template), sous forme de régions d’intérêt (ROIs) ou de volumesd’intérêt (VOIs) prédéfinis, et de le reporter sur les données pour mesurer l’activité. Ladeuxième approche consiste à comparer les données entre elles, voxel par voxel.

4.2.2 Quels contextes cliniques?

L’objectif principal des méthodes d’analyse par standardisation anatomique est uneanalyse par comparaison inter-individuelle. Elles cherchent donc à étudier et caractériserles aspects reproductibles et variables au sein d’une population homogène de sujets sainsou pathologiques. Elles permettent l’identification de profils d’activité (du métabolismeou de la perfusion cérébrale) reproductibles d’un individu à l’autre et caractéristiquesd’une situation physiologique ou physiopathologique : on appellera “patterns” de tels profils.L’étude de tels patterns ou leur comparaison est une voie d’accès à des connaissancesfondamentales sur les phénomènes sous-jacents.

Ainsi, ces approches sont essentiellement adaptées au cas où le phénomène étudié estrelativement reproductible d’un individu à l’autre. Ces méthodes intéressent donc plusparticulièrement les maladies dites diffuses. Elles ont principalement été appliquées àl’étude de la maladie d’Alzheimer en TEP [Minoshima 94b, Ishii 01, Herholz 02] ou enTEMP [Houston 94, Donnemiller 97, Bartenstein 97, Ebmeier 98, Imran 99, VanLaere 02]ou à l’étude de l’épilepsie du lobe temporal en TEP [VanBogaert 00, Muzik 00, Lee 00b,Kang 01] ou en TEMP [Ring 99, Lee 00a]. Par contre, ces méthodes ne sont pas dédiéesà l’étude des pathologies d’origine lésionnelle, la localisation de la lésion étant rarementreproductible d’un individu à l’autre, sauf en comparant les données d’un seul sujet pa-thologique à une population de sujets sains [Signorini 99, Stamatakis 99]. La détectiond’anomalies pathologiques de métabolisme ou de perfusion n’étant envisageable que via laconnaissance préalable du métabolisme ou de la perfusion cérébrale normale, de nombreuses

4. Rappelons que le logiciel Statistical Parametric Mapping (SPM) met à disposition des templates IRM(T1, T2, EPI, densité de proton), Scanner X, TEP et TEMP.

Construction d’un modèle théorique de perfusion par une analyse parstandardisation anatomique 157

études ont été menées chez le sujet sain notamment en TEMP [Houston 94, Koyama 97,Tanaka 00, Lobaugh 00, VanLaere 01b, VanLaere 01a]. L’enjeu de ces méthodes d’analyseest souvent d’étudier la part de reproductibilité et de variabilité fonctionnelle caractérisantun état normal ou pathologique.

4.2.3 Méthodes de normalisation spatiale

La méthode de normalisation spatiale la plus ancienne, et largement reconnue en neuro-chirurgie et neurologie, est le quadrillage proportionnel proposé par Talairach et Tournoux[Talairach 88]. Cette méthode permet de repérer tout examen de neuroimagerie dans l’atlasproposé par ces mêmes auteurs. L’atlas de Talairach et Tournoux est constitué de planchesdessinées à partir de photographies de coupes anatomiques du cerveau d’un sujet décédé.Le quadrillage proportionnel est défini par la désignation du plan inter-hémisphérique, descommissures antérieure (CA) et postérieure (CP), et de la boîte englobante du cerveau :on définit ainsi 12 parallélépipèdes. L’identification de ces points et de ce quadrillage estgénéralement réalisée de manière interactive par l’expert sur l’IRM du sujet. La normalisa-tion spatiale est alors réalisée à l’aide d’une transformation affine par morceaux permettantd’ajuster chacun des 12 parallélépipèdes du sujet sur ceux de l’atlas. La désignation descoordonnées d’un point dans ce référentiel, communément appelé référentiel CA-CP, per-met aux cliniciens de se repérer dans l’anatomie du patient. Pour cela, l’atlas est diviséen un certain nombre de cases identifiées par des lettres et numéros. Il est reconnu quecette méthode est suffisamment précise pour l’identification des structures internes, parcontre au niveau du cortex, elle ne rend que partiellement compte de la variabilité inter-individuelle de l’anatomie sulco-gyrale. Concernant les données TEMP ou TEP, Minoshimaet al. [Minoshima 94a] ont proposé un atlas stéréotaxique TEP pour assister l’analyse vi-suelle en TEP. Cet atlas a été réalisé par recalage interactif d’un examen TEP dans CA-CPsuivi d’un étiquetage manuel d’un certain nombre d’entités anatomiques. Migneco et al.[Migneco 94] proposent une méthode semi-automatique d’identification de CA-CP sur desdonnées TEMP, permettant de reporter sur les données des ROIs du lobe temporal définiessur l’atlas.

D’autres approches de normalisation spatiale basées atlas ont été proposées. Ellesconsistent principalement en un recalage non linéaire interactif de l’atlas sur l’IRM oule scanner X d’un sujet [Seitz 90, Roland 94]. Pour cela, l’utilisateur dispose d’une batteriede transformations linéaires ou non, applicables globalement ou localement. La méthodeproposée par Roland et al. a été utilisée pour normaliser spatialement des données TEP[Koyama 97] ou TEMP [Ito 96, Koyama 97] en combinant un recalage non linéaire inter-actif du scanner X de chaque sujet vers l’atlas et un recalage rigide entre le scanner X etles données de médecine nucléaire.

Des méthodes de normalisation spatiale utilisant des approches complètement auto-matiques ont également été proposées. Citons par exemple l’approche proposée pour laTEP par Minoshima et al. [Minoshima 94b]. La méthode consiste tout d’abord par uneidentification automatique de CA-CP par des critères de géométrie et de symétrie, sui-vie d’une mise à l’échelle globale de la taille du cerveau, et finalement d’une déformationlocale des données à partir de points de contrôle situés principalement au centre de lamatière blanche et sur le cortex, afin d’ajuster les données sur l’atlas. Après la mise encorrespondance des points de contrôle, la déformation est appliquée à tout le volume par

1584.2 Etat de l’art des méthodes d’analyse de données TEMP ou TEP par

standardisation anatomique

interpolation sur des fonctions spline plaque-mince [Bookstein 89]. Les auteurs précisentque leur méthode mime les déformations du cerveau le long des fibres nerveuses. C’est laméthode implémentée dans le logiciel Neurostat, évaluée dans [Ishii 01]. Cette méthode aaussi été appliquée à la normalisation spatiale de données TEMP [Bartenstein 97].

La méthode de normalisation spatiale certainement la plus utilisée en neuroimagerie estl’approche proposée par Friston et al. [Friston 95a], basée sur une minimisation de l’erreurquadratique entre les intensités de l’image et du template (voir equation 2.58) et une pa-ramétrisation adaptée de la transformation spatiale et en intensité (généralement transfor-mations non linéaires et non stationnaires). Cette méthode est implémentée dans le logiciel“Statistical Parametric Mapping” (SPM). Étant donné que le logiciel SPM permet égale-ment une analyse statistique basée voxel des données (voir §II.4.2.6), la plupart des travauxutilisant ces approches voxel utilisent également la méthode de normalisation spatiale SPM,citons par exemple [Ebmeier 98, Stamatakis 99, Signorini 99, Lee 00a, Herholz 02]. Il existeégalement de nombreux travaux sur le recalage non linéaire inter-sujets IRM/IRM, dontles résultats sont potentiellement applicables dans ce contexte (voir [Hellier 01a] pour uneévaluation comparative de ces principales méthodes).

Néanmoins, de nombreux auteurs suggèrent que lorsqu’on normalise spatialement desdonnées TEMP pathologiques, il est préférable de se limiter à un recalage affine, afind’éviter des déformations aberrantes [Acton 98, Stamatakis 01]. Différentes mesures sta-tistiques de similarité présentées au chapitre I.2 ont été utilisées pour normaliser spatia-lement les données vers un template, en recherchant une transformation géométrique af-fine. Citons par exemple l’utilisation de la somme des différences absolues (équation 2.60)[Ring 99, VanLaere 01b, VanLaere 01a], la linéarisation de la somme des carrés sous l’hy-pothèse du flot optique (équation 2.58) [Houston 94], ou encore l’uniformité du rapport desintensités (équation 2.64) [Imran 99, Lobaugh 00, Liow 00] tel qu’il est implémenté dansle logiciel Automated Image Registration (AIR) 5.

4.2.4 Evaluation de la normalisation spatiale

L’évaluation de la précision des méthodes de normalisation spatiale est un problèmeméthodologique délicat, étant donnée l’impossibilité de disposer d’une référence absoluepour le recalage inter-sujets. Nous nous contentons de présenter les travaux de quelquesauteurs qui se sont intéressés à l’étude des performances des méthodes de normalisationspatiale que nous venons de présenter, et à l’influence des erreurs de recalage sur l’analysestatistique des données.

Les premières études sur les atlas ont été évaluées en quantifiant, après normalisation,une diminution de la variabilité inter-individuelle résiduelle au niveau de points anato-miques ou de mesures de distances [Roland 94]. Pour les données de médecine nucléaire, laméthode d’évaluation la plus couramment utilisée consiste à appliquer à l’IRM ou au scan-ner X la transformation calculée à partir de la TEP ou de la TEMP. Il est alors possiblede définir différents critères comme le positionnement de CA [Migneco 94, Sugiura 99],la comparaison des contours du cerveau ou des principaux sillons [Sugiura 99, Imran 99,Muzik 00], ou encore une mesure de recouvrement du cerveau ou de la matière grise[Imran 99, Ishii 01]. Lors de l’évaluation comparative de méthodes de recalage non li-néaires IRM/IRM, Hellier et al. [Hellier 01a, Hellier 02] utilisent également comme critère

5. Logiciel AIR : http://bishopw.loni.ucla.edu/AIR3/index.html

Construction d’un modèle théorique de perfusion par une analyse parstandardisation anatomique 159

d’évaluation des taux de recouvrement matière grise / matière blanche et des distancesentre sillons, mais segmentés automatiquement à partir de l’IRM. Dans [Hellier 02], ilsmontrent d’ailleurs de très bons résultats de la méthode de Friston et al. [Friston 95a] auniveau des distances entre sillons. Par contre, Ishii et al. [Ishii 01] mesurent des erreurs derecouvrement de la matière grise de 20% de plus pour la méthode implémentée dans SPMpar rapport à celle implémentée dans Neurostat. Mais de telles études étant difficilementcomparables entre elles, nous n’irons pas plus loin dans l’analyse.

Une autre manière d’évaluer la normalisation spatiale est de comparer les résultats del’analyse statistique (e.g. comparaison de groupes de sujets sains et pathologiques) en uti-lisant l’une ou l’autre des méthodes de normalisation spatiale [Minoshima 94b, Muzik 00,Ishii 01].

L’influence de zones fonctionnelles pathologiques ou activées sur la normalisation spa-tiale et sur l’analyse statistique peut être étudiée de manière objective en utilisant des simu-lations numériques. La simulation de zones pathologiques hypoperfusées en TEMP a été uti-lisée pour étudier la précision de la normalisation spatiale [Stamatakis 01, Radau 01] et sesconséquences sur les performances de détection de ces zones pathologiques [Stamatakis 99].Lahorte et al. [Lahorte 00] simulent des zones hyperperfusées pour évaluer les performancesde détection des expériences de neuroactivation en TEMP. Les études quantitatives de Ra-dau et al. et de Stamatakis et al. confirment qu’il est préférable d’utiliser une transformationgéométrique affine pour normaliser spatialement des données TEMP pathologiques.

4.2.5 Approches utilisant des ROIs ou VOIs

Une fois les données normalisées spatialement, il est possible d’assister le positionne-ment de régions d’intérêt (ROIs) sur les données de manière semi-automatique à partir d’unatlas [Donnemiller 97, Tanaka 00] ou de manière automatique [Migneco 94, Lobaugh 00].Il est aussi possible de réaliser des mesures volumiques en utilisant des volumes d’inté-rêt (VOIs) prédéfinis dans un atlas ou un template et en les reportant automatiquementsur les données normalisées spatialement [Liow 00, Lee 00b, VanLaere 01b, VanLaere 01a,VanLaere 02, Kang 01]. L’origine du découpage en VOIs n’est pas toujours précisée dansles références. En s’aidant de l’atlas de Talairach et Tournoux, Lobaugh et al. [Lobaugh 00]définissent manuellement des ROIs sur l’IRM d’un sujet sain âgé, la TEMP de ce mêmesujet sert de référence pour l’analyse inter-individuelle : ils proposent ainsi un découpageen ROIs caractéristiques du sujet âgé et l’utilisent pour étudier la maladie d’Alzheimer.Lee et al. [Lee 00b] utilisent un découpage en VOIs prédéfinis sur le template TEP deSPM. Kang et al. [Kang 01] utilisent comme VOIs des cartes de probabilité de présencede structures anatomiques (Statistical Probabilistic Anatomical Map : SPAM [Evans 96]).Ces cartes consistent en une classification floue de 98 structures anatomiques et reflètentla variabilité anatomique inter-individuelle, elles ont été construites à partir de la segmen-tation de 152 IRM de sujets sains normalisés. Quelques auteurs ont également proposél’utilisation de ROIs sur les cartes obtenues après une analyse statistique voxel par voxelcomme sur une carte de moyenne ou d’écart-type [Koyama 97], ou sur une carte de Z-score 6

[Bartenstein 97]. A part [Donnemiller 97, Bartenstein 97] pour la maladie d’Alzheimer enTEMP, [Kang 01, Lee 00b] pour l’épilepsie en TEP et [Liow 00] pour le HIV en TEP,

6. Le Z-score est utilisé pour comparer un individu à une population, on soustrait à cet individu lamoyenne de la population et on divise le résultat par l’écart-type de la population

1604.2 Etat de l’art des méthodes d’analyse de données TEMP ou TEP par

standardisation anatomique

toutes les autres études citées ici s’intéressent à l’étude de la perfusion en TEMP chez lesujet sain.

Une fois les mesures réalisées à partir de ces VOIs, l’analyse dépend bien évidemmentdes objectifs de chacun, mais on retrouve le plus souvent des approches statistiques de typerégression linéaire. Les études les plus courantes consistent en des comparaisons de popu-lations en fonction du type de pathologie (ou comparaison sujets sains vs sujets patholo-giques) [Donnemiller 97, Tanaka 00, VanLaere 02], de la modalité d’imagerie (comparaisonTEMP/TEP) [Koyama 97], de systèmes d’imagerie différents [Lobaugh 00, VanLaere 01a],du sexe [Tanaka 00]. Ces comparaisons de groupes sont le plus généralement réalisées àpartir de tests de Student lorsque l’on compare deux populations, et par des analyses dela variance au delà. Des comparaisons inter-hémisphériques sont pratiquement réalisées àchaque fois en utilisant des indices d’asymétrie suivis de tests de Student pour tester lanon nullité de l’asymétrie [Kang 01, Lobaugh 00, Tanaka 00]. Finalement, lorsque l’on étu-die l’effet d’un facteur quantitatif, une étude par régression linéaire ou de corrélation estgénéralement utilisée, comme par exemple l’âge [Tanaka 00] ou le résultat d’un test neuro-psychologique. Pour une analyse très complète de la perfusion chez le sujet sain en TEMPnous renvoyons le lecteur vers les études de van Laere et al. [VanLaere 01b, VanLaere 01a],dans lesquelles la plupart de ces effets (localisation anatomique, type d’imageur, sexe, âge,latéralité, etc) sont étudiés. D’autres approches d’analyse de données ont été proposéespour faire de la comparaison et de la classification automatique sujets sains/sujets pa-thologiques à partir des mesures basées VOIs. Ainsi, Liow et al. [Liow 00] proposent uneanalyse en composante principale suivie d’une analyse discriminante pour classifier dessujets sains et HIV+ en TEP. Lee et al. [Lee 00b] utilisent ces mesures pour classifier,à l’aide de réseaux de neurones artificiels, trois patterns TEP liés à l’épilepsie temporale(hypométabolisme droit, hypométabolisme gauche ou pas d’anomalie). Classiquement, cesétudes nécessitent de disposer d’une base de données d’apprentissage, puis les capacités degénéralisation de la méthode de classification sont évaluées à partir d’une base de donnéesde test.

Certains auteurs fournissent de plus les résultats de leurs mesures, généralement parmoyenne et écart-type pour chaque structure anatomique, comme par exemple [Koyama 97,VanLaere 01a, VanLaere 01b] pour la perfusion normale en TEMP et [Lobaugh 00] pourla perfusion chez le sujet sain âgé. De telles mesures peuvent être utiles pour définir unmodèle théorique de perfusion à des fins de simulation. Nous présentons par la suite (voir§II.4.3) une autre méthode d’analyse basée VOI et nous l’utilisons pour définir un modèlede perfusion. Enfin, toutes les approches qui viennent d’être présentées dépendent complè-tement du découpage en ROIs ou VOIs utilisé. Nous définissons ce découpage comme unmodèle spatial de l’anatomie cérébrale. Ainsi, les méthodes d’analyse basées ROIs ou VOIsposent un a priori sur la distribution anatomique de la fonction (perfusion ou métabolisme)étudiée. Typiquement, des modifications très locales de la fonction étudiée risquent d’êtremasquées par la réalisation d’une mesure moyenne dans un VOI plus étendu. Inversement,ces approches permettent d’aller étudier des activations spécifiques dans certaines struc-tures internes de petites tailles, en autorisant, le cas échéant, une correction de l’effet devolume partiel. Cet a priori est défini par le modèle spatial de l’anatomie cérébrale. Nousy reviendrons en définissant pour notre méthode un modèle spatial de l’anatomie cérébraledédié à l’étude de l’épilepsie temporale.

Construction d’un modèle théorique de perfusion par une analyse parstandardisation anatomique 161

4.2.6 Approches basées voxels

A contrario, les méthodes consistant en l’analyse voxel par voxel des données n’ontaucun a priori sur la répartition anatomique du phénomène étudié. Elles sont donc com-plètement exploratoires. Le principe est d’analyser les valeurs d’un même voxel dans lesdifférentes données normalisées spatialement. La même analyse est alors réalisée de manièreindépendante pour tous les voxels du cerveau. De même que pour les approches utilisantdes VOIs, l’objectif des analyses statistiques des approches basées voxels est généralementla comparaison de groupes de sujets sains/sujets pathologiques comme par exemple dansle contexte de la maladie d’Alzheimer [Minoshima 94b, Ito 96, Ebmeier 98], ou de l’épilep-sie [Ring 99, Lee 00a, VanBogaert 00]. On retrouve également des cas de comparaison demodalités d’imagerie (TEMP/TEP) et des études de corrélations avec des facteurs quanti-tatifs comme le résultat d’un test neuropsychologique (voir par exemple [Herholz 02] pourla maladie d’Alzheimer). La plupart de ces analyses peuvent se formaliser dans le cadre dumodèle linéaire généralisé proposé par Friston et al. [Friston 95b] pour générer des cartesstatistiques d’activation (Statistical Parametric Map - SPM). De plus, pour pouvoir appré-hender l’extension spatiale des zones détectées et corriger des comparaisons multiples dansle cadre de la théorie des champs aléatoires gaussiens, les données doivent être préalable-ment lissées par un filtre gaussien [Poline 97]. L’utilisation de ces méthodes est reconnueen TEP, du fait d’une très large utilisation au sein de la communauté des neurosciences.L’éditorial de P. Acton et K. Friston [Acton 98] définit quelques principes de base pourappliquer ces méthodes à la TEMP. Ils insistent essentiellement sur la nécessité de se li-miter à une transformation affine lors de l’étape de normalisation spatiale, et sur la faiblepuissance des tests et leur caractère trop conservateur du fait du faible nombre d’examensgénéralement disponibles, et donc du faible nombre de degrés de liberté.

Signorini et al. [Signorini 99] ont proposé une méthode permettant de comparer enTEP un sujet particulier à une population de sujets sains. La sensibilité et spécificité dela méthode est évaluée en analysant des sujets sains ou pathologiques. Une telle approcheest prometteuse pour analyser les pathologies où la localisation de la zone pathologiquen’est pas reproductible d’un patient à l’autre. C’est notamment le cas des lésions et desépilepsies extra-temporales. Cette méthode a notamment été employée pour l’étude desépilepsies temporales en TEP [VanBogaert 00] ou en TEMP ictale [Lee 00a], ainsi quepour la détection de lésions en TEMP [Stamatakis 99].

L’analyse des asymétries inter-hémisphériques est par contre nettement moins évidenteque pour les approches basées VOIs. De fait, on observe de manière générale beaucoupplus d’analyses par indice d’asymétrie pour les approches basées VOIs, et beaucoup plusd’analyses par comparaison de populations par les approches basées voxel. Une explicationpeut être liée à la difficulté d’assigner à chaque voxel son voxel symétriquement homologuedans l’autre hémisphère, alors que c’est immédiat pour les VOIs. En TEP, van Bogaert et al.[VanBogaert 00] proposent de normaliser spatialement les données vers un template TEPparfaitement symétrique, et inversent les données normalisées par symétrie droite/gauche.Ils proposent une analyse de type un sujet seul versus groupe ou une comparaison degroupes pour étudier les asymétries pathologiques en épilepsie par rapport aux asymétriesphysiologiques mesurées au sein d’une population de sujets sains.

D’autres méthodes d’analyse qui ne s’appuient par sur le modèle linéaire généraliséde SPM, mais plutôt sur des méthodes d’analyse factorielle ont également été proposées.

162 4.3 Méthode de construction d’un modèle théorique de perfusion

Ainsi, Houston et al. [Houston 94] utilisent une analyse en composante principale pourcaractériser la perfusion en TEMP d’une base de données de sujets sains. Les composantesprincipales correspondant aux valeurs propres les plus fortes définissent ainsi un sous-espacecaractérisant la variabilité fonctionnelle de la perfusion de ces sujets sains. Ils proposentalors une méthode de détection de données pathologiques en mesurant la distance entreun examen TEMP et sa projection orthogonale sur ce sous-espace (i.e. l’image TEMPnormale la plus proche de l’examen en question). Utilisant également les intensités voxelsdes données TEMP normalisées spatialement comme seule caractéristique, Stoeckel et al.[Stoeckel 01] proposent une méthode de classification par analyse discriminante entre dessujets sains et des sujets atteints de la maladie d’Alzheimer.

4.2.7 Comparaison des approches basées VOIs et des approches baséesvoxels

Quelques études de comparaison des deux approches ont été proposées dans la littéra-ture. Ainsi, Van Laere et al. [VanLaere 01b] utilisent les deux méthodes pour analyser trèsprécisément des données TEMP provenant d’une base de données de 89 sujets sains. Dansce cas, il s’agit plutôt d’une approche exploratoire permettant de caractériser la perfusionen TEMP chez le sujet sain à partir des deux méthodes. Mais les méthodes ne sont pasexplicitement comparées.

Les capacités de détection de pathologie des approches basées VOIs et des approches ba-sées voxel ont également été comparées [Liow 00, VanLaere 02]. Ainsi, Liow et al. [Liow 00]comparent les performances de détection de leur méthode d’analyse discriminante suivantqu’ils utilisent comme entrées les intensités des voxels ou les intensités moyennes mesuréesen chaque VOI. Van Laere et al. [VanLaere 02] comparent les performances de détection decas pathologiques par quatre méthodes : une analyse visuelle qualitative, une analyse ba-sée VOIs, et deux approches basées voxels, dont l’approche SPM. Pour ces deux études, laconnaissance théorique du diagnostic des données testées permet de quantifier la sensibilitéet spécificité des méthodes. Les capacités de détection et la comparaison de performancesdes différentes méthodes sont évaluées à l’aide d’analyses par courbe ROC (Receiver Ope-rating Curves [Metz 86]). Globalement, les deux études montrent des performances équi-valentes.

4.3 Méthode de construction d’un modèle théorique de per-

fusion

Nous présentons à présent la méthode d’analyse par standardisation anatomique qui atout d’abord été développée à des fins de simulation des données TEMP. Ainsi notre objectifétait de développer un méthode de modélisation d’un profil de perfusion particulier enTEMP, et de l’utiliser pour simuler de manière réaliste des données TEMP. Notre choix s’estdonc naturellement porté vers une approche basée VOIs. L’objectif premier de la méthoden’est pas d’assister la détection d’anomalies de perfusion, mais plutôt de caractériser et doncde modéliser la perfusion en TEMP d’une population homogène de sujets. La méthode estassez générique pour s’appliquer à différentes populations de sujets sains ou pathologiques.Nous l’appliquons ici à l’analyse de la perfusion d’une population de 27 sujets sains et

Construction d’un modèle théorique de perfusion par une analyse parstandardisation anatomique 163

à l’analyse de la perfusion ictale et inter-ictale de 10 patients présentant une épilepsie àpoint de départ temporo-mésial. L’idée est de se doter d’un outil permettant d’identifier ladistribution moyenne de la perfusion qui est reproductible d’un sujet à l’autre au sein decette population, mais aussi la part de variabilité fonctionnelle qui caractérise égalementcette population. Cette méthode présente un intérêt pour la simulation, mais égalementvis à vis de connaissances plus fondamentales sur la population et donc éventuellementla pathologie étudiée. Nous montrerons à la fin de ce chapitre comment l’analyse desrésultats a permis de mettre en évidence certaines dépendances au niveau de la perfusionde différentes structures anatomiques.

La simulation réaliste de données TEMP, via des techniques de simulation analytiqueou de Monte Carlo, nécessite la définition à partir d’une IRM morphologique d’une cartethéorique d’atténuation des photons ainsi que d’une carte théorique d’activité représentantla distribution du radiotraceur de perfusion (99mTc-HMPAO ou 99mTc-ECD). La construc-tion de ces cartes nécessite de se doter d’un modèle spatial de l’anatomie cérébrale afind’assigner une valeur théorique d’atténuation et d’activité à chaque structure anatomiqueidentifiée par ce modèle. La définition d’une carte d’activité réaliste passe par la modélisa-tion du profil de perfusion à simuler. C’est justement l’analyse inter-individuelle de donnéesTEMP d’une population homogène par une méthode basée VOIs, qui permet cette modéli-sation. Ainsi, ce sont les VOIs définis par le modèle spatial de l’anatomie cérébrale qui ontété utilisés pour mettre en place une méthode d’analyse par standardisation anatomiquebasée VOIs.

4.3.1 Modèle spatial de l’anatomie cérébrale

Le modèle spatial de l’anatomie cérébrale utilisé a été déduit du fantôme anthropo-morphique de tête proposé par Zubal et al. [Zubal 90, Zubal 94]. Ce fantôme consiste enune IRM 3D haute-résolution pondérée en T1 d’un sujet sain à partir de laquelle soixantetrois structures anatomiques ou Volumes d’Intérêt (VOIs) intra- et extra-cérébraux ont étésegmentés manuellement et étiquetés.

Afin de simuler des données TEMP caractéristiques de l’épilepsie, les VOIs du fantômede Zubal ont été latéralisés et resegmentés. En effet, la plupart des études de perfusioncérébrale en épilepsie se font en comparant l’hémisphère sain à l’hémisphère pathologique[Ho 96, Ho 97, Duncan 97b]. De plus les découpages anatomiques habituellement utiliséspar les épileptologues nécessitent de distinguer différentes zones corticales au niveau desdifférents lobes, comme, par exemple, différentes parties du lobe temporal [Bartolomei 99].Ainsi, l’objectif était de distinguer au sein du lobe temporal, les régions temporo-mésiale(ou interne), temporo-latérale (ou externe), pôle temporal et temporo-postérieure. Demême, au sein du lobe frontal, les régions fronto-mésiale, fronto-latérale, fronto-orbitaireet pôle frontal ont été identifiées. Les régions occipito-mésiale et occipito-latéral ont étédistinguées au sein du lobe occipital.

Ces segmentations ou redécoupages ont été réalisés de manière semi-automatique etguidée par l’atlas de Talairach et Tournoux [Talairach 88]. Cette étape a été réalisée avecl’aide d’un expert, A. Biraben (neurologue), de la manière suivante :

– La mise en correspondance de l’IRM pondérée en T1 du fantôme de Zubal avec l’atlasa été réalisée par désignation interactive du quadrillage proportionnel sur l’IRM :désignation du plan inter-hémisphérique, des commissures antérieure et postérieure

164 4.3 Méthode de construction d’un modèle théorique de perfusion

et de la boîte englobante du cerveau.

– En analysant une à une les planches coronales de l’atlas, les cases ou demi-cases del’atlas appartenant à la structure anatomique à segmenter ont été identifiées (e.g.pôle temporal).

– La segmentation des VOIs du fantôme de Zubal a été réalisée en prenant l’intersec-tion entre chacun de ces VOIs (e.g. lobe temporal) et les cases de l’atlas, identifiéescomme appartenant à l’entité à segmenter (e.g. pôle temporal). Les VOIs du fantômede Zubal étant définis dans le référentiel de l’IRM de celui-ci, le quadrillage propor-tionnel est utilisé pour la mise en correspondance lors de cette intersection. Les VOIsresegmentés sont ainsi également définis dans le référentiel d’origine de l’IRM dufantôme de Zubal.

– Tous les VOIs, d’origine ou resegmentés, sont latéralisés grâce au plan inter-hémisphé-rique préalablement désigné.

L’ensemble de ces VOIs, ceux resegmentés et ceux du fantôme n’ayant subi aucunetransformation sauf la latéralisation, définissent les entités de notre modèle spatial del’anatomie cérébrale. Afin de simuler des asymétries purement fonctionnelles, ce modèlea été symétrisé par rapport au plan inter-hémisphérique. L’IRM d’origine du fantôme aété symétrisée de la même manière en utilisant une interpolation trilinéaire. La figure 4.7illustre cette resegmentation du fantôme de Zubal au niveau du lobe temporal.

Ces mêmes VOIs ont été utilisés lors de l’analyse par standardisation anatomique dedonnées TEMP réelles, afin de construire un modèle théorique de perfusion (voir prochainparagraphe). Dans le cadre de cette analyse, certains VOIs ont également été fusionnés.La table 4.2 présente la liste des VOIs ainsi obtenus après redécoupage ou fusion. Ainsi, leVOI “temporo-mésial” correspond en fait à la réunion de la portion resegmentée du VOIlobe temporal et des VOIs Hippocampe et Amygdale. Le VOI Cortex a été construit enregroupant les VOIs lobe temporal, lobe frontal, lobe pariétal et lobe occipital. Comme lapathologie faisant l’objet de cette étude est l’épilepsie temporale, nous avons défini le VOICortex Sain comme le regroupement des VOIs lobe frontal, lobe pariétal et lobe occipitalexterne. Les VOIs thalamus, putamen et pallidum ont été regroupés pour construire leVOI Noyau Gris. De même, la réunion des VOIs putamen et pallidum a permis de définirle VOI Noyau Lenticulaire.

4.3.2 Carte d’activité : modèle théorique de perfusion cérébrale

La création d’un modèle théorique de perfusion cérébrale à partir de mesures sur desdonnées TEMP réelles, utilisant une approche de type standardisation anatomique baséeVOIs, est résumée sur la figure 4.7. La méthode consiste à normaliser spatialement lesdonnées TEMP à étudier vers un référentiel anatomique moyen et à réaliser des mesuresquantitatives à partir des VOIs que nous venons de décrire.

4.3.2.1 Choix d’une population homogène :

Afin de construire un modèle théorique de perfusion, la première étape a consisté àsélectionner une population homogène de sujets, caractéristique du type de perfusion quel’on cherche à modéliser. Les examens TEMP de 27 sujets sains (12 hommes et 15 femmesâgés de 20 à 56 ans) ont été utilisés pour construire un modèle théorique de perfusion

Construction d’un modèle théorique de perfusion par une analyse parstandardisation anatomique 165

Tab. 4.2 – Correspondances entre les VOIs du fantôme de Zubal (colonnes) et ceux denotre modèle spatial de l’anatomie cérébrale utilisés pour l’analyse par standardisation ana-tomique (lignes) - ’o’ : fusion des VOIs du fantôme de Zubal, ’×’ : découpage des VOIs dufantôme de Zubal à partir de l’atlas stéréotaxique de Talairach (Amyg: amygdale, Hipp. :hippocampe, Temp. : Temporal, Front. : Frontal, Par. : Parietal, Occ. : Occipital

Amyg. Hipp. Temp. Front. Par. Occ. Thalamus Putamen Pallidum

Cortex o o o o

CortexSain o o o

NoyauGris o o o

NoyauLenticulaire o o

TempPole ×

TemporoMesial o o ×

TemporoLateral ×

TemporoPostérieur ×

FrontalPole ×

FrontoOrbitaire ×

FrontoMesial ×

FrontoLateral ×

OccipitoMesial ×

OccipitoLateral ×

normale. Ces données nous ont été aimablement fournies par Leighton Barnden du servicede Médecine Nucléaire du Queen Elizabeth Hospital (Woodville, Australie). Pour analyserla perfusion ictale et inter-ictale de l’épilepsie temporo-mésiale, une population constituéede 10 sujets épileptiques (6 hommes et 4 femmes âgés de de 19 à 43 ans) a été sélectionnée.Tous ces patients ont été pris en charge par les services d’épileptologie et de neurochirurgiede l’hôpital de Rennes. Ils ont tous été opérés et guéris (score de Engel de 1a [Engel 87]). Lediagnostic d’épilepsie à point de départ temporo-mésial suivi d’une propagation temporo-latérale, a été posé à partir des données électrocliniques selon la classification des crisestemporales proposée par Bartolomei et al. [Bartolomei 99]. Les données ont été acquisesaprès injection perictale du radiotraceur effectuée dans des conditions reproductibles grâceà un contrôle du début de la crise par vidéo-ElectroEncéphaloGraphie.

4.3.2.2 Acquisition et prétraitement des données :

Après une injection de 500 MBq de 99mTc-HMPAO, les acquisitions TEMP des 27 sujetssains ont été réalisées sur une Gamma camera à trois têtes IRIX (Philips Medical Systems),munie de collimateurs parallèles à ultra-haute résolution. 120 projections couvrant 360

(matrice=128 × 128, taille du pixel=3.59mm) ont été acquises en utilisant simultanémentune fenêtre d’énergie à 20% du pic d’activité du 99mTc (126 − 154keV ), ainsi qu’unefenêtre Compton (111 − 125keV ). Une correction du diffusé par la méthode de Jasczsak[Jaszczak 85] a été réalisée en soustrayant aux 120 projections acquises dans la fenêtre à20% du pic d’activité du 99mTc celles acquises dans la fenêtre Compton considérée. Cesdernières projections ont été multipliées par un coefficient k = 1.3 avant la soustraction(voir §II.4.1.3.2).

En ce qui concerne les 10 sujets épileptiques, les acquisitions de TEMP ictales et inter-ictales ont été réalisées sur un imageur à deux têtes DST-XL (General Electric Medical

166 4.3 Méthode de construction d’un modèle théorique de perfusion

Entités anatomiques= fantôme de Zubal

Anatomie :IRM T1 étiquetée

Normalisation Spatiale

Fonction :

Données TEMP et IRMissues d’une population homogène

(normale ou pathologique)

après resegmentation

VOI normalisé

TEMP normalisée

pondérée par le masque

lissé du VOI

Moyenne du signal TEMP

Modèle de PerfusionThéorique

vers le template T1

(SPM)

Référentiel Anatomique Moyen

= Volumes d’intérêt (VOIs)

AnalyseStatistique

Fig. 4.7 – Construction du modèle de perfusion théorique à partir des mesures sur desdonnées TEMP réelles

Systems) muni de collimateurs Fan Beam à ultra-haute résolution (7 cas) ou parallèlesultra-haute résolution (3 cas). Une injection moyenne de 740 MBq de 99mTc-HMPAO ou de99mTc-ECD a été réalisée suivant la disponibilité du traceur. 64 projections couvrant 360

(matrice=128 × 128, taille du pixel=4.51mm) ont ainsi été acquises. Parmi les examensinter-ictaux, 4 ont été en fait acquis sur un ancien imageur, de moins bonne résolutionspatiale (matrice=64×64, taille du pixel=6.78mm). N’ayant pu mesurer précisément cetterésolution spatiale, ces 4 examens ont été écartés de l’étude afin de n’analyser que desdonnées homogènes en terme de résolution spatiale. Pour chacun des 10 sujets épileptiques,une acquisition IRM 3D pondérée en T1 a été réalisée sur un imageur Signa 1.5T (GeneralElectric Medical Systems) : 124 coupes sagittales 256×256, voxel=0.9375×0.9375×1.3mm3,séquence SPGR (FOV = 24 cm, α = 30, TE = 3 ms et TR = 33 ms).

La reconstruction tomographique de toutes ces données TEMP a été réalisée par ré-troprojection filtrée en utilisant un filtre rampe à la fréquence de coupure de Nyquist. Lesdonnées reconstruites ont été post-filtrées à l’aide d’un filtre Gaussien 3D de largeur àmi-hauteur (LMH) 8mm. Ainsi, la résolution spatiale de toutes les données reconstruitesest de 12.2mm (voir §II.4.1.2.4). Les données ont été corrigées en atténuation par la mé-thode de Chang d’ordre 1 [Chang 78] en considérant la tête comme un milieu atténuantuniforme (voir §II.4.1.3.1). Un coefficient d’atténuation de µ = 0.15cm−1 a été utilisé pourles données corrigées de la diffusion et de µ = 0.12cm−1 pour les données non corrigées(voir §II.4.1.3.2). Rajeevan et al. [Rajeevan 98] ont montré que la correction d’atténua-tion uniforme était suffisamment précise en quantification relative à condition d’identifierprécisément la frontière de la peau sur les données TEMP. Ainsi, pour les sujets sains,le masque de la tête a été déduit par binarisation des volumes reconstruits à partir desdonnées de la fenêtre Compton, comme conseillé par Rajeevan et al. lorsqu’on ne disposepas d’acquisition en transmission. Pour les sujets épileptiques, le masque de la tête a étédéduit par binarisation de l’IRM préalablement recalée sur les données TEMP.

Construction d’un modèle théorique de perfusion par une analyse parstandardisation anatomique 167

4.3.2.3 Normalisation spatiale des données :

Afin de réaliser des mesures sur ces données TEMP à partir des VOIs du modèlespatial de l’anatomie cérébrale, la méthode de normalisation spatiale proposée par Fristonet al. [Friston 95a] et implémentée dans le logiciel SPM 7 a été utilisée pour transformerles données vers un même référentiel anatomique moyen, celui du template IRM T1 fournipar SPM. La méthode est basée sur une minimisation de l’erreur quadratique entre lesintensités du template et de l’image à recaler (voir équation 2.58). Comme nous l’avons vuau §I.2.2.4.1, l’optimisation est réalisée par une approche itérative en linéarisant le problèmepar décomposition de la transformation géométrique sur une base de fonctions régulières.Nous avons utilisé la configuration par défaut du logiciel. Ainsi, la transformation spatialea été modélisée par une transformation affine suivie d’une transformation non linéairedéfinie par décomposition sur une base de fonctions correspondant aux composantes bassefréquence d’une transformée en cosinus discrète 3D (7 × 8 × 7 fonctions ont été utiliséeset 12 itérations lors de l’optimisation). La normalisation spatiale des différentes donnéesdans le référentiel du template T1 a été réalisée de la manière suivante :

– Le modèle spatial de l’anatomie cérébrale a été normalisé en appliquant la normalisa-tion spatiale SPM entre l’IRM pondérée en T1 du fantôme de Zubal, préalablementsymétrisée, et le template T1. Cette transformation géométrique non linéaire per-met alors de reporter les VOIs du modèle spatial dans le référentiel géométrique dutemplate T1.

– Les données TEMP des 27 sujets sains ont été normalisées spatialement vers le tem-plate TEMP fourni par SPM. Comme l’ont recommandé par Acton et al. [Acton 98]pour la normalisation spatiale de données TEMP, seule une transformation géomé-trique affine a été modélisée. Les données TEMP ont ensuite été rééchantillonnéesdans le référentiel spatial du template T1 (le même que celui du template TEMP),par interpolation trilinéaire.

– La normalisation spatiale des données TEMP ictales ou inter-ictales a été réaliséeen deux étapes afin de minimiser l’influence des zones pathologiques (vastes régionshyperperfusées en TEMP ictale notamment). La première étape a consisté à recalerde façon rigide (3 translations, 3 rotations) tous les couples de données TEMP /IRM.Ce sont ces mêmes données qui ont permis l’évaluation qualitative visuelle de troisméthodes de recalage basées mesures statistiques de similarité, présentée au §I.3.7.La transformation géométrique considérée qualitativement comme la plus précise aété sélectionnée. Lorsque visuellement les différentes méthodes ont abouti à des préci-sions équivalentes, le recalage utilisant l’information mutuelle a été choisi par défaut(voir table 3.6). La deuxième étape a consisté à normaliser spatialement chacune desIRM de cette base de données vers le template T1 fourni par SPM, en utilisant unetransformation géométrique non linéaire. La combinaison des paramètres de ces deuxtransformations géométriques (rigide TEMP ->IRM et non linéaire IRM ->templateT1) a permis de rééchantillonner toutes les données TEMP dans le référentiel anato-mique moyen du template T1. Le rééchantillonnage de ces données a été réalisé parinterpolation trilinéaire.

7. logiciel SPM : http://www.fil.ion.ucl.ac.uk/spm/

168 4.3 Méthode de construction d’un modèle théorique de perfusion

La normalisation spatiale de l’anatomie a été vérifiée visuellement par un neurochirur-gien, C. Haegelen, en fusionnant sur le template T1 chacun des masques binaires corres-pondant aux VOIs normalisés spatialement. Aucune déformation aberrante des VOIs n’aété détectée visuellement.

Cette étape de normalisation spatiale des données TEMP et IRM, et du modèle spatialde l’anatomie, nous a permis de mettre à disposition des cliniciens un environnement defusion multimodalité TEMP/IRM/atlas (voir figure 4.8). Ainsi, il est possible de fusionnerles données TEMP sur l’IRM normalisée spatialement. Chaque fois qu’un point 3D estdésigné dans les données, la structure anatomique (i.e., le VOI) à laquelle il appartientest indiquée sur le module de visualisation. De manière complémentaire, il est possiblede fusionner un ou plusieurs VOIs du modèle spatial sur les données TEMP normaliséesspatialement. Toutes les données étant normalisées spatialement, les modules de visualisa-tion peuvent être synchronisés en utilisant l’identité comme transformation géométrique :la désignation d’un point 3D dans un module de visualisation se répercute alors dans tousles autres modules. Cette technique a été utilisée pour vérifier que la normalisation spatialedes toutes les données TEMP n’a pas donné lieu à des déformations aberrantes décelablesvisuellement.

(a) (b)

Fig. 4.8 – Environnement de fusion multimodalité TEMP/IRM/atlas : (a) TEMP ictalefusionnée sur l’IRM normalisée spatialement du même patient (b) VOIs du modèle spatialfusionnés sur le même examen de TEMP ictale

4.3.2.4 Normalisation en intensité des données TEMP :

Les doses de radiotraceurs injectées et fixées pouvant varier d’un examen à l’autre, lesdonnées TEMP ont été normalisées en intensité afin de rendre les mesures de perfusioncomparables entre elles. La fixation du radiotraceur étant en partie proportionnelle à la doseinjectée, la variabilité inter-acquisition a été modélisée par un effet multiplicatif [Acton 98].Ainsi, chaque donnée TEMP a été normalisée de telle sorte que le nombre moyen decoups/voxel mesuré dans tout le cerveau soit de 50 coups/voxel. La normalisation surla perfusion moyenne du cervelet, couramment rencontrée dans la littérature, n’était pas

Construction d’un modèle théorique de perfusion par une analyse parstandardisation anatomique 169

applicable pour les données ictales, étant donné l’implication du cervelet dans l’épilepsietemporale [Boussion 00].

4.3.2.5 Mesures de perfusion sur des données TEMP réelles :

Pour tenir compte de l’effet de volume partiel inhérent à la différence de résolutionspatiale entre l’IRM du fantôme de Zubal (résolution millimétrique) et les données TEMP(LMH = 12.2mm), chaque masque binaire correspondant à un VOI du modèle spatial(préalablement normalisé spatialement) a été lissé par un filtre gaussien 3D présentant unelargeur à mi-hauteur de 12mm. Ces masques lissés ont été alors considérés comme descartes pondérant le degré d’appartenance à la structure anatomique en question. Ainsi,pour tout VOI i et toute donnée TEMP j, tous deux normalisés spatialement, on estimele signal moyen xij , l’écart-type σij et le coefficient de variation cvij de l’activité TEMPau sein de ce VOI de la manière suivante :

xij =

∑k pi

k ajk∑

k pik

(4.14)

σ2ij =

∑k pi

k(ajk − xij)

2

∑k pi

k

(4.15)

cvij =σij

xij(4.16)

où en tout voxel d’indice k dans le référentiel du template T1, ajk indique l’intensité mesurée

sur la donnée TEMP j et le poids pik indique le degré d’appartenance de ce voxel au VOI

i. Notons que xij désigne bien un moyenne réalisée localement sur la donnée TEMP j, parcontre la notation n’utilise pas un symbole de moyenne (comme une barre), pour éviterune surcharge de notation, vu qu’au niveau de l’analyse statistique nous allons introduireune moyenne de xij au sein des différents examens TEMP (suivant j).

La structure “matière blanche” issue du fantôme de Zubal contient après un tel filtrageune quantité non négligeable d’information provenant de la matière grise. Afin d’éviter unesurestimation de la mesure de perfusion dans la matière blanche, quatre VOIs sphériquesde rayon 7 mm ont été positionnés manuellement au centre de la matière blanche sur lefantôme de Zubal. Les mesures de perfusion réalisées à partir de ces sphères seront désignéespar la suite comme le VOI "MatBlancheVOI". Il convient néanmoins de préciser que toutesles autres mesures de perfusion réalisées ici seront elles aussi biaisées par l’effet de volumepartiel notamment.

4.3.2.6 Création de la carte théorique d’activité :

La distribution de ces différentes mesures xij de perfusion reflète ainsi la perfusionnormale ou pathologique caractéristique de la série de données TEMP sélectionnée. Laconstruction en tant que tel d’un modèle théorique de perfusion consiste à assigner àchaque VOI du modèle spatial de l’anatomie cérébrale une valeur relative de perfusion encoups/voxel issue de cette même distribution. On définit ainsi, à la résolution du modèlespatial, une carte théorique d’activité caractéristique du type de perfusion cérébrale que l’on

170 4.4 Analyse statistique des mesures de perfusion

cherche à simuler. Les cartes d’activité générées à partir de ces mesures seront présentéesau chapitre II.5, ainsi que les simulations TEMP associées.

Nous présentons à présent les mesures obtenues lors de l’analyse des 27 sujets sains(données corrigées ou non de la diffusion) et des 10 sujets épileptiques (10 examens ictauxet 6 examens inter-ictaux). L’analyse statistique de ces mesures est ensuite présentée afinde suggérer une méthode pour inférer un modèle théorique de perfusion à partir de cesmesures.

Dans la suite de ce chapitre, l’indice j caractérise la donnée TEMP étudiée, n désignele nombre de données TEMP considérées : n = 27 pour l’étude de la perfusion normale,n = 10 pour l’étude de la perfusion ictale, et n = 6 pour l’étude de la perfusion inter-ictale.L’indice i caractérise le VOI considéré, et Na le nombre de VOIs latéralisés utilisés pourréaliser les mesures de perfusion : Na = 54 VOIs. Nous définissons également la variablequalitative Anat, qui comprend Na = 54 modalités, et désigne le nom de chacun des VOIslatéralisés.

4.4 Analyse statistique des mesures de perfusion

L’objectif de cette étude est d’extraire de ces différentes mesures de perfusion xij lesinformations pertinentes caractérisant un pattern de perfusion normal ou pathologique enTEMP. Nous proposons pour cela trois niveaux d’analyse. Le premier correspond à uneanalyse statistique descriptive standard de la distribution des mesures afin d’estimer lescaractéristiques moyennes de patterns de perfusion étudiés. Dans un second temps, nousétudions s’il existe un structure de groupe explicative des données analysées. Ainsi, l’effet dela localisation anatomique, i.e. de la variable Anat, sur la totalité des mesures a été étudiépar une analyse de la variance (ANOVA). Les données TEMP étant couramment analyséesen clinique par comparaison visuelle inter-hémisphérique, une analyse de la variabilitéinter-hémisphérique a été réalisée à partir de nos mesures. Après avoir montré quellesstructures anatomiques semblent présenter des activités caractéristiques de la perfusionétudiée, le troisième aspect était de caractériser d’éventuelles dépendances statistiquesentre la perfusion de ces structures anatomiques. Nous proposons pour cela d’utiliser uneanalyse factorielle des correspondances.

Pour chaque VOI latéralisé, nous ne disposons que de 27 mesures chez les sujets sains.En ce qui concerne les sujets épileptiques, nous ne disposons pour chaque VOI que de10 mesures de perfusion ictale et de 6 mesures de perfusion inter-ictale. Les propriétésasymptotiques de gaussiennité des lois justifiées par le théorème central limite sont doncdifficilement acceptables ici [Saporta 90]. Ainsi, l’erreur standard des différents estimateursainsi que la significativité des tests statistiques utilisés dans cette analyse ont été quan-tifiées à partir de méthodes non paramétriques basées sur le rééchantillonnage bootstrap[Efron 93].

Toutes les analyses statistiques ont été réalisées à l’aide du logiciel R, disponible surle site : http://www.r-project.org/. Ce logiciel de programmation en statistiques a initiale-ment été écrit par R. Gentleman and R. Ihaka du département de statistiques de l’universitéd’Auckland, et est à présent reconnu au sein de la communauté.

Construction d’un modèle théorique de perfusion par une analyse parstandardisation anatomique 171

4.4.1 Présentation des résultats des mesures

La distribution des mesures de perfusion normale estimée en chaque VOI à partir des27 TEMP de sujets sains est représentée à l’aide de “boxplot” 8 sur la figure 4.9, pour lesdonnées corrigées de la diffusion, et sur la figure 4.10, pour les données non corrigées dela diffusion. Ces représentations illustrent de plus la perte de contraste occasionnée parle fait que la diffusion n’a pas été corrigée. Dans les deux cas, on observe également lasurestimation de la perfusion occasionnée par l’effet de volume partiel en comparant parexemple les VOIs MatBlanche et MatBlancheVOI. Précisons de plus que ce biais affectetoutes nos mesures vu qu’aucune correction de l’effet de volume partiel n’a été mise enœuvre.

En ce qui concerne l’analyse des sujets épileptiques, la figure 4.11 représente la dis-tribution des mesures de perfusion estimées sur les données inter-ictales et la figure 4.12représente la distribution des mesures de perfusion estimées sur les données ictales. L’ana-lyse des mesures de perfusion ictale met clairement en évidence des asymétries fonction-nelles inter-hémisphériques. Il s’agit principalement de régions hyperperfusées dans l’hé-misphère pathologique, notamment au niveau des structures mésiales du lobe temporal.On remarque également que l’allure des distributions des mesures de perfusion inter-ictaleest très dispersée et présente de faibles asymétries inter-hémisphériques. On observe ainsiquelques faibles tendance vers l’hypoperfusion dans l’hémisphère pathologique au niveaudes structures internes et de quelques structures temporales. Il parait néanmoins difficiled’utiliser ces données pour extraire des caractéristiques de la perfusion inter-ictale en épi-lepsie temporo-mésiale, principalement en raison du faible nombre de données étudiées (6sujets) et de la faible sensibilité connue de la TEMP inter-ictale [Duncan 97b].

Toutes les analyses statistiques que nous allons présenter ont été réalisées sur ces 4séries de mesures, i.e., TEMP des sujets sains avec ou sans correction de la diffusion etTEMP ictales et inter-ictales. Nous ne présentons ici que les résultats obtenus à partirdes mesures sur les données de sujets sains corrigées de la diffusion et sur les donnéesictales de sujets épileptiques. Notons que l’utilité d’analyser les données des sujets sains noncorrigées de la diffusion était pour pouvoir les comparer aux données des sujets épileptiques.Malgré le fait que l’on ait adapté la méthode de reconstruction pour obtenir des données demême résolution spatiale, les données normales et ictales étaient néanmoins difficilementcomparables. Le choix de l’intensité moyenne mesurée sur tout le cerveau pour normaliserles intensités des mesures influence nécessairement la distribution des mesures. Ce problèmede la normalisation nécessiterait d’être étudié spécifiquement avant de pouvoir comparerles données ictales et les données normales. L’analyse des données inter-ictales ne nous apas permis d’extraire de caractéristiques de ce profil de perfusion, et les résultats ne sontdonc pas présentés.

8. La représentation en “boxplot” ou par boîte à moustache est courante en statistique. Elle permet defaire figurer la médiane, le premier et troisième quartile de la distribution [Saporta 90]. La longueur desmoustaches dépend de l’intervalle interquartile, et les points situés en dehors des moustaches peuvent êtreconsidérés comme des observations déviantes

172

4.4

Analy

sesta

tistique

des

mesu

res

de

perfu

sion

Cortex.DroitCortex.Gauche

CortexSain.DroitCortexSain.Gauche

MatBlanche.DroitMatBlanche.Gauche

MatBlancheVOI.DroitMatBlancheVOI.Gauche

Amygdale.DroitAmygdale.GaucheHippocampe.Droit

Hippocampe.GaucheNoyauCaude.Droit

NoyauCaude.GaucheNoyauGris.Droit

NoyauGris.GaucheNoyauLenticulaire.Droit

NoyauLenticulaire.GaucheThalamus.Droit

Thalamus.GaucheInsula.Droit

Insula.GaucheTemporal.Droit

Temporal.GaucheTempPole.Droit

TempPole.GaucheTemporoMesial.Droit

TemporoMesial.GaucheTemporoLateral.Droit

TemporoLateral.GaucheTemporoPosterieur.Droit

TemporoPosterieur.GaucheFrontal.Droit

Frontal.GaucheFrontalPole.Droit

FrontalPole.GaucheFrontoOrbitaire.Droit

FrontoOrbitaire.GaucheFrontoMesial.Droit

FrontoMesial.GaucheFrontoLateral.Droit

FrontoLateral.GaucheOccipital.Droit

Occipital.GaucheOccipitoMesial.Droit

OccipitoMesial.GaucheOccipitoLateral.Droit

OccipitoLateral.GaucheParietal.Droit

Parietal.GaucheCervelet.Droit

Cervelet.GaucheTroncCerebral.Droit

TroncCerebral.Gauche

30 40 50 60 70

Fig

.4.9

–D

istributiondes

mesures

deperfusion

chezles

27sujets

sainsen

fonctiondes

VO

Is-

donnéescorrigées

dudiff

usé(ligne

continue=

50coups/voxel,

ligneen

pointillés=

moyenne

empirique

detoutes

lesm

esures)

Con

struction

d’u

nm

odèle

théoriq

ue

de

perfu

sionpar

une

analy

separ

standard

isationan

atomiq

ue

173

Cortex.DroitCortex.Gauche

CortexSain.DroitCortexSain.Gauche

MatBlanche.DroitMatBlanche.Gauche

MatBlancheVOI.DroitMatBlancheVOI.Gauche

Amygdale.DroitAmygdale.GaucheHippocampe.Droit

Hippocampe.GaucheNoyauCaude.Droit

NoyauCaude.GaucheNoyauGris.Droit

NoyauGris.GaucheNoyauLenticulaire.Droit

NoyauLenticulaire.GaucheThalamus.Droit

Thalamus.GaucheInsula.Droit

Insula.GaucheTemporal.Droit

Temporal.GaucheTempPole.Droit

TempPole.GaucheTemporoMesial.Droit

TemporoMesial.GaucheTemporoLateral.Droit

TemporoLateral.GaucheTemporoPosterieur.Droit

TemporoPosterieur.GaucheFrontal.Droit

Frontal.GaucheFrontalPole.Droit

FrontalPole.GaucheFrontoOrbitaire.Droit

FrontoOrbitaire.GaucheFrontoMesial.Droit

FrontoMesial.GaucheFrontoLateral.Droit

FrontoLateral.GaucheOccipital.Droit

Occipital.GaucheOccipitoMesial.Droit

OccipitoMesial.GaucheOccipitoLateral.Droit

OccipitoLateral.GaucheParietal.Droit

Parietal.GaucheCervelet.Droit

Cervelet.GaucheTroncCerebral.Droit

TroncCerebral.Gauche

30 40 50 60 70

Fig

.4.10

–D

istributiondes

mesures

deperfusion

chezles

27sujets

sainsen

fonctiondes

VO

Is-

donnéesnon

corrigéesdu

diffusé

(lignecontinue

=50

coups/voxel,ligne

enpointillés

=m

oyenneem

piriquede

toutesles

mesures)

174

4.4

Analy

sesta

tistique

des

mesu

res

de

perfu

sion

Cortex.PathoCortex.Sain

CortexSain.PathoCortexSain.Sain

MatBlanche.PathoMatBlanche.Sain

MatBlancheVOI.PathoMatBlancheVOI.Sain

Amygdale.PathoAmygdale.Sain

Hippocampe.PathoHippocampe.Sain

NoyauCaude.PathoNoyauCaude.SainNoyauGris.Patho

NoyauGris.SainNoyauLenticulaire.Patho

NoyauLenticulaire.SainThalamus.Patho

Thalamus.SainInsula.Patho

Insula.SainTemporal.Patho

Temporal.SainTempPole.Patho

TempPole.SainTemporoMesial.Patho

TemporoMesial.SainTemporoLateral.Patho

TemporoLateral.SainTemporoPosterieur.Patho

TemporoPosterieur.SainFrontal.Patho

Frontal.SainFrontalPole.Patho

FrontalPole.SainFrontoOrbitaire.Patho

FrontoOrbitaire.SainFrontoMesial.Patho

FrontoMesial.SainFrontoLateral.Patho

FrontoLateral.SainOccipital.Patho

Occipital.SainOccipitoMesial.Patho

OccipitoMesial.SainOccipitoLateral.Patho

OccipitoLateral.SainParietal.Patho

Parietal.SainCervelet.Patho

Cervelet.SainTroncCerebral.Patho

TroncCerebral.Sain

30 40 50 60 70

Fig

.4.11

–D

istributiondes

mesures

deperfusion

inter-ictalechez

les6

sujetsépileptiques

enfonction

desV

OIs

(lignecontinue

=50

coups/voxel,ligne

enpointillés

=m

oyenneem

piriquede

toutesles

mesures)

Con

struction

d’u

nm

odèle

théoriq

ue

de

perfu

sionpar

une

analy

separ

standard

isationan

atomiq

ue

175

Cortex.PathoCortex.Sain

CortexSain.PathoCortexSain.Sain

MatBlanche.PathoMatBlanche.Sain

MatBlancheVOI.PathoMatBlancheVOI.Sain

Amygdale.PathoAmygdale.Sain

Hippocampe.PathoHippocampe.Sain

NoyauCaude.PathoNoyauCaude.SainNoyauGris.Patho

NoyauGris.SainNoyauLenticulaire.Patho

NoyauLenticulaire.SainThalamus.Patho

Thalamus.SainInsula.Patho

Insula.SainTemporal.Patho

Temporal.SainTempPole.Patho

TempPole.SainTemporoMesial.Patho

TemporoMesial.SainTemporoLateral.Patho

TemporoLateral.SainTemporoPosterieur.Patho

TemporoPosterieur.SainFrontal.Patho

Frontal.SainFrontalPole.Patho

FrontalPole.SainFrontoOrbitaire.PathoFrontolOrbitaire.SainFrontoMesial.Patho

FrontoMesial.SainFrontoLateral.Patho

FrontoLateral.SainOccipital.Patho

Occipital.SainOccipitoMesial.Patho

OccipitoMesial.SainOccipitoLateral.Patho

OccipitoLateral.SainParietal.Patho

Parietal.SainCervelet.Patho

Cervelet.SainTroncCerebral.Patho

TroncCerebral.Sain

30 40 50 60 70

Fig

.4.12

–D

istributiondes

mesures

deperfusion

ictalechez

les10

sujetsépileptiques

enfonction

desV

OIs

(lignecontinue

=50

coups/voxel,ligne

enpointillés

=m

oyenneem

piriquede

toutesles

mesures)

176

4.4

Analy

sesta

tistique

des

mesu

res

de

perfu

sion

Cortex.DroitCortex.Gauche

CortexSain.DroitCortexSain.Gauche

MatBlanche.DroitMatBlanche.Gauche

MatBlancheVOI.DroitMatBlancheVOI.Gauche

Amygdale.DroitAmygdale.GaucheHippocampe.Droit

Hippocampe.GaucheNoyauCaude.Droit

NoyauCaude.GaucheNoyauGris.Droit

NoyauGris.GaucheNoyauLenticulaire.Droit

NoyauLenticulaire.GaucheThalamus.Droit

Thalamus.GaucheInsula.Droit

Insula.GaucheTemporal.Droit

Temporal.GaucheTempPole.Droit

TempPole.GaucheTemporoMesial.Droit

TemporoMesial.GaucheTemporoLateral.Droit

TemporoLateral.GaucheTemporoPosterieur.Droit

TemporoPosterieur.Gauche

Frontal.GaucheFrontalPole.Droit

FrontalPole.GaucheFrontoOrbitaire.Droit

FrontoOrbitaire.GaucheFrontoMesial.Droit

FrontoMesial.GaucheFrontoLateral.Droit

FrontoLateral.GaucheOccipital.Droit

Occipital.GaucheOccipitoMesial.Droit

OccipitoMesial.GaucheOccipitoLateral.Droit

OccipitoLateral.GaucheParietal.Droit

Parietal.GaucheCervelet.Droit

Cervelet.GaucheTroncCerebral.Droit

TroncCerebral.Gauche

0.10

0.15

0.20

0.25

0.30

0.35

0.40

0.45

Frontal.Droit

Fig

.4.13

–D

istributiondes

mesures

decoeffi

cientde

variationcv

ijchez

les27

sujetssains

enfonction

desV

OIs

-données

corrigéesdu

diffusé

(lignecon

tinue=

moyenne

empirique

detoutes

lesm

esures)

L’allure

dela

distributiondes

coefficients

devariation

cvij

enchaque

VO

Iest

repré-sentée

surla

figure4.13

pour

lesm

esuresréalisées

surles

donnéesnorm

alescorrigées

dela

diffusion.

La

plupartdes

coefficients

devariation

moyens

observéssont

inférieursà

0.3,à

l’exceptiondu

pôle

frontalet

dulob

eoccipital

(cf.table

4.3).Les

valeursde

perfusion

distribuéesau

seinde

chaqueV

OI

peuvent

doncêtre

considéréescom

me

relativement

ho-m

ogènes,ce

quiconfirm

ela

cohérencedu

découpageanatom

iqueutilisé

pour

analyserces

données.Cette

cohérenceanatom

iquea

étéretrouvée

ausein

detoutes

lespopulations

étu-diées.

Ainsi,

dansle

contextepathologique

ictalégalem

ent,la

plupartdes

coefficients

devariation

moyens

observésen

chaqueV

OI

sontinférieurs

à0.3,

àl’exception

dulob

eocci-

pital(cf.

table4.4).

Donc

ledécoupage

anatomique

utiliséest

également

adaptéà

l’analysede

cesdonnées

ictaleset

inter-ictales,ce

quijustifie

notreresegm

entationdu

fantôme

deZubal

pour

définirun

modèle

spatialadéquat

pour

décrirel’épilepsie

temporale.

Construction d’un modèle théorique de perfusion par une analyse parstandardisation anatomique 177

4.4.2 Phase 1 : analyse statistique descriptive

4.4.2.1 Méthode : estimateurs et erreurs standard bootstrap

La première analyse a consisté en une analyse statistique univariée standard de ladistribution de toutes les mesures de perfusion normalisées.

Analyse statistique conditionnelle à la variable Anat : Notre objectif est d’assi-gner à chaque VOI une valeur théorique de perfusion. Nous avons donc réalisé une analysede la distribution des mesures de perfusion xij conditionnellement à la variable Anat, i.e.analyser les mesures successivement pour chaque VOI. Nous proposons une représentation“boxplot” de la distribution des mesures dans chaque VOI. Le modèle de perfusion a été ca-ractérisé via l’estimation de statistiques descriptives standard : l’espérance mathématiqueet l’erreur standard. Les estimateurs suivants ont été utilisés :

– Moyenne empirique, estimateur de l’espérance mathématique :

xi =1

n

n∑

j=1

xij (4.17)

– Estimateur sans biais de l’erreur standard :

σi =

√√√√ 1

n − 1

n∑

j=1

(xij − xi)2 (4.18)

Vu le faible nombre d’échantillons dont nous disposions, nous avons vérifié si ces estima-teurs reflétaient de manière homogène les caractéristiques de la distribution sous-jacente.Pour cela, la précision de chacun de ces estimateurs a été évaluée en estimant leur erreurstandard par rééchantillonnage bootstrap [Efron 93]. Dans notre cas, une réalisation de laloi consiste en fait en un examen TEMP, le rééchantillonnage bootstrap utilisé a consistéen un tirage avec remise dans la liste des examens TEMP étudiés, et ce quelle que soitl’analyse statistique envisagée.

Soit θ l’estimateur à étudier. On génère B rééchantillonnages des données 9. Pour chacunde ces B échantillons, on calcule un réplicat de l’estimateur θ∗(b) (avec b ∈< 1,B >). Lesestimateurs bootstrap de l’espérance mathématique et de l’erreur standard de l’estimateurθ sont calculés comme suit :

– Estimateur bootstrap de l’espérance mathématique :

θ∗(.) =1

B

B∑

b=1

θ∗(b) (4.19)

9. Un rééchantillonnage consiste donc en un tirage avec remise de n examens TEMP parmi la liste des nexamens TEMP disponibles d’origine. La théorie du rééchantillonnage proposée par Efron et al. [Efron 93]repose principalement sur le fait que ce nouvel échantillon de taille n est issu de la même loi que l’échantillond’origine. La principale différence provient du fait que le même examen TEMP peut apparaître plusieursfois dans ce nouvel échantillon (en raison du tirage avec remise)

178 4.4 Analyse statistique des mesures de perfusion

– Estimateur Bootstrap de l’erreur standard :

seB =

√√√√ 1

B − 1

B∑

b=1

(θ∗(b) − θ∗(.))2 (4.20)

Cette approche pour estimer l’erreur standard bootstrap d’un estimateur θ a été ap-pliquée aux estimateurs : θ = xi et θ = σi

4.4.2.2 Résultats

4.4.2.3 Analyse statistique descriptive de la perfusion chez les sujets sains

La Table 4.3 présente la moyenne empirique xi et l’écart-type σi des mesures de per-fusion xij estimés au sein de chaque VOI. Sont indiquées respectivement les mesures del’hémisphère gauche, les mesures de l’hémisphère droit, les différences relatives (hémisphèregauche - hémisphère droit) considérant l’hémisphère droit comme référence. La dernièrecolonne (CV ) de la table 4.3 indique la moyenne cvi et l’écart-type des coefficients de va-riation cvij estimés en chaque VOI. L’analyse des erreurs standard de tous ces estimateurs,estimées par rééchantillonnage Bootstrap (B = 100), n’a fourni que des erreurs inférieures à1, devant des moyennes qui sont de l’ordre de 50, ce qui nous confirme que nos estimateurscaractérisent correctement la structure des données sous-jacente (résultats non présentés).On peut donc faire relativement confiance à nos estimateurs xi pour caractériser un modèlemoyen de perfusion normale.

4.4.2.4 Analyse statistique descriptive de la perfusion ictale chez les sujetsépileptiques

La Table 4.4 présente la moyenne empirique xi et l’écart-type σi des mesures de perfu-sion xij estimés au sein de chaque VOI à partir des 10 TEMP ictales de sujets épileptiques.Sont indiquées respectivement les mesures de l’hémisphère pathologique, les mesures del’hémisphère sain, les différences relatives (hémisphère pathologique - hémisphère sain)considérant l’hémisphère sain comme référence.

Pour chaque entité anatomique latéralisée, la table 4.5 fournit les estimations de lamoyenne, de l’écart-type ainsi que des quantiles à 5% et 95% des mesures de perfusion.Sont également représentées les erreurs standard bootstrap (seB) associées à chacun deces estimateurs. Nous n’avons fait figurer sur cette table que les VOIs où l’erreur standardbootstrap d’au moins un de ces estimateurs est supérieure à 1.

Construction d’un modèle théorique de perfusion par une analyse parstandardisation anatomique 179

Tab. 4.3 – Résultats des mesures de perfusion chez les 27 sujets sains (données corrigéesde la diffusion). Moyennes empiriques xi et écarts-type σi des mesures de perfusion xij

estimés au sein de chaque VOI respectivement à partir des mesures de l’hémisphère gauche(xG), à partir des mesures de l’hémisphère droit (xD) et à partir des différences relatives(xDiff = (xG − xD)/xD × 100). La colonne CV indique la moyenne et l’écart-type descoefficients de variation cvij estimés en chaque VOI

Entité anatomique xG(stdG) xD(stdD) xDiff (stdDiff ) en % CV

Cortex 52.1(0.466) 52.8(0.557) -1.33429(1.03) % 0.277(0.0132)

CortexSain 50.8(0.756) 51.5(0.828) -1.29187(1.17) % 0.272(0.0121)

MatBlanche 52.5(0.620) 52.8(0.541) -0.66656(1.35) % 0.235(0.0185)

MatBlancheVOI 37.7(2.920) 36.4(3.316) 4.06319(9.52) % 0.210(0.0472)

Amygdale 55.0(3.152) 54.9(2.833) 0.39666(7.13) % 0.148(0.0234)

Hippocampe 53.2(1.980) 54.7(2.149) -2.48397(5.74) % 0.149(0.0241)

NoyauCaude 52.0(2.635) 51.9(3.347) 0.20519(4.35) % 0.243(0.0415)

NoyauGris 61.1(2.405) 61.8(2.019) -1.12305(3.81) % 0.207(0.0267)

NoyauLenticulaire 63.1(2.410) 63.6(2.458) -0.67586(4.81) % 0.173(0.0209)

Thalamus 58.9(3.525) 59.8(2.679) -1.48866(4.61) % 0.234(0.0397)

Insula 62.1(1.589) 63.0(2.213) -1.27963(4.10) % 0.150(0.0171)

Temporal 53.0(0.972) 53.9(0.814) -1.66011(1.80) % 0.273(0.0185)

TempPole 48.3(2.410) 49.7(2.402) -2.65264(4.48) % 0.271(0.0351)

TemporoMesial 56.1(1.658) 56.7(1.211) -1.07684(2.74) % 0.260(0.0292)

TemporoLateral 53.3(1.748) 54.7(1.670) -2.43153(3.15) % 0.239(0.0247)

TemporoPosterieur 51.7(1.698) 52.7(1.541) -1.85521(2.60) % 0.278(0.0216)

Frontal 51.5(0.996) 52.1(1.043) -1.05852(1.31) % 0.260(0.0133)

FrontalPole 49.3(1.276) 49.3(1.436) -0.00846(1.93) % 0.303(0.0206)

FrontoOrbitaire 54.0(1.492) 55.1(1.794) -2.05238(2.59) % 0.216(0.0182)

FrontoMesial 54.6(2.326) 55.0(1.757) -0.74160(1.68) % 0.215(0.0211)

FrontoLateral 51.1(1.349) 52.1(1.414) -1.95428(2.34) % 0.228(0.0181)

Occipital 51.8(1.380) 51.3(1.634) 1.07566(3.12) % 0.349(0.0273)

OccipitoMesial 56.7(1.574) 56.6(1.537) 0.20236(1.65) % 0.302(0.0278)

OccipitoLateral 44.5(1.879) 43.9(2.181) 1.46346(6.88) % 0.375(0.0325)

Parietal 51.3(0.998) 52.5(1.176) -2.25700(1.68) % 0.257(0.0181)

Cervelet 59.6(2.430) 60.4(2.331) -1.38527(2.23) % 0.291(0.0225)

TroncCerebral 49.6(2.490) 50.6(2.499) -1.88434(4.61) % 0.283(0.0375)

180 4.4 Analyse statistique des mesures de perfusion

Tab. 4.4 – Résultats des mesures de perfusion ictale chez les 10 sujets épileptiques.Moyennes empiriques xi et écarts-type σi des mesures de perfusion xij estimés au seinde chaque VOI respectivement à partir des mesures de l’hémisphère pathologique (xPatho),à partir des mesures de l’hémisphère sain (xSain) et à partir des différences relatives(xDiff = (xPatho − xSain)/xSain × 100). La colonne CV indique la moyenne et l’écart-type des coefficients de variation cvij estimés en chaque VOI

Entité anatomique xPatho(σPatho) xSain(σSain) xDiff (σDiff ) en % CV

Cortex 51.2(1.09) 49.9(0.841) 2.72319(3.28) % 0.261(0.0332)

CortexSain 46.6(1.23) 47.0(1.131) -0.88370(2.69) % 0.259(0.0354)

MatBlanche 53.4(1.52) 52.9(1.868) 0.89392(2.72) % 0.189(0.0144)

MatBlancheVOI 44.3(3.42) 44.4(3.530) 0.00706(6.82) % 0.106(0.0325)

Amygdale 66.2(4.46) 57.4(4.239) 15.81877(10.60) % 0.112(0.0211)

Hippocampe 63.1(2.99) 55.8(3.787) 13.46258(9.46) % 0.118(0.0146)

NoyauCaude 54.0(4.56) 53.5(3.631) 0.97498(4.25) % 0.175(0.0306)

NoyauGris 63.5(2.83) 60.4(4.450) 5.43984(5.46) % 0.162(0.0232)

NoyauLenticulaire 65.5(2.20) 61.5(3.294) 6.81486(5.46) % 0.135(0.0229)

Thalamus 61.1(4.77) 59.1(6.836) 3.95784(7.15) % 0.176(0.0281)

Insula 66.6(2.90) 59.1(2.662) 12.92255(6.99) % 0.117(0.0245)

Temporal 57.6(1.74) 53.4(1.009) 7.81947(4.74) % 0.223(0.0304)

TempPole 62.7(3.40) 51.4(3.468) 22.34423(5.85) % 0.171(0.0363)

TemporoMesial 61.1(1.41) 58.2(1.977) 5.05276(3.04) % 0.185(0.0310)

TemporoLateral 59.7(3.64) 52.5(0.898) 13.78440(7.39) % 0.189(0.0278)

TemporoPosterieur 50.3(3.48) 50.2(1.295) 0.25861(8.31) % 0.252(0.0453)

Frontal 47.9(1.53) 47.8(1.665) 0.21581(3.10) % 0.236(0.0340)

FrontalPole 44.0(1.99) 44.9(2.016) -1.80263(4.53) % 0.254(0.0500)

FrontoOrbitaire 56.3(2.59) 52.1(2.101) 8.16570(4.78) % 0.172(0.0265)

FrontoMesial 50.0(2.17) 50.0(2.477) -0.08935(1.79) % 0.187(0.0207)

FrontoLateral 46.0(2.42) 47.6(1.575) -3.46180(5.37) % 0.231(0.0434)

Occipital 47.3(1.80) 47.8(1.577) -1.14525(4.18) % 0.335(0.0526)

OccipitoMesial 51.3(1.60) 52.6(1.721) -2.45653(2.82) % 0.293(0.0455)

OccipitoLateral 41.5(2.92) 41.2(1.885) 0.83349(7.56) % 0.355(0.0629)

Parietal 45.9(1.88) 47.2(1.684) -2.71452(2.82) % 0.258(0.0395)

Cervelet 62.6(2.45) 60.3(2.031) 3.96372(3.56) % 0.226(0.0351)

TroncCerebral 57.8(2.18) 55.5(2.148) 4.10362(2.39) % 0.182(0.0383)

Construction d’un modèle théorique de perfusion par une analyse parstandardisation anatomique 181

Tab. 4.5 – Précision des statistiques descriptives des mesures de perfusion ictale des10 sujets épileptiques par estimation bootstrap des erreurs standards (B=100) (seules lesentités où l’erreur standard bootstrap d’au moins un des estimateurs est supérieure à 1 sontindiquées)

Entité Anatomique xi(σi) x∗i (.)(seB) σ∗

i (.)(seB) Q(0.05)∗i (.)(seB) Q

(0.95)∗i (.)(seB)

MatBlancheVOI.Patho 44.3(3.419) 44.4(1.065) 3.048(0.800) 40.0(2.151) 47.8(0.837)

MatBlancheVOI.Sain 44.4(3.530) 44.6(1.111) 3.145(0.620) 40.4(1.651) 48.7(1.101)

Amygdale.Patho 66.2(4.460) 66.3(1.404) 4.025(0.671) 60.9(1.724) 71.2(1.110)

Amygdale.Sain 57.4(4.239) 57.5(1.395) 3.801(1.143) 53.3(1.127) 63.0(3.105)

Hippocampe.Patho 63.1(2.991) 63.1(0.912) 2.735(0.492) 59.5(0.865) 66.5(0.797)

Hippocampe.Sain 55.8(3.787) 55.9(1.099) 3.505(0.550) 51.6(0.724) 60.4(1.184)

NoyauCaude.Patho 54.0(4.557) 53.8(1.323) 4.324(0.714) 48.8(1.037) 59.6(1.335)

NoyauCaude.Sain 53.5(3.631) 53.5(1.102) 3.419(0.592) 48.9(1.397) 57.5(0.706)

NoyauGris.Patho 63.5(2.834) 63.5(0.920) 2.658(0.632) 60.4(0.971) 67.2(1.377)

NoyauGris.Sain 60.4(4.450) 60.4(1.269) 4.092(1.029) 53.9(2.580) 64.1(0.322)

NoyauLenticulaire.Patho 65.5(2.204) 65.5(0.702) 2.036(0.330) 63.1(0.575) 68.1(0.642)

NoyauLenticulaire.Sain 61.5(3.294) 61.3(1.078) 3.085(0.732) 56.8(1.736) 64.4(0.369)

Thalamus.Patho 61.1(4.766) 61.0(1.474) 4.335(0.989) 56.4(0.750) 67.3(2.246)

Thalamus.Sain 59.1(6.836) 59.7(1.837) 6.134(1.220) 51.0(3.469) 67.0(1.342)

TempPole.Patho 62.7(3.398) 62.8(1.026) 3.185(0.652) 59.4(0.603) 67.6(1.647)

TempPole.Sain 51.4(3.468) 51.3(0.879) 3.288(0.694) 47.4(1.117) 55.9(1.714)

TemporoLateral.Patho 59.7(3.638) 59.5(1.080) 3.327(0.774) 54.7(1.851) 63.6(1.371)

TemporoLateral.Sain 52.5(0.898) 52.5(0.242) 0.838(0.135) 51.4(0.192) 53.5(0.272)

TemporoPosterieur.Patho 50.3(3.484) 50.2(1.165) 3.217(0.429) 46.2(0.721) 53.9(0.639)

TemporoPosterieur.Sain 50.2(1.295) 50.2(0.391) 1.182(0.294) 48.8(0.383) 51.9(0.720)

182 4.4 Analyse statistique des mesures de perfusion

4.4.3 Phase 2 : Effet de la localisation anatomique

L’objectif de cette analyse est d’extraire une structure de groupe explicative à l’en-semble des mesures réalisées au sein d’une population. Nous cherchons à étudier si ledécoupage des mesures en différents VOIs permet d’expliquer correctement les mesures,et quelles sont les structures anatomiques présentant une perfusion significativement diffé-rente de la perfusion cérébrale moyenne.

4.4.3.1 Méthode : analyse de la variance (ANOVA)

L’effet de la localisation anatomique Anat sur les mesures a donc été étudié par uneanalyse de la variance, ce qui revient à poser le modèle linéaire suivant sur les données :

xij = µ + αi + ǫij avec i ∈< 1,Na > et ǫij ∼ N (0,σ2Id) (4.21)

µ désigne la moyenne globale de toutes les mesures, αi l’effet spécifique de la iieme entitéanatomique ou VOI et ǫij désigne une perturbation des mesures modélisée par un bruitgaussien centré, indépendant et d’écart-type σ. Ce modèle s’écrit sous la forme matriciellesuivante :

x = Lδ + ǫ avec δ =

α1

α2...

αNa

µ

(4.22)

x est un vecteur ligne de taille N = n×Na comprenant toutes les mesures xij , et L est unematrice à N lignes et Na + 1 colonnes remplie de 0 ou de 1 indiquant l’appartenance dechaque mesure xij au iieme VOI. La dernière colonne de L est remplie de 1. L’estimateurdu vecteur de paramètres δ est obtenu en minimisant l’erreur quadratique entre les valeursmesurées et celles prédites par le modèle. Or vu que la matrice L n’est pas de rang plein,on impose la contrainte α1 = 0. Le modèle linéaire s’écrit alors :

x = L∗δ∗ + ǫ avec δ∗ =

α2...

αNa

µ

avec la contrainte α1 = 0 (4.23)

L∗ étant de rang plein, l’estimateur δ∗ des moindres carrés s’écrit :

δ∗ = (L′∗L∗)−1L′∗x (4.24)

Les mesures prédites par le modèle s’écrivent donc :

x = L∗δ∗ (4.25)

Il s’en suit l’expression des résidus de cet ajustement :

e = x − L∗δ∗ (4.26)

Construction d’un modèle théorique de perfusion par une analyse parstandardisation anatomique 183

Dans notre cas, la première modalité de la variable Anat correspond au VOI Cortex del’hémisphère droit pour les sujets sains (Cortex.Droit) et au VOI Cortex de l’hémisphèrepathologique pour les sujets épileptiques (Cortex.Patho). L’estimateur de la moyenne gé-nérale µ correspond à l’estimation de la perfusion moyenne dans ce VOI Cortex.Droit,respectivement Cortex.Patho (vu la contrainte α1 = 0). Chaque paramètre αi correspondalors à un estimateur de l’écart entre la perfusion moyenne du cortex de l’hémisphèreconsidéré et la perfusion mesurée au sein du iieme VOI.

Tests statistiques sur la pertinence du modèle et des paramètres estimés Enrégression linéaire et donc en analyse de la variance, tester si le modèle linéaire est globa-lement bien posé revient à poser le test d’hypothèses suivant :

H0 : α2 = · · · = αNa = 0H1 : ∃i ∈< 2,Na > tel que αi 6= 0

(4.27)

Pour cela on calcule la statistique de Fisher F , qui sous l’hypothèse H0 suit une loi deFisher F à (Na − 1) , (N − Na) degrés de libertés.

F =

(∑i,j(xij − x)2 −∑i,j (eij)

2)

/(Na − 1)∑

i,j (eij)2/(N − Na)(4.28)

=

∑i n(xi − x)2/(Na − 1)∑

i,j (xij − xi)2/(N − Na)(4.29)

avec x =1

N

i,j

xij

F correspond donc au rapport pondéré par les degrés de liberté de la variance inter-classesur la variance intra-classe, et doit être “grand” si la variable Anat a un effet sur lesmesures de perfusion. Le test de Fisher, ou test ANOVA, est réalisé en estimant la pvalue :ProbH0(F(Na−1),(N−Na) ≥ F ). Si cette pvalue est inférieure à un seuil d’erreur de premièreespèce fixé, on rejette H0, et donc il y a bien un effet de la variable Anat sur les mesures.Nous introduisons également un critère de qualité de la régression, il s’agit du coefficientde détermination ajusté R2

ajust défini par :

R2ajust = 1 −

∑i,j (eij)

2/(N − Na)(∑

i,j(xij − x)2)

/(N − 1)(4.30)

Il est possible de tester la non nullité de ce coefficient, mais nous nous sommes limités àl’heuristique précisant que plus ce coefficient est proche de 1, meilleur est l’ajustement, i.e.mieux le modèle explique les mesures.

Après avoir testé la pertinence du modèle dans sa globalité, on teste la non-nullité dechacun des paramètres estimés à l’aide d’un test de Student. En effet si on “studentise” lesparamètres estimés, on a la propriété :

ti =(αi − αi)

σ√

(L′∗L∗)−1ii

∼ TN−Na avec σ2 =1

N − Na

i,j

(eij)2 (4.31)

184 4.4 Analyse statistique des mesures de perfusion

σ2 désigne l’estimateur sans biais de la variance des résidus σ2, et (L′∗L∗)−1ii désigne le

iieme terme diagonal de (L′∗L∗)−1. TN−Na désigne la loi de Student à (N −Na) degrés delibertés. On a utilisé la propriété (4.31) pour tester successivement la nullité de chacun desαi et de µ, en calculant la p-value du test de Student : ProbH0(T(N−Na) ≥ |ti|).

Vérification des hypothèses de gaussiennité et d’homoscédasticité des résidusLes hypothèses posées par le modèle linéaire à savoir la gaussiennité et l’indépendance desrésidus (i.e. ǫij ∼ N (0,σ2Id)) ont été vérifiées qualitativement. La méthode des droites deHenry permet une vérification graphique de la gaussiennité des résidus en représentant lesquantiles de la distribution empirique des résidus en fonction de ceux de la loi normalecentrée réduite (cf. graphiques dénommés “q-q plot”).

On vérifie également la propriété d’homoscédasticité, à savoir que la variance des résidusσ ne dépend pas des régresseurs δ∗. Pour cela les résidus, ou les résidus dits “studentisés”,ont été représentés en fonction des valeurs prédites par le modèle x. On vérifie ainsi gra-phiquement s’il existe ou non une dépendance entre la variance des résidus et les valeursprédites par le modèle.

Finalement, pour chaque observation xij a été évaluée la distance dite de Cook quireprésente l’influence de l’observation en question sur l’estimation des paramètres δ∗ (voire[Lebart 79]). Ces différentes représentations permettent d’éliminer de l’analyse d’éven-tuelles observations xij déviantes ou jouant un rôle trop influant dans la déterminationde la régression.

Analyse Bootstrap des paramètres estimés par l’analyse de la variance Enraison du faible nombre d’échantillon disponible pour chaque modalité de Anat, la signi-ficativité des tests présentés précédemment a été également estimée par une méthode nonparamétrique basée sur le rééchantillonnage bootstrap. En effet, dans ces conditions, lapropriété (4.31) permettant de tester la non-nullité des paramètres à l’aide d’un test deStudent peut être critiquée. Pour chacun des paramètres αi et µ, un intervalle de confiancede niveau 1 − 2α de ti a été estimé par des méthodes non paramétriques. Ainsi, si 0 n’ap-partient pas à cet intervalle de confiance, on rejette l’hypothèse H0 de nullité du paramètreen question en tolérant un erreur de première espèce α.

Le rééchantillonnage bootstrap des données a été réalisé par tirage avec remise dans laliste des examens TEMP étudiés. Pour chaque nouvelle liste rééchantillonnée d’examensTEMP, on met en œuvre de la même façon l’analyse de la variance, et on en déduitun réplicat de chacun de ti, que l’on notera t∗i (b) pour b ∈< 1,B >. Trois méthodesd’estimation bootstrap des intervalles de confiance (IC) des ti ont été envisagées :

– IC standard basé sur la loi normale :

[Normlow,Normup] = [ti − z(1−α)seB,ti − z(α)seB] (4.32)

Avec seB l’estimateur bootstrap de l’erreur standard de ti estimée par (4.20), z(α) leαieme quantile de la loi normale centrée réduite.

– IC dit “basique” : Il s’agit de l’IC dit du bootstrap-t, pour lequel on utilise le pi-vôt z∗i (b) = t∗i (b) − ti, i.e., on suppose une erreur standard constante et égale à 1.L’intervalle de confiance s’écrit alors :

[Baslow,Basup] = [2ti − Q(1−α)i ,2ti − Q

(α)i ] (4.33)

Construction d’un modèle théorique de perfusion par une analyse parstandardisation anatomique 185

Avec Q(α)i désignant le αieme quantile de la distribution empirique des z∗i (b) (b ∈<

1,B >).

– IC estimé par la méthode des percentiles :

[Perclow,Percup] = [Q(α)i ,Q

(1−α)i ] (4.34)

Avec Q(α)i désignant cette fois le αieme quantile de la distribution empirique des t∗i (b)

(b ∈< 1,B >).

4.4.3.2 Résultats

4.4.3.3 Analyse de la variance de la perfusion chez les sujets sains en fonctiondes VOIs

L’analyse de la variance a montré un effet très significatif de la localisation anatomique(facteur Anat) sur la mesure de perfusion (F = 202.99, p − value < 0.001, R2

ajust =0.88). Les hypothèses de gaussiennité, d’indépendance et d’homoscédasticité des résidusposées par le modèle linéaire sont vérifiées graphiquement (cf. figure 4.14), et le nombred’observations considérées comme aberrantes est négligeable (cf. distances de Cook). Lesrésultats des tests de Student de la non-nullité des paramètres estimés αi ainsi que lesdifférents intervalles de confiance bootstrap de niveau 0.99 des ti sont fournis par la table4.6. Nous n’avons fait figurer que les structures présentant une perfusion significativementdifférente de la moyenne globale considérée par l’ANOVA (i.e. la mesure moyenne du VOICortex.Right). Dans tous les cas, le test de Student sur la non-nullité des ti était concordantavec les résultats des intervalles de confiance bootstrap.

40 45 50 55 60

−10

−5

05

10

Fitted values

Res

idua

ls

Residuals vs Fitted

1216541

851

−3 −2 −1 0 1 2 3

−4

−2

02

46

Theoretical Quantiles

Sta

ndar

dize

d re

sidu

als

Normal Q−Q plot

1216541

851

40 45 50 55 60

0.0

0.5

1.0

1.5

2.0

Fitted values

Sta

nd

ard

ize

d r

esi

du

als

Scale−Location plot1216

541851

0 500 1000 1500

0.00

00.

005

0.01

00.

015

0.02

0

Obs. number

Coo

k’s

dist

ance

Cook’s distance plot

1216

541

851

Fig. 4.14 – Analyse graphique des résidus de l’analyse de la variance à partir du facteurAnat des mesures de perfusion corrigées du diffusé des 27 sujets sains

186 4.4 Analyse statistique des mesures de perfusion

Tab. 4.6 – Analyse statistique des paramètres estimés par l’analyse de variance, tests deStudent et intervalles de confiance bootstrap de niveau 0.99 (B = 2000) (analyse des don-nées corrigées du diffusé des 27 sujets sains)

Régresseur Estimation αi(se) ti Prob(> |ti|) [Normlow,Normup] [Baslow,Basup] [Perclow,Percup]

CortexSain.Gauche -1.9320(0.538) -3.589 3.43e-04 (-2.275 , -1.5844) (-2.262 , -1.564) (-2.300 , -1.6019)

MatBlancheVOI.Droit -16.3751(0.538) -30.418 0.00e+00 (-18.006 , -14.7017) (-18.001 , -14.648) (-18.102 , -14.7490)

MatBlancheVOI.Gauche -15.0869(0.538) -28.025 0.00e+00 (-16.623 , -13.5251) (-16.516 , -13.649) (-16.525 , -13.6578)

Amygdale.Droit 2.1558(0.538) 4.005 6.54e-05 (0.761 , 3.5446) (0.648 , 3.453) (0.859 , 3.6633)

Amygdale.Gauche 2.2592(0.538) 4.197 2.88e-05 (0.598 , 3.9198) (0.501 , 3.787) (0.732 , 4.0175)

Hippocampe.Droit 1.9305(0.538) 3.586 3.47e-04 (0.858 , 3.0232) (0.774 , 3.012) (0.848 , 3.0868)

NoyauGris.Droit 9.0563(0.538) 16.823 0.00e+00 (8.069 , 10.0807) (8.117 , 10.156) (7.957 , 9.9960)

NoyauGris.Gauche 8.3321(0.538) 15.478 0.00e+00 (7.100 , 9.5857) (7.061 , 9.579) (7.085 , 9.6037)

NoyauLenticulaire.Droit 10.8668(0.538) 20.186 0.00e+00 (9.665 , 12.0901) (9.719 , 12.069) (9.665 , 12.0142)

NoyauLenticulaire.Gauche 10.3642(0.538) 19.253 0.00e+00 (9.126 , 11.5970) (9.153 , 11.634) (9.094 , 11.5754)

Thalamus.Droit 7.0115(0.538) 13.025 0.00e+00 (5.721 , 8.3586) (5.804 , 8.405) (5.618 , 8.2193)

Thalamus.Gauche 6.1047(0.538) 11.340 0.00e+00 (4.386 , 7.8783) (4.385 , 7.811) (4.398 , 7.8245)

Insula.Droit 10.2061(0.538) 18.959 0.00e+00 (9.217 , 11.2092) (9.132 , 11.158) (9.254 , 11.2802)

Insula.Gauche 9.3314(0.538) 17.334 0.00e+00 (8.529 , 10.1200) (8.510 , 10.180) (8.483 , 10.1532)

TempPole.Droit -3.1066(0.538) -5.771 9.70e-09 (-4.220 , -2.0159) (-4.286 , -2.052) (-4.161 , -1.9273)

TempPole.Gauche -4.4665(0.538) -8.297 2.22e-16 (-5.684 , -3.2878) (-5.554 , -3.301) (-5.632 , -3.3791)

TemporoMesial.Droit 3.9510(0.538) 7.339 3.62e-13 (3.269 , 4.6394) (3.224 , 4.623) (3.279 , 4.6777)

TemporoMesial.Gauche 3.3302(0.538) 6.186 8.07e-10 (2.383 , 4.2780) (2.247 , 4.203) (2.458 , 4.4130)

TemporoLateral.Droit 1.9001(0.538) 3.530 4.30e-04 (1.208 , 2.5594) (1.161 , 2.544) (1.256 , 2.6390)

FrontalPole.Droit -3.4719(0.538) -6.449 1.54e-10 (-4.073 , -2.8784) (-4.095 , -2.918) (-4.026 , -2.8491)

FrontalPole.Gauche -3.4893(0.538) -6.482 1.25e-10 (-4.072 , -2.9074) (-4.082 , -2.889) (-4.089 , -2.8964)

FrontoOrbitaire.Droit 2.3870(0.538) 4.434 9.96e-06 (1.609 , 3.1685) (1.600 , 3.152) (1.622 , 3.1738)

FrontoMesial.Droit 2.2081(0.538) 4.102 4.33e-05 (1.319 , 3.1028) (1.358 , 3.191) (1.225 , 3.0587)

FrontoMesial.Gauche 1.8137(0.538) 3.369 7.74e-04 (0.662 , 2.9702) (0.651 , 3.088) (0.540 , 2.9763)

FrontoLateral.Gauche -1.6769(0.538) -3.115 1.88e-03 (-2.268 , -1.0867) (-2.254 , -1.092) (-2.262 , -1.1002)

Occipital.Droit -1.5079(0.538) -2.801 5.16e-03 (-2.235 , -0.7733) (-2.215 , -0.781) (-2.235 , -0.8012)

OccipitoMesial.Droit 3.8789(0.538) 7.205 9.41e-13 (3.210 , 4.5516) (3.200 , 4.573) (3.185 , 4.5579)

OccipitoMesial.Gauche 3.9871(0.538) 7.407 2.23e-13 (3.307 , 4.6750) (3.355 , 4.695) (3.279 , 4.6190)

OccipitoLateral.Droit -8.8271(0.538) -16.397 0.00e+00 (-9.836 , -7.8053) (-9.878 , -7.837) (-9.817 , -7.7763)

OccipitoLateral.Gauche -8.2970(0.538) -15.412 0.00e+00 (-9.204 , -7.3738) (-9.172 , -7.328) (-9.266 , -7.4224)

Parietal.Gauche -1.4941(0.538) -2.776 5.58e-03 (-1.938 , -1.0451) (-1.934 , -1.035) (-1.954 , -1.0543)

Cervelet.Droit 7.6845(0.538) 14.275 0.00e+00 (6.445 , 8.9318) (6.417 , 8.968) (6.400 , 8.9522)

Cervelet.Gauche 6.8376(0.538) 12.702 0.00e+00 (5.575 , 8.1201) (5.586 , 8.156) (5.519 , 8.0895)

Construction d’un modèle théorique de perfusion par une analyse parstandardisation anatomique 187

4.4.3.4 Analyse de la variance de la perfusion ictale chez les sujets épilep-tiques en fonction des VOIs

L’analyse de la variance, a montré un effet très significatif de la localisation anatomique(facteur Anat) sur la mesure de perfusion (F−statistic = 59.78, p−value < 0.001, R2

ajust =0.85). Les hypothèses de gaussiennité, d’indépendance et d’homoscédasticité des résidusposées par le modèle linéaire sont vérifiées graphiquement (cf. figure 4.15), et le nombred’observations considérées comme aberrantes est négligeable (cf. distances de Cook). Lesrésultats des tests de Student de la non-nullité des paramètres estimés αi ainsi que lesdifférents intervalles de confiance bootstrap de niveau 0.99 des ti sont fournis par la table4.7. Nous n’avons fait figurer que les structures présentant une perfusion significativementdifférente de la moyenne globale considérée par l’ANOVA (i.e. la mesure moyenne du VOICortex.Patho). Dans tous les cas, le test de Student sur la non-nullité des ti était concordantavec les résultats des intervalles de confiance bootstrap.

45 50 55 60 65

−15

−10

−5

05

10

Fitted values

Res

idua

ls

Residuals vs Fitted

53

42

55

−3 −2 −1 0 1 2 3

−4

−2

02

4

Theoretical Quantiles

Sta

ndar

dize

d re

sidu

als

Normal Q−Q plot

53

42

55

45 50 55 60 65

0.0

0.5

1.0

1.5

2.0

Fitted values

Sta

nd

ard

ize

d r

esi

du

als

Scale−Location plot53

4255

0 100 200 300 400 500

0.00

0.02

0.04

Obs. number

Coo

k’s

dist

ance

Cook’s distance plot

53

4255

Fig. 4.15 – Analyse graphique des résidus de l’analyse de la variance à partir du facteurAnat des mesures de perfusion ictale des 10 sujets épileptiques

188 4.4 Analyse statistique des mesures de perfusion

Tab. 4.7 – Analyse statistique des paramètres estimés par l’analyse de variance, tests deStudent et intervalles de confiance bootstrap de niveau 0.99 (B = 2000) (analyse des don-nées de perfusion ictale des 10 sujets épileptiques)

Régresseur Estimation αi(se) ti Prob(> |ti|) [Normlow,Normup] [Baslow,Basup] [Perclow,Percup]

CortexSain.Patho -4.664(1.236) -3.7746 1.80e-04 (-5.2428 , -4.0696) (-5.27285 , -4.088) (-5.2397 , -4.0554)

CortexSain.Sain -4.235(1.236) -3.4277 6.60e-04 (-5.4770 , -2.9568) (-5.55113 , -2.940) (-5.5308 , -2.9197)

MatBlancheVOI.Patho -6.913(1.236) -5.5948 3.69e-08 (-9.7971 , -4.0390) (-9.40735 , -3.725) (-10.1017 , -4.4192)

MatBlancheVOI.Sain -6.820(1.236) -5.5195 5.54e-08 (-9.7144 , -3.9146) (-9.24033 , -3.601) (-10.0392 , -4.3999)

Amygdale.Patho 14.971(1.236) 12.1156 0.00e+00 (11.0859 , 18.8583) (11.19626 , 19.353) (10.5883 , 18.7450)

Amygdale.Sain 6.158(1.236) 4.9836 8.69e-07 (2.7295 , 9.6179) (2.33416 , 9.213) (3.1027 , 9.9818)

Hippocampe.Patho 11.844(1.236) 9.5856 0.00e+00 (9.2649 , 14.4659) (9.57461 , 14.470) (9.2186 , 14.1142)

Hippocampe.Sain 4.589(1.236) 3.7140 2.28e-04 (1.3040 , 7.9494) (0.91545 , 7.836) (1.3420 , 8.2628)

NoyauGris.Patho 12.258(1.236) 9.9199 0.00e+00 (9.7956 , 14.7710) (9.92420 , 14.637) (9.8781 , 14.5909)

NoyauGris.Sain 9.156(1.236) 7.4096 5.66e-13 (5.4836 , 12.9192) (6.05746 , 13.143) (5.1682 , 12.2538)

NoyauLenticulaire.Patho 14.316(1.236) 11.5862 0.00e+00 (12.5261 , 16.1016) (12.58892 , 16.176) (12.4569 , 16.0440)

NoyauLenticulaire.Sain 10.258(1.236) 8.3014 1.11e-15 (7.4964 , 13.0660) (7.66439 , 13.177) (7.3385 , 12.8508)

Thalamus.Patho 9.906(1.236) 8.0170 8.22e-15 (5.9074 , 14.0249) (5.84938 , 13.630) (6.1826 , 13.9631)

Thalamus.Sain 7.910(1.236) 6.4018 3.62e-10 (2.3890 , 13.5780) (2.77913 , 13.636) (2.1843 , 13.0416)

Insula.Patho 15.359(1.236) 12.4297 0.00e+00 (13.5469 , 17.1247) (13.56431 , 17.161) (13.5561 , 17.1532)

Insula.Sain 7.846(1.236) 6.3498 4.96e-10 (5.7718 , 9.9659) (5.95411 , 10.063) (5.6290 , 9.7381)

Temporal.Patho 6.365(1.236) 5.1512 3.77e-07 (5.4753 , 7.2317) (5.47112 , 7.293) (5.4367 , 7.2590)

TempPole.Patho 11.505(1.236) 9.3110 0.00e+00 (8.7440 , 14.2986) (8.72230 , 14.134) (8.8766 , 14.2879)

TemporoMesial.Patho 9.881(1.236) 7.9964 9.33e-15 (8.3673 , 11.4152) (8.44016 , 11.455) (8.3065 , 11.3213)

TemporoMesial.Sain 6.980(1.236) 5.6492 2.75e-08 (4.9559 , 9.0642) (4.99761 , 9.172) (4.7886 , 8.9633)

TemporoLateral.Patho 8.444(1.236) 6.8335 2.49e-11 (6.2765 , 10.5573) (6.20326 , 10.598) (6.2898 , 10.6843)

Frontal.Patho -3.357(1.236) -2.7168 6.83e-03 (-4.3392 , -2.3519) (-4.30747 , -2.353) (-4.3614 , -2.4066)

Frontal.Sain -3.434(1.236) -2.7795 5.66e-03 (-4.9248 , -1.8957) (-4.89876 , -1.796) (-5.0725 , -1.9701)

FrontalPole.Patho -7.219(1.236) -5.8421 9.45e-09 (-8.5765 , -5.8324) (-8.56668 , -5.905) (-8.5322 , -5.8710)

FrontalPole.Sain -6.369(1.236) -5.1540 3.72e-07 (-8.0563 , -4.6204) (-8.07310 , -4.626) (-8.1115 , -4.6639)

FrontoOrbitaire.Patho 5.069(1.236) 4.1022 4.80e-05 (2.9921 , 7.1323) (3.07976 , 7.150) (2.9877 , 7.0581)

FrontoLateral.Patho -5.258(1.236) -4.2555 2.50e-05 (-6.7204 , -3.7763) (-6.39718 , -3.656) (-6.8609 , -4.1194)

FrontoLateral.Sain -3.581(1.236) -2.8982 3.92e-03 (-5.1720 , -1.9617) (-5.24954 , -1.937) (-5.2250 , -1.9128)

Occipital.Patho -3.962(1.236) -3.2066 1.43e-03 (-5.1544 , -2.7630) (-5.12393 , -2.691) (-5.2332 , -2.8005)

Occipital.Sain -3.383(1.236) -2.7382 6.40e-03 (-5.0732 , -1.6761) (-5.04317 , -1.782) (-4.9850 , -1.7238)

OccipitoLateral.Patho -9.716(1.236) -7.8633 2.44e-14 (-11.6972 , -7.7322) (-11.55370 , -7.533) (-11.8996 , -7.8790)

OccipitoLateral.Sain -10.007(1.236) -8.0990 4.44e-15 (-11.9801 , -8.0045) (-12.04894 , -8.156) (-11.8593 , -7.9660)

Parietal.Patho -5.313(1.236) -4.3000 2.07e-05 (-6.5301 , -4.0871) (-6.56003 , -4.227) (-6.3993 , -4.0665)

Parietal.Sain -4.022(1.236) -3.2548 1.21e-03 (-5.5865 , -2.4341) (-5.60370 , -2.497) (-5.5464 , -2.4398)

Cervelet.Patho 11.394(1.236) 9.2211 0.00e+00 (9.5175 , 13.2475) (9.38958 , 13.164) (9.6240 , 13.3985)

Cervelet.Sain 9.030(1.236) 7.3076 1.12e-12 (6.9993 , 11.0612) (7.34214 , 11.144) (6.9148 , 10.7170)

Construction d’un modèle théorique de perfusion par une analyse parstandardisation anatomique 189

4.4.4 Phase 2 (suite) : comparaison inter-hémisphérique

Nous cherchons à présent à identifier les structures anatomiques qui sont le siège d’asy-métries relatives inter-hémisphériques de perfusion chez les sujets sains, mais égalementchez les sujets épileptiques en condition ictale et inter-ictale. Rappelons qu’en pratiqueclinique le diagnostic d’une anomalie fonctionnelle est en partie posé par l’étude visuellede telles asymétries. La zone pathologique en TEMP ictale est en effet généralement ca-ractérisée par une hyperperfusion, alors qu’il s’agit plutôt d’une légère hypoperfusion enTEMP inter-ictale [Duncan 97b].

4.4.4.1 Méthode : test t standard et bootstrapé

Une étude quantitative de la variabilité inter-hémisphérique des mesures de perfusion adonc été réalisée en testant pour chaque entité anatomique, ou VOI, l’égalité des moyennesdes mesures de perfusion dans chacun des hémisphères. Les mesures ont donc été considé-rées comme appariées. La significativité de ces tests statistiques a été évaluée par l’approcheclassique du test de Student mais aussi à partir de méthodes non paramétriques basées surle rééchantillonnage bootstrap.

Dans le cas de mesures dites appariées, deux mesures de perfusion sont obtenues pourchaque échantillon. Ainsi, pour chaque entité anatomique i, on dispose de n couples demesures (xij ,yij) correspondant aux mesures de perfusion sur chacun des hémisphères. Ons’intéresse alors à la distribution des différences dij = xij−yij et on pose le test d’hypothèsesuivant :

H0 : la différence est de moyenne nulle E[di] = 0H1 : la différence est de moyenne non-nulle E[di] 6= 0

(4.35)

E[di] désigne l’espérance mathématique de la variable aléatoire di pour le VOI i. Pour cela,on calcule la statistique t(di) :

t(di) =di

σi(d)/√

nqui sous l’hypothèse H0 suit Tn−1 (4.36)

Le test de Student est réalisé en estimant la pvalue ou “Achieving Significant Level”, i.e.,ASL = ProbH0(Tn−1 ≥ |t(di)|). Si cette pvalue est inférieure à un seuil d’erreur de premièreespèce fixé, on rejette H0, i.e., la différence de perfusion di correspondant à la iieme entitéanatomique est en moyenne significativement non nulle. Afin de corriger des comparaisonsmultiples, nous avons appliqué une correction de Bonferroni qui revient à diviser le seuild’erreur de première espèce par le nombre de tests effectués. Ainsi, si on considère unseuil de première espèce de 0.05, la correction revient à comparer la pvalue du test au seuil0.05/(Na/2) = 0.05/27 = 0.0018. Les VOIs pour lesquelles la pvalue du test sera inférieureà 0.002 seront donc considérées comme significativement asymétriques. Rappelons que cettecorrection de Bonferroni rend le test très conservateur, si bien qu’on peut accorder unegrande confiance aux asymétries ainsi détectées.

Pour chaque entité anatomique i, le même test d’hypothèse a été réalisé sans poserd’hypothèses quant à la nature des lois régissant ce phénomène, à partir d’une méthodenon paramétrique utilisant le rééchantillonnage bootstrap. Le principe est de construire àpartir des dij un échantillon qui suit H0, c’est à dire qui est d’espérance mathématique

190 4.4 Analyse statistique des mesures de perfusion

nulle. Pour cela, on introduit dij = dij− di pour j allant de 1 à n. On attribue la probabilité1/n à chacun des dij , ainsi E[di] ≡ 1/n

∑j dij = 0 par définition de la distribution des dij .

Cet échantillon vérifie donc bien l’hypothèse H0. Par tirage avec remise parmi les dij , ongénère B rééchantillonnages d∗i (b) de taille n. Pour chacun de ces échantillons, on évalueun réplicat t(d∗i (b)). La distribution des t(d∗i (b)) (b ∈< 1,B >) décrit ainsi la distributionH0. Le niveau de significativité du test, ou Achieving Significant Level (ASL), est alorsestimé de la façon suivante :

ASLboot =#(t(d∗i (b)) ≥ |t(di)|)

B(4.37)

4.4.4.2 Résultats

4.4.4.3 Analyse des asymétries inter-hémisphériques de la perfusion chez lessujets sains

La figure 4.16 présente la distribution des différences relatives de perfusion (hémisphèredroit - hémisphère gauche) conditionnellement à la variable Anat. L’allure de la distribu-tion globale de toutes ces mesures de différences relatives est présentée sur la figure 4.17.Pour chaque VOI, la table 4.8 présente les résultats des tests de comparaison de moyennesqui ont consisté en un test de Student standard de même qu’une estimation bootstrapde la pvalue du test, en considérant les mesures comme étant appariées. On trouve unebonne concordance entre les approches standard par test de Student et les approches parrééchantillonnage bootstrap. On observe de manière assez homogène une asymétrie inter-hémisphérique sur toutes les mesures de perfusion chez les sujets sains. Il s’agit d’une légèrehyperperfusion de la plupart des structures de l’hémisphère droit, elle est de l’ordre de 1à 2 % et a été jugée significativement différentes de 0 par les approches paramétriques etnon paramétriques. Si on applique la correction de Bonferroni (seuil de pvalue à 0.002), onobserve que cette hyperperfusion intéresse les VOIs : Cortex, CortexSain, Temporal, Tem-poroMesial, TemporoPost, Frontal, FrontoOrbitaire, FrontoLateral, Parietal et Cervelet.

Construction d’un modèle théorique de perfusion par une analyse parstandardisation anatomique 191

Tab. 4.8 – Analyse des différences hémisphère droit versus hémisphère gauche des mesurescorrigées en diffusé des 27 sujets sains, tests de Student standard et bootstrapés (B=2000)

Entité anatomique Différence en % xdroit(σdroit) xgauche(σgauche) Analyse appariéeti(d) (Pr(> |ti(d)|) ASLboot

Cortex 1.3592% 52.8(0.557) 52.1(0.466) 6.7181 3.96e-07 0.0000

CortexSain 1.3176% 51.5(0.828) 50.8(0.756) 5.7168 5.13e-06 0.0000

MatBlanche 0.6782% 52.8(0.541) 52.5(0.620) 2.5974 1.53e-02 0.0100

MatBlancheVOI -3.4193% 36.4(3.316) 37.7(2.920) -2.0514 5.04e-02 0.0415

Amygdale -0.1879% 54.9(2.833) 55.0(3.152) -0.1354 8.93e-01 0.4565

Hippocampe 2.7277% 54.7(2.149) 53.2(1.980) 2.3425 2.71e-02 0.0125

NoyauCaude -0.0326% 51.9(3.347) 52.0(2.635) -0.0403 9.68e-01 0.4785

NoyauGris 1.1854% 61.8(2.019) 61.1(2.405) 1.5886 1.24e-01 0.0565

NoyauLenticulaire 0.7963% 63.6(2.458) 63.1(2.410) 0.8506 4.03e-01 0.1900

Thalamus 1.5405% 59.8(2.679) 58.9(3.525) 1.6941 1.02e-01 0.0460

Insula 1.4088% 63.0(2.213) 62.1(1.589) 1.7124 9.87e-02 0.0420

Temporal 1.6994% 53.9(0.814) 53.0(0.972) 4.7814 5.98e-05 0.0000

TempPole 2.8160% 49.7(2.402) 48.3(2.410) 3.2408 3.26e-03 0.0085

TemporoMesial 1.1067% 56.7(1.211) 56.1(1.658) 2.0526 5.03e-02 0.0300

TemporoLateral 2.5365% 54.7(1.670) 53.3(1.748) 4.0212 4.42e-04 0.0015

TemporoPosterieur 1.9141% 52.7(1.541) 51.7(1.698) 3.7334 9.33e-04 0.0000

Frontal 1.0799% 52.1(1.043) 51.5(0.996) 4.2301 2.56e-04 0.0005

FrontalPole 0.0353% 49.3(1.436) 49.3(1.276) 0.0956 9.25e-01 0.4625

FrontoOrbitaire 2.1440% 55.1(1.794) 54.0(1.492) 4.2162 2.65e-04 0.0000

FrontoMesial 0.7227% 55.0(1.757) 54.6(2.326) 2.2179 3.55e-02 0.0150

FrontoLateral 2.0236% 52.1(1.414) 51.1(1.349) 4.3481 1.88e-04 0.0000

Occipital -1.0048% 51.3(1.634) 51.8(1.380) -1.7077 9.96e-02 0.0640

OccipitoMesial -0.1908% 56.6(1.537) 56.7(1.574) -0.6042 5.51e-01 0.2860

OccipitoLateral -1.1922% 43.9(2.181) 44.5(1.879) -0.9134 3.69e-01 0.1655

Parietal 2.3300% 52.5(1.176) 51.3(0.998) 7.0063 1.94e-07 0.0000

Cervelet 1.4210% 60.4(2.331) 59.6(2.430) 3.2230 3.40e-03 0.0005

TroncCerebral 2.0247% 50.6(2.499) 49.6(2.490) 2.2478 3.33e-02 0.0165

192

4.4

Analy

sesta

tistique

des

mesu

res

de

perfu

sion

OccipitoLateral

−10

−20 0 10

Pourcentage

Cortex

CortexSain

MatBlanche

MatBlancheVOI

Amygdale

Hippocampe

NoyauCaude

NoyauGris

NoyauLenticulaire

Thalamus

Insula

Temporal

TempPole

TemporoMesial

TemporoLateral

TemporoPosterieur

Frontal

FrontalPole

FrontoOrbitaire

FrontoMesial

FrontoLateral

Occipital

OccipitoMesial

Parietal

Cervelet

TroncCerebral

Fig

.4.16

–A

nalysede

ladistribution

desdiff

érencesrelatives

deperfusion

(hémisphère

droit-hém

isphèregauche)

conditionnellement

àla

variableA

natsur

lesm

esurescorrigées

endiff

usédes

27sujets

sainsHistogram

of MyV

ar

MyV

ar

Frequency

−20

−10

010

20

0 100 200 300 400

−20 −10 0 10

−30

−20

−10

010

20

0.00 0.02 0.04 0.06 0.08 0.10

density(x = MyV

ar, width = (2 * iqd))

N =

729 Bandw

idth = 1.984

Density

−3

−2

−1

01

23

−20 −10 0 10

Norm

al Q−Q

Plot

Theoretical Q

uantiles

Sample Quantiles

Fig

.4.17

–A

nalysedescriptive

dela

distributionglobale

detoutes

lesdiff

érencesrelatives

deperfusion

(hémisphère

droit-hém

isphèregauche)

estimées

surles

mesures

corrigéesen

diffusé

des27

sujetssains

Construction d’un modèle théorique de perfusion par une analyse parstandardisation anatomique 193

4.4.4.4 Analyse des asymétries inter-hémisphériques de la perfusion ictalechez les sujets épileptiques

La figure 4.18 présente la distribution des différences relatives de perfusion (hémisphèrepathologique - hémisphère sain) conditionnellement à la variable Anat. L’allure de la distri-bution globale de toutes ces mesures de différences relatives est présentée sur la figure 4.19.Pour chaque VOI, la table 4.9 présente les résultats de tests de comparaison de moyennesqui ont consisté en un test de Student standard de même qu’une estimation bootstrap dela p-value du test, et ce en considérant les mesures comme étant appariées.

On observe dans ce cas une nette hyperperfusion des structures temporo-mésiales del’hémisphère pathologique pouvant atteindre jusqu’à 20 % en moyenne (cf. TempPole). Sion applique la correction de Bonferroni (seuil de pvalue à 0.002), on observe une hyper-perfusion significativement non nulle dans les VOIs Amygdale, Hippocampe, NoyauLen-ticulaire, Insula, TempPole, TemporoMesial, TemporoLateral, FrontoOrbitaire et Cervelet(ASLboot = 0.004). De même on observe une légère hypoperfusion au sein du lobe Parietalde l’hémisphère pathologique (ASLboot = 0.0055). Même si les asymétries détectées auniveau du cervelet et du lobe Parietal ne passent pas le seuil de la correction de Bonfer-roni, nous tenons quand même à les souligner (sachant le caractère très conservateur de lacorrection de Bonferroni).

Tro

ncC

ereb

ral

Cer

vele

t

Par

ieta

l

Occ

ipito

Late

ral

Occ

ipito

Mes

ial

Occ

ipita

l

Fro

ntoL

ater

al

Fro

ntoM

esia

l

Fro

ntoO

rbita

ire

Fro

ntal

Pol

e

Fro

ntal

Tem

poro

Pos

terie

ur

Tem

poro

Late

ral

Tem

poro

Mes

ial

Tem

pPol

e

Tem

pora

l

Insu

la

Tha

lam

us

Noy

auLe

ntic

ulai

re

Noy

auG

ris

Noy

auC

aude

Hip

poca

mpe

Am

ygda

le

Mat

Bla

nche

VO

I

Mat

Bla

nche

Cor

texS

ain

Cor

tex

−10

0

10

20

30

Pou

rcen

tage

Fig. 4.18 – Analyse de la distribution des différences relatives de perfusion (hémisphèrepathologique - hémisphère sain) conditionnellement à la variable Anat sur les mesures deperfusion ictale des 10 sujets épileptiques

194 4.4 Analyse statistique des mesures de perfusion

Histogram of MyVar

MyVar

Fre

quen

cy

−20 −10 0 10 20 30

020

4060

80

−10

010

2030

−20 0 20 40

0.00

0.01

0.02

0.03

0.04

0.05

density(x = MyVar, width = (2 * iqd))

N = 270 Bandwidth = 4.552

Den

sity

−3 −2 −1 0 1 2 3−

100

1020

30

Normal Q−Q Plot

Theoretical Quantiles

Sam

ple

Qua

ntile

s

Fig. 4.19 – Analyse descriptive de la distribution globale de toutes les différences rela-tives de perfusion (hémisphère pathologique - hémisphère sain) estimées sur les mesures deperfusion ictale des 10 sujets épileptiques

Construction d’un modèle théorique de perfusion par une analyse parstandardisation anatomique 195

Tab. 4.9 – Analyse des différences hémisphère pathologique versus hémisphère sain des me-sures de perfusion ictale des 10 sujets épileptiques, tests de Student standard et bootstrapés(B=2000)

Entité anatomique Différence en % xpatho(σpatho) xsain(σsain) Analyse appariéeti(d) (Pr(> |ti(d)|) ASLboot

Cortex 2.683% 51.2(1.09) 49.9(0.841) 2.6011 2.87e-02 0.0260

CortexSain -0.912% 46.6(1.23) 47.0(1.131) -1.0622 3.16e-01 0.1670

MatBlanche 0.841% 53.4(1.52) 52.9(1.868) 0.9923 3.47e-01 0.1715

MatBlancheVOI -0.210% 44.3(3.42) 44.4(3.530) -0.0991 9.23e-01 0.4450

Amygdale 15.357% 66.2(4.46) 57.4(4.239) 5.1035 6.42e-04 0.0000

Hippocampe 12.999% 63.1(2.99) 55.8(3.787) 4.8130 9.56e-04 0.0000

NoyauCaude 1.002% 54.0(4.56) 53.5(3.631) 0.7138 4.93e-01 0.2265

NoyauGris 5.137% 63.5(2.83) 60.4(4.450) 3.4398 7.39e-03 0.0025

NoyauLenticulaire 6.602% 65.5(2.20) 61.5(3.294) 4.0943 2.70e-03 0.0020

Thalamus 3.375% 61.1(4.77) 59.1(6.836) 1.9070 8.89e-02 0.0065

Insula 12.718% 66.6(2.90) 59.1(2.662) 6.1094 1.77e-04 0.0005

Temporal 7.752% 57.6(1.74) 53.4(1.009) 5.2771 5.09e-04 0.0075

TempPole 22.125% 62.7(3.40) 51.4(3.468) 13.2786 3.24e-07 0.0000

TemporoMesial 4.983% 61.1(1.41) 58.2(1.977) 5.3937 4.37e-04 0.0000

TemporoLateral 13.742% 59.7(3.64) 52.5(0.898) 5.9328 2.20e-04 0.0005

TemporoPosterieur 0.129% 50.3(3.48) 50.2(1.295) 0.0482 9.63e-01 0.4860

Frontal 0.162% 47.9(1.53) 47.8(1.665) 0.1679 8.70e-01 0.4390

FrontalPole -1.896% 44.0(1.99) 44.9(2.016) -1.3571 2.08e-01 0.0675

FrontoOrbitaire 8.094% 56.3(2.59) 52.1(2.101) 5.5587 3.52e-04 0.0010

FrontoMesial -0.132% 50.0(2.17) 50.0(2.477) -0.2375 8.18e-01 0.3990

FrontoLateral -3.520% 46.0(2.42) 47.6(1.575) -2.0649 6.89e-02 0.0275

Occipital -1.210% 47.3(1.80) 47.8(1.577) -0.9012 3.91e-01 0.2460

OccipitoMesial -2.496% 51.3(1.60) 52.6(1.721) -2.7414 2.28e-02 0.0195

OccipitoLateral 0.706% 41.5(2.92) 41.2(1.885) 0.2970 7.73e-01 0.4080

Parietal -2.736% 45.9(1.88) 47.2(1.684) -2.9893 1.52e-02 0.0055

Cervelet 3.924% 62.6(2.45) 60.3(2.031) 3.4724 7.02e-03 0.0040

TroncCerebral 4.075% 57.8(2.18) 55.5(2.148) 5.4797 3.90e-04 0.0000

196 4.4 Analyse statistique des mesures de perfusion

4.4.5 Phase 3 : étude des dépendances statistiques entre structures ana-tomiques

Nous avons donc tout d’abord étudié si les mesures réalisées en chaque VOI permet-taient d’extraire une structure de groupe explicative des mesures, en identifiant notam-ment quels VOIs présentaient une perfusion significativement différente de la perfusioncérébrale moyenne. Nous avons ensuite identifié quels VOIs étaient le siège d’asymétriesinter-hémisphériques de perfusion. Afin de poursuivre notre exploration de la distributionsous-jacente de la perfusion cérébrale du sujet sain ou épileptique, nous allons maintenantétudier la structure des dépendances statistiques, et notamment des corrélations spatiales,entre les mesures de perfusion réalisées en chacun des VOIs. Nous avons pour cela utiliséune analyse factorielle des correspondances.

4.4.5.1 Méthode : Analyse Factorielle des Correspondances (AFC)

De par ses propriétés mathématiques et la richesse de ses interprétations, l’analyse fac-torielle des correspondances est une méthode d’analyse de données reconnue pour étudierla structure des dépendances statistiques entre les modalités de deux variables qualitatives[Lebart 95]. Elle porte sur l’analyse d’une table de contingence N d’effectifs nij correspon-dant à la ventilation des individus selon deux caractères qualitatifs.

Création de la table de contingence : La création d’une table de contingence à partirde nos mesures xij n’est pas immédiate. Afin d’appréhender une certaine variabilité fonc-tionnelle des mesures de perfusion au sein d’une population (sujets sains, sujets épileptiquesen condition ictale ou inter-ictale), les variables qualitatives que l’on cherche à comparerpar l’AFC sont le patient étudié et la localisation anatomique de la mesure, i.e., le VOI.Rappelons que l’analyse des asymétries inter-hémisphériques a mis en évidence quelquescaractéristiques particulièrement pertinentes, vis à vis de la zone pathologique notamment(cf. hyperperfusion intense de regions temporales pathologiques en TEMP ictale). Ainsi,nous avons décidé d’analyser séparément la perfusion de chaque hémisphère de chaquesujet. L’AFC mise en œuvre intéresse donc les deux variables qualitatives suivantes :

– Variable Anatnonlat : elle représente le nom de chacune des entités anatomiques(VOIs) sans tenir compte de la latéralité, elle comprend donc Na/2 = 27 moda-lités. Pour plus de lisibilité dans les représentations graphiques, la table 4.10 indiquela correspondance entre les symboles utilisés et les noms des VOIs.

– Variable SujetLat : elle représente le nom de l’hémisphère de chacun des sujets de lapopulation étudiée. Elle comprend donc 2×n modalités (i.e. 54 pour les sujets sains,20 pour les sujets épileptiques en condition ictale et 12 pour les sujets épileptiques encondition inter-ictale). Dans les représentations graphiques qui suivent, chaque sujetsain étant identifié par un numéro, on fait précéder celui-ci par la lettre ’R’ (right) ou’L’ (left) suivant qu’il s’agisse de l’hémisphère droit ou gauche (par exemple R179 etL179). En ce qui concerne, les sujets épileptiques, nous avons utilisé les 3 premièreslettres du nom de famille suivi de la lettre ’H’ (healthy) ou ’P’ (patho) pour identifiers’il s’agit de l’hémisphère sain ou pathologique (par exemple LecH et LecP).

La table de contingence N utilisée pour l’AFC est alors une matrice de 2n lignesreprésentant les modalités de SujetLat, et de Na/2 colonnes représentant les modalités de

Construction d’un modèle théorique de perfusion par une analyse parstandardisation anatomique 197

Tab. 4.10 – Symboles décrivant les noms des VOIs utilisé pour l’AFC

Symbole AFC Nom du VOI

CORT CortexHCORT CortexSain

MB MatiereBlancheMBv MatiereBlancheVOI

AMYG AmygdaleHIPP HippocampeNCAU NoyauCaudé

BG NoyauGrisNLEN NoyauLenticulaireTHAL ThalamusINS InsulaT Temporal

TP1 TempPoleTM TemporoMésialTL TemporoLatéralTP2 TemporoPostérieurF Frontal

FP FrontalPoleFO FrontoOrbitaireFM FrontoMesialFL FrontoLateral

OCC OccipitalOCCM OccipitoMésialOCCL OccipitoLatéralPAR PariétalCER CerveletTC TroncCérébral

Anatnonlat. Chaque effectif nij n’est autre que la mesure de perfusion xij réalisée à l’aidedu VOI d’indice i sur l’hémisphère du sujet d’indice j.

Il est vrai qu’habituellement les effectifs nij d’une table de contingence sont des entiersreprésentant un nombre d’individu observé dans chaque “case”. Si on néglige l’effet devolume partiel, on pourrait considérer que dans notre cas ces effectifs représentent “lenombre de photons enregistrés dans tel VOI et dans tel hémisphère de tel sujet”.

Mise en œuvre de l’AFC : Nous rappelons brièvement les principes de l’analyse fac-torielle des correspondances. Pour une description plus détaillée, nous renvoyons le lecteurvers [Lebart 95].A partir de la table de contingence N de m1 lignes (m1 = 2n) et m2 colonnes (m2 = Na/2),on définit les tableaux des profils lignes et des profils colonnes par :

198 4.4 Analyse statistique des mesures de perfusion

– Profils lignes :

D−11 N avec D1 =

n1. 0n2.

. . .0 nm1.

et ni. =

m2∑

j=1

nij (4.38)

– Profils colonnes :

ND−12 avec D2 =

n.1 0n.2

. . .0 n.m2

et n.j =

m1∑

i=1

nij (4.39)

L’AFC consiste alors en la réalisation de deux analyses en composantes principales noncentrées, respectivement sur les profils lignes et les profils colonnes. On les définit de lamanière suivante :

– Analyse en composantes principales des profils lignes :

– Tableau de données : D−11 N

– Métrique : nD−12

– Poids : D1/n

– Analyse en composantes principales des profils colonnes :

– Tableau de données : D−12 N′

– Métrique : nD−11

– Poids : D2/n

avec par définition ici : n =∑m1

i=1

∑m2j=1 nij .

Ces deux analyses en composantes principales (ACP) sont duales, elles aboutissent auxmêmes valeurs propres et les facteurs principaux de l’une se déduisent des composantesprincipales de l’autre et inversement. Si on considère l’analyse des profils lignes par exemple,chacun des m1 individus sera en fait l’hémisphère d’un des patients de la populationétudiée. Chaque individu est représenté par un point dans un espace de dimension m2, cesm2 variables correspondent aux différentes structures anatomiques. L’objectif de l’ACPest de caractériser un tel nuage de points en le projetant sur un sous-espace de dimensionnettement plus faible qui maximise l’inertie du nuage projeté. La métrique utilisée pourmesurer la distance entre deux profils lignes (nD−1

2 ) est en fait une métrique du χ2, sibien que l’inertie du nuage n’est autre qu’une mesure de χ2 de l’écart à l’indépendancestatistique entre les deux variables qualitatives SujetLat et Anatnonlat (s’exprimant demanière analogue au critère de similarité défini par l’équation 2.91). Une interprétationanalogue est réalisable en considérant les profils colonnes.

Représentation graphique et classification ascendante hiérarchique : L’analysedes valeurs propres et de leur décroissance permet de sélectionner le sous-espace contenantle plus d’information, i.e. la plus grande inertie projetée. Il est alors possible de représenterles individus par leur projection dans ce sous-espace, les coordonnées de chaque individu

Construction d’un modèle théorique de perfusion par une analyse parstandardisation anatomique 199

dans ce sous-espace étant par construction les composantes principales. Vu la dualité desdeux ACP, les individus projetés seront dans un cas les hémisphères des patients de lapopulation étudiée et dans l’autre cas les entités anatomiques ou VOIs. Vu que la métriqueutilisée est une distance du χ2, deux individus considérés comme proches seront dépendantstatistiquement, sans poser plus d’hypothèses quand à la nature de ce “lien” statistique.Dans le cas extrême où les variables SujetLat et Anatnonlat seraient parfaitement indépen-dantes l’une de l’autre, tous les individus se retrouveraient concentrés à l’intersection desaxes principaux, qui n’est autre que le centre de gravité du nuage.

Pour assister l’analyse de ces résultats, notamment lorsqu’il était nécessaire de retenirplus de deux valeurs propres, nous avons utilisé une classification ascendante hiérarchiquedes individus dans le sous-espace retenu. Les mesures de distance entre individus ont étéréalisées en utilisant encore la distance du χ2. La classification a été réalisée par la méthodede recherche en chaîne des voisins réciproques [Lebart 95].

Toutes les analyses statistiques concernant l’AFC et la classification ascendante hiérar-chique ont été réalisées à l’aide du logiciel BILOGINSERM ( c©1979-1987-1993, INSERM,France).

4.4.5.2 Résultats

Dans toute la description des résultats de l’AFC, nous considérerons que nous noussommes ramenés à une analyse en composantes principales des profils lignes, des sorteque les individus seront les hémisphères des sujets de la population étudiée (modalités deSujetLat) et les variables seront les entités anatomiques (modalités de Anatnonlat).

4.4.5.3 AFC des mesures de perfusion chez les sujets sains (données corrigéesdu diffusé)

La figure 4.20 représente la projection des variables sur les deux premiers axes princi-paux. On observe clairement 3 groupes de variables se distinguer. Le premier groupe repré-sente les structures internes (NoyauCaudé, Thalamus, NoyauGris et NoyauLenticulaire) lesecond les structures temporo-mésiales (Amygdale, Hippocampe et TemporoMesial) danslequel on trouve également le cervelet. Enfin le troisième groupe renferme toutes les autresstructures que l’on peut considérer comme cortex environnant et le VOI TempoLateral. Lamétrique du χ2 utilisée par l’AFC nous permet alors de supposer qu’il y a une dépendancestatistique forte des mesures de perfusion au sein de chacun de ces groupes. Néanmoins,la décroissance des valeur propres nous a montré qu’il fallait plutôt considérer les 3 pre-miers facteurs (pour récupérer 49 % de l’inertie du nuage). La classification ascendantehiérarchique des variables à partir de ces 3 premiers facteurs confirme également cettedescription des dépendances entre structures anatomiques en 3 classes (voir figure 4.22).Notons également que la projection des individus sur les 2 premiers facteurs a tendance àséparer les mesures en fonction du sexe des sujets étudiés (voir figure 4.21). La classifica-tion ascendante hiérarchique des individus, en ne considérant que les 3 premiers facteurs,confirme également cette séparation en fonction du sexe (résultats non montrés).

200 4.4 Analyse statistique des mesures de perfusion

−40 −30 −20 −10 0 10 20

−20

−10

010

2030

CORT

HCORT

MB

AMYG

HIPP

NCAUBG

NLENTHAL

INS

T

TP1

TM

TL

TP2

FFP

FO

FMFL

OCCOCCM

OCCL

PAR

CER

PON

Fig. 4.20 – Projection des variables sur les deux premiers axes principaux de l’AFC desmesures corrigées du diffusé des 27 sujets sains

−30 −20 −10 0 10 20 30 40

−30

−20

−10

010

2030

L123

R123

L129

R129

L131

R131

L143 R143

L144

R144

L146

R146L147

R147

L149

R149

L152

R152

L161

R161L163

R163

L170 R170 L178

R178

L179

R179

L135

R135

L134R134

L141 R141

L145

R145L151

R151

L154R154

L155

R155

L165

R165

L167

R167L172

R172

L175

R175

L180

R180

L158

R158

Fig. 4.21 – Projection des individus sur les deux premiers axes principaux de l’AFC desmesures corrigées du diffusé des 27 sujets sains (en rouge les femmes, en noir les hommes)

Construction d’un modèle théorique de perfusion par une analyse parstandardisation anatomique 201

REPRESENTATION DE LA CLASSIFICATION HIERARCHIQUE

THAL *--------*--------------------------------------*---------*-

! ! ! !

NCAU - ! ! !

! ! !

BG *--------- ! !

! ! !

NLEN - ! !

! !

PON. --*---------------*------------------------------ !

! ! !

CER. --- ! !

! !

AMYG ------*------------ !

! !

HIPP *------ !

! !

TM.. - !

!

FM.. ---*----------------*--------------------------------------

! !

FP.. *--- !

! !

F... - !

!

FL.. - !

!

PAR. ! !

! !

HCORT- !

!

TP1. ---------*-----------

!

OCC. *-----*---

! !

OCCM - !

!

OCCM - !

!

INS. **-----

!!

TL.. -!

!

FO.. -!

!

T... *-

!

TP2. -

MB.. !

!

CORT -

Fig. 4.22 – Classification ascendante hiérarchique des variables à partir de l’AFC desmesures corrigées du diffusé des 27 sujets sains

202 4.4 Analyse statistique des mesures de perfusion

−80 −60 −40 −20 0 20 40

−40

−20

020

4060

CORT

HCORTMB

AMYG

HIPP

NCAU

BG

NLEN

THAL

INS TTP1

TM

TL

TP2

FFP

FO

FM FL

OCC

OCCM

OCCL

PAR

CER

PON

Fig. 4.23 – Projection des variables sur les deux premiers axes principaux de l’AFC desmesures de perfusion ictale des 10 sujets épileptiques

−60 −40 −20 0 20 40

−40

−20

020

40

GueP

LvaP

ArnP

GraP

LecP

BliP

LebP

LcaP

AugP

LveP

GueH

LvaH

ArnH

GraH

LecH BliH

LebH

LcaH

AugH

LveH

Fig. 4.24 – Projection des individus sur les deux premiers axes principaux de l’AFC desmesures perfusion ictale des 10 sujets épileptiques (en rouge les hémisphères pathologiques,en noir les hémisphères sains)

Construction d’un modèle théorique de perfusion par une analyse parstandardisation anatomique 203

TP1. *-----------*----------------*----------------------------*-

! ! ! !

AMYG - ! ! !

! ! !

HIPP - ! ! !

! ! !

TL.. **----------- ! !

!! ! !

INS. !! ! !

!! ! !

FO.. -! ! !

! ! !

T... -! ! !

! ! !

NLEN *- ! !

! ! !

TM.. - ! !

! !

THAL *----------------------------- !

! !

NCAU - !

!

BG - !

!

FM.. *--*-------------------------------------------------------

! !

FP.. - !

!

HCORT- !

!

FL.. - !

!

F... ! !

! !

MB.. - !

!

PAR. *-*-

! !

OCCM - !

!

OCC. - !

!

OCCL ! !

! !

TP2. - !

!

CER. *--

!

PON !

!

CORT -

Fig. 4.25 – Classification ascendante hiérarchique des variables à partir de l’AFC desmesures de perfusion ictale des 10 sujets épileptiques

204 4.5 Discussion : des mesures au modèle de perfusion

4.4.5.4 AFC des mesures de perfusion ictale chez les sujets épileptiques enfonction des VOIs

La figure 4.23 représente la projection des variables sur les deux premiers axes princi-paux. On observe à nouveau 3 groupes de variables se distinguer, mais il y a néanmoinsquelques différences notoires par rapport à l’analyse de la perfusion des sujets sains. Enutilisant la classification ascendante hiérarchique des variables (figure 4.25) pour assisterl’interprétation (réalisée à partir des 2 premiers facteurs : 70.9 % de l’inertie du nuage), onen déduit les observations suivantes :

– Groupe “Structures Internes” : Thalamus, NoyauCaudé et NoyauGris

– Groupe “Structures Temporales” : dans lequel on peut distinguer la partie mésiale(Amygdale, Hippocampe, TempPole) et la périphérie proche (Insula, TemporoLate-ral, FrontalOrbitaire, Temporal, TemporalMesial et NoyauLenticulaire)

– Groupe “Cortex environnant” : les autres structures

En comparant cette classification à celle obtenue en analysant la base de données dessujets sains (figure 4.25), on note principalement des changements au niveau du pôle tempo-ral qui passe du groupe “cortex environnant” au groupe “temporal”, et au niveau du noyaulenticulaire qui passe du groupe “structures internes” au groupe “périphérie proche”, ou en-core au niveau du cervelet qui passe du groupe “temporal” au groupe “cortex environnant”.La nature de la perfusion au sein de ces structures anatomiques semble donc être détermi-nante pour caractériser la perfusion ictale de l’épilepsie à point de départ temporo-mésiale.Notons également que la projection des individus sur les 2 premiers facteurs permet uneséparation très nette des mesures suivant que l’hémisphère considéré est l’hémisphère sainou pathologique (voir figure 4.24). Cette observation a également été confirmée par la clas-sification ascendante hiérarchique des individus, en ne considérant que les deux premiersfacteurs (résultats non montrés).

4.5 Discussion : des mesures au modèle de perfusion

Pour finir ce chapitre, nous proposons de discuter deux aspects des travaux qui viennentd’être présentés. Le premier concerne la méthode d’analyse par standardisation anatomiqueet son positionnement par rapport à l’état de l’art présenté au §II.4.2. Le second porte surles retombées cliniques qui peuvent découler de l’analyse statistique des mesures chez lessujets sains et les sujets épileptiques qui a été proposée.

4.5.1 Méthode d’analyse par standardisation anatomique

4.5.1.1 Nécessité d’un modèle spatial de l’anatomie pour modéliser la perfu-sion

La définition du substrat anatomique sous-jacent au modèle théorique de perfusionutilisé résulte d’un compromis entre la résolution spatiale des données et les a priori ana-tomiques ou physiologiques relatifs aux structures et phénomènes étudiés. Ainsi, le décou-page choisi distingue différentes parties des principaux lobes comme les parties polaire,mésiale, latérale et postérieure du lobe temporal. Il s’est avéré pertinent pour caractériserdes patterns typiques de perfusion ictale en épilepsie temporale [Ho 96, Ho 97]. Les faibles

Construction d’un modèle théorique de perfusion par une analyse parstandardisation anatomique 205

coefficients de variation estimés en chaque VOI sur les données TEMP normales et ictalesétudiées ici montrent que les mesures ont été réalisées sur des structures anatomiques pré-sentant une perfusion relativement uniforme. Lobaugh et al. [Lobaugh 00] ont d’ailleurségalement proposé ce coefficient de variation comme un indice de la qualité du découpageanatomique. L’observation de faibles coefficients de variation indique donc à la fois un bondécoupage anatomique vis à vis du pattern de perfusion étudié, mais également un bondécoupage au niveau des frontières des principales structures anatomiques cérébrales (e.g.interface cerveau/ventricules, limites de la surface corticale). Les faibles coefficients de va-riation confirment donc également qu’aucune déformation aberrante n’est survenue lors dela normalisation spatiale des données, ce que nous avons par ailleurs vérifié, visuellement.Les plus forts coefficients de variation observés au niveau des structures occipitales pour-raient indiquer des erreurs de normalisation spatiale plus importantes dans ces régions,cependant cette hypothèse nécessite d’être vérifiée explicitement.

Par cet a priori sur le découpage anatomique de la perfusion étudiée, notre approche dif-fère de nombreuses études inter-individuelles de données TEMP ou de Tomographie d’Emis-sion de Positons (TEP) basées sur une analyse statistique voxel/voxel des données norma-lisées spatialement, que ce soit pour l’étude de sujets sains [Houston 94, VanLaere 01b] ouépileptiques [Ring 99, Lee 00a, VanBogaert 00]. L’analyse statistique voxel par voxel de cesdonnées a pour but la génération de cartes statistiques d’activation, telles que celles misesen œuvre à partir du modèle linéaire généralisé proposé par Friston et al. [Friston 95b]dans le logiciel SPM. Une telle approche a d’ailleurs été appliquée avec succès à l’analysede données TEMP [Acton 98, Stamatakis 99, Lahorte 00]. Elle permet principalement descomparaisons inter-population ou d’un sujet versus une population. Il s’agit dans ce casd’études prospectives qui ne se basent sur aucun a priori quant à la distribution spatialede la perfusion ou du métabolisme étudié. Du fait du faible nombre d’échantillons souventdisponibles en TEMP, les analyses statistiques telles celles mises en œuvre dans SPM sontreconnues trop conservatrices [Acton 98, VanLaere 02]. De nombreuses études comparantdes approches basées VOIs et basées voxels [Liow 00, Kang 01, VanLaere 02], ont mon-tré que l’utilisation de VOIs issus d’un modèle de l’anatomie suffisaient pour discriminercertaines données pathologiques d’une population saine. En particulier, en analysant desdonnées TEP en épilepsie temporale, Kang et al. [Kang 01] ont détecté un hypométabo-lisme dans l’amygdale et l’hippocampe par l’utilisation de VOIs standardisés, les SPAM(Statistical Probabilistic Anatomical Maps)[Evans 96]. Par contre, ils ne l’ont pas détectélors d’une analyse de type comparaison de groupes par SPM, et l’expliquent par l’effetde volume partiel des données TEP, additionné au post-filtrage des données requis pourl’analyse statistique SPM. Ils précisent cependant que l’utilisation de VOIs trop vastes,comme les SPAMs correspondant à des gyri couvrant toute la longueur du lobe temporal,lissait trop les mesures et empêchait, contrairement à l’analyse SPM, la détection d’unhypométabolisme dans les aires les plus antérieures du lobe temporal. Notre découpage dulobe temporal à partir de critères électrophysiologiques permet de remédier à ce problèmed’inadéquation des SPAMs dans le contexte de l’épilepsie.

4.5.1.2 Compensation de la variabilité anatomique inter-individuelle

L’analyse inter-individuelle de données TEMP ou TEP, que ce soit par des approchesbasées VOIs ou voxels, nécessite en préalable de compenser la variabilité anatomique inter-

206 4.5 Discussion : des mesures au modèle de perfusion

individuelle de ces données afin de les rendre comparables. Dans le cas des analyses baséesVOIs, deux aspects de la méthode participent à cette compensation de la variabilité anato-mique : la méthode de normalisation spatiale et le choix des VOIs pour la mesure. L’étapede normalisation spatiale des données est un préalable à toute méthode d’analyse parstandardisation anatomique. Nous avons opté pour la méthode proposée par Friston et al.[Friston 95a] et implémentée dans le logiciel SPM. Cette méthode a été largement utili-sée par la communauté des neurosciences, et son utilisation pour la normalisation spatialede données TEP a été validée [Sugiura 99, Muzik 00, Ishii 01]. Cette méthode est appli-cable à la normalisation spatiale de données TEMP, vers un template TEMP, à conditionde se limiter à une transformation géométrique affine [Acton 98, Stamatakis 01]. A partird’études sur simulations numériques, il a été montré que la présence de zones lésionnelleshypoperfusées en TEMP pouvait perturber l’étape de normalisation spatiale non-linéaire[Stamatakis 01] et même affine [Radau 01]. Ainsi, Stamatakis et al. [Stamatakis 01] sug-gèrent de se limiter à une transformation affine pour la normalisation spatiale de don-nées TEMP, c’est précisément l’approche que nous avons adoptée pour le recalage dedonnées TEMP des 27 sujets sains, pour lesquels on ne disposait pas des acquisitionsIRM. Les données TEMP des 10 sujets épileptiques, principalement les données ictales,présentaient de vastes régions hyperperfusées susceptibles de perturber cette étape denormalisation spatiale, de la même manière que les régions hypoperfusées étudiées dans[Stamatakis 01, Radau 01]. Ainsi, nous avons opté pour une normalisation spatiale en deuxétapes, composée d’un recalage rigide intra-patient TEMP/IRM suivi d’un recalage non-linéaire IRM / Template T1. L’évaluation de la précision du recalage TEMP/IRM estau centre de ces travaux de thèse, alors que l’étape de recalage non linéaire des donnéesIRM par la méthode de Friston et al. a récemment été montrée particulièrement précisepour compenser la variabilité inter-individuelle au niveau des structures internes et corti-cales [Hellier 02]. Néanmoins, la plus-value apportée par cette approche de normalisationspatiale des données ictales en deux étapes par rapport à un recalage affine direct sur letemplate TEMP, nécessiterait d’être évaluée.

Le deuxième aspect permettant cette compensation de la variabilité anatomique inter-individuelle provient du choix des VOIs. Alors que les SPAMs utilisés par Kang et al.[Kang 01] tiennent compte par construction de la variabilité anatomique inter-individuelledes structures anatomiques, nos VOIs, de même que par exemple ceux utilisés par Lobaughet al. [Lobaugh 00], proviennent de l’étiquetage de l’IRM d’un seul individu. Néanmoins,de par l’étape de normalisation spatiale associée à la faible résolution spatiale des donnéeset à la gestion de l’effet de volume partiel par le lissage des masques des VOIs, noussupposons que, pour cette étude, l’influence de la variabilité anatomique inter-individuelleest négligeable pour construire un modèle de perfusion en TEMP.

4.5.1.3 Mesure de la variabilité fonctionnelle inter-individuelle

Après avoir défini ce modèle spatial de l’anatomie cérébrale, il convient également detenir compte de la variabilité fonctionnelle inter-individuelle de la perfusion au sein dela population normale ou pathologique à étudier. En effet, le passage d’une distributiondes mesures caractéristique de la perfusion étudiée à la définition d’une carte théoriqued’activité issue de cette même distribution n’est pas évident. Dans cette étude, nous avonsdistingué trois niveaux dans l’analyse de cette variabilité.

Construction d’un modèle théorique de perfusion par une analyse parstandardisation anatomique 207

Le premier niveau consiste à étudier un effet moyen au niveau de la population consi-dérée. Ainsi, que ce soit pour la perfusion normale ou la perfusion ictale et inter-ictaleen épilepsie temporo-mésiale, nous proposons un modèle de perfusion consistant en l’esti-mation en chaque VOI du modèle spatial de l’anatomie, de la moyenne et l’écart-type dusignal TEMP mesuré au sein des populations étudiées. Dans le chapitre II.5, nous utilisonsces modèles afin de simuler des données TEMP caractéristiques de cette perfusion moyennenormale, inter-ictale ou ictale. Dans le chapitre II.6, nous utilisons ces simulations à desfins d’évaluation de méthodes de recalage. Dans ce contexte, notre principal objectif estde disposer d’un environnement complètement contrôlé afin d’étudier l’influence de diversparamètres sur les méthodes de recalage. Pour cela nous utilisons un modèle moyen quenous perturbons afin d’étudier différents paramètres comme par exemple la présence dedissimilarités intrinsèques TEMP/IRM (simulation de zones pathologiques en TEMP), leniveau de bruit, ou la présence ou non d’activité extra-cérébrale (cf. chapitre II.5).

Le second niveau a pour but l’identification d’une structure de groupe explicative desdonnées analysées. L’objectif est d’utiliser lors de la simulation des aspects caractéristiqueset reproductibles des patterns de perfusion étudiés. Nous proposons pour cela quelques ou-tils statistiques, dont l’analyse des asymétries inter-hémisphériques à l’aide de tests deStudent appariés, et l’étude de l’effet de la localisation anatomique sur les mesures, àl’aide d’une analyse de la variance. Dans les deux cas, nous avons utilisé des approchesnon paramétriques basées sur le rééchantillonnage bootstrap, afin de vérifier la validitéde ces approches dans notre étude, dans la mesure où nous ne disposions que de peud’échantillons, surtout pour les sujets épileptiques. La bonne concordance des approchesparamétriques standards et des approches non-paramétriques basées sur le rééchantillon-nage bootstrap, confirme que les phénomènes observés de manière significative proviennenteffectivement de caractéristiques communes au sein des populations étudiées. Ces résultatsont été utilisés pour définir un modèle moyen de perfusion ictale à partir du modèle moyende perfusion normale (proposé au premier niveau d’étude). Pour cela, nous avons utiliséles différences relatives mesurées au sein des structures anatomiques considérées commesignificativement asymétriques (i.e. VOIs Amygdale, Hippocampe, NoyauxLenticulaires,Insula, TempPole, TemporoMesial, TemporoLatéral, FrontoOrbitaire, Parietal et Cervelet)au sein des données ictales. Ces différences relatives ont alors été utilisées pour modifier lemodèle moyen de perfusion normale, en modèle moyen de perfusion ictale caractéristique del’épilepsie temporo-mésiale (cf. chapitre II.5). Néanmoins, le faible nombre d’échantillonsdont nous disposions en TEMP inter-ictale (6 patients) ne nous a pas permis d’extraired’informations caractéristiques de ce pattern. Il est bien sûr évident qu’acquérir un plusgrand nombre de données serait nécessaire, mais rappelons de plus que l’analyse des don-nées inter-ictales est une tâche délicate, vu la faible sensibilité reconnue de la méthode[Duncan 97b]. De manière générale, les très bons résultats obtenus par les analyses de lavariance (cf. grande significativité des tests F, et coefficients R2

ajust élevés) ont montréque le découpage anatomique utilisé permettait de modéliser correctement la répartitionanatomique de la perfusion au sein des populations étudiées.

La troisième niveau concerne la quantification de la variabilité fonctionnelle caracté-ristique de la population étudiée. La modélisation de cette variabilité la rend utilisableà des fins de simulations. Ainsi, au lieu de simuler une donnée TEMP caractéristiqued’un pattern de perfusion moyen, il serait alors possible de simuler une population dedonnées TEMP reflétant cette variabilité caractéristique d’une population. L’utilisation

208 4.5 Discussion : des mesures au modèle de perfusion

de ce type de simulations nous semble particulièrement indiquée pour évaluer les per-formances de méthodes de détection comme l’analyse non-supervisée inter-hémisphérique[AubertBroche 02] ou la soustraction TEMP ictale / TEMP inter-ictale (SISCOM 10 :[Zubal 95, O’Brien 98, Pérault 02]). Alors que les étapes précédentes ont permis d’esti-mer en chaque VOI la perfusion moyenne xi et sa dispersion σi au sein des populationsétudiées, l’objectif serait alors d’analyser les éventuelles dépendances statistiques entre cesrégions afin de les modéliser. De telles dépendances pouvant en théorie être générées pardes corrélations spatiales entre structures adjacentes (par exemple à cause de l’effet devolume partiel), mais aussi par des dépendances d’origines physiologiques ou physiopatho-logiques (liées par exemple à l’organisation du système vasculaire mais aussi aux activitéscérébrales). Ainsi, Houston et al. [Houston 94] proposent d’utiliser une analyse en compo-sante principale à partir d’une série de 53 TEMP normales, pour caractériser la variabilitéfonctionnelle de la perfusion normale, et suggèrent de la modéliser en ne tenant compteque des composantes principales contenant le plus d’information. Nous avons envisagé uneanalyse factorielle des correspondances pour appréhender ces aspects. Cette technique estreconnue pour caractériser la structure des dépendances entre modalités de deux variablesqualitatives, qui sont, dans notre cas, les structures anatomiques ou VOIs, et les deux hé-misphères de tous les sujets de la population à étudier, considérés séparément. Bien quepréliminaires, les résultats obtenus ont permis de mettre en évidence des structures dedépendances entre structures anatomiques, mais aussi au sein des populations. Ce typed’étude par analyse factorielle nous semble donc prometteur pour l’étude de la variabi-lité fonctionnelle inter-individuelle. D’autres approches utilisant également ces méthodesd’analyse factorielle ont d’ailleurs été proposées à des fins de classification automatique desujets sains et pathologiques à partir de mesures sur des VOIs [Liow 00], ou de toutes lesinformations des voxels [Houston 94, Stoeckel 01].

4.5.2 Intérêt clinique des modèles de perfusion normaux et patholo-giques

4.5.2.1 Analyse de la perfusion TEMP chez le sujet sain

La méthode d’analyse inter-individuelle de données TEMP à partir de VOIs standar-disés proposée ici fournit également un résultat important en soit vis à vis de la clinique.Grâce à cette analyse par standardisation anatomique, nous présentons deux distributionsde mesures relatives de perfusion, caractérisant respectivement une perfusion normale etune perfusion ictale et inter-ictale, associées à une épilepsie à point de départ temporo-mésiale. D’autres études de la perfusion normale en TEMP, à partir de méthodes d’ana-lyse par standardisation anatomique basées VOIs, ont été proposées dans la littérature[Koyama 97, Lobaugh 00, Tanaka 00, VanLaere 01a, VanLaere 01b]. En particulier, notreétude a permis de mettre en évidence une hyperperfusion moyenne de l’ordre de 2% dansl’hémisphère droit, au sein de la population des 27 sujets sains étudiés. Cette asymétriea été jugée significativement non-nulle dans la plupart des VOIs du cortex périphérique(i.e. VOIs : Cortex, CortexSain, Temporal, TemporoLateral, TemporoPosterieur, Frontal,FrontoOrbitaire, FrontoLateral, Parietal et Cervelet). De plus, l’analyse factorielle des cor-respondances a montré qu’il était possible de discriminer les mesures en fonction du sexe.

10. SISCOM : Subtracted Ictal Spect CO-registered to MRI

Construction d’un modèle théorique de perfusion par une analyse parstandardisation anatomique 209

Il convient néanmoins d’être prudent vis à vis de l’interprétation de ces résultats. En ef-fet, nous avons observé que la population des 27 sujets étudiés présentait une distributionbimodale en fonction de l’âge des sujets (une classe de 20-35 ans et une classe de 45-56ans), et que, de plus, ces deux classes n’étaient pas réparties de manière indépendante enfonction du sexe (χ2 = 6.15, p− value < 0.05). Néanmoins, des résultats similaires ont étéégalement observés dans d’autres études comme par exemple celle proposée par Van Laereet al. [VanLaere 01b]. Dans une étude très complète portant sur 89 sujets sains, Van Laereet al. [VanLaere 01b, VanLaere 01a] montrent que l’étude de la perfusion chez le sujet sainest une tâche délicate, vu l’influence de nombreux facteurs : âge, sexe, hémisphère, localisa-tion anatomique, imageur. Des modifications de perfusion normale en fonction du traceurutilisé 99mTc-HMPAO ou 99mTc-ECD ont également été observées [Koyama 97]. L’analysefactorielle des correspondances réalisée sur les données TEMP des 27 sujets sains a deplus mis en évidence des dépendances intéressantes permettant notamment de regrouperles structures internes (VOIs : thalamus, noyau caudé, noyau gris et noyau lenticulaire)autour d’un premier axe, et les structures temporo-mésiales autour d’un second (VOIs :amygdale, hippocampe, temporo-mesial). Ces résultats reflètent très certainement une cor-rélation spatiale entre ces structures adjacentes de petites tailles, particulièrement sensiblesà l’effet de volume partiel. Néanmoins, il est possible que de telles dépendances reflètentégalement une information de nature physiologique. Une telle hypothèse nécessitera d’êtreétudiée de manière plus approfondie, en corrigeant au préalable les données de l’effet devolume partiel.

4.5.2.2 Analyse de la perfusion en épilepsie temporo-mésiale

Bien que définie suivant des critères électrophysiologiques [Bartolomei 99], l’épilepsieà point de départ temporo-mésiale est associée à un pattern particulier de perfusion enTEMP ictale. Cette perfusion caractéristique a été étudiée par Ho et al. [Ho 96, Ho 97] enpositionnant manuellement des régions d’intérêt rectangulaires symétriques dans les lobestemporaux. A notre connaissance, il n’existe cependant pas d’études publiées proposantune distribution de mesures de perfusion ictale caractéristique d’une épilepsie à point dedépart temporo-mésiale à partir d’une analyse non-supervisée basée sur un découpage ana-tomique adéquat pour l’épilepsie temporale. Sur ce point, le modèle moyen de perfusionictale mesuré ici nous parait tout à fait novateur. De même que pour l’étude des sujetssains, l’analyse factorielle des correspondances mise en œuvre sur les données ictales amis en évidence une structure de dépendances entre les activités des différentes structuresanatomiques qui nous semble particulièrement intéressante. Ainsi, la classification ascen-dante hiérarchique des VOIs à partir des deux premiers facteurs montre globalement lamême organisation que celle observée chez les sujets sains, à savoir une séparation desstructures temporales et des structures internes. Néanmoins, le pôle temporal s’est rap-proché des structures temporo-mésiales (amygdale et hippocampe), alors que le noyaulenticulaire se retrouve cette fois proche des structures temporales périphériques commeles VOIs Temporo-Lateral, Fronto-Orbital et l’Insula. Pour les mêmes raisons que pourles sujets sains, il convient d’être prudent quant à l’interprétation de tels résultats. Ce-pendant, notons que les structures que sont le pôle temporal et les noyaux lenticulairessont au cœur des thématiques de recherche actuelles en neurologie sur la compréhensiondes épilepsies temporales. Précisons à ce sujet qu’un numéro spécial de la revue “Epileptic

210 4.5 Discussion : des mesures au modèle de perfusion

disorders” principalement dédié au rôle du pôle temporal dans l’épilepsie temporo-mésiale[Ryvlin 02] vient d’être publié.

4.5.2.3 Qualité des données TEMP pour la quantification et la modélisation

Toute analyse quantitative, même de manière relative, en TEMP nécessite des pré-traitements adéquats, afin de limiter au maximum les biais de mesure. Étant donnée quenous nous plaçons dans un contexte de modélisation, il convient d’être aussi exigeant quepossible sur la qualité des données analysées. Ainsi, les méthodes de reconstruction tomo-graphique utilisées ont été ajustées afin de fournir la même résolution spatiale pour desdonnées provenant d’imageurs différents, précaution nécessaire afin de rendre les mesuresrelativement comparables [VanLaere 01a, Lobaugh 00]. Une correction d’atténuation uni-forme a été jugée suffisante [Rajeevan 98, Iida 98], et une correction de la diffusion a étéréalisée sur les données TEMP de sujets sains. Les données de TEMP ictale et inter-ictaledont nous disposions n’ayant pu être corrigées du rayonnement diffusé (pas d’acquisitiondes données dans une fenêtre Compton), la comparaison avec les mesures sur sujets sainsn’est pas réalisable. L’effet de volume partiel des données TEMP a également été pris encompte en filtrant de façon adéquate les masques des VOIs avant les mesures. Néanmoins,il ne s’agit pas à proprement parler d’une correction de cet effet de volume partiel. Kanget al. [Kang 01] suggèrent à ce sujet qu’une correction effective devrait être réalisée sur desdonnées TEP avant d’y imposer des VOIs. Disposant de la segmentation des différentesstructures anatomiques à la résolution de l’IRM, ainsi que des masques des VOIs filtrés àla résolution spatiale des données TEMP (LMH = 12mm), il nous est possible de calculerexplicitement la contribution de tout VOI à ses VOIs voisins, causée par l’effet de volumepartiel. Nous envisageons d’utiliser cette information pour déconvoluer et donc corriger nosmesures de cet effet.

Afin de caractériser au mieux la perfusion ictale en épilepsie temporo-mésiale par rap-port à la perfusion normale, nous projetons d’utiliser notre méthode pour étudier les don-nées TEMP d’un plus grand nombre des sujets sains et épileptiques, acquises sur la mêmemachine, et toutes reconstruites et corrigées de l’atténuation, de la diffusion et de l’effetde volume partiel de la même façon. L’analyse précise de telles bases de données de su-jets sains puis pathologiques nous semble être une étape fondamentale avant d’envisagerune utilisation quantitative des données en routine clinique. Par contre, la complexité desphénomènes observés chez le sujet sain par Van Laere et al. [VanLaere 01b] nous pousseà penser qu’une telle approche n’aura des débouchés sur une utilisation clinique que sila sélection des sujets de l’étude est réalisée de manière très rigoureuse, en contrôlant lesdivers facteurs que sont notamment l’âge et le sexe.

4.5.3 Perspectives de ces travaux de modélisation

Outre la correction de l’effet de volume partiel, la principale perspective de ces travauxde modélisation concerne la caractérisation de la variabilité fonctionnelle au sein d’unepopulation de sujets sains ou épileptiques. Nous suggérons d’utiliser l’analyse factorielledes correspondances pour appréhender cet aspect. En effet, en AFC, il est possible de re-construire la table de contingence ayant permis l’analyse à partir d’un sous-espace signalcontenant toute l’essentiel de l’information. Le choix d’un tel sous-espace revient à ne consi-dérer que les valeurs propres contenant le plus d’inertie, ou d’information, sur les données.

Construction d’un modèle théorique de perfusion par une analyse parstandardisation anatomique 211

Dans notre cas, la reconstruction de cette table de contingence reviendra à regénérer unesérie de mesures sur une population de n sujets virtuels, censée ne représenter idéalementque la part de variabilité fonctionnelle caractéristique de la population étudiée, et donc dupattern de perfusion étudié. Nous envisageons d’utiliser de telles données pour simuler lesdonnées TEMP de cette population. Néanmoins, le choix du seuil sur les valeurs propreset la capacité de ce type de méthode à discriminer du bruit une information sous-jacentespécifique au pattern de perfusion étudié demeurent des questions ouvertes et délicatesqu’il faudra considérer.

Sur un versant plus clinique, une étude est actuellement en cours au laboratoire surl’étude de corrélation entre la perfusion ictale mesurée au niveau des structures internes(thalamus, noyaux caudés, noyaux lenticulaires) et la sémiologie des crises. Les particula-rités observées au niveau des noyaux lenticulaires dans l’AFC, de même que l’implicationconnue de ces noyaux dans les circuits moteurs laissent envisager des perspectives trèsintéressantes à de tels travaux. Ces travaux se situent également dans la continuité depremiers résultats observés en TEP suggérant l’implication de ces noyaux dans la posturedystonique observée au cours d’une crise d’épilepsie temporale [Dupont 98].

212 4.5 Discussion : des mesures au modèle de perfusion

Simulation réaliste de données TEMP 213

Chapitre 5

Simulation réaliste de donnéesTEMP

La méthode d’analyse par standardisation anatomique et l’analyse statistique présen-tées au chapitre précédent nous ont permis de mettre en évidence certaines caractéristiquesde la perfusion cérébrale observées au sein d’une population de sujets sains et d’une popu-lation de sujets épileptiques. Nous allons à présent utiliser ces résultats pour construire descartes d’activité représentant la distribution théorique du radiotraceur de perfusion définieà une résolution millimétrique sur l’IRM du fantôme de Zubal. L’objectif de ce chapitre esttout d’abord de présenter les méthodes utilisées pour modéliser la géométrie et les phéno-mènes physiques liés à la génération et à l’acquisition des données TEMP. A partir de lamodélisation de la perfusion théorique du chapitre précédent et de cette modélisation duprocessus de génération et d’acquisition des données TEMP, nous sommes à même de pro-poser des simulations réalistes de données TEMP. Ces simulations seront utilisées commedonnées de validation lors de l’évaluation comparative des méthodes de recalage utilisantdes mesures statistiques de similarité faisant l’objet du chapitre II.6.

Après une présentation des outils de simulation de données TEMP que nous avonsutilisés, nous présentons un certain nombre de cartes théoriques d’activité ainsi que lessimulations TEMP associées. Des simulations de Monte Carlo ont été réalisées à partirde modèles moyens de perfusion normale ou ictale déduits des mesures du chapitre précé-dent. Afin d’étudier l’influence sur les méthodes de recalage de dissimilarités intrinsèquesTEMP/IRM mais aussi d’autres paramètres tels que le bruit ou la présence d’activitéextra-cérébrale, plusieurs configurations simples de cartes d’activité ont été définies et uti-lisées pour simuler des données TEMP par des techniques analytiques. Nous avons doncfait varier un certain nombre de paramètres : le niveau de bruit de comptage dans lesdonnées, la simulation d’activités extra-cérébrales et la simulation de zones pathologiqueshyperintenses (sphères de différentes tailles contraintes ou non à la matière grise).

5.1 Méthodes de simulation réaliste de données TEMP

Nous présentons les outils de simulation TEMP utilisés. Les simulations analytiques ontété réalisées avec le logiciel SEQUIN (Système de QUantification en Imagerie Nucléaire).Il s’agit d’un logiciel de quantification d’images TEMP et TEP, développé dans le cadre

214 5.1 Méthodes de simulation réaliste de données TEMP

d’une collaboration entre 6 laboratoires de recherche français, soutenue par le ministère dela Recherche, dans le cadre d’une Action Concertée Incitative 1999-2001. Ce logiciel estdisponible sur le site :http://www.guillemet.org/irene/equipe4/logiciels.html

Les simulations de Monte Carlo ont été réalisées à l’aide du logiciel SimSET : “Simu-lation System for Emission Tomography”. Il s’agit d’un logiciel permettant de modéliserl’instrumentation et les processus physiques impliqués en imagerie d’émission TEMP ouTEP. Ce logiciel a été développé par le département de médecine nucléaire de l’université deWashington [Harrison 93]. La première version a été mise à disposition de la communautéen 1993. Ce logiciel est accessible sur le site :http://depts.washington.edu/∼simset/html/simset_main.htmlIl a été validé au sein de l’unité INSERM U494 de la Pitié Salpétrière. Nos collabora-tions avec Irène Buvat et Habib Benali m’ont permis de me former à l’utilisation de cestechniques.

5.1.1 Carte d’activité et carte d’atténuation des photons

Que ce soient les outils de simulation de Monte Carlo ou ceux de simulation analytique,ces méthodes nécessitent de disposer en entrée d’une carte théorique d’atténuation des pho-tons ainsi que d’une carte théorique d’activité représentant la distribution du radiotraceurde perfusion (99mTc-HMPAO ou 99mTc-ECD). Ces cartes sont définies en attribuant à cha-cune des entités composant le modèle spatial de l’anatomie, déduit de l’IRM étiquetée dufantôme de Zubal (voir §II.4.3.1), une valeur théorique d’atténuation et d’activité. Les dif-férentes cartes d’activité générées à partir des mesures de perfusion du chapitre précédentsont présentées au §II.5.2.

Une carte théorique d’atténuation des photons a également été définie à la résolution dece modèle spatial. Cette carte a été obtenue en classant les VOIs du modèle spatial suivantleur appartenance à sept classes de tissus et en leur attribuant à chacun un coefficientd’atténuation µ des émissions à 140keV du 99mTc (cf. figure 5.1) : tissus conjonctifs (µ =0.1781cm−1), eau (µ = 0.1508cm−1), cerveau (µ = 0.1551cm−1), os (µ = 0.3222cm−1),muscle (µ = 0.1553cm−1), graisse (µ = 0.1394cm−1) et sang (µ = 0.1585cm−1).

Fig. 5.1 – Carte théorique d’atténuation des photons déduite du fantôme de Zubal

Simulation réaliste de données TEMP 215

5.1.2 Simulations analytiques

Les simulations analytiques ont été réalisées en utilisant un projecteur du même typeque ceux utilisés par les méthodes itératives de reconstruction tomographique (voir équa-tion 4.10). A partir des cartes d’activité et d’atténuation définies précédemment, une at-ténuation non-uniforme a été modélisée dans le projecteur.

Le calcul des projections nécessite un modèle de répartition de l’intensité au niveau despixels de l’image d’origine, i.e. la carte d’activité. Le projecteur utilisé concentre l’activitéde chaque pixel de l’image en son centre. Pour chaque angle de projection, la positionexacte sur la projection du centre de chaque pixel de l’image est calculée. L’intensité dechaque dexel est alors évaluée par interpolation linéaire à partir des intensités des pointsles plus proches sur la projection (voir [Bruyant 02a]). Ainsi, 64 projections couvrant 360

(matrice=128 × 128, taille du pixel=4.51mm) ont été simulées.Afin de simuler la résolution spatiale finie du détecteur, les projections ont ensuite été

lissées avec un filtre gaussien (LMH = 8 mm). La résolution du filtre a été choisie aprèsavoir mesuré la résolution de la projection d’une source linéique sur l’imageur DST-XL deGeneral Electric Medical Systems, du service de médecine nucléaire de Rennes.

Les données ont finalement été bruitées à partir d’un bruit poissonnien. La perte derésolution en profondeur et la diffusion n’ont pas été simulées par ces techniques analy-tiques.

5.1.3 Simulations réalistes par techniques de Monte Carlo

La simulation de données TEMP par techniques de Monte Carlo à partir de SimSETa consisté en une modélisation des processus physiques liés à la génération des donnéesTEMP et en une modélisation géométrique du détecteur, notamment du collimateur. Lacarte d’activité théorique en entrée de l’algorithme est interprétée comme une fonctionde densité de probabilité. Cette fonction de densité de probabilité est alors échantillonnéepour définir une distribution initiale de radioactivité. Une position initiale d’émission d’unphoton est alors tirée aléatoirement sur cette distribution de radioactivité. Le parcoursde ce photon est alors simulé par l’algorithme de poursuite décrit sur la figure 5.2. Ladirection initiale de chaque photon est tirée aléatoirement sur une distribution uniforme.La distance parcourue avant interaction est alors échantillonnée en tenant compte descoefficients d’atténuation des tissus traversés. Si le photon atteint un cylindre englobantl’objet simulé, on étudie alors s’il peut être accepté par une projection (via son angled’acceptance avec chaque trou du collimateur, pour chacune des projections). Sinon, uneinteraction rayonnement-matière est simulée. Le type d’interaction est tiré aléatoirementselon la répartition des sections efficaces de l’effet photoélectrique, de la diffusion Comptonet de la diffusion cohérente pour l’énergie du photon considéré. S’il y a absorption (effetphotoélectrique), le processus s’arrête et on génère aléatoirement un nouveau photon. S’ily a diffusion, on estime l’énergie et la direction du photon diffusé, et on continue à suivreson parcours jusqu’à ce qu’il soit absorbé ou qu’il atteigne le cylindre englobant. Pourune descrition plus détaillée de la méthode de simulation de SimSET et de l’évaluationdu réalisme de cette modélisation, nous renvoyons le lecteur vers la thèse de G. El Fakhri[ElFakhri 98].

A partir des photons ayant atteint le cylindre englobant en fin de simulation, il estpossible de déduire une acquisition tomographique en modélisant la géométrie du colli-

216 5.1 Méthodes de simulation réaliste de données TEMP

mateur et de l’acquisition (e.g. nombre de projections, taille de la matrice de projection,résolution spatiale). On connaît l’énergie et l’historique de chaque photon atteignant lecylindre englobant. On peut donc simuler l’acquisition des données dans plusieurs fenêtresspectrométriques d’énergie. On peut également ne sélectionner que les photons primairesayant atteint le détecteur sans aucune interaction, et ainsi simuler des données TEMP sansdiffusion.

Dans le cadre de ce travail, les simulations de Monte Carlo ont été réalisées avec unmilliard de photons simulés à l’émission à 140keV du 99mTc. La résolution en énergie dudétecteur a été modélisée par une gaussienne de LMH à 9.8% de 140keV . Seuls les photonsd’énergie appartenant à la fenêtre spectrométrique (126keV,154keV ) ont été pris en comptepour générer les projections. Un collimateur parallèle a été modélisé (diamètre des trous :1mm, épaisseur des septa : 0.2mm, profondeur des trous : 35mm, angle d’acceptance α =90). Le centre de rotation du système, qui n’est autre que le centre de la carte d’activité,a été placé à 25cm du détecteur. 64 projections couvrant 360 (matrice=128 × 128, tailledu pixel=4.51mm) ont été simulées.

Toutes les simulations de Monte Carlo réalisées ont nécessité environ 12 jours de traite-ment sur une O2 Silicon graphics. Aucune technique de réduction de variance n’a été miseen œuvre.

Générer un photon avec une direction initiale

Simuler la trajectoire avant interaction

Accepter le photon

Mise à jourdes statistiques

Mise à jourdes statistiques

α αacc

< αacc

Mise à jourdes statistiques

Mise à jourdes statistiques

Calculer l’angle dediffusion et l’énergie

correspondante

échappement interaction

absorption diffusion

Calculer la distance traversée et la valeur del’atténuation dans chaque voxel traversé

Fig. 5.2 – Algorithme de poursuite mis en œuvre dans SimSET lors de la simulation deMonte Carlo (αacc : angle d’acceptance du collimateur) (d’après [ElFakhri 98])

Simulation réaliste de données TEMP 217

5.1.4 Reconstruction tomographique à partir des projections simulées

Les reconstructions établies à partir des projections simulées par les techniques ana-lytiques et de Monte carlo ont été réalisées de la même manière que pour les donnéescliniques analysées au chapitre II.4. La reconstruction tomographique de toutes ces simu-lations TEMP a donc été réalisée par rétroprojection filtrée en utilisant un filtre rampe àla fréquence de coupure de Nyquist. Les données reconstruites ont été post-filtrées à l’aided’un filtre gaussien 3D de largeur à mi-hauteur (LMH) 8mm.

Une source linéique du même type que celle utilisée pour mesurer la résolution spa-tiale des imageurs utilisés en clinique (voir §II.4.1.2.4) a été simulée par les techniquesanalytiques et de Monte Carlo que nous venons de décrire. La figure 5.3 montre que lesprofils d’intensité obtenus sur une projection par les trois méthodes ont la même allure.Les simulations TEMP réalisées présentent donc une résolution spatiale de même ordre degrandeur que les données acquises en clinique.

45 50 55 60 65 70 75 80 85

−0.1

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

mm

Simulation AnalytiqueSimulation Monte CarloAcquisition clinique

Fig. 5.3 – Profil d’intensité d’une projection d’une source linéique obtenue par simulationanalytique, simulation de Monte Carlo (100 millions de photons simulés) et acquisition surl’imageur DST-XL de GEMS du service de médecine nucléaire de Rennes (les 3 profils sontnormalisés sur leur maximum d’intensité)

5.2 Cartes d’activité et résultats des simulations réalistes de

données TEMP

Nous présentons des cartes d’activité déduites de l’analyse des mesures de perfusionréalisée au chapitre précédent, ainsi que les simulations associées à ces cartes d’activité.Chacune des simulations présentées est associée à un contexte permettant de définir lesparamètres retenus (liés à la perfusion théorique mais aussi à la qualité de la simulation).

218 5.2 Cartes d’activité et résultats des simulations réalistes de données TEMP

Nous désignerons chacun de ces contextes par un code qui sera repris au chapitre suivantlors de l’évaluation comparative des méthodes de recalage.

5.2.1 Simulations par techniques de Monte Carlo

5.2.1.1 Perfusion normale moyenne

A partir des mesures réalisées sur les données TEMP des 27 sujets sains, nous avonsdéfini un modèle moyen de perfusion normale, en attribuant à chaque structure de notremodèle spatial de l’anatomie la perfusion moyenne mesurée au sein de la population étudiée.Pour les simulations de Monte Carlo, ces mesures relatives de perfusion moyenne ont étépréalablement converties en µCie/cc, en considérant une injection de 500 MBq et une cap-tation cérébrale de l’ordre de 5%. Ce modèle théorique et les simulations correspondantessont présentés sur la figure 5.4. Nous avons défini ici un modèle de perfusion normale com-plètement symétrique en attribuant les mêmes valeurs d’activité théorique dans les deuxhémisphères, afin d’étudier spécifiquement l’influence d’asymétries inter-hémisphériquespathologiques.

Pour les simulations de Monte Carlo, sur les 109 photons simulés, 20.3 millions ont étéretenus par le détecteur. Nous désignerons par Normal.MC la simulation obtenue à partirde ce modèle de perfusion par les techniques de Monte Carlo, par Normal.MCp la mêmesimulation ne prenant en compte que les photons primaires et par Normal.A la simulationanalytique correspondante.

5.2.1.2 Perfusion ictale moyenne caractéristique d’une épilepsie temporo-mésiale

A partir des mesures réalisées sur les données TEMP ictales des 10 sujets épileptiques,nous avons défini un modèle moyen de perfusion ictale, caractéristique de l’épilepsie àpoint de départ temporo-mésiale. Pour cela, les VOIs considérés comme significativementasymétriques à l’aide du test de Student par rééchantillonnage bootstrap (p-value <0.001)ont été retenus pour la création du modèle de perfusion ictale (voir table 4.9). Il s’agissaiten fait des VOIs suivants : Amygdale, Hippocampe, NoyauLenticulaire, Insula, TempPole,TemporoMésiale, TemporoLateral, FrontoOrbitaire, Parietal et Cervelet. Le modèle théo-rique moyen de perfusion ictale a été défini en modifiant les valeurs d’activité du modèlede perfusion normale à partir des différences relatives moyennes de perfusion ictales me-surées en ces VOIs. Sur les conseils du neurologue A. Biraben, pour attribuer une valeurd’activité au cervelet, nous avons directement utilisé la valeur moyenne mesurée au seinde 10 données de TEMP ictale étudiées; l’hypersignal rencontré au niveau du cervelet parrapport aux mesures chez le sujet sain étant une caractéristique des acquisitions ictales.Ce modèle théorique et les simulations correspondantes sont présentés sur la figure 5.5.

Pour les simulations de Monte Carlo, sur les 109 photons simulés, 20.3 millions ont étéretenus par le détecteur. Nous désignerons par Ictal.MC1 la simulation obtenue à partirde ce modèle de perfusion par les techniques de Monte Carlo, par Ictal.MC1p, la mêmesimulation ne prenant en compte que les photons primaires et par Ictal.A la simulationanalytique correspondante.

Nous avons également défini un profil de perfusion pathologique plus extrême que lemodèle moyen de perfusion ictale présenté. Ce modèle a été construit de la même manièreque le précédent, mais en doublant les asymétries relatives mesurées sur la population

Simulation réaliste de données TEMP 219

de sujets épileptiques. Notons que vu la grande dispersion observée au sein des mesuresde perfusion ictale, une situation extrême similaire est susceptible d’être rencontrée enclinique. Dans ces conditions, 109 photons ont également été simulés par des techniquesde Monte Carlo, et 20.3 millions ont été retenus par le détecteur. Nous désignerons parIctal.MC2 cette deuxième simulation de TEMP ictale, présentant un signal pathologiqueplus marqué (voir 5.6).

220 5.2 Cartes d’activité et résultats des simulations réalistes de données TEMP

(a) (b)

(c) (d)

Fig. 5.4 – Simulations de Monte Carlo et analytique à partir du modèle moyen de perfusionnormale : modèle de perfusion (a), simulation de Monte Carlo avec diffusion : Normal.MC(b), simulation de Monte Carlo ne tenant compte que des photons primaires : Normal.MCp(c), simulation analytique : Normal.A (d)

Simulation réaliste de données TEMP 221

(a) (b)

(c) (d)

Fig. 5.5 – Simulations de Monte Carlo et analytique à partir du modèle moyen de perfusionictale caractéristique d’une épilepsie à point de départ temporo-mésiale : modèle de perfu-sion (a), simulation de Monte Carlo avec diffusion : Ictal.MC1 (b), simulation de MonteCarlo ne tenant compte que des photons primaires : Ictal.MC1p (c), simulation analytique :Ictal.A (d)

222 5.2 Cartes d’activité et résultats des simulations réalistes de données TEMP

(a) (b)

Fig. 5.6 – Simulations de Monte Carlo et analytique à partir du modèle moyen de perfusionictale deux fois plus asymétrique : modèle de perfusion (a), simulation de Monte Carlo avecdiffusion : Ictal.MC2 (b)

Simulation réaliste de données TEMP 223

5.2.2 Simulations analytiques

En plus des contextes Normal.A et Ictal.A simulés analytiquement, différents para-mètres ont été ajustés afin de tester l’influence sur le recalage du niveau de bruit poisson-nien, de la présence d’activité extra-cérébrales et de la présence de dissimilarité intrinsèqueTEMP/IRM.

5.2.2.1 Effet du niveau du bruit de comptage

Dans les contextes Normal.A et Ictal.A, nous avons mesuré une intensité moyenneau niveau du cerveau de l’ordre de 5000 coups sur les projections simulées de manièreanalytique par SEQUIN à partir des mesures moyennes de perfusion présentées au chapitreprécédent. En considérant que les intensités mesurées en chaque dexel sont issues d’unedistribution poissonnienne, on en déduit un rapport signal sur bruit S/B =

√5000 = 70.7,

ce qui est très bon par rapport aux données rencontrées en clinique. Ainsi, ces simulationsanalytiques, sont très faiblement bruitées. Pour tester l’influence du bruit, les intensités desprojections ont été divisées par 10 et 100 avant l’ajout de bruit poissonnien. En divisantles projections par 100 avant l’ajout de bruit, on se ramène à un rapport signal sur bruitdu même ordre de grandeur que celui utilisé en simulations de Monte Carlo. On obtientdonc les contextes suivants (voir figure 5.7):

– p01Normal : multiplication des projections de Normal.A par 0.1 avant l’ajout de bruitpoissonnien (S/B = 22.4)

– p001Normal : multiplication des projections de Normal.A par 0.01 avant l’ajout debruit poissonnien (S/B = 7.1)

– p01Ictal : multiplication des projections de Ictal.A par 0.1 avant l’ajout de bruitpoissonnien (S/B = 22.4)

– p001Ictal : multiplication des projections de Ictal.A par 0.01 avant l’ajout de bruitpoissonnien (S/B = 7.1)

5.2.2.2 Simulations d’activité extra-cérébrale

En visualisant les données cliniques de sujets sains et épileptiques présentées au cha-pitre précédent, nous avons observé dans un certain nombre de cas la présence d’activitéextra-cérébrale, principalement au niveau de la peau, des muscles et des glandes salivaires.Pour étudier leur influence sur le recalage, nous avons modifié les modèles moyens de per-fusion normale et ictale, en attribuant aux glandes salivaires une activité égale à l’activitémoyenne mesurée dans tout le cerveau, et en attribuant à la peau, la graisse et les musclesune activité correspondant à 20 % de cette valeur moyenne. Les simulations analytiquescorrespondantes seront désignées par les contextes extNormal et extIctal. Les cartes d’ac-tivité et les simulations analytiques correspondantes sont présentées sur la figure 5.8.

5.2.2.3 Simulations d’activités pathologiques extrêmes

L’influence de dissimilarités intrinsèques TEMP ictale/IRM sur la précision des mé-thodes de recalage utilisant des critères statistiques de similarité est une problématiquecentrale de ce travail de thèse. Par cette notion de dissimilarités intrinsèques, nous enten-dons la présence de zones pathologiques hyperintenses, en TEMP ictale notamment, alors

224 5.2 Cartes d’activité et résultats des simulations réalistes de données TEMP

que l’IRM morphologique est normale. Afin d’étudier l’influence de telles dissimilaritésTEMP/IRM, nous nous sommes placés dans un environnement contrôlé, à partir de simu-lations de bonne qualité (simulations analytiques avec un rapport signal sur bruit de l’ordrede 70.7), et représentant un contexte de dissimilarités intrinsèques extrêmes. A partir dumodèle moyen de perfusion normale, des zones pathologiques ont été créées en définissantdes sphères de rayons respectifs 15, 25 et 35mm centrées sur le lobe temporal. L’activitéthéorique de la matière grise du pôle temporal a été réhaussée de 30 % pour créer uneactivité pathologique 1. Afin de tester l’influence de l’organisation du substrat anatomiquesur la nature des dissimilarités intrinsèques, cette valeur pathologique de perfusion a étéattribuée soit en tous les voxels de la matière grise compris dans la sphère (voire figure5.9), soit en tous les voxels du cerveau compris dans la sphère (voire figure 5.10). On définitainsi les contextes suivants :

– S1.contrainte : dissimilarité intrinsèque contrainte à la matière grise dans une sphèrede rayon 15mm

– S2.contrainte : dissimilarité intrinsèque contrainte à la matière grise dans une sphèrede rayon 25mm

– S3.contrainte : dissimilarité intrinsèque contrainte à la matière grise dans une sphèrede rayon 35mm

– S1.noncontrainte : dissimilarité intrinsèque non contrainte à la matière grise dans unesphère de rayon 15mm

– S2.noncontrainte : dissimilarité intrinsèque non contrainte à la matière grise dans unesphère de rayon 25mm

– S3.noncontrainte : dissimilarité intrinsèque non contrainte à la matière grise dans unesphère de rayon 35mm

1. notons qu’une asymétrie de 30% correspond au maximum des asymétries mesurées en condition ictaleau niveau du pôle temporal chez les 10 sujets épileptiques

Simulation réaliste de données TEMP 225

(a) (b)

(c) (d)

(e) (f)

Fig. 5.7 – Simulations analytiques à différents niveaux de bruit poissonnien, correspondantaux rapports S/B suivant : S/B = 70.7 en perfusion normale, Normal.A (a), ou ictale,Ictal.A (b) - S/B = 22.4 en perfusion normale, p01Normal (c), ou ictale, p01Ictal (d) -S/B = 7.1 en perfusion normale, p001Normal (e), ou ictale, p001Ictal (f)

226 5.2 Cartes d’activité et résultats des simulations réalistes de données TEMP

(a) (b)

(c) (d)

Fig. 5.8 – Simulations analytiques en ajoutant une activité extra-cérébrale dans la peau, lagraisse, les muscles et les glandes salivaires : modèle moyen de perfusion normale modifié(a) et simulation correspondante, extNormal (b)- modèle moyen de perfusion ictale modifié(c) et simulation correspondante, extIctal (d)

Simulation réaliste de données TEMP 227

(a) (b)

(c) (d)

(e) (f)

Fig. 5.9 – Simulations analytiques en présence de dissimilarités intrinsèques contraintes àla matière grise : carte d’activité (a) et simulation correspondante, S1.contrainte (b), pourla sphère de rayon 15mm - carte d’activité (c) et simulation correspondante, S2.contrainte(d), pour la sphère de rayon 25mm - carte d’activité (e) et simulation correspondante,S3.contrainte (f), pour la sphère de rayon 35mm

228 5.2 Cartes d’activité et résultats des simulations réalistes de données TEMP

(a) (b)

(c) (d)

(e) (f)

Fig. 5.10 – Simulations analytiques en présence de dissimilarités intrinsèques noncontraintes à la matière grise : carte d’activité (a) et simulation correspondante,S1.noncontrainte (b), pour la sphère de rayon 15mm - carte d’activité (c) et simulationcorrespondante, S2.noncontrainte (d), pour la sphère de rayon 25mm - carte d’activité (e)et simulation correspondante, S3.noncontrainte (f), pour la sphère de rayon 35mm

Simulation réaliste de données TEMP 229

5.3 Discussion : réalisme des simulations

Nos simulations TEMP sont dites réalistes, de part la création du modèle théorique deperfusion cérébrale déduit de mesures faites sur des examens réels, mais aussi par le fait queles différents processus géométriques et physiques de génération et d’acquisition des donnéesTEMP sont modélisés dans SEQUIN ou SIMSET. Afin de discuter sur les simulationsTEMP que nous venons de présenter, nous nous situons tout d’abord par rapport auxautres approches de génération de données dites de validation, utilisables pour l’évaluationde méthodes de traitement d’images en médecine nucléaire. Nous discutons ensuite l’aspectréaliste des simulations proposées, d’une part en regard de notre objectif de validation duchapitre II.6, mais également d’un point de vue plus général.

5.3.1 Simulations TEMP comme données de validation

Parmi les différents types de données de validation présentées au chapitre I.3, nousne considérons ici que celles acquises ou générées en vue d’obtenir une référence ou ungold standard pour l’évaluation d’une méthode de traitement d’images. Par ce terme trèsgénérique de validation de méthodes de traitement d’images, nous entendons par exemplel’évaluation des performances de méthodes de correction ou de reconstruction de donnéesTEMP, l’évaluation de la précision et de la robustesse des méthodes de recalage, ou encorel’évaluation des sensibilité et spécificité des méthodes de détection d’anomalies fonction-nelles.

De nombreuses études portant sur l’évaluation de ce type de méthodes en TEMP ouTEP sont basées sur l’acquisition de fantômes physiques. Le fantôme le plus courammentutilisé dans ce contexte est très certainement le fantôme de tête proposé par Hoffman et al.[Hoffman 90]. Ce fantôme est réalisé à partir d’un moulage de plexyglas construit à partirde la segmentation de l’IRM d’un sujet sain. Il est constitué de 3 compartiments (matièregrise, matière blanche et liquide céphalo-rachidien), son acquisition en TEMP ou en TEPpermet de contrôler de manière absolue l’activité injectée, de même que la géométrie d’ac-quisition. Cette approche par fantôme physique présente l’avantage de tenir compte dela chaîne d’acquisition réelle. Ainsi, ce fantôme, commercialisé par la société Amersham,a été largement utilisé pour évaluer les performances de diverses techniques d’acquisitionou de correction en TEP ou en TEMP (voir par exemple [Kim 96, VanLaere 00]), maiségalement dans le contexte de la validation de méthodes de recalage en TEP ou en TEMP[Woods 92, Eberl 96, Woods 98, Brinkmann 99]. Toutefois, ne simulant qu’une partie duprocessus de génération des données TEMP, l’utilisation de ce fantôme n’était pas souhai-table dans notre contexte. En effet, même si Woods et al. [Woods 92, Woods 98] utilisentdes ballonnets reliés à des cathéters pour simuler des foyers d’hyperfixation, ces méthodessont difficilement utilisables lorsque l’on cherche à simuler des profils de perfusion patho-logiques complexes, comme celui de l’épilepsie temporale.

Afin de simuler des profils de perfusion complexes, et notamment des zones patholo-giques, divers auteurs ont proposé de modifier artificiellement et localement l’activité dedonnées TEMP réelles. Ainsi, Brinkmann et al. [Brinkmann 99] simulent une TEMP inter-ictale à partir d’une TEMP ictale afin d’étudier le recalage monomodal TEMP/TEMPpréalable à la soustraction SISCOM 2. Pour cela, ils diminuent localement le contraste de

2. SISCOM : Subtracted Ictal Spect CO-registered to MRI

230 5.3 Discussion : réalisme des simulations

la zone pathologique hyperperfusée, lissent le résultat et rajoutent du bruit gaussien. Demanière analogue, Stamatakis et al. [Stamatakis 01] et Radau et al. [Radau 01] simulentdes zones hypoperfusées sur des données TEMP de sujets sains et les utilisent pour éva-luer leur influence sur des méthodes de normalisation spatiale en TEMP. Ces simulationsdonnent accès à un gold standard absolu vis à vis de la localisation des anomalies de perfu-sion simulées, mais elles ne prennent par contre plus en compte la physique de générationet d’acquisition des données au niveau de ces anomalies. Ces méthodes peuvent générer descontours artificiels (e.g. modification du contraste au sein de zones sphériques non lissées[Stamatakis 01]) et ainsi fortement biaiser les résultats vis à vis de la situation cliniquequ’elles sont censées représenter.

Finalement, la dernière grande famille de données de validation utilisée en médecinenucléaire est liée à une modélisation de la géométrie voire de la physique de générationet d’acquisition des données TEMP : il s’agit des méthodes de simulation analytique oude Monte Carlo, telles que nous les avons présentées et utilisées dans ce chapitre. En cequi concerne les simulations analytiques, les phénomènes les plus couramment modélisés,outre la géométrie d’acquisition, sont l’atténuation souvent considérée comme uniforme, lebruit poissonien sur les projections, et la perte de résolution spatiale en profondeur. Plusrarement, une simulation analytique de la diffusion par filtrage stationnaire des projections(généralement avec une fonction exponentielle) est réalisée, voir par exemple la simulationde données TEP proposée par [Ma 93, Ishii 01]. Qu’il s’agisse de simulations analytiquesou de Monte Carlo, ces méthodes requièrent la définition d’un modèle spatial de l’anato-mie cérébrale à partir duquel sont définies les cartes d’activité et d’atténuation. La versionnumérique du fantôme d’Hoffman proposée et évaluée par Kim et al. [Kim 91] a été lar-gement utilisée (voir par exemple [Madsen 92, Lahorte 00]). Une autre approche consisteen la réalisation d’une classification des tissus en IRM (matière grise, matière blanche etliquide céphalo-rachidien), afin de créer un modèle spatial de l’anatomie pour chaque sujetétudié, et d’en déduire des simulations analytiques [Ma 93, Strother 94, Ishii 01]. Ces ap-proches ont été utilisées pour fournir une référence absolue pour l’évaluation de méthodesde recalage TEP/IRM [Strother 94, Barber 95]. L’avantage de telles approches est de pou-voir tenir compte de la variabilité anatomique inter-individuelle inhérente aux donnéesIRM utilisées pour la simulation. La plupart de ces études utilisent une carte d’activitéuniforme au niveau de la matière grise, à l’exception de celle de Barber et al. [Barber 95]qui utilisent un template TEMP comme modèle de l’anatomie. Par contre, dans ce derniercas, le modèle de l’anatomie étant défini à la résolution du template TEMP, l’approche nepermet pas de simuler l’effet de volume partiel. De tels modèles spatiaux de l’anatomie nepermettent donc pas l’utilisation d’un modèle de perfusion plus réaliste comme ceux quenous proposons en perfusion ictale notamment.

Parmi les approches qui intègrent la physique de génération et d’acquisition des donnéesTEMP, la simulation de Monte Carlo est particulièrement appropriée à la modélisation desaspects stochastiques liés à l’émission, la propagation et aux interactions des photons ensimulation TEMP ou TEP [Zaidi 99]. De nombreuses études s’appuient sur de telles simu-lations, et utilisent le fantôme de Zubal comme modèle spatial de l’anatomie. Par contre,le modèle de perfusion reste dans la plupart des cas très simple avec un faible nombre decompartiments, comme par exemple [Gustafsson 00] ou [Buvat 00] pour simuler la distri-bution d’un marqueur de la dopamine. Notre méthode de simulation est à rapprocher desapproches de Collins et al. [Collins 98b] et d’El Fakhri et al. [ElFakhri 01], définissant éga-

Simulation réaliste de données TEMP 231

lement une carte d’activité à la résolution d’une IRM étiquetée et modélisant la physiquede génération et d’acquisition des données. Ainsi Collins et al. proposent un simulateurde données IRM 3 [Kwan 96] et TEP [Ma 93] mais ne proposent pas de méthode d’initia-lisation de la carte d’activité, notamment en TEP. El Fakhri et al. utilisent également dessimulations de TEMP normales et pathologiques obtenues par SIMSET à partir du fan-tôme de Zubal. La carte d’activité est initialisée à l’aide de valeurs moyennes de perfusionnormale mesurées par Koyama et al. [Koyama 97] par une méthode d’analyse par standar-disation anatomique de 10 examens TEMP de sujets sains. Par contre, ils définissent unmodèle de perfusion caractéristique de la maladie d’Alzheimer par modification de ce profilde perfusion normale (réduction de la prise de contraste du 99mTc de 50% dans les lobestemporaux et frontaux ou temporaux et pariétaux), mais sans aucune mesure objective ré-férencée. Or, suivant le type de perfusion pathologique que l’on cherche à simuler, il n’existepas toujours de références bibliographiques sur lesquelles se baser pour identifier un modèlethéorique de perfusion. L’originalité de notre approche est donc d’avoir associé à ces tech-niques de simulation réaliste un découpage anatomique adéquat et une méthode d’analyseTEMP par standardisation anatomique permettant de construire, à partir de mesures surdonnées réelles, un modèle théorique de perfusion adapté à un contexte physiologique ouphysiopathologique précis.

5.3.2 Réalisme des simulations proposées

Caractériser le réalisme des simulations proposées est loin d’être une tâche évidente. Unepartie du réalisme provient de l’étape de modélisation de la perfusion mesurée au sein de lapopulation étudiée. Cet aspect a déjà été discuté au chapitre II.4, et un des enjeux relèvede la caractérisation de la variabilité fonctionnelle au sein de cette population. En ce quiconcerne les aspects de simulation, nous nous sommes limités à l’utilisation de techniquesreconnues de simulation analytique et de Monte Carlo. La pertinence du réalisme destechniques de Monte Carlo pour l’évaluation de la quantification en TEMP a d’ailleurs étédémontrée [ElFakhri 98, Zaidi 99].

L’objectif principal de ces travaux étant d’étudier le comportement de méthodes derecalage utilisant des critères statistiques de similarité dans un environnement contrôlé,nous estimons que la méthode de simulation proposée nous a permis d’y parvenir. Ainsi,le chapitre II.6 présente une étude évaluant l’influence, sur de telles méthodes de reca-lage, de différents facteurs comme par exemple le type de patterns de perfusion moyennenormale ou ictale, la présence de dissimilarités intrinsèques TEMP/IRM, contraintes ounon à la matière grise, ou encore le niveau de bruit des données. Ces facteurs corres-pondent aux différentes simulations qui ont été présentées dans ce chapitre. De manièreanalogue, les autres études portant sur l’évaluation de méthodes de recalage à partir desimulations numériques TEP/IRM [Strother 94], IRM/IRM [Holden 00] ou TEMP/TEMP[Barber 95, Brinkmann 99, Stamatakis 01, Radau 01], évaluent l’influence d’un paramètresur le recalage (e.g. bruit, présence d’une lésion) mais ne mettent pas en question le réa-lisme de leurs simulations. De ce fait, ces approches empiriques permettent de mettre enévidence des aspects intéressants sur le comportement des méthodes de recalage, maisl’extrapolation aux données cliniques de tels résultats ne peut se faire qu’avec prudence.

3. Simulateur IRM : http://www.bic.mni.mcgill.ca/brainweb/

232 5.3 Discussion : réalisme des simulations

L’évaluation du réalisme des données simulées est un aspect clé dans cette perspectived’extrapolation aux données cliniques des résultats obtenus sur données simulées. Vis àvis de l’utilisation de ces simulations pour évaluer d’autres méthodes d’analyse de don-nées TEMP (e.g. techniques de détection d’asymétries fonctionnelles inter-hémisphériques[AubertBroche 02]), une telle évaluation s’avérera primordiale. Pour cela, la méthode quenous envisageons consisterait à mélanger des données réelles et des simulations numé-riques et d’essayer de les discriminer. Différentes méthodes de discrimination peuvent êtreenvisagées, comme une analyse visuelle qualitative par un expert, la génération de cartesstatistiques de type SPM de différences entre une population réelle et une population simu-lée, ou encore l’utilisation de techniques d’analyse factorielle, comme par exemple l’analysefactorielle des correspondances. Dans tous les cas, une telle étude nécessiterait la simula-tion d’un grand nombre de données, ce qui peut poser des problèmes en pratique vu lecoût calculatoire élevé des simulations de Monte Carlo (rappelons que les simulations deMonte Carlo présentées ici ont nécessité 12 jours de calcul sur une O2 Silicon Graphics).Ces contraintes pratiques pourraient être simplifiées par l’utilisation de techniques de ré-duction de variance permettant d’accélérer le processus de simulation [ElFakhri 98]. Enfin,la simulation d’une “population” de données renvoie à une caractérisation préalable de lavariabilité fonctionnelle inter-individuelle, qui nous semble être la principale perspectivede ces travaux de modélisation.

Evaluation de méthodes de recalage TEMP/IRM utilisant des mesuresstatistiques de similarités 233

Chapitre 6

Evaluation de méthodes de recalageTEMP/IRM utilisant des mesuresstatistiques de similarités

L’objectif de ce chapitre est d’utiliser les simulations TEMP du chapitre II.5 afin d’éva-luer et de comparer les performances de méthodes de recalage utilisant des critères sta-tistiques de similarité. Pour l’évaluation du recalage multimodal TEMP/IRM, nous avonsopté pour l’étude de 6 critères de similarité largement utilisés dans la communauté du re-calage d’images, et basés sur différentes hypothèses quant à la nature du “lien” statistiqueentre les données à recaler : l’information mutuelle (IM), l’information mutuelle normalisée(IMN), le coefficient de corrélation (CC), le rapport de corrélation en norme L1 (RCL1)et L2 (RCL2) et le critère de Woods (CW). A l’exception du critère de Woods, dédié aurecalage multimodalité, toutes les autres mesures ont également été utilisées pour validerle recalage monomodal TEMP/TEMP. Pour une présentation détaillée de ces différentesmesures statistiques de similarité, ainsi que de leur propriétés et des hypothèses qu’ellesposent vis à vis de la nature de cette similarité, nous renvoyons le lecteur au chapitre I.2.

L’environnement de simulation qui a été mis en place nous permet de disposer d’ungold standard absolu vis à vis de la géométrie, vu que, par construction, l’IRM pondérée enT1 du fantôme de Zubal et les simulations TEMP sont en parfaite mise en correspondancegéométrique. La connaissance de la carte théorique d’activité du radio-traceur nous permetcontrôler de différentes manières la structure du “lien” statistique entre les données, etd’en étudier les influences sur les performances des méthodes de recalage. Ainsi, différentscontextes de génération des données TEMP ont été mimés en jouant sur le modèle théoriquede perfusion (perfusion moyenne normale ou ictale déduite des mesures du chapitre II.4,simulation de dissimilarités extrêmes, présence d’activités extra-cérébrales), mais égalementen jouant sur la qualité de la simulation (simulation de Monte Carlo avec ou sans photonsdiffusés, simulations analytiques avec différents niveaux de bruit poissonnien).

Dans ce chapitre, nous commençons par présenter la procédure de validation mise enœuvre conformément à la classification proposée au chapitre I.3. Les résultats et analysesstatistiques de l’évaluation comparative des diverses techniques de recalage considérées sontprésentés dans le cas du recalage multimodal TEMP/IRM, puis dans le cas du recalagemonomodal TEMP/TEMP. Nous terminons ce chapitre par une discussion des résultats, en

234 6.1 Présentation des méthodes de recalage évaluées

positionnant notre étude par rapport aux études de validation présentées dans la littérature.Nous en déduisons quelques conseils vis à vis de l’utilisation de ces méthodes de recalage surdes données cliniques, et discutons la possibilité d’utiliser cet environnement pour évaluerd’autres méthodes d’analyses de données TEMP que du recalage.

6.1 Présentation des méthodes de recalage évaluées

6.1.1 Prétraitements

Aucun prétraitement n’a été appliqué aux données à recaler, à l’exception toutefois del’utilisation d’une segmentation préalable du cerveau sur les données IRM, nécessaire pourla mise en œuvre du critère de Woods [Woods 93].

6.1.2 Modèle de transformation géométrique et repère

La transformation géométrique spatiale recherchée a été modélisée de manière rigide.Les dimensions de l’échantillonnage et du champ de vue des données étant fournies par lesconstructeurs, il est possible de calculer les coefficients de remise à l’échelle. La transfor-mation géométrique recherchée T n’est donc composée que de trois translations et de troisrotations.

Ces transformations sont définies dans un repère lié au sujet, i.e. un repère centrépar rapport aux données et utilisant une métrique millimétrique. En fait, nous utilisonsun repère dit “mondial”, qui n’est autre que le repère lié au sujet pour des acquisitionssagittales. Ainsi sous ces conventions, l’axe x désigne l’axe avant vers arrière, l’axe y désignel’axe haut vers bas, et l’axe z désigne l’axe gauche vers droite.

6.1.3 Mesures statistiques de similarité

La table 6.1 présente les mesures de statistiques de similarité qui ont été étudiées. Pourchaque mesure, nous précisons le sigle que nous adopterons, le numéro de l’équation corres-pondant à sa définition dans le chapitre I.2, ainsi que la nature du “lien” statistique mesuré.Nous précisons également si la mesure a été étudiée dans le cas du recalage multimodalTEMP/IRM et/ou monomodal TEMP/TEMP.

Pour chaque transformation géométrique T , l’estimation de tous ces critères a été réali-sée à partir de l’histogramme joint p↓A,B. Dans tous les cas, nous avons utilisé une interpo-lation intrinsèque ou “partial volume” (voir équation 2.16), qui permet d’éviter la créationde nouvelles intensités artificielles et confère à l’estimation de la loi jointe plus de régu-larité en fonction des variations de T [Maes 97]. L’image flottante B↓ sur laquelle portaitl’interpolation était la TEMP. Lorsque le critère était asymétrique (RCL1, RCL2 ou CW),l’IRM a été choisie comme information a priori.

6.1.4 Méthode d’optimisation

L’optimisation des différents critères suivant la transformation géométrique T a étéréalisée à l’aide de la méthode d’optimisation multi-dimensionnelle de Powell, associée à

Evaluation de méthodes de recalage TEMP/IRM utilisant des mesuresstatistiques de similarités 235

Tab. 6.1 – Mesures statistiques de similarité évaluées

Sigle Mesure No. de l’équa-tion

Lien statistique recherché Rec.TEMP/IRM

Rec.TEMP/TEMP

IM InformationMutuelle

2.85 écart à l’indépendance statistique × ×

IMN InformationMutuelleNormalisée

2.87 écart à l’indépendance statistique × ×

CC Coefficient deCorrélation

2.62 dépendance linéaire × ×

RCL1 Rapport deCorrélationen norme L1

2.75 dépendance fonctionnelle × ×

RCL2 Rapport deCorrélationen norme L2

2.71 dépendance fonctionnelle × ×

CW Critère deWoods

2.78 dépendance fonctionnelle (unifor-mité des partitions issues des inten-sités de l’IRM)

×

l’algorithme de recherche mono-dimensionnelle de Brent [Press 92]. La méthode de Po-well recherche l’optimum d’une fonction multi-dimensionnelle par optimisations mono-dimensionnelles successives selon des directions mutuellement conjuguées dans l’espace desparamètres. Chaque optimisation mono-dimensionnelle est réalisée à l’aide de la méthodede Brent, qui approche localement la fonctionnelle par une parabole. Si la fonctionnellede coût à optimiser est quadratique, on montre que la méthode de Powell converge en unnombre fini d’itérations.

6.1.5 Stratégie de recherche

La méthode d’optimisation de Powell étant une méthode d’optimisation locale, il convientde se doter d’une stratégie de recherche limitant au maximum la convergence vers un op-timum local. Pour cela, on initialise de façon adéquate l’algorithme d’optimisation, demanière à ne pas partir trop loin de la solution recherchée. On réalise ainsi une binari-sation de la tête dans chacune des données à recaler par seuillage de l’histogramme desintensités des images. Le seuil est détecté automatiquement en repérant le premier pic del’histogramme au delà du bruit de fond. La transformation géométrique T est alors initia-lisée par la translation permettant d’aligner les centres de gravité des deux données ainsibinarisées.

Nous avons également mis en place une stratégie multi-résolution à deux étages. Elleconsiste en le sous-échantillonnage d’un des deux volumes d’un facteur 2. Dans le cas durecalage multimodal, seule l’IRM est sous-échantillonnée. La transformation géométriqueobtenue après recalage utilisant ces données sous-échantillonnées est alors utilisée pourinitialiser l’optimisation à partir des données d’origine.

236 6.2 Hypothèse de validation

6.1.6 Résultat du recalage

On désignera par T la transformation géométrique estimée après convergence de l’al-gorithme de recalage.

6.2 Hypothèse de validation

6.2.1 Niveau d’évaluation

Le niveau d’évaluation de cette étude est à la fois clinique et technique. L’aspect tech-nique est lié au fait que, lors de cette étude, on cherche à contrôler la qualité des donnéesTEMP via des simulations analytiques à différents niveaux de bruit, et via des simulationde Monte Carlo prenant en compte ou non les photons diffusés. La simulation plus oumoins réaliste de profils de perfusion normale et de perfusion ictale caractéristique d’uneépilepsie à point de départ temporo-mésiale, confère à cette étude son intérêt à un niveauclinique.

6.2.2 Description des modalités

Une seule et même acquisition IRM a été utilisée pour tous les recalages. Il s’agit del’IRM 3D pondérée en T1 à partir de laquelle a été définie le fantôme de Zubal [Zubal 90].Elle est constituée de 124 coupes axiales 256 × 256, les dimensions du pixel dans le plande coupe sont de 1.1 mm et l’épaisseur de coupe est de 1.4 mm.

Toutes les simulations TEMP utilisées consistaient après reconstruction tomographiqueen des matrices volumiques de 128 × 128 × 128 voxels. Chaque voxel était isotropique dedimension 4.51 mm. Les données TEMP simulées présentaient ainsi les mêmes caractéris-tiques en terme de dimension, d’échantillonnage, mais aussi de résolution spatiale que lesdonnées TEMP cliniques acquises dans le service de médecine nucléaire de Rennes. Notonségalement que nous avons pris garde à ce que l’échantillonnage spatial des données TEMPne soit pas un multiple de l’échantillonnage spatial de l’IRM, afin d’éviter que des artéfactsd’optima locaux du critère (surtout IM et IMN) ne se manifestent lors d’alignement sur lagrille des voxel des données [Pluim 00a].

6.2.3 Contexte clinique

Les contextes cliniques qui ont été considérés dans cette étude concernent principale-ment la perfusion normale moyenne mesurée sur une population de 27 sujets et la perfusionictale moyenne mesurée sur une population de 10 sujets épileptiques présentant une épi-lepsie temporo-mésiale.

6.2.4 Objectif de validation

Bien que diverses comparaisons et analyses statistiques aient été réalisées pour décrireles résultats (voir §II.6.5), nous avons également défini un objectif de validation. Cet objec-tif peut être formulé de la manière suivante : est ce que le recalage multimodal TEMP/IRMou monomodal TEMP/TEMP utilisant des critères statistiques de similarité permet d’at-teindre une erreur quadratique moyenne, estimée sur le cerveau, significativement inférieureà la taille du voxel des données TEMP (4.51 mm)?

Evaluation de méthodes de recalage TEMP/IRM utilisant des mesuresstatistiques de similarités 237

6.3 Mise en œuvre de la procédure de validation

6.3.1 Gold standard

Par construction, les simulations TEMP étant en parfaite mise en correspondance géo-métrique avec l’IRM, nous disposons d’un gold standard absolu pour l’évaluation des per-formances de méthodes de recalage.

6.3.2 Données de validation

Les données de validation utilisées sont, outre l’IRM du fantôme de Zubal, toutes lessimulations de données TEMP présentées au chapitre II.5. Les différents contextes quesont censés représenter ces simulations sont rappelés dans la table 6.2. Nous précisonségalement s’il s’agit de simulations analytiques ou de Monte Carlo, et si elles ont été utili-sées pour l’évaluation du recalage multimodal TEMP/IRM et/ou du recalage monomodalTEMP/TEMP.

6.3.3 Transformation de référence

Par construction, la transformation géométrique entre l’IRM et les simulations TEMPcorrespondantes est l’identité. Pour simuler différents problèmes de recalage, nous avonsgénéré aléatoirement Nt transformations géométriques initiales T ∗. Chacune a été obtenuepar tirage aléatoire d’un vecteur de 6 paramètres (3 translations en mm et 3 rotations endegrés) sur distribution gaussienne centrée d’écart-type 10. Le nombre Nt de transforma-tions ainsi générées variait entre 60 et 120 tests suivant les configurations testées.

Chacune de ces transformation T ∗ a été utilisée pour rééchantillonner un des deuxvolumes à recaler par interpolation trilinéaire. Dans le cas du recalage multimodalité, l’IRMa été rééchantillonnée. T ∗ représente donc la transformation géométrique de référence, etdoit être comparée à la transformation T estimée par la méthode de recalage à évaluer.

238 6.3 Mise en œuvre de la procédure de validation

Tab. 6.2 – Contextes explorés par les simulations TEMP (MC : simulation de MonteCarlo, A: simulation analytique)

Nom Type desimulation

Description Rec.TEMP/IRM

Rec.TEMP/TEMP

Normal.MC MC simulation à partir du modèle moyen de perfusionnormale

× ×

Normal.MCp MC simulation à partir du modèle moyen de perfusionnormale, sans prise en compte des photons diffusés

×

Normal.A A simulation à partir du modèle moyen de perfusionnormale

×

Ictal.MC1 MC simulation à partir du modèle moyen de perfusionictale

× ×

Ictal.MC2 MC simulation à partir du modèle moyen de perfusionictale, deux fois plus asymétrique

× ×

Ictal.MC1p MC simulation à partir du modèle moyen de perfusionictale, sans prise en compte des photons diffusés

×

Ictal.A A simulation à partir du modèle moyen de perfusionictale

×

extNormal A simulation d’activité extra-cérébrale à partir dumodèle moyen de perfusion normale

×

extIctal A simulation d’activité extra-cérébrale à partir dumodèle moyen de perfusion ictale

×

p01Normal A multiplication des projections de Normal.A par0.1 avant l’ajout de bruit poissonnien (S/B =22.4)

×

p001Normal A multiplication des projections de Normal.A par0.01 avant l’ajout de bruit poissonnien (S/B =7.1)

×

p01Ictal A multiplication des projections de Ictal.A par 0.1avant l’ajout de bruit poissonnien (S/B = 22.4)

×

p001Ictal A multiplication des projections de Ictal.A par 0.01avant l’ajout de bruit poissonnien (S/B = 7.1)

×

S1.contrainte A dissimilarité intrinsèque contrainte à la matièregrise dans une sphère de rayon 15 mm

×

S2.contrainte A dissimilarité intrinsèque contrainte à la matièregrise dans une sphère de rayon 25 mm

×

S3.contrainte A dissimilarité intrinsèque contrainte à la matièregrise dans une sphère de rayon 35 mm

×

S1.noncontrainte A dissimilarité intrinsèque non contrainte à la ma-tière grise dans une sphère de rayon 15 mm

×

S2.noncontrainte A dissimilarité intrinsèque non contrainte à la ma-tière grise dans une sphère de rayon 25 mm

×

S3.noncontrainte A dissimilarité intrinsèque non contrainte à la ma-tière grise dans une sphère de rayon 35 mm

×

Evaluation de méthodes de recalage TEMP/IRM utilisant des mesuresstatistiques de similarités 239

6.4 Métriques de validation

6.4.1 Type de divergence : une erreur absolue

Vu que l’on dispose d’un gold standard absolu, la transformation géométrique de ré-férence T ∗, on est à même de proposer une estimation de l’erreur absolue des recalagesréalisés.

6.4.2 Objet de la mesure de l’erreur

Afin de fournir une mesure de l’erreur de recalage qui ait un sens pour l’utilisateurpotentiel de ces méthodes de recalage, i.e. le clinicien, nous avons opté pour une mesurespatiale de l’erreur de recalage et non pour une mesure d’un écart sur les paramètres destransformations géométriques. Ainsi pour estimer l’erreur de recalage, nous avons échan-tillonnés, sur l’IRM du fantôme de Zubal, Np = 1600 points uniformément répartis dans lecerveau et Np = 1400 points uniformément répartis sur la peau. L’IRM en question étantpar construction la même que notre modèle spatial de l’anatomie cérébrale (voir chapitreII.4), la connaissance des structures anatomiques auxquelles appartiennent chacun de cespoints rend possible une description plus “anatomique” de la distribution des erreurs derecalage.

6.4.3 Etude de la distribution des erreurs

6.4.3.1 Précision

Au niveau Local (L) : Pour chacun des tests j de recalage réalisés dans un contexte(i.e. pour un type de données de validation) et pour chaque point xi du cerveau ou sur lapeau, l’erreur locale (EL) de recalage est estimée par :

ELij =∥∥∥xi − T−1

j (T ∗j (xi))

∥∥∥ (6.1)

avec i ∈< 1,Np > et j ∈< 1,Nt >. ‖ ‖ indique ici la mesure d’une distance euclidienneen mm. Rappelons que Nt correspond au nombre de tests de recalage réalisés dans cetteconfiguration, i.e. au nombre de transformations de références T ∗ générées aléatoirement.Remarquons également que cette mesure d’erreur est équivalente à la “Target RegistrationError” utilisée dans l’évaluation rétrospective du projet Vanderbilt [West 97].

Au niveau Intrinsèque (I) à une donnée de validation pour un test particulier :Pour chaque test j réalisé, nous proposons l’utilisation de deux statistiques, l’erreur

quadratique moyenne et le maximum, pour résumer la distribution de l’erreur locale ausein de toute la donnée de validation considérée. On définit alors les mesures d’erreurintrinsèque à une donnée de validation pour un test de recalage par :

EQMj =

√√√√ 1

Np

Np∑

i=1

EL2ij (6.2)

Maxj = Max i∈<1,Np> ELij (6.3)

240 6.4 Métriques de validation

Au niveau Global (G) à tous les tests réalisés sur une donnée de validation :Afin de resumer la distribution des erreurs de recalage intrinsèques EQMj , pour tous

les tests réalisés dans un contexte donné, i.e., pour un seul type de données de validation,on utilisera les statistiques descriptives que sont la médiane Med, la moyenne empiriqueMoy, le 90ieme quantile Q90 et le maximum Max. Ces statistiques sont définies par :

– Médiane Med définie telle que :

#(EQMj ≤ Med)

Nt= 0.5 (6.4)

– Moyenne empirique Moy :

Moy =1

Nt

Nt∑

j=1

EQMj (6.5)

– 90ieme quantile Q90 défini tel que :

#(EQMj ≤ Q90)

Nt= 0.9 (6.6)

– Maximum Max :Max = Max j∈<1,Nt> EQMj (6.7)

6.4.3.2 Résolution

Pour chaque contexte considéré, la résolution des méthodes de recalage étudiées estestimée par l’écart-type σ de la distribution des erreurs intrinsèques EQMj pour les Nt

tests réalisés.Ecart-type σ :

σ =

√√√√ 1

Nt − 1

Nt∑

j=1

(EQMj − Moy)2 (6.8)

6.4.3.3 Pourcentage d’échec

Seuls les recalages ayant convergé vers des solutions complètement aberrantes n’ontpas été pris en compte lors de l’analyse statistique. Après une première analyse visuellede la distribution des EQMj , seuls les recalages ayant conduit à une erreur quadratiquemoyenne sur le cerveau, supérieure à 2 cm ont été écartés de l’analyse.

Néanmoins, à titre indicatif, nous avons estimé, pour chaque contexte, les pourcentagessuivant pouvant être considérés comme des taux d’échec :

P4.51 =#(Maxj > 4.51)

Nt× 100 (6.9)

P12.2 =#(Maxj > 12.2)

Nt× 100 (6.10)

où rappelons 4.51 mm correspond à l’échantillonnage spatial des données TEMP et 12.2mm à leur résolution spatiale.

Evaluation de méthodes de recalage TEMP/IRM utilisant des mesuresstatistiques de similarités 241

6.4.4 Test d’hypothèse

Pour répondre à la question posée par notre objectif de validation (cf. §II.6.2.4), nousavons posé le test d’hypothèse suivant :

H0 : E[EQMj ] > 4.51H1 : E[EQMj ] ≤ 4.51

(6.11)

où E indique l’espérance mathématique. Ce test est résolu à l’aide d’une statistique deStudent estimée à partir de Moy et σ. Si la pvalue du test est petite (e.g. < 0.01), onrejettera H0 en tolérant un erreur de première espèce de 1%., i.e., l’erreur quadratiquemoyenne, estimée sur le cerveau, sera significativement inférieure à la taille du voxel desdonnées TEMP (4.51 mm).

242 6.5 Résultats de l’évaluation comparative de méthodes de recalage

6.5 Résultats de l’évaluation comparative de méthodes de

recalage

6.5.1 Recalage multimodal TEMP/IRM

Parmi tous les essais de recalage réalisés dans le cas multimodal TEMP/IRM, seuls 2 ontété écartés de l’analyse statistique car ils correspondaient à des mises en correspondancetotalement aberrantes caractérisées par une erreur quadratique moyenne sur le cerveauEQMj supérieure à 2cm. Ces deux essais correspondaient à deux recalages utilisant lecritère de Woods dans le contexte Ictal.MC1p. Même si pour chaque critère de similaritéet chaque contexte de simulation, la distribution des EQMj était asymétrique et présentaitune queue lourde vers les valeurs les plus élevées, seuls ces deux essais étaient de loin lesplus déviants.

6.5.1.1 Perfusion moyenne normale et ictale

CW IM

IMN

RC

L1

RC

L2

CW IM

IMN

RC

L1

RC

L2

CC

CW IM

IMN

RC

L1

RC

L2

CC

CW IM

IMN

RC

L1

RC

L2

CC

CW IM

IMN

RC

L1

RC

L2

0

2

4

6

8

10 Ictal.MC1p001Normal p001Ictal Normal.MC Ictal.MC2

Fig. 6.1 – Effet du contexte pathologique : distribution des erreurs de recalage EQMj enmm pour chaque critère de similarité dans chaque contexte normal et ictal correspondantaux simulations de Monte Carlo avec diffusion et aux simulations analytiques à un niveaude bruit équivalent, i.e., S/B = 7.1 (ligne continue = 4.51mm)

Evaluation de méthodes de recalage TEMP/IRM utilisant des mesuresstatistiques de similarités 243

Tab. 6.3 – Statistiques descriptives globales des erreurs de recalage (Med, Moy, σ, Q90 etMax en mm), pvalue du test d’hypothèse et taux d’échec (P4.51 et P12.2 en%) pour chaquecritère de similarité dans chaque contexte correspondant aux simulations issues d’un modèlemoyen de perfusion normale ou ictale

Contexte Critère Nt Med Moy σ Q90 Max pvalue P4.51 en% P12.2 en%

Normal.MC IM 122 2.37 2.34 0.215 2.53 2.92 <0.001 0.00 0.00Normal.MC IMN 121 2.35 2.36 0.197 2.57 3.05 <0.001 0.00 0.00Normal.MC RCL2 122 2.17 2.13 0.231 2.37 2.75 <0.001 0.00 0.00Normal.MC RCL1 121 2.11 2.07 0.255 2.28 2.75 <0.001 0.00 0.00Normal.MC CW 120 2.32 2.49 0.511 3.00 4.77 <0.001 13.33 0.00Normal.MC CC 121 3.29 3.28 0.307 3.63 4.12 <0.001 88.43 0.00

Normal.MCp IM 49 2.73 2.72 0.244 2.85 4.00 <0.001 8.16 0.00Normal.MCp IMN 49 2.72 2.73 0.185 2.90 3.58 <0.001 16.33 0.00Normal.MCp RCL2 49 2.63 2.61 0.220 2.80 3.10 <0.001 4.08 0.00Normal.MCp RCL1 49 2.71 2.73 0.346 3.10 3.75 <0.001 20.41 0.00Normal.MCp CW 49 4.86 5.22 1.684 7.75 10.37 9.98e-01 97.96 14.29

Ictal.MC1 IM 120 3.44 3.41 0.248 3.62 4.13 <0.001 48.33 0.00Ictal.MC1 IMN 119 3.44 3.44 0.268 3.72 4.16 <0.001 57.98 0.00Ictal.MC1 RCL2 119 3.22 3.22 0.249 3.49 3.94 <0.001 43.70 0.00Ictal.MC1 RCL1 120 3.18 3.17 0.307 3.44 4.20 <0.001 52.50 0.00Ictal.MC1 CW 119 3.30 3.50 0.597 4.23 6.40 <0.001 79.83 0.00Ictal.MC1 CC 119 4.65 4.65 0.316 5.04 5.78 1.00e-00 100.00 0.00

Ictal.MC1p IM 49 3.22 3.21 0.228 3.48 3.72 <0.001 20.41 0.00Ictal.MC1p IMN 49 3.22 3.22 0.225 3.47 3.85 <0.001 18.37 0.00Ictal.MC1p RCL2 49 3.23 3.25 0.283 3.47 4.50 <0.001 75.51 0.00Ictal.MC1p RCL1 49 3.25 3.24 0.388 3.55 5.10 <0.001 73.47 0.00Ictal.MC1p CW 49 7.33 7.57 1.679 9.87 12.36 1.00e+00 100.00 67.35

Ictal.MC2 IM 119 4.38 4.37 0.194 4.58 5.13 <0.001 100.00 0.00Ictal.MC2 IMN 119 4.35 4.34 0.206 4.58 5.13 <0.001 100.00 0.00Ictal.MC2 RCL2 119 4.61 4.61 0.222 4.87 5.12 1.00e-00 100.00 0.00Ictal.MC2 RCL1 119 4.47 4.48 0.289 4.83 5.24 1.42e-01 100.00 0.00Ictal.MC2 CW 119 4.36 4.45 0.714 5.01 7.87 1.85e-01 100.00 0.84Ictal.MC2 CC 119 6.31 6.37 0.460 6.93 7.45 1.00e+00 100.00 0.00

Normal.A IM 61 1.18 1.24 0.158 1.44 1.69 <0.001 0.00 0.00Normal.A IMN 61 1.19 1.22 0.129 1.40 1.64 <0.001 0.00 0.00Normal.A RCL2 61 1.83 1.81 0.155 1.98 2.21 <0.001 0.00 0.00Normal.A RCL1 61 1.60 1.62 0.157 1.83 2.03 <0.001 0.00 0.00Normal.A CW 55 3.08 3.41 1.323 5.39 7.67 <0.001 69.09 1.82

extNormal IM 61 1.29 1.32 0.208 1.58 1.83 <0.001 0.00 0.00extNormal IMN 61 1.27 1.29 0.194 1.49 1.87 <0.001 0.00 0.00extNormal RCL2 61 2.00 1.98 0.220 2.26 2.57 <0.001 0.00 0.00extNormal RCL1 61 1.76 1.79 0.224 2.16 2.34 <0.001 0.00 0.00extNormal CW 61 2.40 2.51 0.695 3.28 5.52 <0.001 26.23 0.00

Ictal.A IM 61 1.00 1.05 0.187 1.33 1.53 <0.001 0.00 0.00Ictal.A IMN 61 1.01 1.05 0.217 1.40 1.81 <0.001 0.00 0.00Ictal.A RCL2 61 1.75 1.75 0.252 1.98 2.92 <0.001 0.00 0.00Ictal.A RCL1 62 1.51 1.50 0.205 1.75 2.12 <0.001 0.00 0.00Ictal.A CW 52 5.49 5.77 1.333 6.82 10.65 1.00e-00 100.00 9.62

extIctal IM 61 1.15 1.17 0.184 1.38 1.90 <0.001 0.00 0.00extIctal IMN 61 1.15 1.19 0.226 1.43 1.92 <0.001 0.00 0.00extIctal RCL2 61 1.76 1.79 0.234 2.04 2.81 <0.001 0.00 0.00extIctal RCL1 61 1.48 1.53 0.289 1.76 2.99 <0.001 1.64 0.00extIctal CW 61 2.22 2.40 0.690 3.61 4.47 <0.001 24.59 0.00

244 6.5 Résultats de l’évaluation comparative de méthodes de recalage

CW IM

IMN

RC

L1

RC

L2

CW IM

IMN

RC

L1

RC

L2

CW IM

IMN

RC

L1

RC

L2

CW IM

IMN

RC

L1

RC

L2

CW IM

IMN

RC

L1

RC

L2

CW IM

IMN

RC

L1

RC

L2

0

2

4

6

8

10 Normal.A Normal.MCp extNormal Ictal.A Ictal.MC1p extIctal

Fig. 6.2 – Comparaison des simulations analytiques : distribution des erreurs de recalageEQMj en mm pour chaque critère de similarité dans chaque contexte correspondant auxsimulations analytiques et aux simulations de Monte Carlo sans diffusion. Ces simulationssont issues d’un modèle moyen de perfusion normale ou ictale. L’effet de la présence d’ac-tivités extra-cérébrales est également représenté, cf. extNormal et extIctal (ligne continue= 4.51mm)

Evaluation de méthodes de recalage TEMP/IRM utilisant des mesuresstatistiques de similarités 245

6.5.1.2 Niveau de bruit poissonnien

CW IM

IMN

RC

L1

RC

L2

CW IM

IMN

RC

L1

RC

L2

CW IM

IMN

RC

L1

RC

L2

CW IM

IMN

RC

L1

RC

L2

CW IM

IMN

RC

L1

RC

L2

CW IM

IMN

RC

L1

RC

L2

0

2

4

6

8

10 p001Normal p001Ictal p01Normal p01Ictal Normal.A Ictal.A

Fig. 6.3 – Effet du niveau de bruit poissonien : distribution des erreurs de recalage EQMj

en mm pour chaque critère de similarité dans chaque contexte normal et ictal correspondantaux simulations analytiques à différents niveaux de bruit poissonnien (ligne continue =4.51mm)

246 6.5 Résultats de l’évaluation comparative de méthodes de recalage

Tab. 6.4 – Statistiques descriptives globales des erreurs de recalage (Med, Moy, σ, Q90 etMax en mm), pvalue du test d’hypothèse et taux d’échec (P4.51 et P12.2 en%) pour chaquecritère de similarité dans chaque contexte correspondant aux simulations analytiques àdifférents niveaux de bruit poissonnien

Contexte Critère Nt Med Moy σ Q90 Max pvalue P4.51 en% P12.2 en%

Normal.A IM 61 1.180 1.24 0.158 1.44 1.69 <0.001 0.00 0.00Normal.A IMN 61 1.187 1.22 0.129 1.40 1.64 <0.001 0.00 0.00Normal.A RCL2 61 1.829 1.81 0.155 1.98 2.21 <0.001 0.00 0.00Normal.A RCL1 61 1.600 1.62 0.157 1.83 2.03 <0.001 0.00 0.00Normal.A CW 55 3.079 3.41 1.323 5.39 7.67 <0.001 69.09 1.82

p01Normal IM 59 1.073 1.11 0.137 1.23 1.52 <0.001 0.00 0.00p01Normal IMN 59 1.112 1.16 0.195 1.44 1.71 <0.001 0.00 0.00p01Normal RCL2 59 1.811 1.83 0.191 2.07 2.61 <0.001 0.00 0.00p01Normal RCL1 59 1.590 1.63 0.211 1.87 2.37 <0.001 0.00 0.00p01Normal CW 53 3.143 3.37 1.297 4.82 7.70 <0.001 71.70 1.89

p001Normal IM 61 1.180 1.22 0.168 1.48 1.77 <0.001 0.00 0.00p001Normal IMN 60 1.197 1.23 0.146 1.41 1.69 <0.001 0.00 0.00p001Normal RCL2 60 1.860 1.91 0.219 2.16 2.72 <0.001 0.00 0.00p001Normal RCL1 61 1.639 1.68 0.230 1.95 2.57 <0.001 0.00 0.00p001Normal CW 54 3.893 4.19 1.119 5.83 8.06 2.01e-02 98.15 1.85

Ictal.A IM 61 1.000 1.05 0.187 1.33 1.53 <0.001 0.00 0.00Ictal.A IMN 61 1.015 1.05 0.217 1.40 1.81 <0.001 0.00 0.00Ictal.A RCL2 61 1.745 1.75 0.252 1.98 2.92 <0.001 0.00 0.00Ictal.A RCL1 62 1.513 1.50 0.205 1.75 2.12 <0.001 0.00 0.00Ictal.A CW 52 5.487 5.77 1.333 6.82 10.65 1.00e-00 100.00 9.62

p01Ictal IM 60 0.962 1.01 0.132 1.23 1.34 <0.001 0.00 0.00p01Ictal IMN 60 0.974 1.02 0.209 1.28 2.14 <0.001 0.00 0.00p01Ictal RCL2 60 1.733 1.74 0.192 1.97 2.43 <0.001 0.00 0.00p01Ictal RCL1 60 1.514 1.51 0.208 1.76 2.13 <0.001 0.00 0.00p01Ictal CW 50 5.466 5.73 1.409 7.13 11.02 1.00e-00 100.00 14.00

p001Ictal IM 61 0.997 1.04 0.161 1.25 1.68 <0.001 0.00 0.00p001Ictal IMN 61 0.988 1.02 0.147 1.20 1.69 <0.001 0.00 0.00p001Ictal RCL2 61 1.736 1.74 0.211 2.02 2.39 <0.001 0.00 0.00p001Ictal RCL1 61 1.531 1.57 0.301 1.83 2.87 <0.001 3.28 0.00p001Ictal CW 52 5.089 5.45 1.354 6.91 10.81 1.00e-00 100.00 11.54

Evaluation de méthodes de recalage TEMP/IRM utilisant des mesuresstatistiques de similarités 247

6.5.1.3 Dissimilarités intrinsèques extrêmes

CW IM

IMN

RC

L1

RC

L2

CW IM

IMN

RC

L1

RC

L2

CW IM

IMN

RC

L1

RC

L2

CW IM

IMN

RC

L1

RC

L2

CW IM

IMN

RC

L1

RC

L2

CW IM

IMN

RC

L1

RC

L2

0

2

4

6

8

10 S1.contrainte S1.noncontrainte S2.contrainte S2.noncontrainte S3.contrainte S3.noncontrainte

Fig. 6.4 – Effet des dissimilarités intrinsèques extrêmes : distribution des erreurs de reca-lage EQMj en mm pour chaque critère de similarité dans chaque contexte correspondantaux simulations présentant des dissimilarités intrinsèques extrêmes contraintes ou non à lamatière grise (ligne continue = 4.51mm)

248 6.5 Résultats de l’évaluation comparative de méthodes de recalage

Tab. 6.5 – Statistiques descriptives globales des erreurs de recalage (Med, Moy, σ, Q90et Max en mm), pvalue du test d’hypothèse et taux d’échec (P4.51 et P12.2 en%) pourchaque critère de similarité dans chaque contexte correspondant aux simulations analytiquesprésentant des dissimilarités intrinsèques extrêmes

Contexte Critère Nt Med Moy σ Q90 Max pvalue P4.51 en% P12.2 en%

S1.contrainte IM 61 1.14 1.20 0.158 1.41 1.72 <0.001 0.00 0.00S1.contrainte IMN 61 1.14 1.18 0.148 1.41 1.62 <0.001 0.00 0.00S1.contrainte RCL2 61 1.77 1.80 0.192 2.11 2.37 <0.001 0.00 0.00S1.contrainte RCL1 61 1.57 1.62 0.206 1.86 2.30 <0.001 0.00 0.00S1.contrainte CW 55 3.38 3.57 1.225 5.18 7.67 <0.001 76.36 1.82

S2.contrainte IM 60 1.07 1.11 0.168 1.30 1.67 <0.001 0.00 0.00S2.contrainte IMN 60 1.11 1.15 0.163 1.32 1.76 <0.001 0.00 0.00S2.contrainte RCL2 60 1.63 1.69 0.267 1.90 3.29 <0.001 1.67 0.00S2.contrainte RCL1 60 1.48 1.50 0.200 1.72 2.23 <0.001 0.00 0.00S2.contrainte CW 55 5.25 5.46 1.036 6.87 9.53 1.00e-00 100.00 7.27

S3.contrainte IM 60 1.15 1.19 0.211 1.41 1.98 <0.001 0.00 0.00S3.contrainte IMN 60 1.15 1.18 0.158 1.27 1.81 <0.001 0.00 0.00S3.contrainte RCL2 60 1.70 1.74 0.310 1.92 3.78 <0.001 1.67 0.00S3.contrainte RCL1 60 1.47 1.51 0.219 1.73 2.44 <0.001 1.67 0.00S3.contrainte CW 54 4.59 4.90 1.090 6.54 8.97 9.95e-01 98.15 5.56

S1.noncontrainte IM 60 1.15 1.18 0.177 1.43 1.82 <0.001 0.00 0.00S1.noncontrainte IMN 59 1.14 1.18 0.156 1.42 1.75 <0.001 0.00 0.00S1.noncontrainte RCL2 60 1.71 1.75 0.166 1.97 2.31 <0.001 0.00 0.00S1.noncontrainte RCL1 60 1.54 1.58 0.252 1.88 2.92 <0.001 0.00 0.00S1.noncontrainte CW 53 4.03 4.39 1.095 5.96 8.38 2.21e-01 98.11 3.77

S2.noncontrainte IM 59 1.08 1.13 0.161 1.39 1.60 <0.001 0.00 0.00S2.noncontrainte IMN 59 1.11 1.15 0.175 1.39 1.73 <0.001 0.00 0.00S2.noncontrainte RCL2 59 1.67 1.70 0.228 2.04 2.26 <0.001 0.00 0.00S2.noncontrainte RCL1 59 1.43 1.49 0.277 1.78 2.62 <0.001 0.00 0.00S2.noncontrainte CW 53 6.18 6.39 1.090 7.97 10.29 1.00e+00 100.00 13.21

S3.noncontrainte IM 58 1.18 1.22 0.208 1.40 2.39 <0.001 0.00 0.00S3.noncontrainte IMN 58 1.18 1.23 0.226 1.39 2.39 <0.001 0.00 0.00S3.noncontrainte RCL2 58 1.77 1.79 0.229 2.14 2.39 <0.001 0.00 0.00S3.noncontrainte RCL1 58 1.44 1.47 0.225 1.71 2.35 <0.001 0.00 0.00S3.noncontrainte CW 52 5.87 6.13 1.144 7.90 9.83 1.00e-00 100.00 15.38

Evaluation de méthodes de recalage TEMP/IRM utilisant des mesuresstatistiques de similarités 249

6.5.1.4 Analyses de la variance

De manière globale, les différents résultats qui viennent d’être présentés montrent detrès bonnes performances du recalage, vu qu’à l’exception du CW et du contexte Ictal.MC2,ils ont tous montré une erreur quadratique moyenne sur le cerveau significativement infé-rieure à 4.51 mm. On atteint donc une précision subvoxelique, ce qui était notre objectifde validation.

Etude de l’effet du contexte : Pour chacune des méthodes de recalage, on a réalisé uneanalyse de la variance (ANOVA) afin de caractériser l’effet du contexte sur les performancesdu recalage. Dans tous les cas, un effet très significatif du contexte a été observé (testsF : pvalue <0.001; et R2

ajust de 0.6 à O.9). Pour tous les critères à l’exception de CW,l’ANOVA a montré que les recalages utilisant des simulations analytiques étaient toussignificativement plus précis que les recalages utilisant des simulations de Monte Carlo.Parmi les simulations de Monte Carlo, les essais réalisés dans le contexte Normal.MC sesont montrés les plus précis. On observe une dégradation significative de la qualité durecalage lorsque l’on simule un contexte pathologique (cf. Ictal.MC1 et Ictal.MC2). Parcontre, au sein des simulations analytiques, les différents contextes étudiés (bruit, activitésextra-cérébrales ou dissimilarités intrinsèques extrêmes) n’ont eu que peu d’influence surles performances des méthodes de recalage.

Etude de l’effet de la méthode de recalage : De manière générale, le choix ducritère de similarité a été montré nettement moins influent que le contexte simulé surla précision du recalage. Les mêmes ANOVA ont été réalisées pour chaque contexte afind’étudier l’effet du choix de la mesure statistique de similarité sur la précision du recalage.Les résultats de ces ANOVA sont à interpréter avec prudence. En effet, même si les testsF ont montré un effet très significatif, les coefficients R2

ajust étaient relativement faibles(entre 0.2 et 0.6). Ceci provient certainement du fait que l’allure des distributions deserreurs de recalage présentait des queues relativement lourdes vers les valeurs les plusélevées de EQMj , et les résidus de l’ANOVA n’étaient pas du tout gaussiens. Idéalement,il faudrait modéliser l’allure de ces distributions dans l’analyse, ce qui nous ramènerait àune régression non linéaire. Malgré tout, on observe qu’avec les simulations analytiques, lescritères entropiques se sont montrés légèrement plus performants que les critères basés surle rapport de corrélation (L1 ou L2). Par contre, dans le cas des simulations de Monte Carlo,ce sont les critères RCL1 et RCL2 qui se sont montrés plus précis que les critères entropiques(IM et IMN). Lorsqu’il s’agit du contexte pathologique le plus extrême (Ictal.MC2), lescritères entropiques redeviennent les plus précis.

250 6.5 Résultats de l’évaluation comparative de méthodes de recalage

6.5.2 Recalage monomodal TEMP/TEMP

Sur les mêmes critères que dans le cas du recalage multimodal (EQMj > 2cm), aucunessai de recalage n’a été écarté avant l’analyse statistique.

CC

IM

IMN

RC

L1

RC

L2

CC

IM

IMN

RC

L1

RC

L2

CC

IM

IMN

RC

L1

RC

L2

0

2

4

6

8

10Normal.MC Ictal.MC1 Ictal.MC2

Fig. 6.5 – Recalage monomodal TEMP/TEMP : distribution des erreurs de recalage EQMj

en mm pour chaque critère de similarité dans chaque contexte normal et ictal correspondantaux simulations de Monte Carlo (ligne continue = 4.51mm)

6.5.2.1 Analyses de la variance

Seuls les contextes de simulations de Monte Carlo ont été évalués en recalage monomo-dal. Dans le cas du recalage Normal.MC/Normal.MC, deux simulations de Monte Carloindépendantes ont été utilisées. Nous avons réalisé les mêmes analyses de la variance quedans le cas du recalage multimodal afin d’évaluer l’effet du contexte et du choix de la mé-thode sur la précision des méthodes de recalage. Les erreurs de recalage étant dans ces caségalement distribuées de manière complètement asymétrique, les résultats des analyses dela variance n’étaient pas interprétables (R2

ajust < 0.1), et il conviendrait de proposer uneautre méthode d’analyse capable de tenir compte de l’allure de ces distributions. Néan-moins, visuellement, on observe qu’à partir des mêmes simulations, le recalage monomodalTEMP/TEMP est plus précis que le recalage multimodal TEMP/IRM, et que la présenced’une zone pathologique dégrade également la précision du recalage.

Evaluation de méthodes de recalage TEMP/IRM utilisant des mesuresstatistiques de similarités 251

Tab. 6.6 – Recalage monomodal TEMP/TEMP : statistiques descriptives globales des er-reurs de recalage (Med, Moy, σ, Q90 et Max en mm), pvalue du test d’hypothèse ettaux d’échec (P4.51 et P12.2 en%) pour chaque critère de similarité dans chaque contextecorrespondant aux simulations de Monte Carlo

Contexte Critère Nt Med Moy σ Q90 Max pvalue P4.51 en% P12.2 en%

Ictal.MC1 IM 100 1.833 2.051 0.758 3.00 6.79 <0.001 10.0 0Ictal.MC1 IMN 100 1.595 1.661 0.570 2.28 4.44 <0.001 2.0 0Ictal.MC1 RCL2 100 1.384 1.534 0.501 2.10 4.74 <0.001 3.0 0Ictal.MC1 RCL1 100 1.222 1.504 0.582 2.51 3.26 <0.001 2.0 0Ictal.MC1 CC 100 1.364 1.574 0.698 2.22 6.46 <0.001 4.0 0

Ictal.MC2 IM 99 2.209 2.413 0.593 3.06 5.88 <0.001 16.2 0Ictal.MC2 IMN 100 1.994 2.163 0.495 2.81 4.37 <0.001 2.0 0Ictal.MC2 RCL2 100 2.476 2.634 0.694 3.07 7.74 <0.001 16.0 1Ictal.MC2 RCL1 100 1.892 2.079 0.458 2.85 3.74 <0.001 4.0 0Ictal.MC2 CC 100 2.512 2.706 0.716 3.26 8.03 <0.001 20.0 1

Normal.MC IM 100 1.563 1.756 0.811 2.29 8.49 <0.001 4.0 1Normal.MC IMN 100 1.258 1.339 0.473 1.96 2.99 <0.001 1.0 0Normal.MC RCL2 100 0.450 0.772 0.961 1.51 8.29 <0.001 2.0 1Normal.MC RCL1 100 0.644 0.905 0.573 1.74 3.18 <0.001 3.0 0Normal.MC CC 100 0.464 0.813 0.943 1.72 7.21 <0.001 3.0 1

252 6.6 Discussion

6.6 Discussion

Nous allons à présent discuter les résultats de cette évaluation de méthodes de recalageutilisant des mesures statistiques de similarité à l’aide de simulations réalistes de donnéesTEMP. Nous commençons par faire la synthèse des résultats observés lors de l’évaluationdu recalage multimodal TEMP/IRM, puis lors de l’évaluation du recalage monomodalTEMP/TEMP, avant de situer notre étude par rapport à la littérature concernant l’éva-luation de méthodes de recalage impliquant des données TEMP. Nous terminons cettediscussion par la présentation de quelques perspectives de ces travaux. A savoir, à partirde ces résultats, est-il possible de donner quelques conseils sur l’application de ces mé-thodes de recalage sur des données cliniques? Quels éléments restent-ils à modéliser danscette approche basée sur des simulations réalistes ? Cet environnement permettrait-il ledéveloppement de nouvelles méthodes de recalage, spécifiquement dédiées à un problèmeclinique donné?

6.6.1 Synthèse sur l’évaluation du recalage TEMP/IRM par mesuresstatistiques de similarité

De manière générale, l’évaluation du recalage TEMP/IRM dans les différents contextessimulés a fourni d’excellents résultats en terme de précision. En effet, dans pratiquementtous les contextes simulés, et pour tous les critères à l’exception de CC et de CW, onobserve une erreur quadratique moyenne mesurée sur l’ensemble du cerveau significative-ment inférieure à la taille du pixel des données TEMP, à savoir 4.51 mm (pvalue < 0.001).Dans un grand nombre de cas, l’erreur maximale mesurée sur l’ensemble des points échan-tillonnés dans le cerveau est inférieure à 4.51 mm. Néanmoins, ces résultats ne sont plusvérifiés dans les contextes de simulation de Monte Carlo de données ictales (Ictal.MC1 etsurtout Ictal.MC2). Dans le contexte pathologique le plus extrême en simulation de MonteCarlo, Ictal.MC2, seuls les critères entropiques, IM et IMN, permettent d’obtenir une er-reur quadratique moyenne significativement inférieure à 4.51 mm au niveau du cerveau(pvalue < 0.001). A contrario, seul le critère de Woods (CW) génère dans certains cas deserreurs de recalage telles que l’erreur maximale mesurée sur l’ensemble des points échan-tillonnés dans le cerveau est supérieure à la résolution spatiale des données TEMP, i.e.,12.2 mm. Nous reviendrons sur ce point au §II.6.6.1.2. Le coefficient de corrélation qui n’aété testé qu’avec les simulations de Monte Carlo, fournit des résultats moins précis que lescritères entropiques (IM et IMN) ou basés sur le rapport de corrélation (RCL1 et RCL2).Ce résultat n’est pas étonnant, vu que dans le cas du recalage multimodal TEMP/IRM larelation entre les intensités des images n’est clairement pas de nature linéaire. Nous avonsd’ailleurs modélisé en partie cette non linéarité lors de la création de la carte d’activitéthéorique pour les simulations.

6.6.1.1 Simulations analytiques versus simulations de Monte Carlo

Quoi qu’il en soit, l’information importante qu’il faut retenir de cette étude, est quesur ces données il y a très peu de différences de précision entre les différentes méthodesde recalage évaluées (notamment entre IM, IMN, RCL1 et RCL2). Par contre il y a uneffet prépondérant du contexte simulé sur la précision globale de toutes ces méthodes derecalage. Ainsi, les différents recalages étudiés sont nettement moins précis lorsqu’ils sont

Evaluation de méthodes de recalage TEMP/IRM utilisant des mesuresstatistiques de similarités 253

évalués à partir des simulations de Monte Carlo, que lorsqu’ils sont évalués à partir dessimulations analytiques. Les différents contextes simulés de manière analytique, que cesoit l’influence du bruit, la présence d’activités TEMP extra-cérébrales ou encore la pré-sence de dissimilarités intrinsèques extrêmes (contraintes ou non à la matière grise), ontcomparativement très peu d’effet sur les différentes méthodes de recalage. Dans le cas dessimulations de Monte Carlo, la simulation de conditions pathologiques perturbe de ma-nière conséquente les méthodes de recalage. Pour les quatre critères donnant des résultatssimilaires (IM, IMN, RCL1 et RCL2), l’ANOVA a montré dans chacun des cas un effet trèssignificatif du contexte sur l’EQMcerveau (tests F avec une pvalue < 0.001, et coefficientsR2

ajust > 0.9). Ces résultats montrent que toutes les simulations analytiques permettentd’obtenir des recalages plus précis qu’à partir de la simulation de Monte Carlo du pat-tern moyen de perfusion normale (Normal.MC). Ces mêmes ANOVA montrent que toutesles autres simulations de Monte Carlo, à savoir les contextes pathologiques (Ictal.MC1et Ictal.MC2) et les simulations de Monte Carlo n’utilisant que les photons primaires(Normal.MCp et Ictal.MC1p) engendrent des résultats de recalage moins précis que dansle contexte Normal.MC. A un moindre degré, on observe un comportement légèrementmeilleur des méthodes de recalage dans le cas des simulations ne tenant compte que desphotons primaires (Normal.MCp et Ictal.MC1p) par rapport aux contextes pathologiques(Ictal.MC1 et Ictal.MC2).

Afin d’expliquer ces résultats, rappelons les principales différences inhérentes aux si-mulations analytiques et de Monte Carlo, vis à vis des phénomènes simulés. Ainsi, lesdeux techniques simulent une atténuation non-uniforme des photons et en partie l’effet devolume partiel en définissant une résolution spatiale finie du détecteur. Lors des simula-tions analytiques, l’effet de volume partiel n’est simulé que par un lissage suivi d’un souséchantillonnage des projections calculées à partir d’une carte d’activité haute-résolution.Par contre, la modélisation géométrique du collimateur et du cristal utilisée dans les si-mulations de Monte Carlo, permet une modélisation plus réaliste de cet effet de volumepartiel, mais aussi de la perte de résolution en profondeur, qui elle n’est pas simulée parles méthodes analytiques que nous avons utilisées. De plus, seules les techniques de simula-tion de Monte Carlo permettent de modéliser la diffusion des photons. Le logiciel SimSETnous fournissant séparément les photons primaires et diffusés acceptés par le détecteur,il est possible de reconstruire des données simulées avec (Normal.MC, Ictal.MC1, et Ic-tal.MC2) ou sans (Normal.MCp et Ictal.MC1p) effet de la diffusion. De plus, à l’exceptiondes contextes p001.Normal et p001.Ictal 1, la plupart des simulations analytiques utiliséesétaient relativement peu bruitées à l’aide de bruit poissonnien (rapport signal sur bruit del’ordre de 70).

Les résultats observés en terme d’évaluation de méthodes de recalage suggèrent queles différents phénomènes que sont le bruit de comptage, l’effet de volume partiel, la pertede résolution en profondeur et la diffusion semblent avoir des conséquences importantessur la précision des méthodes de recalage utilisant des mesures statistiques de similarité.Néanmoins, notre étude ne nous permet pas d’identifier explicitement quels sont les phé-nomènes prépondérants. Nous pouvons cependant émettre quelques hypothèses. Ainsi, lesessais simulant de manière analytique différents niveaux de bruit poissonnien (rapportssignal/bruit respectivement de : 70, 22.3 et 7) ne nous ont pas permis de mettre en évi-

1. rapport signal sur bruit de l’ordre de 7, du même ordre de grandeur que pour les simulations deMonte Carlo

254 6.6 Discussion

dence un effet du bruit de comptage sur la précision des méthodes de recalage. Il en est demême sur l’influence de dissimilarités intrinsèques même extrêmes (contraintes ou non àla matière grise) à partir de simulations analytiques. Par contre, les simulations de MonteCarlo ont montré un effet perturbateur lié à la présence de dissimilarités intrinsèques (cf.contextes Ictal.MC1 et Ictal.MC2). Une explication de telles observations pourrait être queles différents effets simulés par Monte Carlo perturbent la nature de la dépendance statis-tique entre les données TEMP et IRM. Entre les simulations analytiques TEMP et l’IRM,nous avons, par construction, modélisé une dépendance fonctionnelle, qu’il nous semblepossible de décrire analytiquement. Par contre, décrire la nature du “lien” statistique entreles simulations TEMP de Monte Carlo et l’IRM, s’avérerait nettement plus délicat comptetenu de la complexité de la technique de simulation, et de ses aspects stochastiques. Finale-ment, l’hypothèse selon laquelle l’influence des dissimilarités intrinsèques TEMP/IRM (e.g.conditions ictales) sur la structure de la dépendance statistique entre ces données seraitamplifiée par des phénomènes tels que l’effet de volume partiel, la perte de résolution enprofondeur ou encore la diffusion constitue pour nous une piste de recherche intéressanteque nous envisageons d’explorer ultérieurement.

6.6.1.2 Explication du comportement instable du critère de Woods avec nossimulations

Les performances somme toute plutôt médiocres observées pour le critère de Woodssur nos simulations nous ont intriguées. Notamment, nous avons observé que même s’ilétait généralement moins robuste (cf. taux d’échec plus élevé que les autres méthodes), ilprésentait des performances en terme de précision moyenne analogues aux autres méthodesseulement dans deux contextes de simulation. La première concernait les évaluations utili-sant des simulations de Monte Carlo tenant compte de l’effet de la diffusion (Normal.MC,Ictal.MC1 et Ictal.MC2). La seconde concernait les évaluations utilisant des simulationsanalytiques à partir d’une carte d’activité présentant des activations extra-cérébrales, dansla peau et la graisse notamment (cf. extNormal et extIctal). Dans tous les autres contextes,le recalage utilisant le critère de Woods était nettement moins précis : une explication decette instabilité serait liée au fait qu’il n’y a pratiquement aucune activité en dehors ducerveau dans ces simulations TEMP.

En effet, la mesure d’uniformité réalisée par le critère de Woods revient à partitionerl’image IRM en 256 classes (correspondant aux 256 niveaux de gris), de positionner cespartitions sur les données TEMP compte tenu du recalage, de mesurer en chaque classe uncoefficient de variation des intensités TEMP, et finalement de faire une moyenne pondéréede ces coefficients de variation. Or, la division par la moyenne qui intervient lors du calculde ces coefficients de variation peut générer une certaine instabilité du critère, surtout sicette moyenne est faible, donc proche d’une division par 0. De plus, le critère étant évaluésur un masque du cerveau défini sur l’IRM, il nous parait possible que cette situation, i.e.,présence de partitions de moyennes faibles, puisse être rencontrée lors d’erreurs de recalagealignant certains voxels de l’IRM sur la périphérie des simulations TEMP, où rappelons-le,il y a très peu de signal.

Cette hypothèse permet d’expliquer les meilleures performances observées dans les casoù la diffusion ou une activité extra-cérébrale ont été simulées. En effet, dans les deux cas lesignal TEMP extra-cérébral chute nettement moins rapidement que pour les autres simu-

Evaluation de méthodes de recalage TEMP/IRM utilisant des mesuresstatistiques de similarités 255

lations, ce qui stabilise le critère. C’est bien le cas lorsque l’on simule la diffusion, puisquecelle-ci a tendance à lisser les données et rajouter un biais pratiquement constant sur toutel’image (phénomène de surestimation causé par la diffusion, bien connu en quantification[Buvat 99]).

Précisons finalement que nous ne nous permettons pas de juger ici le critère de Woodstel qu’il est implémenté dans le logiciel Automated Image Registration (AIR) 2 [Woods 98].En effet, nous n’avons étudié que le critère et non un package logiciel. D’ailleurs, les prétrai-tements proposés par Woods et al. dans [Woods 98] et notamment le lissage gaussien sontsusceptibles d’améliorer nettement les performances de la méthode sur nos simulations, enlimitant ces effets de bord.

6.6.2 Synthèse de l’évaluation du recalage TEMP/TEMP basé par me-sures statistiques de similarité

Le recalage monomodal TEMP/TEMP n’a été évalué qu’à partir des simulations deMonte Carlo (contextes Normal.MC, Ictal.MC1 et Ictal.MC2). Le principal résultat de cetteanalyse est que tous les recalages monomodaux TEMP/TEMP se sont montrés nettementplus précis que ceux faisant intervenir l’IRM comme support intermédiaire (recalage mul-timodal TEMP/IRM), et cela quelque soient les critères évalués (IM, IMN, CC, RCL1 etRCL2) (médianes de l’EQMcerveau allant de 0.4 à 2.2 mm, par rapport à des valeurs allantde 2.1 à 6.3 mm dans les mêmes conditions en recalage multimodal). L’allure très asy-métrique des distributions de l’erreur EQMcerveau a rendu l’ANOVA inutilisable dans cesconditions, du fait des queues lourdes de ces distributions vers les valeurs d’erreurs élevées,indiquant des recalages ayant certainement convergé vers des optima locaux. L’analyse gra-phique de ces distributions montre néanmoins un net effet de la présence de dissimilaritésintrinsèques (et donc d’une zone pathologique) sur la précision du recalage, de même quedans le cas multimodal. Ici encore, la présence de dissimilarités intrinsèques a une influencesur la nature du lien statistique entre les données et donc sur la précision du recalage.

Sur les représentations graphiques des distributions d’erreur par diagrammes “boxplot”,on observe également de meilleures performances des rapports de corrélation L1 et L2 et ducoefficient de corrélation par rapport aux critères entropiques (IM et IMN). En effet, lors durecalage monomodal de deux jeux de données simulées indépendamment dans le contexteNormal.MC, l’algorithme recale des données entre lesquelles il existe, par construction,une forte part de dépendance linéaire, ce qui est confirmé par le fait que, dans ce cas, lameilleure précision soit obtenue avec le coefficient de corrélation. Dans le cas du recalageentre une simulation Normal.MC et Ictal2.MC, censé représenter le recalage entre desdonnées ictales et inter-ictales en clinique, les meilleures performances sont obtenues par lerapport de corrélation en norme L1, découlant du caractère robuste de ce critère. Ce derniersemble donc ne pas avoir tenu compte de la zone pathologique lors du recalage, ce qui estprécisément ce qu’on attend d’un critère de similarité dans ce contexte pathologique.

Finalement, ces résultats nous semblent particulièrement intéressants dans le contextedes méthodes de soustraction TEMP ictale/ TEMP inter-ictale superposée sur l’IRM(SISCOM 3) [Zubal 95, O’Brien 98, Pérault 02]. Contrairement à nos attentes, nos résul-tats tendent à montrer qu’il est plus précis de mettre en œuvre un recalage monomodal

2. Logiciel AIR : http://bishopw.loni.ucla.edu/AIR3/index.html3. SISCOM : Subtracted Ictal Spect CO-registered to MRI

256 6.6 Discussion

TEMP/TEMP, plutôt que de faire intervenir l’IRM comme support intermédiaire en uti-lisant deux recalages multimodaux TEMP/IRM, et ce apparemment même dans le cas dedonnées TEMP pathologiques. L’IRM possédant une meilleure résolution spatiale que laTEMP, on s’attendait plutôt à observer la situation inverse. Il est évident que la nature du“lien” statistique entre les intensités des données est nettement plus complexe dans le casmultimodal TEMP/IRM que dans le cas monomodal TEMP/TEMP, et nos résultats nousincitent à préférer un recalage monomodal TEMP/TEMP avant un recalage TEMP/IRM,lorsque l’on cherche à superposer le résultat de la soustraction sur l’IRM. C’est en effetcette dernière approche qui a été proposée dans la littérature, mais cet aspect n’a jamaisété évalué.

Néanmoins, notre étude ne nous permet pas de conclure sur l’influence du rééchantillon-nage des données sur la précision du recalage. En effet, dans la procédure de validationproposée, chaque transformation géométrique initiale, tirée aléatoirement, est utilisée pourrééchantillonner par interpolation trilinéaire l’image A (i.e. l’IRM dans le multimodal, ou lasimulation TEMP Normal.MC dans le cas monomodal). Ce rééchantillonnage engendre né-cessairement un lissage plus important en TEMP qu’en IRM et pourrait avoir une influencesur les performances des techniques de recalage étudiées. L’échantillonnage intervient éga-lement au niveau de la stratégie d’optimisation mise en œuvre. Ainsi, comme conseillé parMaes et al. [Maes 99], nous avons utilisé une stratégie d’optimisation à deux niveaux, enne sous-échantillonnant que l’image A. Le fait de sous-échantillonner l’image A sans lissagepréalable permet de s’assurer qu’à tous les niveaux de multirésolution, un voxel contribuede la même manière à l’histogramme joint. Néanmoins, dans une évaluation du recalageTEMP/IRM, Zhu et al. [Zhu 02b] suggèrent de sous-échantillonner, avec ou sans lissagepréalable, de telle sorte que l’on se ramène à des résolutions spatiales du même ordre degrandeur en TEMP et en IRM. L’influence de tels paramètres devrait être évaluée sur nosdonnées, afin de vérifier si dans ces conditions le recalage monomodal reste plus précis quele recalage multimodal.

6.6.3 Comparaison avec les résultats de la littérature

L’état de l’art du chapitre I.3 nous a montré la difficulté de comparer entre-elles diffé-rentes études de validation. Ce point est principalement dû à un manque de standardisationau sein de la communauté pour guider la mise en œuvre d’une procédure de validation d’uneméthode de traitement d’images médicales. En s’inspirant d’un modèle visant à uniformi-ser ces procédures [Jannin 02] (travaux en cours de publication au laboratoire), nous avonsproposé une classification des études portant sur l’évaluation de méthodes de recalage im-pliquant des données TEMP ou utilisant des mesures statistiques de similarité. Nous avonsainsi montré que la plupart des études impliquant des données TEMP n’utilisaient pas degold standard précis (voir chapitre I.3).

Ainsi, à l’exception de Barnden et al. qui utilisent des marqueurs placés sur la peau[Barnden 00], la plupart de ces évaluations, dites sans gold standard, consistent en faiten une comparaison avec une technique de recalage particulière considérée comme réfé-rence, ou en une comparaison avec une transformation géométrique moyenne [deMunck 98,Nikou 98, Foehrenbach 99, Pfluger 00, Zhu 02a, Zhu 02b]. Certains auteurs ont égalementutilisé des simulations numériques pour étudier le recalage IRM/TEMP [Thurjfell 00],le recalage IRM/TEP [Strother 94], la normalisation spatiale TEMP/ template TEMP

Evaluation de méthodes de recalage TEMP/IRM utilisant des mesuresstatistiques de similarités 257

[Barber 95, Stamatakis 01, Radau 01] ou encore le recalage TEMP ictale/TEMP inter-ictale [Brinkmann 99]. Il s’agissait soit de simulations analytiques à partir d’une IRM classi-fiée en trois compartiments [Strother 94, Thurjfell 00] ou d’un template TEMP [Barber 95],soit de simulations obtenues par modification locale du contraste sur des données TEMPréelles [Brinkmann 99, Stamatakis 01, Radau 01]. Vu que dans toutes ces études, l’implé-mentation des méthodes utilisées, les données de validation ou encore les métriques devalidation utilisées étaient souvent différentes, il nous paraît difficile de proposer une com-paraison quantitative des résultats de ces différentes études. Néanmoins, nos résultats enterme de précision sont du même ordre de grandeur que ceux publiés dans ces études (voirnotamment [Barnden 00]).

Il n’existe pas à notre connaissance d’étude publiée concernant l’évaluation du recalageTEMP / IRM dans le contexte clinique de la perfusion ictale. Il existe quelques études dansle cas de l’évaluation du recalage monomodal TEMP ictale/TEMP inter-ictale [Eberl 96,Brinkmann 99]. Eberl et al. montrent d’ailleurs un bon comportement de la différencedes intensités en norme L1 (cf. SDA : équation 2.60) face à des dissimilarités intrinsèquesliées à l’utilisation de données ictales et inter-ictales. Ce résultat est cohérent avec notreobservation des meilleures performances de RCL1 dans les mêmes conditions.

Dans la plupart de ces évaluations qui n’utilisent pas de gold standard mais consistenten une comparaison avec une méthode de référence, les auteurs précisent que l’évaluationquantitative de l’erreur de recalage est certainement sous-estimée. Nos simulations, notam-ment les simulations analytiques, sont certainement de meilleure qualité que les donnéescliniques habituelles, et donc nous sous-estimons également l’erreur de recalage habituel-lement rencontrée en clinique.

6.6.4 Perspectives

6.6.4.1 Quelques conseils pour le recalage des données cliniques

Il convient bien évidemment d’être prudent lorsque l’on cherche à extrapoler nos ré-sultats aux données cliniques. Cependant, notre étude dans un environnement complè-tement contrôlé nous a permis d’identifier certaines propriétés susceptibles d’avoir desconséquences sur la mise en œuvre en clinique de ces procédures de recalage. Ainsi, globa-lement, nous avons montré que la précision des méthodes de recalage dépendait beaucoupplus de la qualité des données TEMP que du critère de similarité choisi, notamment lescritères IM, IMN, RCL1 et RCL2 ont montré des performances analogues. Les phénomènestels que l’effet de volume partiel, la perte de résolution en profondeur et la diffusion, quidégradent les images TEMP, semblent être déterminants vis à vis de la qualité du reca-lage. Ces résultats suggèrent que ces aspects nécessiteraient d’être appréhendés de manièreplus systématique. Ainsi, notre environnement de simulation peut très bien être utilisépour tester l’un après l’autre ces effets perturbateurs, mais aussi l’influence sur la qualitédu recalage de différentes méthodes de reconstruction tomographique et de correction. Parexemple, il serait intéressant d’étudier l’influence sur la qualité du recalage d’une correctionde la perte de résolution en profondeur ou d’une correction de la diffusion par la fenêtrede Jaszczak. Une telle étude systématique est en effet difficilement envisageable sur desdonnées cliniques et limitée par la difficulté de disposer d’un gold standard précis. Alorsqu’il n’est bien évidemment pas possible d’envisager l’utilisation d’un cadre de stéréotaxielors d’acquisitions ictales pour des raisons de sécurité, l’utilisation d’imageurs permettant

258 6.6 Discussion

une acquisition TEMP et Scanner X sans repositionnement du patient pourrait être unbon compromis pour vérifier la validité de nos résultats en clinique.

6.6.4.2 Vers une modélisation complète du processus lié au recalage TEMP/IRM

Nous avons beaucoup discuté du réalisme de la modélisation de la perfusion ainsi quedes processus de génération et d’acquisition des données TEMP. Nous avons déjà sug-géré qu’il faudrait tenir compte de la variabilité fonctionnelle des données TEMP, et quel’utilisation de techniques telles que l’analyse factorielle des correspondances semble pro-metteuse pour caractériser cette variabilité. Néanmoins, deux aspects importants n’ont pasété modélisés dans notre environnement de simulation : la qualité des données IRM et lavariabilité anatomique inter-individuelle. Ces deux aspects ont certainement une influencesur la structure du lien “statistique” entre les données TEMP et IRM, et devraient doncthéoriquement être étudiés.

Tous nos essais en terme de validation de méthodes de recalage n’ont utilisé qu’uneseule IRM, celle du fantôme de Zubal. Notons de plus que cette IRM présente un biaisnon-stationnaire au niveau des intensités des voxels, principalement lié à la présence d’in-homogénéités Radio-Fréquence (RF) lors de l’acquisition. Ces distorsions n’ont pas étécorrigées et peuvent avoir une influence sur le recalage utilisant un critère statistique desimilarité. Une manière objective d’évaluer l’influence de la qualité du signal IRM seraitd’utiliser un simulateur réaliste de données IRM tel que “Brainweb” 4 développé au BrainImaging Center (McGill, Montreal)[Collins 98b]. Holden et al. [Holden 00] ont d’ailleursutilisé ce simulateur pour évaluer la précision du recalage IRM/IRM obtenue avec huitcritères statistiques de similarité.

La deuxième limitation de notre étude est qu’elle est basée sur un modèle spatial del’anatomie d’un seul sujet, celui utilisé pour l’acquisition du fantôme de Zubal. Idéalementil faudrait donc tenir compte de la variabilité anatomique inter-individuelle dans notreenvironnement de simulation. Pour cela, il est d’abord nécessaire de la mesurer et de lamodéliser. La modélisation de la variabilité anatomique inter-individuelle est un problèmedélicat qui sort complètement du cadre de cette étude. Quelques travaux allant dans cettedirection ont été publiés. Citons par exemple la création des SPAM (Statistical ProbabilisticAnatomical Map) par l’équipe d’Evans et al. [Evans 96] qui proposent une classificationfloue inter-individuelle de 98 structures anatomiques, ou encore les travaux de Barillot etal. [Barillot 99b] sur l’analyse factorielle des formes des principaux sillons corticaux.

6.6.4.3 Une meilleure modélisation pour les méthodes de recalage par infé-rence statistique

La plupart des critères statistiques de similarité couramment utilisés en recalage mono-ou multimodalité posent des hypothèses quant à la nature du “lien” statistique entre lesdonnées à mettre en correspondance : uniformité pour CW, dépendance linéaire pour CC,dépendance fonctionnelle pour RCL1 et RCL2 ou encore écart à l’indépendance statis-tique pour IM et IMN (voir chapitre I.2). De nouvelles approches récemment proposéesconsistent à modéliser la structure de ce lien statistique à partir du type de données à re-caler, afin de construire un critère de similarité spécifiquement adapté au type de données

4. Simulateur IRM “Brainweb” : http://www.bic.mni.mcgill.ca/brainweb/

Evaluation de méthodes de recalage TEMP/IRM utilisant des mesuresstatistiques de similarités 259

que l’on cherche à mettre en correspondance [Leventon 98, Roche 01a, Zhu 02a]. Dans cestrois cas, le problème du recalage se ramène à une maximisation de la log-vraisemblanceentre la loi jointe des données à recaler et un modèle de loi jointe a priori caractéristiquedu type de données que l’on cherche à recaler. On montre alors que la maximisation dela log-vraisemblance revient à minimiser la divergence de Kullback-Leibler entre ces deuxlois jointes. La loi jointe a priori peut être estimée à partir de données de même naturepréalablement recalées [Leventon 98, Zhu 02a]. Roche et al. [Roche 01a] proposent d’esti-mer cette loi jointe a priori à partir des données à recaler et d’un modèle de génération decelles-ci.

Il est intéressant de noter que ce modèle de génération des données proposé par A.Roche est très proche du modèle que nous avons mis en place dans notre environnement desimulation. Ainsi dans les deux cas, on part d’un modèle spatial de l’anatomie cérébrale,à partir duquel on génère les données à recaler grâce à une transformation en intensitéet l’ajout de bruit. La transformation géométrique que la méthode de recalage est censéeestimer est appliquée à l’un des deux jeux de données. Afin de proposer un critère derecalage par maximisation de la log-vraisemblance, le modèle d’A. Roche est forcémentsimplifié, supposant une indépendance du bruit en chaque voxel, et en ne modélisant pasl’effet de volume partiel. Dans notre cas, le modèle de génération des données TEMPest plus complexe et réaliste, et vu qu’on se situe dans un contexte de simulation, latransformation géométrique est parfaitement connue.

Ainsi, il nous semble très intéressant d’utiliser un environnement tel que le notre pourétudier et évaluer ces nouvelles techniques de recalage. Il serait par exemple intéressant devérifier la pertinence des hypothèses faites par le modèle d’A. Roche lorsque l’on utilisedes simulations réalistes par techniques de Monte Carlo. De même, la modélisation de lavariabilité fonctionnelle caractérisant la perfusion d’une population de sujets sains ou pa-thologiques, nous paraît être une piste intéressante pour estimer cette loi jointe a prioricaractéristique du type de données que l’on cherche à recaler. Il nous paraît ainsi envi-sageable de proposer une méthode de recalage qui soit complètement dédiée et optimiséepour les données cliniques que l’on cherche à recaler, tout en prenant en compte le contexteclinique et la qualité des données TEMP disponibles.

Evaluation de méthodes de recalage TEMP/IRM utilisant des mesuresstatistiques de similarités 261

Conclusion générale

Nous avons donc présenté un environnement très générique permettant de simulerdes données TEMP réalistes, normales ou pathologiques, à partir d’une IRM 3D haute-résolution pondérée en T1 et de mesures sur des données TEMP réelles. Cette méthode aété appliquée à la construction d’un modèle théorique de perfusion et à la simulation dedonnées TEMP normales et ictales caractéristiques d’une épilepsie temporo-mésiale. Cetteapproche fournit par construction un gold standard absolu pour évaluer les performancesde méthodes de recalage TEMP/IRM, et permet de contrôler le degré de dissimilaritésintrinsèques entre données TEMP et IRM, de par la connaissance de la carte théoriqued’activité utilisée lors de la simulation. L’originalité de notre approche est d’avoir coupléune méthode d’analyse inter-individuelle de données TEMP par standardisation anato-mique, à un simulateur réaliste modélisant la physique de génération de données TEMP,par des techniques de Monte Carlo notamment. Diverses simulations analytiques ou deMonte Carlo de données TEMP réalisées à partir de ce modèle de perfusion ont permisde réaliser une évaluation comparative de méthodes de recalage utilisant des critères sta-tistiques de similarité. Une partie des résultats préliminaires de cette étude a été publiéedans [Grova 01, Grova 02].

La méthode d’analyse par standardisation anatomique, et en particulier le modèle spa-tial de l’anatomie proposés ont été adaptés pour l’étude de la perfusion chez des sujetsépileptiques. Nous avons réalisé pour cela une segmentation des entités anatomiques dufantôme de Zubal, principalement au niveau des lobes temporaux et frontaux. L’analysedes mesures de perfusion nous a permis de mettre en évidence certaines caractéristiquesde la distribution de la perfusion normale chez 27 sujet sains et de la perfusion ictale etinter-ictale chez 10 sujets présentant une épilepsie temporo-mésiale. L’analyse factorielledes correspondances réalisée sur ces mesures montre d’ailleurs des résultats très intéres-sants au niveau de la structure de la dépendance spatiale entre les régions anatomiquesétudiées. Les modifications observées de cette structure de dépendance statistique entrela perfusion normale et la perfusion ictale, notamment au niveau du pôle temporal et dunoyau lenticulaire suggèrent des résultats très intéressants pour la clinique, qu’il conviendrabien évidemment de confirmer. Ces structures sont en effet au cœur des préoccupations dela recherche en épileptologie. L’étude du rôle des noyaux gris dans les crises temporaleslaisse en effet entrevoir la possibilité d’utiliser des stimulations électriques intra-cérébralesau niveau de ces structures à des fins thérapeutiques (comme c’est déjà le cas pour lamaladie de Parkinson). Vérifier que les résultats obtenus par cette analyse factorielle descorrespondances persistent après une correction de l’effet de volume partiel au niveau desdifférents VOIs, nous parait une première étape indispensable. Enfin, la principale pers-pective de cette étude se situe au niveau de la caractérisation de la variabilité fonctionnelle

262 6.6 Discussion

de la perfusion au sein des populations étudiées. L’analyse factorielle des correspondancesnous semble pour cela une technique prometteuse, mais nécessite d’être validée.

L’évaluation des méthodes de recalage utilisant des mesures statistiques de similaritéque nous avons réalisée nous suggère que la précision de telles méthodes de recalage estnettement plus dépendante de la qualité des données TEMP (cf. effet de volume partiel,perte de résolution en profondeur, diffusion) et de la nature des dissimilarités intrinsèques(cf. simulations de contextes pathologiques), que du choix de la mesure en elle-même. Eneffet, l’information mutuelle, normalisée ou non, ainsi que le rapport de corrélation, ennorme L1 ou L2, fournissent des résultats équivalents dans pratiquement tous les contextesétudiés. En conséquence, il nous paraît fondamental d’étudier plus spécifiquement l’impactsur la qualité du recalage TEMP/IRM des diverses techniques de reconstruction et decorrection utilisables en TEMP, afin de s’assurer que la mise en correspondance fournieau clinicien soit la plus précise possible. De plus, notre environnement offre la possibilitéd’étudier précisément la nature du “lien” statistique intrinsèque aux données IRM et TEMP,ictales notamment, ce qui laisse entrevoir la possibilité de proposer une méthode de recalagecomplètement dédiée au contexte clinique de l’étude.

De manière plus générale, nous envisageons d’appliquer l’approche proposée ici pourl’évaluation d’autres techniques que le recalage. Nous pensons plus particulièrement à desméthodes de détection automatique d’anomalies de perfusion en TEMP ictale et inter-ictale. Une étude est déjà en cours sur l’évaluation des performances d’une méthode dedétection des asymétries fonctionnelles inter-hémisphériques [AubertBroche 02] en TEMPictale ou inter ictale. Nous pensons également qu’un tel environnement est idéal pour l’éva-luation de la sensibilité et spécificité des méthodes de soustraction TEMP ictale / TEMPinter-ictale. Dans ces deux derniers cas, la prise en compte de la variabilité fonctionnelleinter-individuelle nous semble incontournable, mais également prometteuse pour appréhen-der des problèmes délicats tels que la distinction entre zones détectées physiologiques etzones détectées pathologiques.

Nous terminerons par situer notre étude dans un projet à plus long terme qu’est lamodélisation du réseau épileptogène. Nous avons montré au chapitre I.1 l’importance destechniques de fusion de données pour assister la caractérisation d’un tel réseau, en exploi-tant au mieux la richesse et la complémentarité des informations fournies par les nom-breuses techniques d’exploration fonctionnelle utilisables. Nous nous sommes limités ici àl’étude de la TEMP en condition ictale, vu qu’il s’agit à l’heure actuelle de la principaletechnique d’imagerie dynamique permettant d’étudier la zone épileptogène. Mener à bienune approche similaire dans le contexte de l’électrophysiologie, et notamment pour la réso-lution du problème inverse en MEG/EEG, nous semble une suite logique de ces travaux, etsusceptible de retombées utiles pour assister au mieux le clinicien dans la compréhensionde ce réseau épileptogène.

Annexe : suite des résultats de l’AFC 263

Annexe A

Annexe : suite des résultats de l’AFC

Nous présentons en annexe des résultats complémentaires aux analyses factorielles descorrespondences présentées au §II.4.4.5. Il s’agit des résultats concernant l’analyse dessujets sains non corrigés du diffusé (cf. figures A.1, A.2 et A.3). Le fait de retrouver desrésultats similaires à ceux obtenus à partir des données TEMP corrigées du diffusé suggèreque la diffusion Compton n’influe que peu sur l’analyse des dépendances statistiques entrestructures. Ce point justifie que les analyses des données ictales et inter-ictales, données quin’ont pu être corrigées de la diffusion Compton, sont interprétables au même titre que lesdonnées acquises sur sujets sains. A titre indicatif sont représentés les résultats de l’analysedes données inter-ictales (cf. figures A.4, A.5, A.6 et A.7), qu’il convient d’analyser avecprécaution vu le faible nombre de données mises en jeu (6 patients). Finalement nousprésentons les résultats de l’analyse factorielle des correspondances de toutes les donnéesnormales, inter-ictales et ictales regroupées (cf. figures A.8, A.9 et A.10).

264 Annexe : suite des résultats de l’AFC

−20 −10 0 10 20 30

−10

010

20

CORT

HCORT

MB

AMYG

HIPP

NCAU

BG

NLEN

THAL

INS

T

TP1

TM

TL

TP2

FFP

FO FM

FL

OCCOCCMOCCL

PAR

CER

PON

Fig. A.1 – Projection des variables sur les deux premiers axes principaux de l’AFC desmesures non corrigées du diffusé des 27 sujets sains

−20 −10 0 10 20

−20

−10

010

2030

40

L123

R123

L129

R129

L131

R131

L143

R143

L144R144

L146R146L147

R147

L149

R149

L152

R152

L161R161

L163

R163

L170R170

L178

R178

L179

R179

L135

R135

L134

R134

L141

R141

L145

R145

L151 R151

L154R154

L155R155

L165

R165

L167R167L172

R172

L175

R175L180

R180

L158 R158

Fig. A.2 – Projection des individus sur les deux premiers axes principaux de l’AFC desmesures non corrigées du diffusé des 27 sujets sains (en rouge les femmes, en noir leshommes)

Annexe : suite des résultats de l’AFC 265

NCAU -*--------*-------------------------------------*---------*-

! ! ! !

THAL -- ! ! !

! ! !

BG *---------- ! !

! ! !

NLEN - ! !

! !

TC.. -*-------------*--------------------------------- !

! ! !

CER. -- ! !

! !

AMYG --*------------- !

! !

HIPP *-- !

! !

TM.. - !

!

FM.. ----*------------------------------*-----------------------

! !

F... **--- !

!! !

HCORT-! !

! !

FL.. -! !

! !

PAR. -! !

! !

FP.. -- !

!

OCCL *-----------------------*-----------

! !

OCC. - !

!

TP1. ------------*------------

!

OCCM *---*--------

! !

TP2. - !

!

TL.. *-*--

! !

FO.. - !

!

INS. - !

!

T... - !

!

MB.. *--

!

CORT -

Fig. A.3 – Classification ascendante hiérarchique des variables à partir de l’AFC desmesures non corrigées du diffusé des 27 sujets sains

266 Annexe : suite des résultats de l’AFC

−40 −20 0 20 40 60

−20

020

4060

CORTHCORT

MB

AMYG

HIPP

NCAU

BG

NLEN

THAL

INS

T

TP1 TM

TL

TP2

F

FP

FO

FMFL

OCCOCCM

OCCL

PAR

CER

PON

Fig. A.4 – Projection des variables sur les deux premiers axes principaux de l’AFC desmesures de perfusion inter-ictale des 6 sujets épileptiques

−40 −20 0 20 40

−40

−20

020

40

ArPbLvPb

BlPb

LePb

LcPb

LvPb

ArHb

LvHb

BlHb

LeHb

LcHb

LvHb

Fig. A.5 – Projection des individus sur les deux premiers axes principaux de l’AFC desmesures perfusion inter-ictale des 6 sujets épileptiques (en rouge les hémisphères patholo-giques, en noir les hémisphères sains)

Annexe : suite des résultats de l’AFC 267

−60 −40 −20 0 20 40

−40

−20

020

40

LvPb

BlPb

LePb

LcPb

LvPb

LvHb

BlHb

LeHb

LcHb

LvHb

Fig. A.6 – Projection des individus représentant les mesures de perfusion inter-ictalesur les deux premiers axes principaux de l’AFC des mesures perfusion ictale des 10 sujetsépileptiques (en rouge les hémisphères pathologiques, en noir les hémisphères sains)

268 Annexe : suite des résultats de l’AFC

AMYG **--*-----------------------------------*-----------------*-

!! ! ! !

HIPP -! ! ! !

! ! ! !

TC.. -- ! ! !

! ! !

NLEN **--- ! !

!! ! !

CER. -! ! !

! ! !

TP1. *- ! !

! ! !

TM.. - ! !

! !

INS. - ! !

! !

NCAU -----*----------------------------------- !

! !

THAL *----- !

! !

BG - !

!

OCCL -*--------------*------------------------------------------

! !

OCC. *- !

! !

FP.. - !

!

OCCM - !

!

TL.. *--*-------------

! !

T... - !

!

MB.. - !

!

FO.. ! !

! !

PAR. - !

!

TP2. *---

!

F... !

!

FL.. -

HCORT-

FM.. !

!

CORT -

Fig. A.7 – Classification ascendante hiérarchique des variables à partir de l’AFC desmesures de perfusion inter-ictale des 6 sujets épileptiques

Annexe : suite des résultats de l’AFC 269

+-----------------------------------thalncau+---------------------------+

| | |

| | |

| | |

| | |

| | |

| ngri | |

| | |

| | |

| | |

| nlen | fi fp |

| | f |

+-------------------------------------------mb ----------------fl ----+

| hipp ti | cors |

| fo | cort occiocc |

| tp1 amyg ins t | occe|

| tc cer | tp2 |

| te | |

| | |

| | |

| | |

| | |

| | |

| | |

| | |

+-------------------------------------------+---------------------------+

par (occ )

Fig. A.8 – Projection des variables sur les deux premiers axes principaux de l’AFC detoutes les mesures de perfusion (données normales non corrigées du diffusé, données ictaleset inter-ictales)

270 Annexe : suite des résultats de l’AFC

+-----------------------LcaH----------------+---------------------------+

| | |

| | |

| ArnP ArnH| |

| LcHb | |

| | |

| | |

| GraH | R141L141L167 |

LvaP LvaH LeHb L149 | R151 R175 |

| LcPb | L135L151R167L179 |

| | L145R134 |

| GraP LvPbLecH| R179L146L147 L154 |

+-------------------------------------------+---R149L155L131L123--------+

| LvHb| L144R146R165R123 |

| | R144R147L152 |

| LebP LveHBlHb| R180R131R152 |

| LveP LvPb | R129 |

| LecP AugHR178 L129 |

| | |

| BliP | |

| AugP | R161 |

| BlPb L161 |

| | |

| | |

| GueP GueH| |

+-------------------------------------------+---------------------------+

LebH(GraH) LcaP(LvaP) ArPb(R151) R135(L151) L143(R134) L175(R134)

R154(L147) R155(L147) L172(L147) R158(L146) BliH(LecH) L134(L131)

R143(L123) L163(L131) R163(L131) L158(L131) ArHb(L155) L180(L144)

L165(L152) L170(R147) R172(R144) R145(R131) LePb(LveH) R170(R129)

L178(L129) LvHb(BliP)

Fig. A.9 – Projection des individus sur les deux premiers axes principaux de l’AFC detoutes les mesures de perfusion (données normales non corrigées du diffusé, données ictaleset inter-ictales)

Annexe : suite des résultats de l’AFC 271

AMYG *-----------*---------------------------------------------*-

! ! !

TP1. - ! !

! !

HIPP ! ! !

! ! !

TC.. - ! !

! !

TM.. *---------*-- !

! ! !

NLEN - ! !

! !

TL.. ! ! !

! ! !

CER. - ! !

! !

T... - ! !

! !

INS. - ! !

! !

FO.. ! ! !

! ! !

MB.. - ! !

! !

NCAU *---------- !

! !

THAL - !

!

NGRI - !

!

OCCE *----------------------------------------------------------

!

PAR. !

!

OCC. -

CORS !

!

OCCI -

FP.. !

!

FL.. -

FI.. !

!

F... -

TP2. !

!

CORT -

Fig. A.10 – Classification ascendante hiérarchique des variables à partir de l’AFC detoutes les mesures de perfusion (données normales non corrigées du diffusé, données ictaleset inter-ictales)

272 Annexe : suite des résultats de l’AFC

Table des figures 273

Table des figures

1.1 Représentation schématique des concepts de Zone Épileptogène (EZ), ZoneIrritative (IZ et IZ II) et Zone Lésionnelle (LZ) : les différentes entités duréseau épileptogène sont représentées sur une IRM 3D du cerveau segmenté,sur laquelle a été recalée la vue peropératoire du patient. Les neurones etleurs interconnections représentés dans les zones décrivent les différentesrelations possibles entre ces structures . . . . . . . . . . . . . . . . . . . . . 26

1.2 Schéma décrivant les techniques d’exploration mises en jeu pendant le plan-ning préchirurgical d’un patient épileptique . . . . . . . . . . . . . . . . . . 28

1.3 Vue externe du cerveau présentant les différents lobes (rouge:lobe frontal,jaune:lobe temporal, bleu:lobe pariétal, vert:lobe occipital) . . . . . . . . . . 29

1.4 Coupe anatomique coronale du lobe temporal (1:hippocampe, 2:corne tem-porale inférieure du ventricule latéral, 3:amygdale, 8:gyrus temporal infé-rieur, 9:gyrus temporal central, 10:sillon temporal supérieur, 11:gyrus tem-poral supérieur, 14:insula, 23:ventricule latéral, 24:noyau caudé, 26:queue dunoyau caudé, 27:putamen, 28: partie latérale du pallidum, 29: partie mésialedu pallidum) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

1.5 Représentation schématique d’un neurone (dendrites, corps cellulaire, axone) 311.6 Mouvement de la magnétisation résultante ~M pendant l’excitation par une

impulsion RF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 341.7 Mouvement de la magnétisation résultante ~M pendant la phase de relaxation 341.8 Coupe coronale du lobe temporal pondérée en T1 : la substance grise est

moins intense que la substance blanche, et il n’y a pratiquement aucun signaldans le LCR - élargissement de la corne ventriculaire dans l’hémisphère gauche 36

1.9 Coupe coronale du lobe temporal pondérée en T2 : la substance grise estplus intense que la substance blanche, c’est dans le LCR que le signal est leplus intense - hypersignal des structures hippocampiques . . . . . . . . . . . 36

1.10 Dysplasie corticale focale caractérisée par un hypersignal sur une acquisitionIRM FLAIR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

1.11 Principe de la détection en coïncidence lors de l’acquisition de données deTEP (d’après [Bruyant 02b]) . . . . . . . . . . . . . . . . . . . . . . . . . . 40

1.12 Hypométabolisme glucidique temporal observé en TEP-FDG . . . . . . . . 401.13 Système MEG à 37 capteurs (Magnes, 4D Neuroimaging) installé au CHU

de Rennes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 411.14 Modélisation des courants lors d’une activation synaptique (d’après [Schwartz 98]) 421.15 Organisation des cellules pyramidales du cortex par rapport aux différents

milieux (d’après [Schwartz 98]) . . . . . . . . . . . . . . . . . . . . . . . . . 42

274 Table des figures

1.16 Position de deux électrodes dans le lobe temporal permettant l’enregistre-ment in situ de l’activité électrique de l’amygdale (A’) et de l’hippocampe(B’) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

1.17 Pointes inter-critiques suivies d’une crise (décharges rapides) au niveau desplots p1-p2 et p2-p3 de l’électrode B (cf. position de ces électrodes sur lafigure 1.16) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

1.18 Imageur TEMP à deux têtes utilisé au service de médecine nucléaire deRennes (Caméra DST-XL de General Electric Medical Systems) . . . . . . . 46

1.19 Schéma des principaux éléments constituant une γ caméra (d’après [Bruyant 02b]) 461.20 TEMP inter-critique d’une épilepsie à point de départ temporal mésial . . . 551.21 TEMP critique d’une épilepsie à point de départ temporal mésial . . . . . . 551.22 Répartition des résolutions spatiales et temporelles accessibles par les prin-

cipales techniques d’exploration fonctionnelle . . . . . . . . . . . . . . . . . 581.23 Fusion de données TEMP inter-ictale/IRM . . . . . . . . . . . . . . . . . . 641.24 Fusion de données TEMP ictale/IRM . . . . . . . . . . . . . . . . . . . . . . 641.25 Fusion de données TEMP ictale/IRM et cluster de pointes inter-ictales en

MEG (carrés blancs) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 651.26 Fusion de données IRM FLAIR et cluster de pointes inter-ictales en MEG

(carrés rouges) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 661.27 Positionnement d’une électrode SEEG (L) sur l’IRM . . . . . . . . . . . . . 661.28 Résultats de localisations fonctionnelles en MEG (vert) et IRMf (rouge), fu-

sionnées sur l’IRM 3D d’un sujet : exploration somesthésique par stimulationdu pouce droit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

1.29 Fusion sur l’IRM de la localisation d’une pointe inter-ictale, à une latenceprécise, par la méthode spatio-temporelle avec contraintes anatomiques (tex-ture couleur) et d’un cluster de pointes inter-ictales localisées avec la mé-thode non contrainte (carrés blancs) . . . . . . . . . . . . . . . . . . . . . . 71

1.30 Scènes 3D volumique (a) et surfacique (b) représentant le foyer épileptogène(en rouge, VOI représentant une hypoperfusion en IRM de perfusion) et sonenvironnement anatomique (principaux sillons segmentés automatiquement)obtenue lors du planning préchirurgical d’un patient épileptique . . . . . . . 75

1.31 Neuronavigation multimodalité en chirurgie de l’épilepsie : superpositiondans les oculaires du microscope des informations selectionnées lors du plan-ning pré-chirurgical (cf. figure 1.30) . . . . . . . . . . . . . . . . . . . . . . 76

4.1 L’effet photo-électrique (d’après [Bruyant 02b]) . . . . . . . . . . . . . . . . 1444.2 Principe de la diffusion Compton (d’après [Bruyant 02b]) . . . . . . . . . . 1444.3 Géométrie de l’acquisition en projection . . . . . . . . . . . . . . . . . . . . 1474.4 Reconstruction d’un examen TEMP de la base des 27 sujets sains étudiés :

(a) sinogramme des projections, (b) reconstruction avec un filtre rampe, (c)post-filtrage gaussien 3D (LMH = 8mm) . . . . . . . . . . . . . . . . . . . . 149

4.5 Illustration de la correction d’atténuation uniforme par la méthode de Changd’ordre 1 sur un examen de TEMP de sujet sain : (a) Données d’originereconstruite (b) Données corrigées . . . . . . . . . . . . . . . . . . . . . . . 153

Table des figures 275

4.6 Illustration de la correction de la diffusion par la méthode de la fenêtrede Jaszczak sur un examen TEMP de sujet sain (k = 1.3): (a) Donnéesd’origine reconstruites (b) Données de la fenêtre Compton reconstruites (c)Données corrigées de la diffusion . . . . . . . . . . . . . . . . . . . . . . . . 154

4.7 Construction du modèle de perfusion théorique à partir des mesures sur desdonnées TEMP réelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166

4.8 Environnement de fusion multimodalité TEMP/IRM/atlas : (a) TEMP ic-tale fusionnée sur l’IRM normalisée spatialement du même patient (b) VOIsdu modèle spatial fusionnés sur le même examen de TEMP ictale . . . . . . 168

4.9 Distribution des mesures de perfusion chez les 27 sujets sains en fonctiondes VOIs - données corrigées du diffusé (ligne continue = 50 coups/voxel,ligne en pointillés = moyenne empirique de toutes les mesures) . . . . . . . 172

4.10 Distribution des mesures de perfusion chez les 27 sujets sains en fonction desVOIs - données non corrigées du diffusé (ligne continue = 50 coups/voxel,ligne en pointillés = moyenne empirique de toutes les mesures) . . . . . . . 173

4.11 Distribution des mesures de perfusion inter-ictale chez les 6 sujets épilep-tiques en fonction des VOIs (ligne continue = 50 coups/voxel, ligne en poin-tillés = moyenne empirique de toutes les mesures) . . . . . . . . . . . . . . . 174

4.12 Distribution des mesures de perfusion ictale chez les 10 sujets épileptiquesen fonction des VOIs (ligne continue = 50 coups/voxel, ligne en pointillés =moyenne empirique de toutes les mesures) . . . . . . . . . . . . . . . . . . . 175

4.13 Distribution des mesures de coefficient de variation cvij chez les 27 sujetssains en fonction des VOIs - données corrigées du diffusé (ligne continue =moyenne empirique de toutes les mesures) . . . . . . . . . . . . . . . . . . . 176

4.14 Analyse graphique des résidus de l’analyse de la variance à partir du facteurAnat des mesures de perfusion corrigées du diffusé des 27 sujets sains . . . . 185

4.15 Analyse graphique des résidus de l’analyse de la variance à partir du facteurAnat des mesures de perfusion ictale des 10 sujets épileptiques . . . . . . . 187

4.16 Analyse de la distribution des différences relatives de perfusion (hémisphèredroit - hémisphère gauche) conditionnellement à la variable Anat sur lesmesures corrigées en diffusé des 27 sujets sains . . . . . . . . . . . . . . . . . 192

4.17 Analyse descriptive de la distribution globale de toutes les différences rela-tives de perfusion (hémisphère droit - hémisphère gauche) estimées sur lesmesures corrigées en diffusé des 27 sujets sains . . . . . . . . . . . . . . . . . 192

4.18 Analyse de la distribution des différences relatives de perfusion (hémisphèrepathologique - hémisphère sain) conditionnellement à la variable Anat surles mesures de perfusion ictale des 10 sujets épileptiques . . . . . . . . . . . 193

4.19 Analyse descriptive de la distribution globale de toutes les différences rela-tives de perfusion (hémisphère pathologique - hémisphère sain) estimées surles mesures de perfusion ictale des 10 sujets épileptiques . . . . . . . . . . . 194

4.20 Projection des variables sur les deux premiers axes principaux de l’AFC desmesures corrigées du diffusé des 27 sujets sains . . . . . . . . . . . . . . . . 200

4.21 Projection des individus sur les deux premiers axes principaux de l’AFC desmesures corrigées du diffusé des 27 sujets sains (en rouge les femmes, en noirles hommes) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200

276 Table des figures

4.22 Classification ascendante hiérarchique des variables à partir de l’AFC desmesures corrigées du diffusé des 27 sujets sains . . . . . . . . . . . . . . . . 201

4.23 Projection des variables sur les deux premiers axes principaux de l’AFC desmesures de perfusion ictale des 10 sujets épileptiques . . . . . . . . . . . . . 202

4.24 Projection des individus sur les deux premiers axes principaux de l’AFC desmesures perfusion ictale des 10 sujets épileptiques (en rouge les hémisphèrespathologiques, en noir les hémisphères sains) . . . . . . . . . . . . . . . . . . 202

4.25 Classification ascendante hiérarchique des variables à partir de l’AFC desmesures de perfusion ictale des 10 sujets épileptiques . . . . . . . . . . . . . 203

5.1 Carte théorique d’atténuation des photons déduite du fantôme de Zubal . . 2145.2 Algorithme de poursuite mis en œuvre dans SimSET lors de la simulation de

Monte Carlo (αacc : angle d’acceptance du collimateur) (d’après [ElFakhri 98])2165.3 Profil d’intensité d’une projection d’une source linéique obtenue par simula-

tion analytique, simulation de Monte Carlo (100 millions de photons simulés)et acquisition sur l’imageur DST-XL de GEMS du service de médecine nu-cléaire de Rennes (les 3 profils sont normalisés sur leur maximum d’intensité)217

5.4 Simulations de Monte Carlo et analytique à partir du modèle moyen deperfusion normale : modèle de perfusion (a), simulation de Monte Carlo avecdiffusion : Normal.MC (b), simulation de Monte Carlo ne tenant compte quedes photons primaires : Normal.MCp (c), simulation analytique : Normal.A(d) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220

5.5 Simulations de Monte Carlo et analytique à partir du modèle moyen deperfusion ictale caractéristique d’une épilepsie à point de départ temporo-mésiale : modèle de perfusion (a), simulation de Monte Carlo avec diffusion :Ictal.MC1 (b), simulation de Monte Carlo ne tenant compte que des photonsprimaires : Ictal.MC1p (c), simulation analytique : Ictal.A (d) . . . . . . . . 221

5.6 Simulations de Monte Carlo et analytique à partir du modèle moyen de per-fusion ictale deux fois plus asymétrique : modèle de perfusion (a), simulationde Monte Carlo avec diffusion : Ictal.MC2 (b) . . . . . . . . . . . . . . . . . 222

5.7 Simulations analytiques à différents niveaux de bruit poissonnien, corres-pondant aux rapports S/B suivant : S/B = 70.7 en perfusion normale,Normal.A (a), ou ictale, Ictal.A (b) - S/B = 22.4 en perfusion normale,p01Normal (c), ou ictale, p01Ictal (d) - S/B = 7.1 en perfusion normale,p001Normal (e), ou ictale, p001Ictal (f) . . . . . . . . . . . . . . . . . . . . 225

5.8 Simulations analytiques en ajoutant une activité extra-cérébrale dans lapeau, la graisse, les muscles et les glandes salivaires : modèle moyen de per-fusion normale modifié (a) et simulation correspondante, extNormal (b)-modèle moyen de perfusion ictale modifié (c) et simulation correspondante,extIctal (d) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226

5.9 Simulations analytiques en présence de dissimilarités intrinsèques contraintesà la matière grise : carte d’activité (a) et simulation correspondante, S1.contrainte(b), pour la sphère de rayon 15mm - carte d’activité (c) et simulation corres-pondante, S2.contrainte (d), pour la sphère de rayon 25mm - carte d’activité(e) et simulation correspondante, S3.contrainte (f), pour la sphère de rayon35mm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227

Table des figures 277

5.10 Simulations analytiques en présence de dissimilarités intrinsèques non contraintesà la matière grise : carte d’activité (a) et simulation correspondante, S1.noncontrainte(b), pour la sphère de rayon 15mm - carte d’activité (c) et simulation cor-respondante, S2.noncontrainte (d), pour la sphère de rayon 25mm - carted’activité (e) et simulation correspondante, S3.noncontrainte (f), pour lasphère de rayon 35mm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228

6.1 Effet du contexte pathologique : distribution des erreurs de recalage EQMj

en mm pour chaque critère de similarité dans chaque contexte normal etictal correspondant aux simulations de Monte Carlo avec diffusion et auxsimulations analytiques à un niveau de bruit équivalent, i.e., S/B = 7.1(ligne continue = 4.51mm) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242

6.2 Comparaison des simulations analytiques : distribution des erreurs de reca-lage EQMj en mm pour chaque critère de similarité dans chaque contextecorrespondant aux simulations analytiques et aux simulations de MonteCarlo sans diffusion. Ces simulations sont issues d’un modèle moyen de per-fusion normale ou ictale. L’effet de la présence d’activités extra-cérébralesest également représenté, cf. extNormal et extIctal (ligne continue = 4.51mm)244

6.3 Effet du niveau de bruit poissonien : distribution des erreurs de recalageEQMj en mm pour chaque critère de similarité dans chaque contexte normalet ictal correspondant aux simulations analytiques à différents niveaux debruit poissonnien (ligne continue = 4.51mm) . . . . . . . . . . . . . . . . . . 245

6.4 Effet des dissimilarités intrinsèques extrêmes : distribution des erreurs de re-calage EQMj en mm pour chaque critère de similarité dans chaque contextecorrespondant aux simulations présentant des dissimilarités intrinsèques ex-trêmes contraintes ou non à la matière grise (ligne continue = 4.51mm) . . . 247

6.5 Recalage monomodal TEMP/TEMP : distribution des erreurs de recalageEQMj en mm pour chaque critère de similarité dans chaque contexte normalet ictal correspondant aux simulations de Monte Carlo (ligne continue =4.51mm) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250

A.1 Projection des variables sur les deux premiers axes principaux de l’AFC desmesures non corrigées du diffusé des 27 sujets sains . . . . . . . . . . . . . . 264

A.2 Projection des individus sur les deux premiers axes principaux de l’AFC desmesures non corrigées du diffusé des 27 sujets sains (en rouge les femmes,en noir les hommes) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264

A.3 Classification ascendante hiérarchique des variables à partir de l’AFC desmesures non corrigées du diffusé des 27 sujets sains . . . . . . . . . . . . . . 265

A.4 Projection des variables sur les deux premiers axes principaux de l’AFC desmesures de perfusion inter-ictale des 6 sujets épileptiques . . . . . . . . . . . 266

A.5 Projection des individus sur les deux premiers axes principaux de l’AFCdes mesures perfusion inter-ictale des 6 sujets épileptiques (en rouge leshémisphères pathologiques, en noir les hémisphères sains) . . . . . . . . . . 266

278 Table des figures

A.6 Projection des individus représentant les mesures de perfusion inter-ictalesur les deux premiers axes principaux de l’AFC des mesures perfusion ictaledes 10 sujets épileptiques (en rouge les hémisphères pathologiques, en noirles hémisphères sains) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267

A.7 Classification ascendante hiérarchique des variables à partir de l’AFC desmesures de perfusion inter-ictale des 6 sujets épileptiques . . . . . . . . . . . 268

A.8 Projection des variables sur les deux premiers axes principaux de l’AFC detoutes les mesures de perfusion (données normales non corrigées du diffusé,données ictales et inter-ictales) . . . . . . . . . . . . . . . . . . . . . . . . . 269

A.9 Projection des individus sur les deux premiers axes principaux de l’AFC detoutes les mesures de perfusion (données normales non corrigées du diffusé,données ictales et inter-ictales) . . . . . . . . . . . . . . . . . . . . . . . . . 270

A.10 Classification ascendante hiérarchique des variables à partir de l’AFC detoutes les mesures de perfusion (données normales non corrigées du diffusé,données ictales et inter-ictales) . . . . . . . . . . . . . . . . . . . . . . . . . 271

Liste des tableaux 279

Liste des tableaux

1.1 Besoins cérébraux moyens en perfusion et métabolisme d’après [Catafau 01] 321.2 Propriétés des principaux traceurs de perfusion utilisés en TEMP (pi : post-

injection) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

3.1 Etat de l’art de méthodes de recalage basées mesures statistiques de simila-rité et de méthodes de recalage intéressant des données TEMP : Approchesutilisant un GS absolu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123

3.3 Etat de l’art de méthodes de recalage basées mesures statistiques de simila-rité et de méthodes de recalage intéressant des données TEMP : Approchesutilisant un GS approché par méthodes invasives (base de données Vander-bilt essentiellement) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124

3.4 Etat de l’art de méthodes de recalage basées mesures statistiques de simila-rité et de méthodes de recalage intéressant des données TEMP : Approchesutilisant un GS approché par méthodes non invasives (marqueurs peau, fan-tômes, contrôle de la position lors de l’acquisition) . . . . . . . . . . . . . . 125

3.5 Etat de l’art de méthodes de recalage basées mesures statistiques de simila-rité et de méthodes de recalage intéressant des données TEMP : Approchessans GS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126

3.6 Résultat de l’évaluation qualitative du recalage TEMP/IRM à partir dedonnées cliniques ictales et inter-ictales. Méthodes de recalage évaluées :information mutuelle (IM), rapport de corrélation en norme L1 (RCL1),rapport de corrélation en norme L2 (RCL2). Indices de qualité utilisés : 0:recalage complètement aberrant, 1: erreur de quelques centimètres aisémentdétectable visuellement, 2: légère erreur de recalage à peine détectable vi-suellement, 3: recalage considéré comme de bonne qualité . . . . . . . . . . 134

4.1 Mesures de résolution spatiale (LMH) en mm pour différents post-filtragesgaussiens des données reconstruites, sur l’imageur du service de médecinenucléaire de Rennes utilisé pour l’acquisition des sujets épileptiques (imageurà deux têtes DST-XL de General Electric Medical Systems) et sur l’imageurutilisé par L. Barnden pour l’acquisition des sujets sains (trois têtes IRIXde Philips Medical Systems) . . . . . . . . . . . . . . . . . . . . . . . . . . . 151

280 Liste des tableaux

4.2 Correspondances entre les VOIs du fantôme de Zubal (colonnes) et ceuxde notre modèle spatial de l’anatomie cérébrale utilisés pour l’analyse parstandardisation anatomique (lignes) - ’o’ : fusion des VOIs du fantôme deZubal, ’×’ : découpage des VOIs du fantôme de Zubal à partir de l’atlasstéréotaxique de Talairach (Amyg: amygdale, Hipp. : hippocampe, Temp. :Temporal, Front. : Frontal, Par. : Parietal, Occ. : Occipital . . . . . . . . . . 165

4.3 Résultats des mesures de perfusion chez les 27 sujets sains (données corrigéesde la diffusion). Moyennes empiriques xi et écarts-type σi des mesures deperfusion xij estimés au sein de chaque VOI respectivement à partir desmesures de l’hémisphère gauche (xG), à partir des mesures de l’hémisphèredroit (xD) et à partir des différences relatives (xDiff = (xG − xD)/xD ×100). La colonne CV indique la moyenne et l’écart-type des coefficients devariation cvij estimés en chaque VOI . . . . . . . . . . . . . . . . . . . . . . 179

4.4 Résultats des mesures de perfusion ictale chez les 10 sujets épileptiques.Moyennes empiriques xi et écarts-type σi des mesures de perfusion xij es-timés au sein de chaque VOI respectivement à partir des mesures de l’hé-misphère pathologique (xPatho), à partir des mesures de l’hémisphère sain(xSain) et à partir des différences relatives (xDiff = (xPatho−xSain)/xSain×100). La colonne CV indique la moyenne et l’écart-type des coefficients devariation cvij estimés en chaque VOI . . . . . . . . . . . . . . . . . . . . . . 180

4.5 Précision des statistiques descriptives des mesures de perfusion ictale des 10sujets épileptiques par estimation bootstrap des erreurs standards (B=100)(seules les entités où l’erreur standard bootstrap d’au moins un des estima-teurs est supérieure à 1 sont indiquées) . . . . . . . . . . . . . . . . . . . . . 181

4.6 Analyse statistique des paramètres estimés par l’analyse de variance, testsde Student et intervalles de confiance bootstrap de niveau 0.99 (B = 2000)(analyse des données corrigées du diffusé des 27 sujets sains) . . . . . . . . . 186

4.7 Analyse statistique des paramètres estimés par l’analyse de variance, testsde Student et intervalles de confiance bootstrap de niveau 0.99 (B = 2000)(analyse des données de perfusion ictale des 10 sujets épileptiques) . . . . . 188

4.8 Analyse des différences hémisphère droit versus hémisphère gauche des me-sures corrigées en diffusé des 27 sujets sains, tests de Student standard etbootstrapés (B=2000) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191

4.9 Analyse des différences hémisphère pathologique versus hémisphère sain desmesures de perfusion ictale des 10 sujets épileptiques, tests de Student stan-dard et bootstrapés (B=2000) . . . . . . . . . . . . . . . . . . . . . . . . . 195

4.10 Symboles décrivant les noms des VOIs utilisé pour l’AFC . . . . . . . . . . 197

6.1 Mesures statistiques de similarité évaluées . . . . . . . . . . . . . . . . . . . 2356.2 Contextes explorés par les simulations TEMP (MC : simulation de Monte

Carlo, A: simulation analytique) . . . . . . . . . . . . . . . . . . . . . . . . 2386.3 Statistiques descriptives globales des erreurs de recalage (Med, Moy, σ, Q90

et Max en mm), pvalue du test d’hypothèse et taux d’échec (P4.51 et P12.2

en%) pour chaque critère de similarité dans chaque contexte correspondantaux simulations issues d’un modèle moyen de perfusion normale ou ictale . . 243

Bibliographie 281

6.4 Statistiques descriptives globales des erreurs de recalage (Med, Moy, σ, Q90et Max en mm), pvalue du test d’hypothèse et taux d’échec (P4.51 et P12.2

en%) pour chaque critère de similarité dans chaque contexte correspondantaux simulations analytiques à différents niveaux de bruit poissonnien . . . . 246

6.5 Statistiques descriptives globales des erreurs de recalage (Med, Moy, σ, Q90et Max en mm), pvalue du test d’hypothèse et taux d’échec (P4.51 et P12.2

en%) pour chaque critère de similarité dans chaque contexte correspondantaux simulations analytiques présentant des dissimilarités intrinsèques extrêmes248

6.6 Recalage monomodal TEMP/TEMP : statistiques descriptives globales deserreurs de recalage (Med, Moy, σ, Q90 et Max en mm), pvalue du testd’hypothèse et taux d’échec (P4.51 et P12.2 en%) pour chaque critère desimilarité dans chaque contexte correspondant aux simulations de MonteCarlo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251

282 Bibliographie

Bibliographie 283

Bibliographie

[Acton 98] P.D. Acton, K.J. Friston. – Statistical parametric mapping in func-tional neuroimaging: Beyond PET and fMRI activation studies. Eu-ropean Journal of Nuclear Medicine, 25(7):663–667, 1998.

[Alpert 96] N.M. Alpert, D. Berdichevsky, Z. Levin, E.D. Morris, Fischman A.J.– Improved methods for image registration. Neuroimage, 3:10–18,1996.

[Amblard 01] C. Amblard, H. Benali, I. Buvat, C. Comtat, P. Grangeat. – Appli-cation de la méthode du maximum d’entropie sur la moyenne à lareconstruction de foyers d’hyperfixations en tomographie d’émissionde positon. Traitement du Signal, 18(1):35–45, 2001.

[Ardekani 95] B.A. Ardekani, M. Braun, B.F. Hutton, I. Kanno, H. Iida. – A fullyautomatic mulrimodality image registration algorithm. Journal ofComputed Assisted Tomography, 19:615–623, 1995.

[Ashburner 97] J. Ashburner, K. J. Friston. – Multimodal image coregistration andpartitioning - a unified framework. NeuroImage, 6(3):209–217, 1997.

[Ashburner 00] J. Ashburner, K.J. Friston. – Voxel-based morphometry - the me-thods. NeuroImage, 11:805–821, 2000.

[AubertBroche 02] B. Aubert-Broche, C. Grova, P. Jannin, I. Buvat, H. Benali, B. Gi-baud. – Detection of inter-hemispheric asymmetries of brain perfu-sion in SPECT. – MICCAI 2002, Tokyo (Japan), Lecture Notes inComputer Science, vol. 2488, pp. 500–507. Springer, 2002.

[Bajcsy 89] R. Bajcsy, S. Kovacic. – Multiresolution elastic matching. ComputerVision, Graphics, and Image Processing, 46(1):1–21, avril 1989.

[Bancaud 65] J. Bancaud, J. Talairach, A. Bonis, C. Schaub, G. Szikla, P. Morel,M. Bordas-Ferrer. – La Stéréoencéphalographie Dans L’épilepsie : In-formations Neurophysiopathologiques Apportées Par L’investigationFonctionnelle Stéréotaxique. – Masson, Paris, 1965.

[Barber 95] D.C. Barber, W.B. Tindale, E. Hunt, A. Mayes, H.J. Sagar. – Au-tomatic registration of SPECT images as an alternative to immobi-lization in neuroactivation studies. Physics in Medicine and Biology,40:449–463, 1995.

[Barillot 99a] C. Barillot. – Fusion de Données et Imagerie 3D En Médecine. –Habilitation à diriger des recherches, IRISA, 1999.

[Barillot 99b] C. Barillot, G. Le Goualher, P. Hellier, B. Gibaud. – Statistical

284 Bibliographie

analysis of brain sulci based on active ribbon modeling. – SPIE :Medical Imaging, New Port Beach, vol. 3661, pp. 312–321, 1999.

[Barnden 00] L. Barnden, R. Kwiatek, Y. Lau, B. Hutton, L. Thurjfell, K. Pile,C. Rowe. – Validation of fully automatic brain SPET to MR co-registration. European Journal of Nuclear Medecine, 27(2):147–154,2000.

[Barnden 02] L. Barnden, S. Behin-Ain, S. Unger. – Optimisation of brain SPECTaccuracy by comparison of hoffman phantom SPECT images with thenumerical hoffman template. – ANZ Nuclear Medicine, p. 8, 2002. –abstract.

[Barra 01] V. Barra, J.Y. Boire. – A general framework for the fusion of anato-mical and functional medical images. NeuroImage, 13:410–424, 2001.

[Barrett 92] H.H. Barrett. – Medical Images : Formation, Handling and Eva-luation : Image Reconstruction and the Solution of Inverse Problemsin Medical Imaging, pp. 3–42. – Springer-Verlag, 1992, A.E. Todd-Pokropek and M.A. Viergever édition, vol. 98 of NATO ASI Series -Serie F : Computer and Systems Sciences.

[Bartenstein 97] P. Bartenstein, S. Minoshima, C. Hirsch, K. Buch, F. Willoch,D. Mösch, D. Schad, M. Schwaiger, A. Kurz. – Quantitative as-sessment of cerebral blood flow in patients with alzheimer’s diseaseby SPECT. Journal of Nuclear Medicine, 38(7):1095–1101, 1997.

[Bartolomei 99] F. Bartolomei, F. Wendling, J-P. Vignal, S. Kochen, J-J. Bellan-ger, J-M. Badier, R. Le Bouquin-Jeannes, P. Chauvel. – Seizures oftemporal lobe epilepsy: Identification of subtypes by coherence ana-lysis using stereo-electro-encephalography. Clinical Neurophysiology,110:1741–1754, 1999.

[Basseville 96] M. Basseville. – Information : Entropies, Divergences et Moyennes.– Rapport de Recherche n‌ RR1020, INRIA : Institut National pourla Recherche en Informatique et Automatique, 1996.

[Benali 01] H. Benali, M. Pélégrini-Isaac, F. Kruggel. – Spatio-temporalcovariance model for medical images sequences, applicationto MRI data. – Proceedings of Information Processing in MedicalImaging (IPMI’01), pp. 311–322, Berlin, 2001. Springer.

[Biraben 97] A. Biraben, J.M. Scarabin, J.P. Vignal, P. Chauvel. – Current Pro-blems in Epilepsy 11 : Stereo-EEG (SEEG) Exploration in FrontalLobe Epilepsy - Rationale and Results, chap. 71, pp. 696–708. – JohnLibbey, 1997, I. Tuxhorn, H. Holtausen and H. Boenigk édition.

[Biraben 99] A. Biraben, A.M. Bernard. – Epilepsie : Intérêt de l’Imagerie partomographie d’Emission monophotonique. Neurologies, 2(13–14):21–26, 1999.

[Black 96] M. J. Black, A. Rangarajan. – On the unification of line processes,outlier rejection, and robust statistics with applications in early vi-sion. International Journal of Computer Vision, 19(1):57–91, 1996.

[Bookstein 89] F.L. Bookstein. – Principal warps: Thin-plate splines and the decom-

Bibliographie 285

position of deformations. IEEE Transactions on Pattern Analysis andMachine Intelligence , June 1989, PAMI-11(6):567–585, 1989.

[Borgefors 88] G. Borgefors. – Hierarchical chamfer matching: A parametric edgematching algorithm. IEEE Transactions on Pattern Analysis andMachine Intelligence, PAMI-10(6):849–865, 1988.

[Boussion 00] N. Boussion, P. Ryvlin, J. Isnard, C. Houzard, F. Maugière, L. Ci-notti. – Towards an optimal reference region in single-photon emis-sion tomography difference images in epilepsy. European Journal ofNuclear Medicine, 27(2):155–160, 2000.

[Brinkmann 99] B. H. Brinkmann, T. J. O’Brien, S. Aharon, M. K. O’Connor, B. P.Mullan, D. P. Hanson, R. A. Robb. – Quantitative and clinical ana-lysis of SPECT image registration for epilepsy studies. Journal ofNuclear Medecine, 40(7):1098–1105, jul 1999.

[Brown 92] L.G. Brown. – A survey of image registration techniques. ACM Com-puting Surveys, 24(4):325–376, 1992.

[Bruyant 02a] P.P. Bruyant. – Analytic and iterative reconstruction algorithms inSPECT. Journal of Nuclear Medicine, 43(10):1343–1358, 2002.

[Bruyant 02b] P.P. Bruyant. – Les bases techniques de l’imagerie enmédecine nucléaire. – Polycopiés En Ligne de L’Univer-sité de Lyon 1, 2002. – URL: http://cri-cirs-wnts.univ-lyon1.fr/Polycopies/MedecineNucleaire/Imagerie/Mednucleaire-Sommaire.html.

[Buvat 99] I. Buvat, G. El Fakhri, M. Pélégrini, H. Benali, A. Todd-Pokropek,R. Di Paola. – Importance respective des différentes corrections phy-siques en SPECT. Revue de l’ACOMEN, 5(2):169–179, 1999.

[Buvat 00] I. Buvat, M. Soret, S. Hapdey, C. Riddell, H. Benali, R. Di Paola.– Respective importance of scatter, attenuation, collimator responseand partial volume effect corrections for accurate quantification in123i dopamine receptor imaging. – IEEE Med. Imaging Conf. Pro-ceedings, pp. 13/15–13/19, 2000.

[Cachier 03] P. Cachier, E. Bardinet, D. Dormont, X. Pennec, N. Ayache. – Iconicfeature based nonrigid registration: The PASHA algorithm. Compu-ter Vision and Image Understanding, 89:272–298, 2003.

[Cardoso 98] J.F. Cardoso. – Blind signal separation : Statistical principles. Pro-ceedings of the IEEE. Special issue on blind identification and esti-mation, 9(10):2009–2025, 1998.

[Cardoso 01] J.F. Cardoso. – Principes de séparation des mélanges instantanés.– Ecole de Printemps Neurosciences et Sciences Pour l’Ingénieur(NSI) - Villard de Lans : De la Séparation de Sources À L’analyseEn Composantes Indépendantes, 2001. – oral.

[Catafau 01] A.M. Catafau. – Brain SPECT in clinical practice. Part I : Perfusion.Journal of Nuclear Medicine, 42(2):259–271, 2001.

[Cendes 94] F. Cendes, F. Andermann, M.C. Preul, D.L. Arnold. – Lateralizationof temporal lobe epilepsy based on regional metabolic abnormalities

286 Bibliographie

in proton magnetic resonance spectroscopic imaging. Annals of Neu-rology, 35:211–216, 1994.

[Chang 78] L-T. Chang. – A method for attenuation correction in radionucleidecomputed tomography. IEEE Transactions on Nuclear Science, NS-25(1):638–643, 1978.

[Chauvel 96] P. Chauvel, J.P. Vignal, A. Biraben, J.M. Badier, J.M. Scarabin. –Multimethodological Assessment of the Epileptic Forms, chap. Ste-reoencephalography, pp. 80–108. – New York, Springer Verlag, 1996,Pawlik G., Stefan H. édition.

[Chauvel 99] P. Chauvel. – Epilepsies : De la Clinique Aux Examens Complémen-taires - Tome 1: Les Méthodes : Préface, pp. 3–4. – Expressions SantéEditions, 1999, F. Semah édition.

[Christensen 95] G. E. Christensen, R. D. Rabbitt, M. I. Miller, S. C. Joshi, U. Gre-nander, T. A. Coogan, D. C. Van Essen. – Topological properties ofsmooth anatomic maps. – Information Processing in Medical Ima-ging, vol. 3, pp. 101–112, Dordrecht, 1995. Kluwer Academic Publi-shers.

[Colin 99] A. Colin, J.-Y. Boire. – MRI-SPECT fusion for the synthesis of highresolution 3d functional brain images : A preliminary study. Compu-ter Methods and Programs in Biomedicine, 60:107–116, 1999.

[Collins 94] D. L. Collins, T. M. Peters, A. C. Evans. – An automated 3d non-linear deformation procedure for determination of gross morphome-tric variability in human brain. – R.A. Robb (édité par), Proceedingsof Visualization in Biomedical Computing, vol. 2359, pp. 180–190.SPIE Press, 1994.

[Collins 98a] D. L. Collins, G. Le Goualher, A. C. Evans. – Non-linear cerebral re-gistration with sulcal constraints. Lecture Notes in Computer Science(MICCAI’98), 1496:974–984, 1998.

[Collins 98b] D. L. Collins, A. P. Zijdenbos, V. Kollokian, J. Sled, N. J. Kabani,C. J. Holmes, A. C. Evans. – Design and construction of a realis-tic digital brain phantom. IEEE Transactions on Medical Imaging,17(3):463–468, 1998.

[Comeau 98] R.M. Comeau, A. Fenster, T.M. Peters. – Intra-operative ultrasoundimaging in image-guided neurosurgery. Radiographics, 18:2029–2037,1998.

[Dale 93] A.M. Dale, M. Sereno. – Improved localization of cortical activityby combining EEG and MEG with surface reconstruction : A linearapproach. Journal of Cognitive Neuroscience, 5:162–176, 1993.

[Dale 00] A.M. Dale, A.K. Liu, B.R. Fischl, R.L. Buckner, J.W. Belliveau,J.D. Lewine, E. Halgren. – Dynamic statistical parametric mapping :Combining fMRI and MEG for high-resolution imaging cortical acti-vity. Neuron, 26:55–67, 2000.

[Darcourt 98] J. Darcourt, P.M. Koulibaly, O. Migneco. – Méthodes itératives dereconstruction. Revue de l’ACOMEN, pp. 100–107, 1998.

Bibliographie 287

[DeBreuille 98] O. De Breuille, P. Véra, H. Foehrenbach, J.F. Gaillard. – Carac-téristiques et spécificités de la collimation en éventail : Un ”collima-teur idéal” pour les explorations neurologiques. Revue de l’ACOMEN,4(2):144–151, 1998.

[deMunck 98] J.C. de Munck, F.C. Verster, E.A. Dubois, J.B.A. Habraken,B. Boltjes, J.J. Claus, M. Van Herk. – Registrattion of MR andSPECT without using external fiducial markers. Physics in Medicineand Biology, 43:1255–1269, 1998.

[Devaux 01] B. Devaux, F. Chassoux, E. Landré, B. Turak, B. Merlaud, A.M.Oswald, L.M. Joly, Raggueneau J.L. – La chirurgie fonctionnelle del’épilepsie. Annales Françaises d’Anesthésie et Réanimation, 20:137–144, 2001.

[Devous 98] M.D. Devous, R.A. Thisted, G.F. Morgan, R.F. Leroy, C.C. Rowe.– SPECT brain imaging in epilepsy: A meta-analysis. Journal ofNuclear Medicine, 39(2):285–293, 1998.

[Donnemiller 97] E. Donnemiller, J. Heilmann, G.K. Wenning, W. Berger, C. Decris-toforo, R. Moncayo, W. Poewe, G. Ransmayr. – Brain perfusion scin-tigraphy with 99mTc-HMPAO or 99mTc-ECD and 123i-b-CIT singlephoton emission tomography in dementia of the alzheimer-type anddiffuse lewy body disease. European Journal of Nuclear Medicine,24(3):320–325, 1997.

[Doyle 95] W. K. Doyle. – Interactive Technology and The New Paradigm forHealthcare : Interactive Image-Directed Epilepsy Surgery, chap. 16,pp. 91–100. – IOS Press and Ohmsha, 1995, Morgan K., Satava R.M., Sieburg H. B., Mattheus R. and Christensen J. P. édition.

[Doyon 94] D. Doyon, E.A. Cabanis, M. Laval-Jeantet, Frija J., Pariente D.,I. Idy-Peretti. – Imagerie Par Résonance Magnétique. – Masson,Paris, 1994.

[Dubois 98] F. Dubois. – Reconstruction des images tomographiques par rétro-projections filtrée. Revue de l’ACOMEN, 4(2):92–99, 1998.

[Duncan 97a] J.S. Duncan. – Imaging and epilepsy. Brain, 120:339–377, 1997.

[Duncan 97b] R. Duncan. – SPECT Imaging of the Brain : SPECT Imaging inFocal Epilepsy, chap. 2, pp. 43–68. – Dordrecht / Boston / London,Kluwer Academic Publishers, 1997, R. Duncan édition.

[Duncan 00] J.S. Duncan, N. Ayache. – Medical image analysis : Progress overtwo decades and the challenges ahead. IEEE Transactions on PatternAnalysis and Machine Intelligence, 22(1):85–106, 2000.

[Dupont 98] S. Dupont, F. Semah, M. Baulac, Y. Samson. – The underlying pa-thophysiology of ictal dystonia in temporal lobe epilepsy : An FDG-PET study. Neurology, 51(5):1289–1292, 1998.

[Eberl 96] S. Eberl, I. Kanno, R.R. Fulton, A. Ryan, B.F. Hutton, M.J. Fulham.– Automated interstudy image registration technique for SPECT andPET. Journal of Nuclear Medicine, 37(1):137–145, 1996.

[Ebmeier 98] K.P. Ebmeier, M.F. Glabus, N. Prentice, A. Ryman, G.M. Good-

288 Bibliographie

win. – A voxel-based analysis of cerebral perfusion in dementia anddepression of old age. NeuroImage, 7:199–208, 1998.

[Efron 93] B. Efron, R.J. Tibshirani. – An Introduction to the Bootstrap. –Chapman and Hall/CRC, 1993.

[ElFakhri 98] G. El Fakhri. – Evaluation Pour la Quantification En Tomographied’Emission Monophotonique. – PhD. Thesis, Université de Paris XI,1998.

[ElFakhri 01] G. El Fakhri, S.C. Moore, P. Maksud, A. Aurengo, M.F. Kijewski.– Absolute activity quantitation in simultaneous 123I/99mTc brainSPECT. Journal of Nuclear Medicine, 42(2):300–308, 2001.

[Engel 87] J. Engel. – Surgical Treatment of the Epilepsies. – Raven Press,vol. 1, 727p., New York, 1987.

[Evans 93] A. C. Evans, D. L. Collins, S. R. Mills, E. D. Brown, R. L. Kelly.– 3d statistical neuroanatomical models from 305 MRI volumes. –IEEE Conference Record, Nuclear Science Symposium and MedicalImaging Conference, pp. 1813–1817, 1993.

[Evans 96] A.C. Evans, D.L. Collins, C.J. Holmes. – Brain Mapping : The Me-thods : Computational Approaches to Quantifying Human Neuroana-tomical Variability, pp. 343–361. – San Diego, Academic Press, 1996,A.W. Toga, C. John and J.C. Mazziotta édition.

[Foehrenbach 99] H. Foehrenbach, O. de Dreuille, J.F. Mangin, Levêque C., F. Delaye,J.M. Lathuillière, V. Frouin, Y.S. Cordoliani, J.F. Gaillard. – Miseau point d’une plate-forme de recalage multimodalité automatiqued’images cérébrales pour une utilisation en imagerie clinique. Méde-cine Nucléaire, 23(4):221–232, 1999.

[Friston 95a] K.J. Friston, J. Ashburner, J.B. Poline, C.D. Frith, J.D. Heather,R.S.J. Frackowiak. – Spatial registration and normalization ofimages. Human Brain Mapping, 2:165–189, 1995.

[Friston 95b] K.J. Friston, A.P. Holmes, K.J. Worsley, J.P. Poline, C.D. Frith,R.S.J. Frackowiak. – Statistical parametric maps in functional ima-ging : A general linear approach. Human Brain Mapping, 2:189–210,1995.

[Gee 93] J. Gee, M. Reivicj, R. Bajcsy. – Elastically deforming 3d atlas tomatch anatomical brain images. Journal of Computed Assisted To-mography, 17(2):225–236, 1993.

[Grova 00] C. Grova, P. Jannin, E. Le Rumeur, X. Morandi, B. Gibaud.– Comparaison qualitative de données anatomo-fonctionnelles(MEG/IRMf) pour la réalisation d’une cartographie anatomo-fonctionnelle. – 10ième Forum du jeune chercheur en Génie Bio-logique et Médical, Tours, 2000.

[Grova 01] C. Grova, A. Biraben, J.M. Scarabin, P. Jannin, I. Buvat, H. Benali,B. Gibaud. – A methodology to validate MRI/SPECT registrationmethods using realistic simulated SPECT data. – MICCAI 2001,Utrecht (The Netherlands), Lecture Notes in Computer Science, vol.2208, pp. 275–282. Springer, 2001.

Bibliographie 289

[Grova 02] C. Grova, P. Jannin, A. Biraben, I. Buvat, H. Benali, A.M. Bernard,J.M. Scarabin, B. Gibaud. – Validation of MRI/SPECT similarity-based registration methods using realistic simulations of normal andpathological SPECT data. – Computer Assisted Radiology and Sur-gery 2002, Paris, pp. 450–455, Berlin, Heidelberg, 2002. Springer-Verlag.

[Guillon 98] B. Guillon, R. Duncan, A. Biraben, A.M. Bernard, J.P. Vignal,P. Chauvel. – Correlation between interictal regional cerebral bloodflow and depth-electrode interictal spiking in temporal lobe epilepsy.Epilepsia, 39(1):67–76, 1998.

[Guimond 01] A. Guimond, A. Roche, N. Ayache, J. Meunier. – Three-dimensionalmultimodal brain warping using the demons algorithm and adapta-tive intensity corrections. IEEE Transactions on Medical Imaging,20(1):58–69, 2001.

[Gustafsson 00] A. Gustafsson, A. Arlig, L. Jacobsson, M. Ljungberg, C. Wikkelsö.– Dual-window scatter correction and energy window setting in ce-rebral blood flow SPECT: A monte carlo study. Physics in Medicineand Biology, 45:3431–3440, 2000.

[Harris 93] G.J. Harris, G.D. Pearlson. – MRI-guided region of interest place-ment on emission computed tomograms. Psychiatry Res., 50(1):57–63, 1993.

[Harrison 93] R.L. Harrison, S.D. Vannoy, D.R. Haynor, S.B. Gillispie, M.S. Ka-plan, T.K. Lewellen. – Preliminary experience with the photon his-tory generator module of a public-domain simulation system for emis-sion tomography. – Conf. Rec. Nucl. Sci. Symp., vol. 2, pp. 1154–1158, 1993.

[Hartley 28] R.V.L. Hartley. – Transmission of information. Bell System TechnicalJournal, 7:535–563, 1928.

[Hawkes 98] D.J. Hawkes. – Algorithms for radiological image registration andtheir clinical application. Journal of Anatomy, 193:347–361, 1998.

[Hellier 01a] P. Hellier, C. Barillot, I. Corouge, B. Gibaud, G. Le Goualher, L. Col-lins, A. Evans, G. Malandain, N. Ayache. – Retrospective evalua-tion of inter-subject brain registration. – Lecture Notes in ComputerScience (MICCAI 2001, Utrecht), vol. 2208, pp. 258–265, Berlin, Hei-delberg, 2001. Springer-Verlag.

[Hellier 01b] P. Hellier, C. Barillot, E. Mémin, P. Pérez. – Hierarchical estima-tion of a dense deformation field for 3D robust registration. IEEEtransactions on Medical Imaging, 20(5):388–402, 2001.

[Hellier 02] P. Hellier, J. Ashburner, I. Corouge, C. Barillot, K.J. Friston. – Inter-subject registration of functional and anatomical data using SPM. –Lecture Notes in Computer Science (MICCAI 2002, Tokyo), pp. 590–597, Berlin, Heidelberg, 2002. Springer-Verlag.

[Herholz 02] K. Herholz, H. Schopphoff, M. Schmidt, R. Mielke, W. Eschner,K. Scheidhauer, H. Schicha, W-D. Heiss, K. Ebmeier. – Direct com-

290 Bibliographie

parison of spatially normalized PET and SPECT scans in alzheimer’sdisease. Journal of Nuclear Medicine, 43(1):21–26, 2002.

[Hill 92] D.L.G. Hill, C. Studholme, D.J. Hawkes. – Voxel similarity measuresfor automated image registration. – Proceedings of SPIE : Visualisa-tion in Biomedical Computing, pp. 205–216, 1992.

[Hill 01] D.L.G. Hill, P.G. Batchelor, M. Holden, D.J. Hawkes. – Medicalimage registration. Physics in Medicine and Biology, 46:R1–R45,2001.

[Ho 96] S.S. Ho, S.F. Berkovic, W.J. McKay, R.M. Kalnins, P.F. Bladin. –Temporal lobe epilepsy subtypes: Differential patterns of cerebralperfusion on ictal SPECT. Epilepsia, 37(8):788–795, 1996.

[Ho 97] S.S. Ho, M.R. Newton, A.M. McIntosh, R.M. Kalnins, G.C.A. Fabi-nyi, G.A. Brazenor, W.J. McKay, P.F. Bladin, S.F. Berkovic. – Perfu-sion patterns during temporal lobe seizures: Relationship to surgicaloutcome. Brain, 120:1921–1928, 1997.

[Hoffman 90] E.J. Hoffman, P.D. Cutler, W.M. Digby, J.C. Mazziotta. – 3-d phan-tom to simulate cerebral blood flow and metabolic images for PET.IEEE Trans. on Nuclear Science, 37(2):616–620, 1990.

[Hoffman 91] E.J. Hoffman, P.D. Cutler, T.M. Guerrero, W.M. Digby, J.C. Maz-ziotta. – Assessment of accuracy of PET utilizing a 3d phantomto simulate the activity distribution of 18f-FDG uptake in the hu-man brain. Journal of Cerebral Blood Flow and Metabolism, 11(Suppl.1):A17–125, 1991.

[Holden 00] M. Holden, D.L.G. Hill, E.R.E. Denton, J.M. Jarosz, T.C.S. Cox,T. Rohlfing, J. Goodey, D.J. Hawkes. – Voxel similarity measuresfor 3-d serial MR brain image registration. IEEE Transactions onMedical Imaging, 19(2):94–102, 2000.

[Houston 94] A.S. Houston, P.M. Kemp, M.A. Macleod. – A method for assessingthe significance of abnormalities in HMPAO brain SPECT images.Journal of Nuclear Medicine, 35(2):239–244, 1994.

[Iida 98] H. Iida, Y. Narita, H. Kado, A. Kashikura, S. Sugawara, Y. Shoji,T. Kinoshita, T. Ogawa, S. Eberl. – Effect of scatter and attenuationcorrection on quantitative assessment of regional cerebral blood flowwith SPECT. Journal of Nuclear Medicine, 39(1):181–189, 1998.

[Imran 99] M.B. Imran, R. Kawashima, S. Awata, K. Sato, S. Kinomura, S. Ono,S. Yoshioka, M. Sato, H. Fukuda. – Parametric mapping of cere-bral blood flow deficits in alzheimer’s disease: A SPECT study usingHMPAO and image standardization technique. Journal of NuclearMedicine, 40(2):244–249, 1999.

[Ishii 01] K. Ishii, F. Willoch, S. Minoshima, A. Drzezga, E.P. Ficaro, D.J.Cross, D.E. Kuhl, M. Schwaiger. – Statistical brain mapping of 18f-FDG PET in alzheimer’s disease: Validation of anatomic standardi-zation for atrophied brains. Journal of Nuclear Medicine, 42(4):548–557, 2001.

Bibliographie 291

[Ito 96] H. Ito, R. Kawashima, S. Awata, S. Ono, K. Sato, R. Goto,M. Koyama, M. Sato, H. Fukuda. – Hypoperfusion in the limbicsystem and prefrontal cortex in depression: SPECT with anatomicstandardization technique. Journal of Nuclear Medicine, 37(3):410–414, 1996.

[Jack 94] C.R.Jr. Jack. – MRI-based hippocampal volume measurements inepilepsy. Epilepsia, 35(Suppl. 6):S21–S29, 1994.

[Jackson 38] J.H. Jackson. – Selected Writings. – Hodder et Stoughton, Londres,1938.

[Jackson 94] G.D.H. Jackson. – New techniques in magnetic resonance and epi-lepsy. Epilepsia, 35(Suppl. 6):S2–S13, 1994.

[Jannin 94] P. Jannin, J.M. Scarabin, Y. Rolland, D. Schwartz. – A real 3dapproach for the simulation of neuro-surgical stereotactic act. – SPIEMedical Imaging VIII : Image Capture, Formatting, and Display, pp.155–166, 1994.

[Jannin 00] P. Jannin, O.J. Fleig, E. Seigneuret, C. Grova, X. Morandi, J.M.Scarabin. – A data fusion environment for multimodal and multi-informational neuro-navigation. Journal of Computer Aided Surgery,5(1):1–10, 2000.

[Jannin 01a] P. Jannin, C. Grova, B. Gibaud. – Applications of NDT Data Fusion :Medical Applications of NDT Data Fusion, pp. 227–267. – Dordrecht/ Boston / London, Kluwer Academic Publishers, 2001, X.E. Grosédition.

[Jannin 01b] P. Jannin, C. Grova, B. Gibaud. – Fusion de données en image-rie médicale : une revue méthodologique basée sur le contexte cli-nique. ITBM-RBM Innovation et Technologie en Biologie et Méde-cine, 22(4):196–215, 2001.

[Jannin 02] P. Jannin, J.M. Fitzpatrick, D. Hawkes, X. Pennec, R. Shahidi,M. Vannier. – White paper: Validation of medical image processingin the context of image-guided therapy. – Computer Assisted Radio-logy and Surgery 2002, and IEEE Transactions on Medical Imaging(in Press), 2002.

[Jaszczak 85] R.J. Jaszczak, C.E. Floyd, R.E. Coleman. – Scatter compensationstechniques for SPECT. IEEE Trans. on Nuclear Science, 32:786–793,1985.

[Kang 01] K.W. Kang, D.S. Lee, J.H. Cho, J.S. Lee, J.S. Yeo, J-K. Lee,S.K. Chung, M.C. Lee. – Quantification of F-18 FDG PET images intemporal lobe epilepsy patients using probabilistic brain atlas. Neu-roImage, 14:1–6, 2001.

[Keller 02] SS. Keller, C.E. Mackay, T.R. Barrick, U.C. Wieshmann, M.A. Ho-ward. – Voxel-based morphometriccomparison of hippocampal andextrahippocampal abnormalities in patients with left and right hip-pocampal atrophy. NeuroImage, 16(1):23–31, 2002.

[Kim 91] H-J. Kim, B.R. Zeeberg, F.H. Fahey, A.N. Bice, E.J. Hoffman, R.C.Reba. – Three-dimensional SPECT simulations of a complex three-

292 Bibliographie

dimensional mathematical brain model and measurements of thethree-dimensional physical brain phantom. Journal of Nuclear Medi-cine, 32(10):1923–1930, 1991.

[Kim 96] H-J. Kim, J.S. Karp, P.D. Mozley, S-O. Yang, D.H. Moon, H.F. Kung,H.K. Lee, A. Alavi. – Simulating technetium-99m cerebral perfusionstudies with a three-dimensional hoffman brain phantom: Collima-tor ans filter selection in SPECT neuroimaging. Annals of NuclearMedicine, 10(1):153–160, 1996.

[Koulibaly 98] P.M. Koulibaly, I. Buvat, M. Pélégrini, G. El Fakhri. – Correctionde la perte de résolution avec la profondeur. Revue de l’ACOMEN,4(2):114–120, 1998.

[Koyama 97] M. Koyama, R. Kawashima, H. Ito, S. Ono, K. Sato, R. Goto, S. Kino-mura, S. Yoshioka, T. Sato, H. Fukuda. – SPECT imaging of normalsubjects with technetium-99m-HMPAO and technetium-99m-ECD.Journal of Nuclear Medicine, 38(4):587–592, 1997.

[Kwan 96] R.K-S. Kwan, A.C. Evans, G.B. Pike. – An extensible MRI simulatorfor post-processing evaluation. – Proc. 4th Int. Conf. Visualizationin Biomedical Computing, VBC’96, pp. 135–140, Hamburg, 1996.

[Lahorte 00] P. Lahorte, S. Vandenberghe, K. Van Laere, K. Audenauert, I. Le-mahieu, R.A. Dierckx. – Assessing the performance of SPM analysesof SPECT neuroactivation studies. NeuroImage, 12:757–764, 2000.

[Lebart 79] L. Lebart, A. Morineau, J-P. Fénelon. – Traitement Des DonnéesStatistiques : Méthodes et Programmes. – Dunod, Paris, 1979.

[Lebart 95] L. Lebart, A. Morineau, M. Piron. – Statistique Exploratoire Multi-dimensionnelle. – Dunod, Paris, 1995.

[Lee 00a] J.D. Lee, H-J. Kim, B.I. Lee, O.J. Kim, T.J. Jeon, M.J. Kim. –Evaluation of ictal brain SPET using statistical parametric mappingin temporal lobe epilepsy. European Journal of Nuclear Medicine,27(11):1658–1665, 2000.

[Lee 00b] J.S. Lee, D.S. Lee, S-K. Kim, S-K. Lee, J-K. Chung, M.C. Lee, K.S.Park. – Localization of epileptogenic zones in f-18 FDG brain PETof patient with temporal lobe epilepsy using artificial neural network.IEEE Transactions on Medical Imaging, 19(4):347–355, 2000.

[LeGoualher 99] G. Le Goualher, E. Procyk, D. L. Collins, R. Venugopal, C. Barillot,A. C. Evans. – Automated extraction and variability analysis of sulcalneuroanatomy. IEEE Transactions on Medical Imaging, 18(3):206–217, 1999.

[Leventon 98] M.E. Leventon, W.E.L. Grimson. – Multi-modal volume registra-tion using joint intensity distributions. – Lecture Notes In Compu-ter Science - MICCAI’98, vol. 1496, pp. 1057–1066. Springer Verlag,1998.

[Liow 00] J-S. Liow, K. Rehm, S.C. Strother, J.R. Anderson, N. Morch, L .K.Hansen, K.A. Schaper, D.A. Rottenberg. – Comparison of voxel- andvolume-of-interest-based analyses in FDG PET scans of HIV positive

Bibliographie 293

and healthy individuals. Journal of Nuclear Medicine, 41(4):612–621,2000.

[Lobaugh 00] N.J. Lobaugh, C.B. Caldwell, S.E. Black, F.S. Leibovitch, S.H.Swartz. – Three brain SPECT region-of-interest templates in elderlypeople: Normative values, hemispheric asymmetries, and a compari-son of single- and multihead cameras. Journal of Nuclear Medicine,41(1):45–56, 2000.

[Ma 93] Y. Ma, M. Kamber, A.C. Evans. – 3d simulation of PET brain imagesusing segmented MRI data and positron tomograph characteristics.Computerized Medical Imaging and Graphics, 17(4/5):365–371, 1993.

[Madsen 92] M.T. Madsen, W. Chang, R.D. Hichwa. – Spatial resolution andcount density requirements in brain SPECT imaging. Physics in Me-dicine and Biology, 37(8):1625–1636, 1992.

[Maes 97] F. Maes, A. Collignon, D. Vandermeulen, G. Marchal, P. Suetens.– Multimodality image registration by maximization of mutual in-formation. IEEE Transactions on Medical Imaging, 16(2):187–198,1997.

[Maes 98] F. Maes. – Segmentation and Registration of Multimodal MedicalImages : From Theory, Implementation and Validation to a UsefulTool in Clinical Practice. – PhD. Thesis, Catholic University of Leu-ven, Belgium, 1998.

[Maes 99] F. Maes, D. Vendermeulen, P. Suetens. – Comparative evaluationof multiresolution optimization strategies for multimodality imageregistration by maximisation of mutual information. Medical ImageAnalysis, 3(4):373–386, 1999.

[Maintz 98] J.A. Maintz, M.A. Viergever. – A review of medical image registra-tion. Medical Image Analysis, 2(1):1–36, 1998.

[Mangin 95] J.F. Mangin. – From 3D magnetic resonance imaging to structuralrepresentation of the cortex topography using topology preservingdeformations. Journal of Mathematics in Imaging and Vision, 5:297–318, 1995.

[MarianoGoulart 98] D. Mariano-Goulart, M. Fourcade. – Le bruit en tomographie d’émis-sion à simple photon. Revue de l’ACOMEN, 4(2):108–113, 1998.

[Mattout 02] J. Mattout. – Approches Statistiques Multivariées Pour la Localisa-tion de L’activation Cérébrale En Magnétoenencéphalographie et EnImagerie Par Résonance Magnétique Fonctionnelle. Vers Une FusionD’informations Multimodales. – PhD. Thesis, Université de Paris VI,2002.

[Mauguière 96] F. Mauguière, P. Ryvlin. – Neuro-imagerie morphologique et fonc-tionnelle des épilepsies partielles chirurgicales de l’adulte. Revue Neu-rologique, 152(8–9):501–516, 1996.

[Maurer 93] C.R. Maurer, J.M. Fitzpatrick. – A Review of Medical Image Regis-tration, chap. 3, pp. 17–44. – American Association of NeurologicalSurgeons, 1993.

294 Bibliographie

[Maurer 98] C.R. Jr. Maurer, D.L.G. Hill, A.J. Martin, H. Liu, M. McCue, D. Rue-ckert, D. Lloret, W.A. Hall, R.E. Maxwell, D.J. Hawkes, C.L. Truwit.– Investigation of intraoperative brain deformation using a 1.5T in-terventional MR system: Preliminary results. IEEE Transactions onMedical Imaging, 17:817–825, 1998.

[Mazziotta 95] J.C. Mazziotta, A.W. Toga, A.C. Evans, P. Fox, J.L. Lancaster. –A probalistic atlas of human brain: Theory and rationales for itsdeveloppment. Neuroimage, pp. 89–101, 1995.

[Metz 86] C.E. Metz. – ROC methodology in radiologic imaging. InvestigateRadiology, 21(9):720–732, 1986.

[Migneco 94] O. Migneco, J. Darcourt, J. Benoliel, F. Martin, Ph. Robert,F. Bussière-Lapalus, I. Mena. – Computerized localization of brainstructures in single photon emission computed tomographyusing aproportional anatomical stereotactic atlas. Computerized MedicalImaging and Graphics, 18(6):413–422, 1994.

[Migneco 00] O. Migneco, G. Malandain, A. Roche, I. Dygai, F. Bussière,N. Ayache, J. Darcourt. – Absolute calibration of HMPAO SPECTusing xenon-133. – European Journal of Nuclear Medecine, vol. 27,2000. – abstract.

[Miller 93] M. I. Miller, G. E. Christensen, Y. A. Amit, U. Grenander. – Mathe-matical textbook of deformable neuroanatomies. Medical Sciences,90:11944–11948, 1993.

[Minoshima 94a] S. Minoshima, R.A. Koeppe, K.A. Frey, M. Ishihara, D.E. Kuhl. –Stereotactic PET atlas of the human brain: Aid for visual inter-pretation of functional brain images. Journal of Nuclear Medicine,35(6):949–954, 1994.

[Minoshima 94b] S. Minoshima, R.A. Koeppe, K.A. Frey, D.E. Kuhl. – Anatomicstandardization: Linear scaling and nonlinear warping of functionalbrain images. Journal of Nuclear Medicine, 35(9):1528–1537, 1994.

[Murphy 01] M. Murphy, T.J. O’Brien, K. Morris, M.J. Cook. – Multimoda-lity image-guided epilepsy surgery. Journal of Clinical Neuroscience,8(6):534–538, 2001.

[Muzik 00] O. Muzik, D.C. Chugani, C. Juhase, C. Shen, H.T. Chugani. – Sta-tistical parametric mapping: Assessment of application in children.NeuroImage, 12:538–549, 2000.

[Nikou 98] C. Nikou, F. Heitz, J. P. Armspach, I. J. Namer, D. Grucker. – Regis-tration of MR/MR and MR/SPECT brain images by fast stochasticoptimization of robust voxel similarity measures. Neuroimage, 8:30–43, 1998.

[Nikou 99a] C. Nikou. – Contribution Au Recalage D’images Médicales Multimo-dales : Approches Par Fonctions de Similarité Robustes et ModèlesDéformables Sous Contraintes Statistiques. – PhD. Thesis, Univer-sité Louis Pasteur Strasbourg 1, 1999.

[Nikou 99b] C. Nikou, F. Heitz, J.P. Armspach. – Robust voxel similarity me-

Bibliographie 295

trics for the registration of dissimilar single and multimodal images.Pattern Recognition, pp. 1351–1368, 1999.

[Nunez 81] P.L. Nunez. – Electric Field of the Brain. – Oxford University Press,New York, 1981.

[O’Brien 98] T. J. O’Brien, M. K. O’Connor, B. P. Mullan, B. H. Brinkmann,D. Hanson, C. R. Jack, E. L. So. – Subtraction ictal SPET co-registered to MRI in partial epilepsy: Description and technical va-lidation of the method with phantom and patient studies. NuclearMedecine Communications, 19:31–45, 1998.

[Olivier 94] A. Olivier, I. M. Germano, A. Cukiert, T. Peters. – Frameless ste-reotaxy for surgery of the epilepsies: Preliminary experience. Journalof Neurosurgery, 81:629–633, 1994.

[Patterson 97] J. Patterson, D.J. Wyper. – SPECT Imaging of the Brain : Basics ofSPECT, chap. 1, pp. 1–42. – Dordrecht / Boston / London, KluwerAcademic Publishers, 1997, R. Duncan édition.

[Pelizzari 89] C. A. Pelizzari, G. T. Y. Chan, D. R. Spelbring, E. E. Weichsel-baum, C. T. Chen. – Accurate three-dimensional registration of CT,PET and/or MR images of the brain. Journal of Computed AssistedTomography, 13:20–26, 1989.

[Penfield 39] W. Penfield, K. Von Santha, A. Cipriani. – Cerebral blood flowduring induced epileptiform seizures in animal and man. Journal ofNeurophysiology, 2:257–267, 1939.

[Penfield 54] W. Penfield, H. Jaspers. – Epilepsy and the Functional Anatomy ofthe Human Brain. – Little Brown and Co., Boston, 1954.

[Pérault 02] C. Pérault, H. Papathanassiou, D. Ans Wampach, P. Véra, A. Ka-minska, C. Chiron, P. Peruzzi, J-C. Liehn. – Computer-aided Intra-Patient comparison of brain SPECT images: The gray-level norma-lization issue applied to children with epilepsy. Journal of NuclearMedicine, 43(6):715–724, 2002.

[Pfluger 00] T. Pfluger, C. Vollmar, A. Wismüller, S. Dresel, F. Berger, P. Stun-theim, G. Leisinger, K. Hahn. – Quantitative comparison of auto-matic and interactive methods for MRI-SPECT image registrationof the brain based on 3-dimensional calculation of error. Journal ofNuclear Medecine, 41(11):1823–1829, 2000.

[Pluim 00a] J. P. W. Pluim, J. B. A. Maintz, M. A. Viergever. – Interpolationartefacts in mutual information-based image registration. ComputerVision and Image Understanding: CVIU, 77(2):211–232, 2000.

[Pluim 00b] J.P.W. Pluim. – Mutual Information Based Registration of MedicalImages. – PhD. Thesis, Utrecht University, Netherlands, 2000.

[Pluim 00c] J.P.W. Pluim, J.B.A. Maintz, M.A. Viergever. – Image registrationby maximization of combined mutual information and gradient in-formation. IEEE Transactions on Medical Imaging, 19(8):809–814,2000.

[Pluim 01a] J.P.W. Pluim, J.B.A. Maintz, M.A. Viergever. – F-information mea-sures in medical image registration. – Proceedings SPIE : Medical

296 Bibliographie

Imaging : Image Processing, vol. 4322, pp. 579–587, Bellingham, WA,2001. SPIE Press.

[Pluim 01b] J.P.W. Pluim, J.B.A. Maintz, M.A. Viergever. – Mutual informationmatching in multiresolution contexts. Image and Vision Computing,19(1–2):45–52, 2001.

[Poline 97] J.B. Poline, A. Holmes, K. Worsley, Friston K.J. – Human BrainFunction : Making Statistical Inferences, chap. 5, pp. 85–106. – San-Diego, London, Boston, New York, Sydney, Tokyo, Toronto, Acade-mic Press, 1997, R.S.J. Frackowiak, K.J. Friston, C.D. Frith, R.J.Dolan and J.C. Mazziotta édition.

[Press 92] W. H. Press, S. A. Teukolsky, W. T. Vetterling, B. P. Flannery. –Numerical Recipes in C, 2nd. edition. – Cambridge University Press,1992.

[Radau 01] P.E. Radau, P.J. Slomka, L. Julin, P.and Svensson, L-O. Wahlund.– Evaluation of linear registration algorithms for brain SPECT andthe errors due to hypoperfusion lesions. Medical Physics, 28(8):1660–1668, 2001.

[Rajeevan 98] N. Rajeevan, I.G. Zubal, S.Q. Ramsby, S.S. Zoghbi, J. Seibyl,R.B. Innis. – Significance of nonuniform attenuation correction inquantitative brain SPECT imaging. Journal of Nuclear Medicine,39(10):1719–1726, 1998.

[Richardson 01] M.P. Richardson. – Functional imaging in epilepsy. Seizure, 10:139–156, 2001.

[Ring 99] H.A. Ring, P.D. Acton, D. Scull, D.C. Costa, S. Gacinovik, M.R.Gacinovik. – Patterns of brain activity in patients with epilepsy anddepression. Seizure, 8:390–397, 1999.

[Roche 98a] A. Roche, G. Malandain, N. Ayache, X. Pennec. – Multimodal ImageRegistration by Maximization of the Correlation Ratio. – TechnicalReport n‌ RR-3378, Inria, Institut National de Recherche en Informa-tique et en Automatique, 1998.

[Roche 98b] A. Roche, G. Malandain, X. Pennec, N. Ayache. – The correlationratio as a new similarity measure for multimodal image registration.– Lecture Notes in Computer Science (MICCAI’98), vol. 1496, pp.1115–1124. Springer-Verlag, 1998.

[Roche 01a] A. Roche. – Recalage D’images Médicales Par Inférence Statistique.– PhD. Thesis, Université de Nice - Sophia Antipolis, 2001.

[Roche 01b] A. Roche, X. Pennec, G. Malandain, N. Ayache. – Rigid registra-tion of 3-d ultrasound with MR images : A new approach combiningintensity and gradient information. IEEE Transactions on MedicalImages, 20(10):1038–1049, 2001.

[Roland 94] P.E. Roland, C.J. Graufelds, J. Wahlin, L. Ingelman, M. Adersson,A. Ledberg, J. Pedersen, S. Akerman, A. Dabringhaus, K. Zilles. –Human brain atlas: For high-resolution functional and anatomicalmapping. Human Brain Mapping, 1:173–184, 1994.

Bibliographie 297

[Ryvlin 98] P. Ryvlin, S. Bouvard, D. Le Bars, G. De Lamerie, M.C. Gré-goire, P. Kahane, J.C. Froment, Mauguière F. – Clinical utility offlumazenil-PET versus [18f]fluorodeoxyglucose-PET and MRI in re-factory partial epilepsy. a prospective study in 100 patients. Brain,121(11):2067–2081, 1998.

[Ryvlin 02] P. Ryvlin, P. Kahane, A. Arzimanoglou, F. Anderman (Editeurs). –Epileptic Disorders : Temporal Pole and Mesiotemporal Epilepsy. –John Libbey Eurotext, vol. 4 (Suppl. 1), 2002.

[SaintHilaire 90] J.-M. Saint-Hilaire. – La chirurgie de l’épilepsie. La Revue du Prac-ticien, 40(supp. 2):26–32, 1990.

[Sanders 96] J.A. Sanders, J.D. Lewine, W.W. Orrison Jr. – Comparison of pri-mary motor cortex localization using functional magnetic imagingand magnetoencephalography. Human Brain Mapping, 4:47–57, 1996.

[Sandor 97] S. Sandor, R. Leahy. – Surface-based labeling of cortical anatomyusing a deformable atlas. IEEE Transactions on Medical Imaging,16(1):41–54, 1997.

[Saporta 90] G. Saporta. – Probabilités, Analyse de Données et Statistiques. –Editions Technip, Paris, 1990.

[Sarrut 99] D. Sarrut, S. Miguet. – Similarity measures for image registration.– European Workshop Pn Content-Based Multimedia Indexing, Tou-louse, pp. 263–270, 1999.

[Sarrut 00] D. Sarrut. – Recalage Multimodal et Plate-Forme d’Imagerie Médicaleà Accès Distant. – PhD. Thesis, Université Lumière Lyon 2, 2000.

[Savic 88] I. Savic, P. Roland, G. Sedvall, A; Persson, S. Pauli, L. Widen. –In vivo demonstration of reduced benzodiazepine receptor binding inhuman epileptic foci. Lancet, 8616:863–866, 1988.

[Scarabin 99] J.M. Scarabin, S. Croci, P. Jannin, R. Romeas, E. Maurincomme,M. Behague, M. Carsin. – A new concept of stereotactic room withmultimodal imaging. – Proceedings of Computer Assisted Radiologyand Surgery (CARS’99 Paris), pp. 841–845. Elsevier, 1999.

[Scarabin 02] J.M. Scarabin, B. Broche, C. Grova, C. Argaud, M. Schaeffer, P. Jan-nin. – Perfusion weighted MRI: A new tool for epilepsy surgery. –Computer Assisted Radiology and Surgery 2002, Paris, pp. 361–365,Berlin, Heidelberg, 2002. Springer-Verlag.

[Schattuck 01] D.W. Schattuck, S.R. Sandor-Leahy, K.A. Schaper, D.A. Rottenberg,R.M. Leahy. – Magnetic resonance tissue image classification usingpartial volume model. NeuroImage, 13:856–876, 2001.

[Schwartz 96] D. Schwartz, E. Poiseau, D. Lemoine, C. Barillot. – Registration ofMEG/EEG data with MRI : Methodology and precision issues. BrainTopography, 9(2):101–116, 1996.

[Schwartz 98] D. Schwartz. – Localisation Des Générateurs Intra-Cérébraux deL’activité MEG et EEG : Évaluation de la Précision Spatiale et Tem-porelle. – PhD. Thesis, Université de Rennes I, 1998.

[Schwartz 99] D. Schwartz, J. M. Badier, P. Bihouee, A. Bouliou. – Evaluation of

298 Bibliographie

a new MEG-EEG spatio-temporal approach using realistic sources.Brain Topography, 11(4):279–289, 1999.

[Seitz 90] R.J. Seitz, C. Bohm, T. Greitz, P.E. Roland, L. Eriksson, G. Blom-qvist, G. Rosenqvist, B. Nordell. – Accuracy and precision of thecomputerized brain atlas programme for localization and quantifica-tion in positron emission tomography. Journal of Cerebral Blood Flowand Metabolism, 10(4):443–457, 1990.

[Shannon 48] C.E. Shannon. – A mathematical theory of communication. BellSystem Technical Journal, 27:379–423/623–656, 1948.

[Signorini 99] M. Signorini, E. Paulesu, K. Friston, D. Perani, A. Colleluori, G. Lu-cignani, F. Grassi, V. Bettinardi, R.S.J. Frackowiak, F. Fazio. – Ra-pid assessment of regional cerebral metabolic abnormalities in singlesubjects with quantitative and non-quantitative 18f-FDG PET: A cli-nical validation of statistical parametric mapping. NeuroImage, 9:63–80, 1999.

[Stamatakis 99] E.A. Stamatakis, M.F. Glabus, D.J. Wyper, A. Barnes, J.T.L. Wil-son. – Validation of statistical parametric mapping (SPM) in asses-sing cerebral lesions: A simulation study. NeuroImage, 10:397–407,1999.

[Stamatakis 01] E.A. Stamatakis, J.T.L. Wilson, D.J. Wyper. – Spatial normali-zation of lesioned HMPAO-SPECT images. NeuroImage, 14(4):844–852, 2001.

[Stefan 92] H. Stefan, S. Schneider, H. Feistel, G. Pawlik, P. Schüler,T. Abraham-Fuchs, K.and Schelgel, U. Neubauer, W.J. Huk. – Ictaland interictal activity in partial epilepsy recorded with multichan-nel magnetoelectroencephalography : Correlation of Electroencepha-lography/Electrocorticography, magnetic resonance imaging, singlephonton emission computed tomography, and positron emission to-mography findings. Epilepsia, 33(5):874–887, 1992.

[Steinling 99] M. Steinling. – TEMP : Quels traceurs de perfusion? Neurologies,2(13–14):6–8, 1999.

[Stoeckel 01] J. Stoeckel, G. Malandain, O. Migneco, P.M. Koulibaly, P. Robert,N. Ayache, J. Darcourt. – Classification of SPECT images of normalsubjects versus image of alzheimer’s disease patients. – Lecture Notesin Computer Science (MICCAI 2001, Utrecht), Berlin, Heidelberg,2001. Springer-Verlag.

[Stokking 97] R. Stokking, K.J. Zuiderveld, H.E. Hulshoff Pol, P.P. Van Rijk, M.A.Viergever. – Normal fusion for three-dimensional integrated visuali-zation of SPECT and magnetic resonance brain images. Journal ofNuclear Medicine, 38(4):624–629, 1997.

[Strother 94] S.C. Strother, J.R. Anderson, X.L. Xu, J.S. Liow, D.C. Bonar, Rot-tenberg D.A. – Quantitative comparisons of image registration tech-niques based on high-resolution MRI of the brain. Journal of ComperAssisted Tomography, 18(6):954–962, 1994.

Bibliographie 299

[Studholme 95] C. Studholme, D.L.G. Hill, D.J. Hawkes. – Multiresolution voxel si-milarity measures for MRI-PET registration. – Information Proces-sing in Medical Imaging, Dordrecht / Boston / London, 1995. KluwerAcademic Publisher.

[Studholme 99] C. Studholme, D.L.G. Hill, D.J. Hawkes. – An overlap invariantentropy measure of 3d medical image alignment. Pattern Recognition,32:71–86, 1999.

[Subsol 94] G. Subsol, J. P. Thirion, N. Ayache. – First steps towards automaticbuilding of anatomical atlases. – SPIE Medical Imaging, vol. 2359,pp. 435–446, 1994.

[Sugiura 99] M. Sugiura, R. Kawashima, N. Sadato, M. Senda, I. Kanno, K. Oda,K. Sato, Y. Yonekura, H. Fukuda. – Anatomical validation of spa-tial normalization methods for PET. Journal of Nuclear Medicine,40(2):317–322, 1999.

[Szeliski 96] R. Szeliski, S. Lavallée. – Matching 3-d anatomical surfaces withnon-rigid deformations using octree splines. International Journal ofComputer Vision, 18(2):176–186, 1996.

[Talairach 66] J. Talairach, J. Bancaud. – Lesion, irritative zone and epileptogenicfocus. Confinia Neuroligica, 27:91–94, 1966.

[Talairach 88] J. Talairach, P. Tournoux. – Co-Planar Stereotactic Atlas of theHuman Brain. – Georg Thieme Verlag, 1988.

[Tanaka 00] F. Tanaka, D. Vines, T. Tsuchida, M. Freedman, M. Ichise. – Normalpatterns on 99mTc-ECD brain SPECT scans in adults. Journal ofNuclear Medicine, 41(9):1456–1464, 2000.

[Taylor 71] D.C. Taylor, M.A. Falconer, C.J. Burton, J.A.N. Corsellis. – Fo-cal dysplasia of the cerebral cortex in epilepsy. Journal of Neurol.Neurosurg. Psychiatr., 34:368–387, 1971.

[Tebo 96] S. A. Tebo, D. A. Leopold, D. M. Long, S. J. Zinreich. – An optical 3ddigitizer for framless stereotactic surgery. IEEE Computer Graphicsand Applications, pp. 55–64, 1996.

[Theodore 92] W.H. Theodore, S. Sato, C. Kufta, M.B. Alish, E.B. Bromfield, Lei-derman D.B. – Temporal lobectomy for uncontrolled seizures : Therole of positron emission tomography. Annals of Neurology, 32:789–794, 1992.

[Theodore 94] W.H. Theodore, W.D. Gaillard, S. Sato, C. Kufta, D. Leiderman. –Positron emission tomographic measurement of cerebral blood flowand temporal lobectomy. Annals of Neurology, 36:241–244, 1994.

[Thirion 98] J.P. Thirion. – Image matching as a diffusion process: An analogywith maxwell’s demons. Medical Image Analysis, 2(3):243–260, 1998.

[Thomas 94] P. Thomas, P. Genton. – Epilepsies. – Masson, Paris Milan Barcelone,1994.

[Thompson 96] P. Thompson, A. Toga. – A surface-based technique for warpingthree-dimensional images of the brain. IEEE Transactions on MedicalImaging, 15(4):402–417, 1996.

300 Bibliographie

[Thurjfell 00] L. Thurjfell, Y.H. Lau, J.L.R. Andersson, B.F. Hutton. – Improvedefficiency for MRI-SPET registration based on mutual information.European Journal of Nuclear Medicine, 27(7):847–856, 2000.

[Tsai 99] A. Tsai, J.W. Fisher III, C. Wible, W.M. Wells, J. Kim, A.S. Willsky.– Analysis of functional MRI data using mutual information. – Pro-ceedings of Lecture Notes in Computer Science (MICCAI’99, Cam-bridge). Springer, 1999.

[VanBogaert 00] P. Van Bogaert, N. Massager, P. Tugendhaft, D. Wikler, P. Damhaut,M. Levivier, J. Brotchi, S. Goldman. – Statistical parametric map-ping of regional glucose metabolism in mesial temporal lobe epilepsy.NeuroImage, 12:129–138, 2000.

[VanDenElsen 93] P.A. Van Den Elsen, E.J.D. Pol, M.A. Viergever. – Medical imagematching – a review with classification. IEEE Engineering in Mede-cine and Biology Magazine, 12(1):26–39, 1993.

[VanDenElsen 95] P.A. Van Den Elsen, J.B.A. Maintz, E-J.D. Pol, M. Viergever. –Automatic registration of CT and MR brain images using correla-tion of geometrical features. IEEE transactions on Medical Imaging,14(2):384–396, 1995.

[VanHerk 94] M. Van Herk, H.M. Kooy. – Automatic three-dimensional corrala-tion of CT-CT, CT-MRI and CT-SPECT using chamfer matching.Medical Physics, 21(7):1163–1178, 1994.

[VanLaere 00] K. Van Laere, M. Koole, T. Kauppinen, M. Monsieurs, L. Bouwens,R. Dierck. – Nonuniform transmission in brain SPECT using 201tl,152gd and 99mTc static line sources: Anthropomorphic dosimetrystudies and influence on brain quantification. Journal of Nuclear Me-dicine, 41(12):2051–2062, 2000.

[VanLaere 01a] K. Van Laere, M. Koole, J. Versijpt, S. Vandenberghe, B. Brans,Y. D’Asseler, O. De Winter, A. Kalmar, R. Dierckx. – Transfer ofnormal 99mTc-ECD brain SPET databases between different gammacameras. European Journal of Nuclear Medicine, 28(4):435–449, 2001.

[VanLaere 01b] K. Van Laere, J. Versijpt, K. Audenauert, M. Koole, I. Goethals,E. Achten, R. Dierckx. – 99mTc-ECD brain perfusion SPET: Va-riability, asymmetry and effect of age and gender in healthy adults.European Journal of Nuclear Medicine, 28(7):873–887, 2001.

[VanLaere 02] K.J. Van Laere, J. Warwick, J. Versijpt, I. Goethals, K. Audenaert,B. Van Heerden, R. Dierckx. – Analysis of clinical brain SPECT databased on anatomical standardization and reference to normal data:An ROC-based comparison of visual, semiquantitative and voxel-based methods. Journal of Nuclear Medicine, 43(4):458–469, 2002.

[Vigario 00] R. Vigario, E. Oja. – Independence : A new criterion for the analysisof the electromagnetic fields in the global brain? Neural Networks,13:891–907, 2000.

[WellsIII 96] W.M. Wells III, P. Viola, H. Atsumi, S. Nakajima, R. Kikinis. –Multi-modal volume registration by maximization of mutual infor-mation. Medical Image Analysis, 1(1):35–51, 1996.

Bibliographie 301

[West 96] J. West, J. M. Fitzpatrick, M. Y. Wang, B. M. Dawant, C. R. Mau-rer, R. M. Kessler, R. J. Maciunas, C. Barillot, D. Lemoine, A. Col-lignon, F. Maes, P. Suetens, D. Vandermeulen, P. A. Van Den Elsen,S. Napel, T. S. Sumanaweera, B. Harkness, P. F. Hemler, D. L. G.Hill, D. J. Hawkes, C. Studholme, J. B. A. Maintz, M. A. Vierge-ver, G. Malandin, X. Pennec, M. E. Noz, G. Q. Maguire, M. Pollack,C. A. Pellizzari, R. A. Robb, D. Hanson, R. Woods. – Comparisonand evaluation of retrospective intermodality brain image registra-tion techniques. – SPIE Medical Imaging : Image Processing, vol.2710, pp. 332–347. SPIE Press, 1996.

[West 97] J. West, J. M. Fitzpatrick, M. Y. Wang, B. M. Dawant, C. R. Mau-rer, R. M. Kessler, R. J. Maciunas, C. Barillot, D. Lemoine, A. Col-lignon, F. Maes, P. Suetens, D. Vandermeulen, P. A. Van Den Elsen,S. Napel, T. S. Sumanaweera, B. Harkness, P. F. Hemler, D. L. G.Hill, D. J. Hawkes, C. Studholme, J. B. A. Maintz, M. A. Viergever,G. Malandin, X. Pennec, M. E. Noz, G. Q. Maguire, M. Pollack, C. A.Pellizzari, R. A. Robb, D. Hanson, R. Woods. – Comparison and eva-luation of retrospective intermodality brain image registration tech-niques. Journal of Computer Assisted Tomography, 21(4):554–566,1997.

[Woods 92] R.P. Woods, S.R. Cherry, Mazziotta J.C. – Rapid automated algo-rithm for aligning and reslicing PET images. Journal of ComputerAssisted Tomography, 16(4):620–633, 1992.

[Woods 93] R. P. Woods, J. C. Mazziotta, S. R. Cherry. – MRI-PET registrationwith automated algorithm. Journal of Computed Assisted Tomogra-phy, 17(4):536–546, 1993.

[Woods 98] R.P. Woods, S.T. Grafton, C.J. Holmes, S.R. Cherry, J.C. Mazziotta.– Automated image registration : I. general methods and intrasub-ject, intramodality validation. Journal of Computer Assisted Tomo-graphy, 22(1):139–152, 1998.

[Worsley 95] K. J. Worsley, K. J. Friston. – Analysis of fMRI time-series revisited- again. NeuroImage, 2:173–181, 1995.

[Zaidi 99] H. Zaidi. – Relevance of accurate monte carlo modeling in nuclearmedical imaging. Medical Physics, 26(4):574–608, 1999.

[Zhu 02a] Y-M. Zhu. – Volume image registration by cross-entropy optimiza-tion. IEEE Transactions on Medical Imaging, 21(2):174–180, 2002.

[Zhu 02b] Y-M. Zhu, S.M. Cochoff. – Influence of implementation parameterson registration of MR and SPECT brain images by maximizationof mutual information. Journal of Nuclear Medicine, 43(2):160–166,2002.

[Zubal 90] G. Zubal, G. Gindi, M. Lee, H. Harrell, E. Smith. – High resolutionanthropormorphic phantom for monte carlo analysis of internal ra-diation sources. – Proceedings of the 3rd Annual IEEE Symposiumon Computer-Based Medical Systems, vol. 3-6, pp. 540–546. ChapelHill, 1990.

302 Publications

[Zubal 94] I.G. Zubal, C.R. Harrell, E.O. Smith, Z. Rattner, G.R. Gindi, P.B.Hoffer. – Computerized three-dimensional segmented human ana-tomy. Medical Physics, 21(2):299–302, 1994.

[Zubal 95] I.G. Zubal, S.S. Spencer, K. Imam, J. Seibyl, E.O. Smith, G. Wis-niewski, P.B. Hoffer. – Difference images calculated from ictal andinterictal technecium-99m-HMPAO SPECT scans of epilepsy. Jour-nal of Nuclear Medicine, 36(4):684–689, 1995.

Publications 303

Publications

Articles dans journaux à comité de lecture

– P. Jannin, O.J. Fleig, E. Seigneuret, C. Grova, X. Morandi, J.M. Scarabin. – Adata fusion environment for multimodal and multi-informational neuro-navigation.Journal of Computer Aided Surgery, 5(1):1–10, 2000.

– P. Jannin, C. Grova, B. Gibaud. – Fusion de données en imagerie médicale : une revueméthodologique basée sur le contexte clinique. ITBM-RBM Innovation et Technologieen Biologie et Médecine, 22(4):196–215, 2001.

Publications didactiques (ouvrages)

– P. Jannin, C. Grova, B. Gibaud. – Applications of NDT Data Fusion : Medical Appli-cations of NDT Data Fusion, pp. 227–267. – Dordrecht / Boston / London, KluwerAcademic Publishers, 2001, X.E. Gros édition.

Conférences internationnales

– P. Jannin, D. Schwartz, C. Grova, C. Barillot, B. Gibaud. – Fusion of multimodalfunctional neuro-imaging (MEG, fMRI, SPECT): definition of different matchingparadigms. – H.U. Lemke, M.W. Vannier, K. Inamura and A.G. Farman (édité par),Computer Assisted Radiology and Surgery 1999, Paris, pp. 238–243. Elsevier, 1999.

– P. Jannin, O.J. Fleig, E. Seigneuret, C. Grova, X. Morandi, J.M. Scarabin. – Mul-timodal and multi-informational neuro-navigation. – H.U. Lemke, M.W. Vannier,K. Inamura, A.G. Farman, K. Doi (édité par), Computer Assisted Radiology andSurgery 2000, pp. 167–172. Elsevier, 2000.

– A. Biraben, C. Grova. – Ictal SPECT in frontal seizures: correlations with SEEGrecordings. – Fourth European Congress on Epileptology, Epilepsia, 41, pp. 3–4, 2000.

– C. Grova, A. Biraben, J.M. Scarabin, P. Jannin, I. Buvat, H. Benali, B. Gibaud. –A methodology to validate MRI/SPECT registration methods using realistic simu-lated SPECT data. – W.J. Niessen and M.A. Viergever (édité par), MICCAI 2001,Utrecht (The Netherlands), Lecture Notes in Computer Science, vol. 2208, pp. 275–282. Springer, 2001 (oral).

– C. Grova, P. Jannin, A. Biraben, J.M. Scarabin, H. Benali, B. Gibaud. – Generationof realistic models of ictal SPECT using Monte-Carlo simulations. – Human BrainMapping, Neuroimage, 13 (6), p. S137, 2001 (résumé).

– C. Grova, P. Jannin, A. Biraben, I. Buvat, H. Benali, A.M. Bernard, J.M. Scarabin,B. Gibaud. – Validation of MRI/SPECT similarity-based registration methods usingrealistic simulations of normal and pathological SPECT data. – H.U. Lemke, M.W.

304 Publications

Vannier, K. Inamura, A.G. Farman, K. Doi (édité par), Computer Assisted Radio-logy and Surgery 2002, Paris, pp. 450–455, Berlin, Heidelberg, 2002. Springer-Verlag(oral).

– J.M. Scarabin, B. Broche, C. Grova, C. Argaud, M. Schaeffer, P. Jannin. – Perfusionweighted MRI: A new tool for epilepsy surgery. – H.U. Lemke, M.W. Vannier, K. In-amura, A.G. Farman, K. Doi (édité par), Computer Assisted Radiology and Surgery2002, Paris, pp. 361–365, Berlin, Heidelberg, 2002. Springer-Verlag.

– B. Aubert-Broche, C. Grova, P. Jannin, I. Buvat, H. Benali, B. Gibaud. – Detection ofinter-hemispheric asymmetries of brain perfusion in SPECT. – T.Dohi and R. Kikinis(édité par), MICCAI 2002, Tokyo (Japan), Lecture Notes in Computer Science, vol.2488, pp. 500–507. Springer, 2002.

Conférences nationales ou workshops

– C. Grova, P. Jannin, E. Le Rumeur, X. Morandi. – Fusion de données orientée versla comparaison MEG/IRMf : une approche qualitative. – Réunion Scientifique inau-gurale de la Société d’anatomie fonctionnelle cérébrale (SAFC), ENST, Paris, 1999(poster).

– C. Grova, P. Jannin, E. Le Rumeur, X. Morandi, B. Gibaud. – Comparaison qua-litative de données anatomo-fonctionnelles (MEG/IRMf) pour la réalisation d’unecartographie anatomo-fonctionnelle. – 10ième Forum du jeune chercheur en GénieBiologique et Médical, Tours, 2000 (poster + oral).

– C. Grova, P. Jannin, A. Biraben, J.M. Scarabin. – Fusion de données anatomo-fonctionnelles pour l’aide au diagnostic des épilepsies pharmaco-résistantes: problèmede la validation. – Journées Françaises de l’épilepsie, Epilepsies, 12, pp. 256–257,2000 (oral).

– C. Grova, P. Jannin, A. Biraben, J.M. Scarabin. – Fusion de données anatomo-fonctionnelles pour l’aide au diagnostic des épilepsies pharmaco-résistantes: problèmede la validation. – Réunion de la Société Française de Biophysique et de MédecineNucléaire (SFBMN), 2000 (oral).

– C. Grova, P. Jannin, A. Biraben, J.M. Scarabin, I. Buvat, H. Benali, B. Gibaud.– Méthodologie de validation de méthodes de recalage TEMP / IRM à l’aide desimulations réalistes de données TEMP. – 11ième Forum Des Jeunes Chercheurs EnGénie Biologique et Médical, Compiégne, 2001 (oral+poster).

– C. Grova, P. Jannin, J.M. Scarabin, B. Gibaud. – Multimodal data fusion: state ofthe art, issues and perspectives. Application: SPECT/MRI data fusion in epilepsy.– Neurophysiologie Clinique / Clinical Neurophysiology, 32 (2), p. 9, 2001 (oral :conférence invitée).

RésuméL’évaluation quantitative de méthodes de recalage ou de fusion TEMP/IRM est délicate

en pratique, du fait de la difficulté de disposer d’une vérité terrain à partir de donnéescliniques. Notre objectif est de générer de données de validation complètement contrôlées afind’étudier le comportement des méthodes de recalage lors de situations cliniques complexescomme le recalage TEMP ictale / IRM. En effet, de vastes zones hyperperfusées créées parla crise d’épilepsie et détectées en TEMP ictale, génèrent des dissimilarités intrinsèques entredes données TEMP ictales et l’IRM. Or, de telles dissimilarités sont à juste titre susceptiblesd’affecter une procédure de recalage basée sur l’optimisation d’un critère de similarité.

La méthode proposée consiste en la simulation de données TEMP normales ou patholo-giques à partir d’une IRM 3D haute résolution en modélisant à l’aide de techniques analy-tiques ou de Monte Carlo, les différents processus physiques de génération et d’acquisitiondes données TEMP. Le modèle anatomique nécessaire à la simulation a été obtenu à partird’une IRM étiquetée (fantôme de Zubal), alors que la carte théorique d’activité fonctionnellea été déduite d’une méthode d’analyse inter individuelle de données TEMP par standardisa-tion anatomique. Notre méthode permet de contrôler la fonction “perfusion cérébrale” par laconstruction d’un modèle théorique de perfusion cérébrale à partir de mesures réalisées surdes données TEMP réelles. Notre méthode fournit un gold standard absolu pour la géométried’acquisition et donc pour évaluer le recalage TEMP/IRM, les simulations TEMP étant parconstruction en parfaite correspondance avec l’IRM.

Cette méthode a été appliquée à la création de modèles de perfusion et à la simulation dedonnées TEMP normales et de données TEMP ictales caractéristiques d’une épilepsie à pointde départ temporo-mésial. Ces simulations TEMP réalistes ont finalement été utilisées pourcomparer et évaluer six méthodes de recalage utilisant l’optimisation d’un critère statistiquede similarité, à savoir : l’information mutuelle, l’information mutuelle normalisée, le rapportde corrélation en norme L1 ou L2, le coefficient de corrélation et le critère de Woods. Lesrésultats concernant l’évaluation des recalages TEMP/IRM et TEMP/TEMP suggèrent queles propriétés des données TEMP (e.g., effet de volume partiel, condition pathologique) ontbeaucoup plus d’impact sur la précision du recalage que le choix du critère de similarité.

Abstract

Quantitative evaluation of brain MRI/SPECT registration or fusion methods for normaland most importantly pathological data sets is difficult, due to the frequent lack of relevantground truth. The objective of our approach is to use realistic SPECT simulation techniquesto explore complex situations encountered, for example, when one attempts to register ictalSPECT data to MRI data. Vast areas of hyperperfusion in the epileptogenic zone create sta-tistical dissimilarities between the SPECT and the MRI data, which might affect registrationprocedures based on optimizing statistical similarity criteria.

The proposed method consists of generating normal or pathological SPECT data registe-red with a high-resolution 3D MRI using realistic analytical or Monte Carlo simulations thatclosely reproduce the response of a SPECT imaging system. Anatomical input data for theSPECT simulations are obtained from 3D MRI (Zubal’s phantom), while functional inputdata result from an inter-individual analysis of anatomically standardized SPECT data. Themethod makes it possible to control the “brain perfusion” function by proposing a theoreticalmodel of brain perfusion from measurements performed on real SPECT images. Our methodprovides an absolute gold standard for assessing MRI/SPECT registration method accuracysince, by construction, the SPECT data are perfectly registered with the MRI data.

This methodology has been applied to create a theoretical model of normal brain perfusionand ictal brain perfusion characteristic of mesial temporal epilepsy. These perfusion modelsallowed us to create normal and ictal SPECT realistic simulations. These realistic SPECTsimulations were then used to compare and evaluate six statistical similarity-based regis-tration methods, namely : mutual information, normalized mutual information, L1 and L2norm based correlation ratio, correlation coefficient and Woods’ criterion. Results concerningSPECT/MRI and SPECT/SPECT registration validation suggest that registration accuracyis quite much influenced by SPECT data properties (e.g., partial volume effect, pathologicalconditions) than by the choice of an appropriate statistical criterion.